JP2020005186A - Image display system and method - Google Patents

Image display system and method Download PDF

Info

Publication number
JP2020005186A
JP2020005186A JP2018124978A JP2018124978A JP2020005186A JP 2020005186 A JP2020005186 A JP 2020005186A JP 2018124978 A JP2018124978 A JP 2018124978A JP 2018124978 A JP2018124978 A JP 2018124978A JP 2020005186 A JP2020005186 A JP 2020005186A
Authority
JP
Japan
Prior art keywords
image
image display
group
images
computer system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018124978A
Other languages
Japanese (ja)
Other versions
JP7051616B2 (en
Inventor
真人 仲村柄
Masato Nakamura
真人 仲村柄
良一 植田
Ryoichi Ueda
良一 植田
健太郎 大西
Kentaro Onishi
健太郎 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2018124978A priority Critical patent/JP7051616B2/en
Priority to SG11201808735TA priority patent/SG11201808735TA/en
Priority to PCT/JP2018/031364 priority patent/WO2020003548A1/en
Priority to CN201880001267.9A priority patent/CN110915201B/en
Publication of JP2020005186A publication Critical patent/JP2020005186A/en
Application granted granted Critical
Publication of JP7051616B2 publication Critical patent/JP7051616B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

To provide a technology capable of easily selecting an appropriate image and reducing time and effort of user's work when selecting the image for a specific application from an image group photographed by a camera.SOLUTION: In a computer system 1 in this image display system, a photographed image group 201 is inputted, a list of the image group 201 is displayed on a list screen 401, and a first image selected from the image group 201 is displayed on an individual screen 402 based on operation of a user. In the computer system 1, a spatial positional relationship in a set of the first image and candidate images therearound is determined, an image adjacent to the first image is determined on the basis of determination of an overlapping state regarding a photographing range, and based on the operation of the user, the image adjacent to the first image is selected and displayed on the individual screen 402.SELECTED DRAWING: Figure 3

Description

本発明は、画像群の処理や表示の技術に関する。また、本発明は、構造物の劣化検査支援等に適用して有用な技術に関する。   The present invention relates to a technique for processing and displaying an image group. Further, the present invention relates to a technique which is useful when applied to, for example, support for structural deterioration inspection.

各種の用途において、ユーザは、カメラを用いて画像群(動画または複数の静止画)を撮影し、PC等の計算機に入力する。ユーザは、計算機で処理した画像群や、画像群から選択した個別の画像を、表示画面に表示する。ユーザは、表示画面で、画像群や個別の画像を確認し、用途に応じた作業を行う。作業は、例えば一般的な写真画像の編集作業が挙げられる。   In various applications, a user captures an image group (moving image or a plurality of still images) using a camera and inputs the captured image group to a computer such as a PC. The user displays an image group processed by the computer and individual images selected from the image group on a display screen. The user confirms a group of images and individual images on the display screen, and performs an operation according to the application. The work includes, for example, a general photographic image editing work.

上記画像群を扱う用途の一例として、構造物の表面を撮影した画像から、構造物の表面の劣化等の状態を検査や診断するためのシステムや機能(構造物劣化検査等と記載する場合がある)が挙げられる。保守点検作業を行う作業者であるユーザは、人手によって、あるいはドローンやロボット等を用いて、保守点検対象の構造物の表面をカメラで撮影する。構造物は、各種の建築物やインフラ設備等が挙げられる。ユーザは、カメラで撮影した画像群を、計算機に入力し、計算機で処理した画像群を、表示画面に表示する。ユーザは、表示画面で、画像群から検査対象の個別の画像を選択して表示画面に表示する。ユーザは、例えば目視検査の作業を行う。その場合、ユーザは、表示画面の個別の画像を見て、ひび割れや腐食や剥離等の状態(総称して劣化と記載する場合がある)の有無や箇所を目視で確認し検出する。   As an example of the use of the image group described above, a system or function for inspecting or diagnosing a state of deterioration of the surface of a structure from an image obtained by photographing the surface of the structure (in some cases, described as a structure deterioration inspection or the like). Is). A user who is a worker who performs maintenance and inspection work captures the surface of a structure to be maintained and inspected with a camera manually or using a drone or a robot. The structures include various buildings and infrastructure facilities. The user inputs a group of images captured by the camera to a computer, and displays a group of images processed by the computer on a display screen. The user selects an individual image to be inspected from the image group on the display screen and displays the selected image on the display screen. The user performs, for example, visual inspection work. In this case, the user looks at individual images on the display screen and visually confirms and detects the presence or absence and location of a state such as cracking, corrosion, or peeling (which may be collectively referred to as deterioration).

上記画像群を扱う用途の他の一例としては、構造物の表面を撮影した画像から、公知のSFM(Structure For Motion)等の処理に基づいて、構造物の3次元モデルを生成、取得し、表示画面に表示するシステムや機能(構造物3次元モデル生成等と記載する場合がある)が挙げられる。   As another example of the use of the image group, a three-dimensional model of the structure is generated and acquired from an image obtained by photographing the surface of the structure based on a known process such as SFM (Structure For Motion). A system and a function to be displayed on the display screen (sometimes referred to as a structure three-dimensional model generation) are included.

上記画像表示に係わる先行技術例としては、特開2000−90232号公報(特許文献1)が挙げられる。特許文献1には、パノラマ画像合成装置等として、デジタルカメラで画像の一部が重複するように被写体像を複数に分割して撮像し、撮像して得られた複数の画像を合成してパノラマ画像を生成するステップ、パノラマ画像の全体プレビューと部分プレビューを同一ウィンドウに同時表示するステップ等について記載されている。   Japanese Patent Application Laid-Open No. 2000-90232 (Patent Document 1) is an example of a prior art related to the image display. Patent Document 1 discloses a panoramic image synthesizing apparatus or the like, in which a digital camera divides a subject image into a plurality of images so that a part of the images overlaps, captures the images, and combines the captured images to generate a panoramic image. It describes a step of generating an image, a step of simultaneously displaying an entire preview and a partial preview of a panoramic image in the same window, and the like.

また、上記構造物劣化検査に係わる先行技術例としては、特開平11−132961号公報(特許文献2)が挙げられる。特許文献2には、構造物用検査装置として、被検査物を複数に分割して撮像し、撮像された複数の画像データに、対応する位置情報や撮影情報を付加した画像データを記憶し、被検査物の検査位置を指定することにより、画像データを選択し、検査位置およびその周辺の複数の画像データをつなぎ合わせた画像として表示する旨が記載されている。   Japanese Patent Application Laid-Open No. 11-132961 (Patent Document 2) is an example of a prior art related to the above-described structural deterioration inspection. Patent Document 2 discloses an inspection apparatus for a structure in which an inspection object is divided into a plurality of parts, an image is taken, and image data obtained by adding corresponding position information and imaging information to a plurality of imaged image data is stored. It is described that, by designating the inspection position of the inspection object, image data is selected and the inspection position and a plurality of image data around the inspection position are displayed as a connected image.

特開2000−90232号公報JP 2000-90232 A 特開平11−132961号公報JP-A-11-132961

従来の画像表示システムでは、ユーザが表示画面で画像群から所定の用途のための個別の画像を選択する際に、好適な画像の選択が難しい場合や、作業の手間が大きい場合がある。例えば、構造物劣化検査支援の用途の場合に、ユーザが表示画面で多数の画像から検査対象画像を選択する必要がある。その際、画像間で重複(オーバーラップ)する部分が少ない好適な画像の選択が難しい場合があり、劣化検査作業の手間が大きい。   In a conventional image display system, when a user selects an individual image for a predetermined application from a group of images on a display screen, there are cases where it is difficult to select a suitable image and cases where work is laborious. For example, in the case of use for structural deterioration inspection support, a user needs to select an inspection target image from a large number of images on a display screen. At this time, it may be difficult to select a suitable image having few overlapping portions between the images, and the deterioration inspection work is troublesome.

本発明の目的は、画像表示技術に関して、カメラで撮影した画像群から所定の用途のための画像を選択する際に、好適な画像を容易に選択することができ、ユーザの作業の手間を低減できる技術を提供することである。   An object of the present invention is to provide an image display technology, in which when selecting an image for a predetermined application from a group of images taken by a camera, a suitable image can be easily selected, and the user's work is reduced. To provide technologies that can be used.

本発明のうち代表的な実施の形態は、画像表示システムであって、以下に示す構成を有することを特徴とする。一実施の形態の画像表示システムは、計算機システムによって構成される画像表示システムであって、前記計算機システムは、撮影の日時、位置、および方向が異なる複数の画像を含む画像群を入力し、前記画像群の一覧を一覧画面に表示し、ユーザの操作に基づいて前記画像群から選択された第1画像を個別画面に表示し、前記第1画像と前記第1画像に対して空間的に周辺にある候補画像との組における空間的な位置関係の判断、および撮影範囲に関する重複状態の判断に基づいて、前記第1画像に対する隣接画像を判断し、前記個別画面で、前記ユーザの操作に基づいて、前記第1画像に対する前記隣接画像を第2画像として選択し、前記第2画像を新たな前記第1画像として表示する。   A typical embodiment of the present invention is an image display system, having the following configuration. An image display system according to an embodiment is an image display system configured by a computer system, wherein the computer system inputs an image group including a plurality of images having different shooting dates and times, positions, and directions, and Displaying a list of image groups on a list screen, displaying a first image selected from the image group on an individual screen based on a user operation, and spatially surrounding the first image and the first image; Determining an adjacent image with respect to the first image based on a determination of a spatial positional relationship in a set with a candidate image and a determination of an overlapping state with respect to a shooting range, based on an operation of the user on the individual screen. Then, the adjacent image to the first image is selected as a second image, and the second image is displayed as a new first image.

本発明のうち代表的な実施の形態によれば、画像表示技術に関して、カメラで撮影した画像群から所定の用途のための画像を選択する際に、好適な画像を容易に選択することができ、ユーザの作業の手間を低減できる。   According to the representative embodiment of the present invention, it is possible to easily select a suitable image when selecting an image for a predetermined use from a group of images taken by a camera with respect to an image display technique. In addition, the work of the user can be reduced.

本発明の実施の形態の画像表示システムを含む、構造物劣化検査支援システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of a structure deterioration inspection support system including an image display system according to an embodiment of the present invention. 実施の形態で、ドローンと計算機システムとの連携の構成を示す図である。FIG. 3 is a diagram illustrating a configuration of cooperation between a drone and a computer system in the embodiment. 実施の形態の画像表示システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image display system according to an embodiment. 実施の形態の画像表示システムの処理フローを示す図である。FIG. 3 is a diagram illustrating a processing flow of the image display system according to the embodiment. 実施の形態で、構造物の空撮の方式の第1例を示す図である。FIG. 3 is a diagram illustrating a first example of an aerial photographing method of a structure in the embodiment. 実施の形態で、構造物の空撮の方式の第2例を示す図である。FIG. 4 is a diagram illustrating a second example of an aerial photographing method of a structure in the embodiment. 実施の形態で、撮影範囲について示す図である。FIG. 3 is a diagram illustrating a shooting range in the embodiment. 実施の形態で、空撮進行方向での画像間の重複について示す図である。FIG. 4 is a diagram illustrating overlap between images in the aerial photographing traveling direction in the embodiment. 実施の形態で、画像平面視での画像間の重複について示す図である。FIG. 7 is a diagram illustrating an overlap between images in an image planar view in the embodiment. 実施の形態で、隣接画像および重複の例について示す図である。FIG. 4 is a diagram illustrating an example of an adjacent image and an overlap in the embodiment. 実施の形態で、撮影範囲における重複状態について示す図である。FIG. 7 is a diagram illustrating an overlapping state in a shooting range in the embodiment. 実施の形態で、隣接画像における重複状態について示す図である。FIG. 8 is a diagram illustrating an overlapping state in adjacent images in the embodiment. 実施の形態で、SFMについて示す図である。FIG. 3 is a diagram illustrating SFM in the embodiment. 実施の形態で、一覧画面の第1例を示す図である。FIG. 7 is a diagram illustrating a first example of a list screen in the embodiment. 実施の形態で、個別画面の第1例を示す図である。FIG. 5 is a diagram illustrating a first example of an individual screen in the embodiment. 実施の形態で、個別画面の第2例を示す図である。FIG. 9 is a diagram illustrating a second example of an individual screen in the embodiment. 実施の形態で、個別画面の第3例を示す図である。FIG. 13 is a diagram illustrating a third example of an individual screen in the embodiment. 実施の形態で、個別画面の第4例を示す図である。FIG. 14 is a diagram illustrating a fourth example of an individual screen in the embodiment. 実施の形態で、個別画面の第5例を示す図である。FIG. 14 is a diagram illustrating a fifth example of an individual screen in the embodiment. 実施の形態で、個別画面の第6例を示す図である。FIG. 14 is a diagram illustrating a sixth example of an individual screen in the embodiment. 実施の形態で、個別画面(劣化検査画面)の例を示す図である。FIG. 5 is a diagram illustrating an example of an individual screen (deterioration inspection screen) in the embodiment. 実施の形態で、構造物3次元モデル画面の例を示す図である。FIG. 5 is a diagram illustrating an example of a structure three-dimensional model screen in the embodiment. 実施の形態で、一覧画面の第2例を示す図である。FIG. 13 is a diagram illustrating a second example of a list screen in the embodiment. 実施の形態で、一覧画面の第3例を示す図である。FIG. 14 is a diagram illustrating a third example of a list screen in the embodiment. 実施の形態で、構造物の側面間の画像関係の例を示す図である。FIG. 4 is a diagram illustrating an example of an image relationship between side surfaces of a structure in the embodiment. 実施の形態で、構造物の側面間の画像選択について示す図である。FIG. 5 is a diagram illustrating image selection between side surfaces of a structure in the embodiment. 実施の形態で、構造物の空撮の方式の第3例を示す図である。FIG. 9 is a diagram illustrating a third example of an aerial photographing method of a structure in the embodiment.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において同一部には原則として同一符号を付し、その繰り返しの説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In all the drawings for describing the embodiments, the same portions are denoted by the same reference numerals in principle, and the repeated description thereof will be omitted.

[課題等]
前提技術や課題等について補足説明する。従来、例えば構造物劣化検査支援の用途やそのシステムにおいては、以下のような作業や処理が行われる。作業者であるユーザは、検査対象となる構造物がある現地に出向き、構造物の表面を、カメラを用いて撮影する。その際、構造物の表面の全領域を撮影する場合もあるし、一部の領域に絞り込んで撮影する場合もある。特に、事前に、構造物に関して知識を持つ人(専門技術者)が、構造物の設計図面等から、劣化が生じやすいと考えられる箇所を絞り込み、その箇所を撮影対象箇所とする場合がある。この場合、撮影箇所および画像数を限定して、作業の手間を低減できる。
[Issues, etc.]
Supplementary explanation of the prerequisite technologies and issues will be given. 2. Description of the Related Art Conventionally, for example, in an application for supporting structural deterioration inspection and a system thereof, the following operations and processes are performed. A user who is an operator goes to a site where a structure to be inspected is located, and photographs the surface of the structure using a camera. At that time, the whole area of the surface of the structure may be photographed, or the image may be narrowed down to a part of the area. In particular, there is a case where a person (expert technician) who has knowledge about the structure in advance narrows down a portion where deterioration is likely to occur from a design drawing of the structure or the like and sets the portion as a shooting target portion. In this case, the shooting location and the number of images can be limited to reduce the labor of the operation.

ユーザは、撮影した画像群のデータを事務所等に持ち帰り、PC等の計算機に入力する。ユーザは、表示画面で、画像群の一覧から、検査対象画像となる個別の画像を選択し、表示画面に表示する。目視検査を行う場合、ユーザは、画像一枚毎に、目視で、ひび割れ等の劣化状態の有無や箇所を、画像内から探索する。   The user takes the data of the captured image group back to an office or the like and inputs the data to a computer such as a PC. The user selects an individual image to be an inspection target image from a list of image groups on the display screen, and displays the image on the display screen. When performing a visual inspection, the user visually searches the image for the presence or absence and location of a deteriorated state such as a crack for each image.

上記のような人手による構造物の撮影作業や劣化検査作業は、手間が大きい。また、専門技術者等の人員不足や、高コスト等の一般的な課題もある。そこで、対策として、ドローンやUAV等の飛行体、またはロボット等を用いて、構造物撮影を行う技術もある。この技術の例では、ドローンを自律航行させながら、ドローンに搭載のカメラによって、構造物の表面領域を例えば網羅的に撮影して、自動的に画像群を得る。これにより、ユーザによる検査対象箇所絞り込み作業や現地での人手による撮影作業等を低減することができる。そして、構造物の保守点検および劣化検査の業務の効率化を図ることができる。   The manual work of photographing a structure and the work of inspecting deterioration of the structure as described above require a lot of trouble. In addition, there are general problems such as a shortage of specialist engineers and high costs. Therefore, as a countermeasure, there is a technique of photographing a structure using a flying object such as a drone or a UAV, a robot, or the like. In the example of this technique, while the drone is autonomously sailing, the surface area of the structure is, for example, comprehensively photographed by a camera mounted on the drone, and an image group is automatically obtained. Thereby, it is possible to reduce the work of narrowing down the inspection target portion by the user, the manual photographing work at the site, and the like. In addition, the efficiency of maintenance inspection and deterioration inspection of the structure can be improved.

また、画像群から構造物の3次元モデルを生成する用途の場合においても、同様に、人手による撮影作業等には手間がかかる。この場合にも、ドローン等の利用によって、撮影作業等を低減することができる。計算機は、入力の画像群から、SFM処理に基づいて、構造物の3次元モデルを生成する。これにより、例えば、2次元の設計図面しか無い構造物の場合でも、3次元モデルを得て表示画面に表示することができ、構造物管理等に活用することができる。   Also, in the case of generating a three-dimensional model of a structure from a group of images, similarly, it takes time and effort to manually perform a photographing operation. Also in this case, the use of a drone or the like can reduce photographing work and the like. The computer generates a three-dimensional model of the structure from the input image group based on the SFM processing. Thus, for example, even in the case of a structure having only a two-dimensional design drawing, a three-dimensional model can be obtained and displayed on a display screen, and can be used for structure management and the like.

上記人手またはドローン等によって得られた画像群は、対象物の表面領域を例えば網羅的に撮影した画像群であり、画像間で重複する領域を持つ場合が多い。すなわち、ある1枚の画像と、その画像に対して空間的な位置関係で周囲にある他の1枚の画像とでは、画像内容において、同じ箇所を写した一部領域が重複している。劣化検査の用途で、構造物の表面領域を漏れ無く検査する場合には、画像群の撮影時に、撮影漏れ領域が無いように、余裕を持たせて一部領域が重複するように撮影される。また、特に、3次元モデル生成の用途では、公知のSFM処理を適用するために必要な条件として、画像間で十分な重複を持つ画像群が必要である。例えば、カメラの動きの方向に対応する画像の横方向では80%以上の重複が必要であり、縦方向では60%以上の重複が必要である。   The image group obtained by the manual operation or the drone or the like is an image group in which the surface area of the target object is comprehensively photographed, for example, and often has an overlapping area between the images. In other words, in one image, and in another image surrounding the image in a spatial positional relationship, a partial area of the same portion in the image content overlaps. When inspecting the surface area of a structure without omission for the purpose of deterioration inspection, when capturing an image group, images are taken so as to have a margin so that some areas overlap so that there is no shooting omission area. . In particular, in the application of generating a three-dimensional model, an image group having a sufficient overlap between images is required as a condition necessary for applying the known SFM processing. For example, 80% or more overlap is required in the horizontal direction of an image corresponding to the direction of camera movement, and 60% or more overlap is required in the vertical direction.

また、構造物の外観の表面領域では、建築構造や壁面デザイン等から、類似形状箇所も多い。すなわち、画像群の画像内容においては類似箇所が多くなる。そのため、ユーザが、ある画像を見た場合に、どの箇所を撮影した画像であるか認識しにくい場合がある。また、ある画像に対して周辺にある画像がどれか、空間的な位置関係が把握しにくい場合がある。   Further, in the surface area of the external appearance of the structure, there are many similar shapes due to the architectural structure and the wall design. That is, similar parts increase in the image content of the image group. Therefore, when a user views a certain image, it may be difficult for the user to recognize which part of the image has been shot. In some cases, it is difficult to grasp the spatial position of a certain image in the vicinity of the image.

そのため、ユーザは、表示画面の画像群の一覧から、作業の対象となる個別の画像を選択する際に、好適な画像の選択が難しい場合がある。例えば、劣化検査の用途では、ユーザは、ある1枚の画像内の領域を目視検査した後、次に、その画像の領域に隣接している領域を対象として目視検査したい。しかし、ユーザは、画像間の画像内容の類似が多く異同がわかりにくいことや、画像間の位置関係がわかりにくいことから、隣接領域の画像を選択しにくい。また、ユーザが、画像群の一覧から、ある画像の次の画像を単純に順次に選択する場合、その選択された画像は、隣接領域の画像であるとは限らず、離れた位置の画像となる場合もある。   Therefore, when the user selects an individual image to be worked from the list of images on the display screen, it may be difficult to select a suitable image. For example, in the application of the deterioration inspection, the user wants to visually inspect an area in one image and then visually inspect an area adjacent to the area of the image. However, it is difficult for the user to select an image in an adjacent area because the image contents between images are so similar that differences are difficult to understand and the positional relationship between images is difficult to understand. Further, when the user simply and sequentially selects the next image of a certain image from the list of image groups, the selected image is not necessarily an image of an adjacent region, and may be an image of a distant position. It may be.

また、ユーザが、表示画面で、ある画像(第1画像)から、自分で画像内容や空間的な位置関係を判断して、次画像(第2画像)を選択したとする。例えば2枚の画像で同じ物が写っている等の判断がされる。その場合でも、その次画像は、第1画像で既に検査済みの領域が、重複領域として含まれている場合が多い。構造物の表面領域を網羅的に細かく撮影する場合や、3次元モデル生成を行う場合等、用途や場合に応じて、画像群の内容には、画像間での重複領域が生じている。そのため、次画像のうちの重複領域が、再度、目視検査の対象として含まれてしまい、ユーザの負担が増えてしまう。多数の画像の各画像に重複領域があるので、劣化検査等の作業が非効率的になってしまう。   Further, it is assumed that the user selects the next image (second image) from the certain image (first image) on the display screen by himself / herself determining the image content and the spatial positional relationship. For example, it is determined that the same object appears in two images. Even in such a case, the next image often includes an area already inspected in the first image as an overlapping area. Overlapping areas occur between the images in the contents of the image group depending on the use or case, such as when the surface area of the structure is comprehensively photographed finely or when a three-dimensional model is generated. Therefore, the overlapping area in the next image is included again as a target of the visual inspection, and the burden on the user increases. Since there are overlapping areas in each of a large number of images, work such as deterioration inspection becomes inefficient.

上記のように、従来の画像表示システムでは、例えば構造物の劣化検査支援や3次元モデル生成の用途の場合に、画像群から個別の画像を選択する際の難しさや手間があった。すなわち、従来のシステムでは、ユーザの作業の支援や効率の点で課題があった。   As described above, in the conventional image display system, for example, in a case of a use for supporting a deterioration inspection of a structure or generating a three-dimensional model, it is difficult and troublesome to select an individual image from an image group. That is, the conventional system has a problem in terms of the support of the user's work and the efficiency.

上記課題等を踏まえて、実施の形態の画像表示システムでは、用途に応じて、ユーザが表示画面で画像群から個別の画像を選択する際に、好適な画像を容易に選択でき、作業の手間を低減できるようにユーザを支援する仕組みを提供する。その仕組みは、グラフィカル・ユーザ・インタフェース(GUI)を含む。本画像表示システムでは、画像群のうちのある画像から次の対象画像を選択する際に、画像間の重複状態を考慮して、次画像へナビゲーション、リンクさせる仕組みを有する。本画像表示システムは、例えば重複度合いが最小となる画像(隣接画像)を自動的に判断して、その画像を簡単に選択できるようにするリンク画像を提示する。   In view of the above problems and the like, the image display system according to the embodiment can easily select a suitable image when the user selects an individual image from a group of images on the display screen according to the application, and can save time and effort. To provide a mechanism to support the user so that the number can be reduced. The mechanism includes a graphical user interface (GUI). In the present image display system, when selecting the next target image from a certain image in the image group, there is a mechanism for navigating and linking to the next image in consideration of the overlapping state between the images. The present image display system automatically determines, for example, an image (adjacent image) with the minimum degree of overlap, and presents a link image that allows the image to be easily selected.

実施の形態の画像表示システムは、例えば構造物の表面領域を網羅的に画像間で一部重複するように撮影した画像群のデータを入力とする。この画像群は、撮影の日時、位置、および方向等が異なる複数の画像を含む場合がある。本画像表示システムは、GUI画面で、画像群の一覧を表示する。本画像表示システムは、画面からユーザ操作によって個別の画像(第1画像)が選択された場合、選択された第1画像を画面に表示する。本画像表示システムは、第1画像に対し、空間的に周辺にある各画像(候補画像)について、画像間(第1画像と候補画像との組)での空間的な位置関係を判断し、画像間での撮影範囲の重複状態を判断する。本画像表示システムは、特に、その重複状態を、重複率として計算する。また、本画像表示システムは、画像間の空間的な位置関係を、画像の位置情報等を用いて判断する。本画像表示システムは、重複率および位置関係等に基づいて、第1画像に対する隣接画像等の画像を判断する。例えば、本画像表示システムは、候補画像のうち、画像間の重複率が、所定の重複率閾値以下で最小となる画像を、隣接画像として選択する。   The image display system according to the embodiment receives, for example, data of a group of images captured so as to partially overlap the surface region of the structure between the images. This image group may include a plurality of images having different shooting dates and times, positions, directions, and the like. The image display system displays a list of image groups on a GUI screen. When an individual image (first image) is selected from a screen by a user operation, the image display system displays the selected first image on the screen. The image display system determines a spatial positional relationship between images (a set of the first image and the candidate image) for each image (candidate image) spatially surrounding the first image, The overlapping state of the photographing range between the images is determined. In particular, the image display system calculates the overlapping state as an overlapping rate. In addition, the image display system determines a spatial positional relationship between images by using positional information of the images. The image display system determines an image such as an adjacent image to the first image based on the overlapping ratio, the positional relationship, and the like. For example, the present image display system selects, as a neighboring image, an image in which the overlap ratio between images is a minimum below a predetermined overlap ratio threshold among candidate images.

本画像表示システムは、その隣接画像等の画像を、ユーザが次に対象として選択する候補となる画像(次画像)として提示する。その際、本画像表示システムは、画面で、第1画像に対し、次画像の存在や位置関係を表すリンク画像を表示する。本画像表示システムは、リンク画像が選択操作された場合、そのリンク画像に対応付けられた次画像(第2画像)を、個別の画像(新たな第1画像)として表示する。   The image display system presents an image such as the adjacent image as an image (next image) which is a candidate to be selected next as a target by the user. At this time, the present image display system displays, on the screen, a link image indicating the presence or positional relationship of the next image with respect to the first image. When a link image is selected and operated, the present image display system displays the next image (second image) associated with the link image as an individual image (new first image).

上記画像表示システムにより、ユーザは、ある画像から、重複が少ない好適な画像を容易に選択でき、劣化検査等の作業を効率的に行うことができる。第1画像と候補画像(隣接画像等)とでは、空間的な位置関係として、撮影範囲が配置されている面や方向が異なっていてもよい。その場合でも、ユーザは、画面で、第1画像から、リンク画像の操作によって、異なる方向にある第2画像を選択して表示できる。   With the image display system described above, the user can easily select a suitable image with few overlaps from a certain image, and can efficiently perform operations such as deterioration inspection. The first image and the candidate images (adjacent images and the like) may have different spatial positions and different planes or directions on which the imaging ranges are arranged. Even in this case, the user can select and display the second image in a different direction from the first image by operating the link image on the screen.

(実施の形態)
図1〜図27を用いて、本発明の実施の形態の画像表示システムについて説明する。
(Embodiment)
An image display system according to an embodiment of the present invention will be described with reference to FIGS.

[構造物劣化検査支援システム]
図1は、実施の形態の画像表示システムを含む、構造物劣化検査支援システムの全体の構成を示す。実施の形態の画像表示システムは、計算機システム1によって構成されている。図1の劣化検査支援システムは、画像表示システムである計算機システム1と、飛行体であるドローン10と、劣化検査等の対象物である構造物5とを含む。計算機システム1とドローン10とが無線通信で接続されている。計算機システム1は、例えばPC2とサーバ3とを有するクライアントサーバシステムで構成される場合を示す。PC2とサーバ3とが通信網6を介して接続されている。ユーザ(作業者)は、PC2を操作して本ステムを利用する。ユーザは、PC2のGUI画面22で、本システムに対する指示入力やユーザ設定等を行い、作業の状態や結果等を確認できる。
[Structural deterioration inspection support system]
FIG. 1 shows an overall configuration of a structure deterioration inspection support system including an image display system according to an embodiment. The image display system according to the embodiment is configured by a computer system 1. The deterioration inspection support system in FIG. 1 includes a computer system 1 as an image display system, a drone 10 as a flying object, and a structure 5 as an object for deterioration inspection or the like. The computer system 1 and the drone 10 are connected by wireless communication. The computer system 1 is, for example, configured as a client-server system having a PC 2 and a server 3. The PC 2 and the server 3 are connected via a communication network 6. A user (operator) operates the PC 2 to use the stem. The user can input an instruction to the system, set a user, and the like on the GUI screen 22 of the PC 2, and can confirm a work state, a result, and the like.

図1の構造物劣化検査支援システムは、劣化検査支援機能を有し、この劣化検査支援機能は、3次元モデル生成機能を含む。劣化検査支援機能は、劣化検査支援ソフトウェア100等で実現されている。劣化検査支援機能は、ユーザ(作業者)による構造物5の劣化検査の作業を支援するGUI画面を提供する機能である。この劣化検査は、カメラ4で撮影された画像に対するユーザの目視による劣化状態の目視検査を含む。この劣化検査は、さらに、計算機による自動診断を含めてもよい。3次元モデル生成機能は、カメラ4の画像群から、SFM処理に基づいて、構造物5の3次元モデルを生成し、表示する画面を提供する機能である。   The structure deterioration inspection support system of FIG. 1 has a deterioration inspection support function, and the deterioration inspection support function includes a three-dimensional model generation function. The deterioration inspection support function is realized by the deterioration inspection support software 100 or the like. The deterioration inspection support function is a function of providing a GUI screen for assisting a user (operator) in performing a deterioration inspection operation of the structure 5. This deterioration inspection includes a visual inspection of the deterioration state of the image captured by the camera 4 by the user. This deterioration inspection may further include automatic diagnosis by a computer. The three-dimensional model generation function is a function of generating a three-dimensional model of the structure 5 from the image group of the camera 4 based on the SFM processing and providing a screen for displaying the three-dimensional model.

PC2は、ドローン制御機能21等を有する計算機であり、個々のユーザ(作業者)が使用するクライアント端末装置である。サーバ3は、例えば事業者のクラウドコンピューティングシステムやデータセンタ等におけるサーバ装置であり、PC2と連携して計算処理を行う。サーバ3に対し、複数のユーザの複数のPC2等が同様に接続されてもよい。PC2は、ドローン10の航行制御およびカメラ4の撮影制御を無線通信で行う。PC2は、航行制御情報や撮影設定情報等を、ドローン10へ送信する。   The PC 2 is a computer having the drone control function 21 and the like, and is a client terminal device used by each user (operator). The server 3 is, for example, a server device in a business cloud computing system, a data center, or the like, and performs calculation processing in cooperation with the PC 2. A plurality of PCs 2 of a plurality of users may be similarly connected to the server 3. The PC 2 performs navigation control of the drone 10 and imaging control of the camera 4 by wireless communication. The PC 2 transmits navigation control information, photographing setting information, and the like to the drone 10.

構造物5は、劣化検査および3次元モデル生成の対象物であり、ドローン10のカメラ4の撮影の被写体である。構造物5は、例として建築物またはインフラ設備等である。建築物は、一般的なビルや住宅や公共建築物等が挙げられる。インフラ設備は、例えば、電力設備、道路交通設備、通信設備、橋梁等が挙げられる。構造物5の表面の所定の領域が対象領域となる。   The structure 5 is an object to be inspected for deterioration and to generate a three-dimensional model, and is an object photographed by the camera 4 of the drone 10. The structure 5 is, for example, a building or an infrastructure facility. The buildings include general buildings, houses, public buildings, and the like. Infrastructure facilities include, for example, power facilities, road traffic facilities, communication facilities, bridges, and the like. A predetermined area on the surface of the structure 5 is a target area.

ドローン10は、PC2からの無線通信での遠隔制御に基づいて自律航行を行う飛行体である。ドローン10は、構造物5の周囲空間において、設定されたルート上を自律航行する。予め、計算機システム1では、撮影計画データd2に基づいて、構造物5の対象領域を空撮できるように、ドローン10の自律航行および空撮に関する制御情報が、空撮設定情報として作成および設定される。空撮設定情報は、ドローン10の航行のルート、撮影タイミング(撮影日時)、およびカメラ4の撮影設定情報、等を含む。   The drone 10 is an air vehicle that performs autonomous navigation based on remote control by wireless communication from the PC 2. The drone 10 autonomously sails on the set route in the space around the structure 5. In advance, in the computer system 1, control information on autonomous navigation and aerial photography of the drone 10 is created and set as aerial photography setting information based on the imaging plan data d2 so that the target area of the structure 5 can be aerial photography. You. The aerial photography setting information includes the navigation route of the drone 10, the imaging timing (imaging date and time), the imaging setting information of the camera 4, and the like.

なお、変形例としては、ユーザがPC2等からドローン10の航行を操縦する形態としてもよい。   As a modified example, a mode in which the user controls the navigation of the drone 10 from the PC 2 or the like may be adopted.

ドローン10は、カメラ4や各種のセンサ等を搭載している。ドローン10は、ルート上の航行時に、カメラ4によって構造物5を空撮する。ドローン10は、撮影時の画像データやセンサデータ等を、無線通信でPC2へ送信する。ドローン10の公知のセンサ群では、センサデータとして、ドローン10の位置、方向、速度、加速度等が検出可能である。位置は、3次元座標情報を含み、例えばGPS、高度センサ、あるいは他の測位システムに基づいて、緯度、経度、高度(地表からの高さ)等の形式で得られる。なお、GPSを用いる場合、十分な測位精度を前提とする。   The drone 10 has a camera 4 and various sensors mounted thereon. The drone 10 takes an aerial image of the structure 5 with the camera 4 when traveling on the route. The drone 10 transmits image data and sensor data at the time of shooting to the PC 2 by wireless communication. The known sensor group of the drone 10 can detect the position, direction, speed, acceleration, and the like of the drone 10 as sensor data. The position includes three-dimensional coordinate information and can be obtained in the form of latitude, longitude, altitude (elevation from the ground) or the like based on, for example, a GPS, an altitude sensor, or another positioning system. When GPS is used, sufficient positioning accuracy is assumed.

カメラ4は、撮影設定情報として、カメラ方向(撮影方向)、撮影タイミング、撮影条件等を含む。カメラ方向は、カメラ位置を基準として対象物5の表面の箇所を向く方向である。撮影タイミングは、連続的な複数の画像(静止画)を撮像するタイミングであり、撮影間隔等で規定される。撮影条件は、露光等の公知のパラメータで規定される。   The camera 4 includes, as shooting setting information, a camera direction (shooting direction), shooting timing, shooting conditions, and the like. The camera direction is a direction facing a location on the surface of the object 5 with reference to the camera position. The shooting timing is a timing at which a plurality of continuous images (still images) are shot, and is defined by a shooting interval or the like. The shooting conditions are defined by known parameters such as exposure.

PC2は、ドローン制御機能21、クライアントプログラム20、GUI画面22等を有する。ドローン制御機能21は、ドローン10の航行やカメラ4の撮影を制御する機能である。クライアントプログラム20は、劣化検査支援ソフトウェア100のうちのクライアントプログラムである。クライアントプログラム20は、サーバプログラム30とクライアントサーバ通信で連携して処理を行う。クライアントプログラム20は、ドローン制御機能21や画像表示機能、GUI画面22等を制御する。PC2のメモリには、クライアントプログラム20等が処理に用いる各種のデータや情報が記憶される。メモリには、ドローン10の制御情報や、ドローン10から取得される画像データやセンサデータ、サーバ3から取得される各種データ等が記憶される。   The PC 2 has a drone control function 21, a client program 20, a GUI screen 22, and the like. The drone control function 21 is a function for controlling navigation of the drone 10 and shooting of the camera 4. The client program 20 is a client program of the deterioration inspection support software 100. The client program 20 performs processing in cooperation with the server program 30 through client-server communication. The client program 20 controls a drone control function 21, an image display function, a GUI screen 22, and the like. Various data and information used for processing by the client program 20 and the like are stored in the memory of the PC 2. The memory stores control information of the drone 10, image data and sensor data acquired from the drone 10, various data acquired from the server 3, and the like.

サーバ3は、サーバプログラム30、DB31等を有する。サーバプログラム30は、劣化検査支援ソフトウェア100のうちのサーバプログラムである。サーバプログラム30は、特に、劣化検査支援処理や3次元モデル生成処理等の計算処理負荷が高い処理を担当する。サーバプログラム30は、クライアントプログラム20からの要求に応じて、所定の処理を実行し、処理結果情報を応答する。   The server 3 has a server program 30, a DB 31, and the like. The server program 30 is a server program of the deterioration inspection support software 100. The server program 30 is in charge of processing with a high calculation processing load, such as the deterioration inspection support processing and the three-dimensional model generation processing. The server program 30 executes a predetermined process in response to a request from the client program 20, and responds with process result information.

DB31には、サーバプログラム30およびクライアントプログラム20が処理に用いる各種のデータや情報が記憶される。DB31は、DBサーバ等で実現されてもよい。DB31には、例えば、構造物データd1、撮影計画データd2、画像データd3、検査データd4等が格納されている。   The DB 31 stores various data and information used by the server program 30 and the client program 20 for processing. The DB 31 may be realized by a DB server or the like. The DB 31 stores, for example, structure data d1, imaging plan data d2, image data d3, inspection data d4, and the like.

構造物データd1は、構造物5に関する基本情報や管理情報、設計図面データや3次元データ等を含む。本画像表示システムでは、3次元データは、3次元モデル生成機能によって生成された3次元モデルデータを含む。3次元データは、これに限らず、既存の3次元CADシステム等で作成されたデータがある場合にはそれを利用可能である。   The structure data d1 includes basic information and management information on the structure 5, design drawing data, three-dimensional data, and the like. In the present image display system, the three-dimensional data includes three-dimensional model data generated by the three-dimensional model generation function. The three-dimensional data is not limited to this, and if there is data created by an existing three-dimensional CAD system or the like, it can be used.

撮影計画データd2は、劣化検査および空撮に関する計画のデータである。撮影計画データに基づいて、実際のドローン10による空撮設定情報が作成および設定される。画像データd3は、カメラ4で撮影された画像群のデータである。検査データd4は、劣化検査の状態や結果等を表すデータである。   The photographing plan data d2 is data of a plan relating to deterioration inspection and aerial photography. Based on the shooting plan data, aerial shooting setting information by the actual drone 10 is created and set. The image data d3 is data of an image group captured by the camera 4. The inspection data d4 is data representing the state and the result of the deterioration inspection.

計算機システム1の実装構成は、上記例に限らず可能である。例えば、PC2とサーバ3とが1つの計算機として統合されている形態でもよいし、機能毎に複数の装置に分離されている形態でもよい。PC2とは別にドローン制御装置を有する形態でもよい。ドローン10に限らず、他の飛行体やロボット等も適用可能である。ドローン10は、汎用的なドローンを適用できるが、本画像表示システムのための専用の機能を実装した専用のドローンを適用してもよい。   The mounting configuration of the computer system 1 is not limited to the above example, but is possible. For example, the PC 2 and the server 3 may be integrated as one computer, or may be separated into a plurality of devices for each function. A form having a drone control device separately from the PC 2 may be used. Not only the drone 10 but also other flying objects, robots, and the like are applicable. As the drone 10, a general-purpose drone can be applied, but a dedicated drone having a dedicated function for the present image display system may be applied.

[ドローン、計算機]
図2は、ドローン10および計算機システム1におけるドローン制御機能21に関する概要構成を示す。ドローン10は、プロペラ駆動部11、航行制御部12、センサ13、ジンバル14、カメラ4、画像記憶部15、無線通信部16、バッテリ17等を有する。プロペラ駆動部11は、複数のプロペラを駆動する。航行制御部12は、PC2の航行制御部102からの航行制御情報に従って、ドローン10の航行を制御する。そのために、航行制御部12は、センサ13の情報を用いながら、プロペラ駆動部11を駆動制御する。センサ13は、公知のGPS受信器、電子コンパス、ジャイロセンサ、加速度センサ等のセンサ群であり、所定のセンサデータを出力する。ジンバル14は、カメラ4を保持する公知の機構であり、航行時にカメラ4がぶれずに一定の状態になるように自動的に維持する機構である。ドローン10、ジンバル14、およびカメラ4の各方向および各位置は、基本的には独立しているパラメータである。
[Drone, calculator]
FIG. 2 shows a schematic configuration of the drone 10 and the drone control function 21 in the computer system 1. The drone 10 includes a propeller driving unit 11, a navigation control unit 12, a sensor 13, a gimbal 14, a camera 4, an image storage unit 15, a wireless communication unit 16, a battery 17, and the like. The propeller driving unit 11 drives a plurality of propellers. The navigation control unit 12 controls navigation of the drone 10 according to navigation control information from the navigation control unit 102 of the PC 2. For that purpose, the navigation control unit 12 drives and controls the propeller driving unit 11 while using the information of the sensor 13. The sensor 13 is a group of sensors such as a known GPS receiver, an electronic compass, a gyro sensor, and an acceleration sensor, and outputs predetermined sensor data. The gimbal 14 is a known mechanism that holds the camera 4, and is a mechanism that automatically maintains the camera 4 in a certain state without blurring during navigation. Each direction and each position of the drone 10, the gimbal 14, and the camera 4 are basically independent parameters.

カメラ4は、PC2の撮影制御部104からの撮影制御情報および撮影設定情報に従って、対象物5を空撮し、画像データを出力する。画像記憶部15は、画像データ等を記憶する。無線通信部16は、無線通信インタフェース装置を含み、所定の無線通信インタフェースで計算機システム1と無線通信を行う。バッテリ17は各部へ電力を供給する。   The camera 4 aerially shoots the object 5 according to the shooting control information and the shooting setting information from the shooting control unit 104 of the PC 2 and outputs image data. The image storage unit 15 stores image data and the like. The wireless communication unit 16 includes a wireless communication interface device, and performs wireless communication with the computer system 1 using a predetermined wireless communication interface. The battery 17 supplies power to each unit.

計算機システム1は、プロセッサ111、メモリ112、通信装置113、入力装置114、表示装置115等を有し、それらがバス等で相互に接続されている。プロセッサ11は、メモリ112に読み出されたプログラムに従った処理を実行する。これにより、劣化検査支援ソフトウェア100の各機能、GUI部101等の各部が実現される。   The computer system 1 includes a processor 111, a memory 112, a communication device 113, an input device 114, a display device 115, and the like, which are interconnected by a bus or the like. The processor 11 executes a process according to the program read into the memory 112. Thereby, each function of the deterioration inspection support software 100 and each unit such as the GUI unit 101 are realized.

計算機システム1は、GUI部101、空撮設定部107、航行制御部102、撮影制御部104、センサデータ記憶部103、画像データ記憶部105、無線通信部106、劣化検査支援部121、3次元モデル生成部122、画像表示制御部123等を有する。   The computer system 1 includes a GUI unit 101, an aerial photography setting unit 107, a navigation control unit 102, an imaging control unit 104, a sensor data storage unit 103, an image data storage unit 105, a wireless communication unit 106, a deterioration inspection support unit 121, and a three-dimensional It has a model generation unit 122, an image display control unit 123, and the like.

GUI部101は、OS、ミドルウェア、Webブラウザ等のアプリケーションに基づいて、ユーザに対するGUI画面22を構成し、表示装置114(例えばタッチパネル)において表示する。ユーザは、GUI画面23に対し、ユーザ設定や指示入力の操作が可能であり、機能毎の状態や結果等を確認可能である。ユーザ設定としては、本画像表示システムの各機能に関する利用有無等の設定や、機能毎の制御用の閾値等の設定が可能である。GUI部101は、後述の一覧画面や個別画面等の画面に対応する画面データを生成する。   The GUI unit 101 configures a GUI screen 22 for a user based on an application such as an OS, middleware, and a Web browser, and displays the GUI screen 22 on the display device 114 (for example, a touch panel). The user can perform user settings and instruction input operations on the GUI screen 23, and can check the state and result of each function. As the user setting, it is possible to set whether or not to use each function of the image display system, and to set a control threshold for each function. The GUI unit 101 generates screen data corresponding to a screen such as a list screen and an individual screen described later.

空撮設定部107は、ユーザの操作および撮影計画データd2に基づいて、空撮設定情報を作成し、計算機システム1およびドローン10に設定する。航行制御部102は、空撮設定情報に基づいて、ドローン10の航行を制御する。航行制御部102は、無線通信を通じて、ドローン10へ航行制御情報d101を送信し、ドローン10から航行状態を表すセンサデータd102等を受信する。撮影制御部104は、空撮設定情報に基づいて、カメラ4による撮影を制御する。撮影制御部104は、無線通信を通じて、ドローン10へ撮影制御情報d103を送信し、ドローン10から画像データd104等を受信する。   The aerial photography setting unit 107 creates aerial photography setting information based on the operation of the user and the imaging plan data d2, and sets the information in the computer system 1 and the drone 10. The navigation control unit 102 controls navigation of the drone 10 based on the aerial photography setting information. The navigation control unit 102 transmits navigation control information d101 to the drone 10 through wireless communication, and receives sensor data d102 and the like indicating the navigation state from the drone 10. The shooting control unit 104 controls shooting by the camera 4 based on the aerial shooting setting information. The imaging control unit 104 transmits the imaging control information d103 to the drone 10 through wireless communication, and receives image data d104 and the like from the drone 10.

画像データ記憶部105は、ドローン10から取得される画像データを記憶する。画像データには、撮影日時、センサデータ、撮影設定情報等が適宜に関連付けられて情報管理される。無線通信部106は、無線通信インタフェース装置を含み、所定の無線通信インタフェースで、ドローン10と無線通信を行う。   The image data storage unit 105 stores image data obtained from the drone 10. The image data is managed in association with the shooting date and time, sensor data, shooting setting information, and the like as appropriate. The wireless communication unit 106 includes a wireless communication interface device, and performs wireless communication with the drone 10 using a predetermined wireless communication interface.

劣化検査支援部121は、劣化検査支援機能に対応する処理を行う。劣化検査支援部121は、例えば目視検査の支援処理、あるいは自動診断処理を行う。3次元モデル生成部122は、3次元モデル生成機能に対応する処理を行う。画像表示制御部123は、画像群の空間的な位置関係の判断や、画像選択に関する制御を行う。   The deterioration inspection support unit 121 performs a process corresponding to the deterioration inspection support function. The deterioration inspection support unit 121 performs, for example, visual inspection support processing or automatic diagnosis processing. The three-dimensional model generation unit 122 performs a process corresponding to the three-dimensional model generation function. The image display control unit 123 determines the spatial positional relationship of the image group and performs control related to image selection.

[画像表示システム]
図3は、実施の形態の画像表示システム(計算機システム1)の構成を示す。画像表示システムは、入力(記憶等を含む)としては、画像データd3に基づいた画像群201および画像情報202、構造物データd1、撮影計画データd2等を有する。実施の形態では、入力の画像データd3(画像群201)は、主にドローン10のカメラ4によって得られるが、これに限らず、作業者の人手で撮影された画像群としてもよいし、各種の手段で得られる画像群の組み合わせでもよい。画像群201は、各画像の本体のデータである。画像情報202は、画像毎に関連付けられた、例えば公知のExif等の形式のメタデータやプロパティ情報である。画像情報202は、例えば、ID(識別情報)、撮影日時、カメラ位置、カメラ方向、カメラ機種、焦点距離、画角、画像サイズ(画素数)、等の情報を有する。なお、カメラ位置およびカメラ方向は、SFM処理部122Aによって生成されたものを用いる。
[Image display system]
FIG. 3 shows a configuration of the image display system (computer system 1) according to the embodiment. The image display system has, as inputs (including storage and the like), an image group 201 and image information 202 based on the image data d3, structure data d1, photographing plan data d2, and the like. In the embodiment, the input image data d3 (image group 201) is mainly obtained by the camera 4 of the drone 10, but is not limited thereto, and may be an image group photographed manually by an operator. The combination of the image groups obtained by the above means may be used. The image group 201 is data of the main body of each image. The image information 202 is metadata or property information associated with each image in a format such as, for example, a known Exif. The image information 202 includes, for example, information such as ID (identification information), shooting date and time, camera position, camera direction, camera model, focal length, angle of view, image size (number of pixels), and the like. Note that the camera position and the camera direction generated by the SFM processing unit 122A are used.

画像表示システムは、処理(対応する処理部)としては、一覧表示部301、個別表示部302、画像表示制御部123、劣化検査支援部121、3次元モデル生成部122等を有する。画像表示制御部123は、隣接画像判断部303、重複率計算部304を含む。画像表示システムは、出力(表示、記憶等を含む)としては、一覧画面401、個別画面402等の画面を出力する。   The image display system includes a list display unit 301, an individual display unit 302, an image display control unit 123, a deterioration inspection support unit 121, a three-dimensional model generation unit 122, and the like as processing (corresponding processing units). The image display control unit 123 includes an adjacent image determination unit 303 and an overlap ratio calculation unit 304. The image display system outputs screens such as a list screen 401 and an individual screen 402 as outputs (including display, storage, and the like).

一覧表示部301は、画像群201および画像情報202(例えばID、撮影日時)に基づいて、一覧画面401を表示する。一覧画面401では、画像群201の複数の画像が、ID等を用いた順序で並列に配置されて表示される。   The list display unit 301 displays a list screen 401 based on the image group 201 and the image information 202 (for example, ID, shooting date and time). On the list screen 401, a plurality of images of the image group 201 are arranged and displayed in parallel in an order using IDs and the like.

個別表示部302は、画像群201、および一覧画面401での第1画像選択情報321に基づいて、個別画面402を表示する。個別表示部302は、その個別画面402内に、ユーザが選択した第1画像322を表示する。また、個別表示部302は、個別画面402内でのリンク画像選択情報323に基づいて、リンク画像に対応付けられた第2画像324を表示する。   The individual display unit 302 displays the individual screen 402 based on the image group 201 and the first image selection information 321 on the list screen 401. The individual display unit 302 displays the first image 322 selected by the user on the individual screen 402. Further, the individual display unit 302 displays the second image 324 associated with the link image based on the link image selection information 323 in the individual screen 402.

画像表示制御部123は、隣接画像判断部303等を用いて、画像間の空間的な位置関係や重複度合いを把握し、画像間のリンクや次画像の選択を制御する。   The image display control unit 123 uses the adjacent image determination unit 303 and the like to grasp the spatial positional relationship and the degree of overlap between the images, and controls the link between the images and the selection of the next image.

隣接画像判断部303は、画像情報202と、第1画像選択情報321またはリンク画像選択情報323(すなわち第2画像選択情報)とに基づいて、第1画像に対する周辺にある候補画像、隣接画像等を判断する。隣接画像は、重複度合いが最小で隣接している画像である。隣接画像判断部303は、画像情報202のうちの特に位置情報(カメラ位置等)や方向情報(カメラ方向等)を用いて、画像間の位置関係を判断する。また、隣接画像判断部303は、重複率計算部304で計算した重複率の情報を用いて、隣接画像を判断する。隣接画像判断部303は、ある画像(第1画像)とその周辺にある別の画像との位置間の距離を判断し、また、各画像の方向(対応するカメラ方向や、画像の撮影範囲が配置されている面の方向等)の同異を判断する。   Based on the image information 202 and the first image selection information 321 or the link image selection information 323 (that is, the second image selection information), the adjacent image determination unit 303 determines a candidate image, an adjacent image, and the like around the first image. Judge. Adjacent images are images that are adjacent with a minimum degree of overlap. The adjacent image determination unit 303 determines a positional relationship between images using, in particular, position information (camera position and the like) and direction information (camera direction and the like) of the image information 202. In addition, the adjacent image determination unit 303 determines an adjacent image using the information on the overlap ratio calculated by the overlap ratio calculation unit 304. The adjacent image determination unit 303 determines the distance between the position of a certain image (first image) and another image in the vicinity thereof, and determines the direction of each image (corresponding camera direction or image capturing range). The direction of the arranged surface) is determined.

重複率計算部304は、第1画像選択情報321等と、隣接画像判断部303の判断による候補画像情報等とに基づいて、画像間の重複率を計算する。   The overlap ratio calculation unit 304 calculates the overlap ratio between images based on the first image selection information 321 and the like and the candidate image information determined by the adjacent image determination unit 303.

画像表示制御部123は、隣接画像判断部303で判断された隣接画像等の画像に対応するリンク画像325を、個別画面402内に表示する。リンク画像325は、第1画像の次に選択する候補となる画像(次画像)をナビゲーションするためのリンク画像(GUI部品)である。   The image display control unit 123 displays the link image 325 corresponding to the image such as the adjacent image determined by the adjacent image determination unit 303 on the individual screen 402. The link image 325 is a link image (GUI component) for navigating an image (next image) that is a candidate to be selected next to the first image.

劣化検査支援部121は、個別画面402を劣化検査画面として、ユーザ操作に基づいて、目視検査の支援処理等を行い、処理の状態や結果を劣化検査画面に表示し、処理の状態や結果を表す検査データd4を作成して保存する。   The deterioration inspection support unit 121 performs a visual inspection support process or the like based on a user operation using the individual screen 402 as a deterioration inspection screen, displays a processing state or result on the deterioration inspection screen, and displays the processing state or result. The inspection data d4 to be represented is created and stored.

3次元モデル生成部122は、SFM処理部122Aを含む。SFM処理部122Aは、画像群201を入力としてSFM処理を行うことで、構造物5の3次元モデルとカメラ方向およびカメラ位置の情報とを生成し、対応する3次元モデルデータd5を作成する。3次元モデル生成部122は、3次元モデルデータd5に基づいて、構造物3次元モデル画面を表示する。3次元モデル生成部122は、得たカメラ方向およびカメラ位置の情報を、画像情報202に記述するか、または画像データd3と関連付けて情報管理する。   The three-dimensional model generation unit 122 includes an SFM processing unit 122A. The SFM processing unit 122A generates a three-dimensional model of the structure 5 and information on the camera direction and the camera position by performing the SFM processing with the image group 201 as an input, and creates the corresponding three-dimensional model data d5. The three-dimensional model generation unit 122 displays a structure three-dimensional model screen based on the three-dimensional model data d5. The three-dimensional model generation unit 122 describes the obtained camera direction and camera position information in the image information 202 or manages the information in association with the image data d3.

ユーザは、一覧画面401に対し、画像群から所望の画像を第1画像として選択する操作(第1画像選択操作)OP1を行う。また、ユーザは、個別画面402に対し、リンク画像を選択する操作(第2画像選択操作=リンク画像選択操作)OP2を行う。また、ユーザは、個別画面402(劣化検査画面)の画像に対し、劣化検査操作OP3を行う。   The user performs an operation (first image selection operation) OP1 on the list screen 401 to select a desired image from the image group as the first image. In addition, the user performs an operation (second image selection operation = link image selection operation) OP2 on the individual screen 402 to select a link image. Further, the user performs the deterioration inspection operation OP3 on the image of the individual screen 402 (deterioration inspection screen).

[処理フロー]
図4は、実施の形態の画像表示システムを含む、構造物劣化検査支援システムの処理フローを示す。図4のフローは、ステップS1〜S13を有する。以下、ステップの順に説明する。
[Processing flow]
FIG. 4 shows a processing flow of the structure deterioration inspection support system including the image display system according to the embodiment. The flow in FIG. 4 includes steps S1 to S13. Hereinafter, the steps will be described in order.

(S1) 計算機システム1は、ユーザ操作および構造物5の撮影計画データd2等に基づいて、ドローン10の空撮設定情報を作成して設定する。その空撮設定情報に基づいて、ドローン10による空撮が実行される。その空撮によって、カメラ4の撮影による画像データ等が、PC2に送信される。PC2は、画像データ等を、サーバ3に送信する。サーバ3は、DB31に、画像データd3等を格納する。   (S1) The computer system 1 creates and sets aerial photography setting information of the drone 10 based on a user operation, the photography plan data d2 of the structure 5, and the like. Aerial photography by the drone 10 is performed based on the aerial photography setting information. By the aerial photographing, image data or the like obtained by photographing with the camera 4 is transmitted to the PC 2. The PC 2 transmits image data and the like to the server 3. The server 3 stores the image data d3 and the like in the DB 31.

(S2) 計算機システム1は、DB31等から画像データd3(画像データ201、画像情報202)等を読み出して処理用のメモリに保持する。   (S2) The computer system 1 reads out image data d3 (image data 201, image information 202) and the like from the DB 31 and the like, and stores them in the processing memory.

(S3) 計算機システム1(特に一覧表示部301)は、画像データd3(画像群201、画像情報202)に基づいて、一覧画面401(図14)に、画像群の一覧を表示する。   (S3) The computer system 1 (especially the list display unit 301) displays a list of image groups on the list screen 401 (FIG. 14) based on the image data d3 (image group 201, image information 202).

(S4) 計算機システム1は、一覧画面401でのユーザ操作を受け付け、所定の操作(第1画像選択操作OP1)を受けた場合、第1画像選択情報321を得て、第1画像を選択する。第1画像選択操作OP1は、例えば1枚の画像のクリック、タップ等である。   (S4) The computer system 1 receives the user operation on the list screen 401 and, when receiving a predetermined operation (first image selection operation OP1), obtains the first image selection information 321 and selects the first image. . The first image selection operation OP1 is, for example, a click or a tap of one image.

(S5) 計算機システム1(特に個別表示部302)は、S4の操作および第1画像選択情報321に基づいて、個別画面402(図15)に、選択された第1画像322を表示する。ユーザは、この個別画面402を劣化検査画面(図21)として劣化検査作業を行うことができる。   (S5) The computer system 1 (especially the individual display unit 302) displays the selected first image 322 on the individual screen 402 (FIG. 15) based on the operation in S4 and the first image selection information 321. The user can perform the deterioration inspection work using the individual screen 402 as the deterioration inspection screen (FIG. 21).

(S6) 計算機システム1(特に隣接画像判断部303)は、画像情報202および第1画像選択情報321(またはリンク画像選択情報323)に基づいて、第1画像に対する周辺にある各画像(候補画像)を探索する。その際、隣接画像判断部303は、画像のカメラ位置やカメラ方向等の情報を用いて、画像間の位置関係を判断する。特に、隣接画像判断部303は、第1画像と候補画像との位置間の距離を計算し、その距離に基づいて、第1画像に対する候補画像をピックアップする。その際、隣接画像判断部303は、距離が小さい順に、候補画像をピックアップする。また、その際、隣接画像判断部303は、予め設定された距離閾値を用いて、距離が距離閾値以内である範囲で、候補画像を絞り込む。なお、この時点では、まだ隣接画像は決定されていない。   (S6) Based on the image information 202 and the first image selection information 321 (or the link image selection information 323), the computer system 1 (especially the adjacent image determination unit 303) executes each image (candidate image) in the vicinity of the first image. Explore). At this time, the adjacent image determination unit 303 determines the positional relationship between the images using information such as the camera position and the camera direction of the images. In particular, the adjacent image determination unit 303 calculates a distance between the position of the first image and the candidate image, and picks up a candidate image for the first image based on the distance. At this time, the adjacent image determination unit 303 picks up candidate images in ascending order of the distance. At that time, the adjacent image determination unit 303 narrows down the candidate images within a range in which the distance is within the distance threshold, using a preset distance threshold. At this point, the adjacent image has not been determined yet.

また、特に、本処理例では、隣接画像判断部303は、候補画像をピックアップする際に、まず、画像のカメラ方向が概略同じである画像、例えば同じ面内に配置されている画像を、先に候補画像としてピックアップする。   Further, in particular, in this processing example, when picking up a candidate image, the adjacent image determination unit 303 first extracts an image whose camera direction is substantially the same, for example, an image arranged in the same plane. Is picked up as a candidate image.

(S7) 計算機システム1(特に重複率計算部304)は、S6で得た候補画像毎に、順に、第1画像と候補画像との組で、画像間の重複率(OLとする)を計算する。その際、重複率計算部304は、後述のように、画像毎の撮影範囲を計算し(図7)、その撮影範囲等を用いて、重複率OLを計算する(図12等)。   (S7) The computer system 1 (especially the overlap ratio calculation unit 304) sequentially calculates the overlap ratio (OL) between the pairs of the first image and the candidate image for each candidate image obtained in S6. I do. At that time, the duplication ratio calculation unit 304 calculates a photographing range for each image (FIG. 7), and calculates the duplication ratio OL using the photographing range and the like (FIG. 12 and the like), as described later.

(S8) 計算機システム1(特に隣接画像判断部303)は、S7で得た重複率OLを、予め設定されている所定の重複率閾値(TOLとする)と比較することで、重複状態を判断する。本処理例では、隣接画像判断部303は、候補画像に関するOL値が、TOL値以下で0よりも大きく、最小となるかどうかを判断する。計算機システム1は、その条件を満たす候補画像を、隣接画像(重複が最小で隣接している画像)として選択する。計算機システム1は、面内の上下左右等の方向毎に、同様に、隣接画像を判断する。   (S8) The computer system 1 (especially the adjacent image judging unit 303) judges the duplication state by comparing the duplication rate OL obtained in S7 with a predetermined duplication rate threshold value (TOL) set in advance. I do. In this processing example, the adjacent image determination unit 303 determines whether the OL value of the candidate image is equal to or less than the TOL value, is greater than 0, and is minimum. The computer system 1 selects a candidate image that satisfies the condition as an adjacent image (an image with the minimum overlap and an adjacent image). The computer system 1 similarly determines an adjacent image for each direction such as up, down, left, and right in the plane.

なお、予め、重複率閾値TOLが、劣化検査支援ソフトウェア100のプログラムに設定済みである。これに限らず、TOL値をユーザ設定できるようにしてもよい。   Note that the overlap ratio threshold TOL has already been set in the program of the deterioration inspection support software 100. The present invention is not limited to this, and the TOL value may be set by the user.

(S9) 計算機システム1は、S8の結果で、重複状態の条件を満たす隣接画像が見つかったかどうかを確認し、見つかった場合(Y)にはS11へ進み、見つからなかった場合(N)にはS10へ進む。ここで見つからなかった場合とは、画像のカメラ方向が概略同じである画像、例えば同じ面内に配置されている画像からは見つからなかった場合に対応する。   (S9) Based on the result of S8, the computer system 1 confirms whether or not an adjacent image satisfying the condition of the overlapping state has been found. If it has been found (Y), the process proceeds to S11. If it has not been found (N), Proceed to S10. Here, the case where no image is found corresponds to the case where no image is found from an image whose camera direction is substantially the same, for example, an image arranged in the same plane.

(S10) S10では、計算機システム1は、探索済みの画像以外で、画像の位置間の距離が最も小さい候補画像を、次画像として選択する。後述するが、例えば、この次画像は、第1画像に対してカメラ方向が異なる、別の面(側面等)に配置されている画像となる。あるいは、この次画像は、第1画像と同じ面内であっても重複が無く離れた位置にある画像となる。   (S10) In S10, the computer system 1 selects a candidate image other than the searched image and having the smallest distance between image positions as the next image. As will be described later, for example, this next image is an image arranged on another surface (side surface or the like) having a different camera direction from the first image. Alternatively, this next image is an image located at a distance without any overlap even in the same plane as the first image.

(S11) 計算機システム1(画像表示制御部123)は、個別画面402内に、S8またはS10で選択された画像(次画像)についてのリンク画像325(図15のリンク画像403、図16のリンク画像404等)を表示する。特に、画像表示制御部123は、第1画像に対する各方向で、次画像の種類に応じたリンク画像325を表示する。   (S11) The computer system 1 (image display control unit 123) displays the link image 325 (the link image 403 in FIG. 15 and the link in FIG. 16) of the image (the next image) selected in S8 or S10 in the individual screen 402. Image 404). In particular, the image display control unit 123 displays the link image 325 according to the type of the next image in each direction with respect to the first image.

(S12) 計算機システム1は、個別画面402で、リンク画像325に対するユーザの所定の操作(第2画像選択操作OP2)を受け付ける。第2画像選択操作OP2は、リンク画像に対するクリック、タップ等である。また、計算機システム1は、個別画面402で、一覧画面401に戻るための操作や終了操作等の他の操作を受け付ける。計算機システム1は、リンク画像325に対する選択操作(第2画像選択操作OP2)を受けた場合(Y)、S13へ進み、一覧画面401に戻るための操作を受けた場合、S3へ戻る。   (S12) The computer system 1 receives the user's predetermined operation (second image selection operation OP2) on the link image 325 on the individual screen 402. The second image selection operation OP2 is a click, a tap, or the like on the link image. Further, the computer system 1 receives another operation such as an operation for returning to the list screen 401 and an end operation on the individual screen 402. The computer system 1 proceeds to S13 when receiving a selection operation (second image selection operation OP2) for the link image 325 (Y), and returns to S3 when receiving an operation for returning to the list screen 401.

(S13) S13では、計算機システム1(特に個別表示部302)は、S12のリンク画像選択情報(第2画像選択情報)324に基づいて、個別画面402に、選択されたリンク画像325で表される次画像(第2画像)を、新たな第1画像として表示する。S13の後、S6に戻り、同様の繰り返しの処理である。ユーザは、個別画面402(劣化検査画面)でその新たな第1画像を見て劣化検査作業が可能である。以後同様に、画像群におけるある画像から他の画像への選択および表示遷移が可能である。   (S13) In S13, the computer system 1 (in particular, the individual display unit 302) is displayed on the individual screen 402 by the selected link image 325 based on the link image selection information (second image selection information) 324 in S12. The next image (second image) is displayed as a new first image. After S13, the process returns to S6, and the same repetitive processing is performed. The user can perform the deterioration inspection work by viewing the new first image on the individual screen 402 (deterioration inspection screen). Thereafter, similarly, selection and display transition from one image to another image in the image group are possible.

[空撮方式(1)]
図5は、ドローン10を用いた構造物5の空撮の方式の第1例を示す。空撮の方式は、これに限らない。この空撮の方式は、画像表示システムでの処理や特徴を考慮して、好適な方式が選択されている。計算機システム1のドローン制御機能21を用いて、撮影計画データd2等に基づいて、ドローン10による空撮のルートや、カメラ4の撮影設定等が、空撮設定情報として設定される。空撮設定情報は、DB31等に保持される。
[Aerial photography method (1)]
FIG. 5 shows a first example of an aerial photographing method of the structure 5 using the drone 10. The method of aerial photography is not limited to this. As the aerial photography method, a suitable method is selected in consideration of the processing and characteristics of the image display system. Using the drone control function 21 of the computer system 1, the route of the aerial photographing by the drone 10, the photographing setting of the camera 4, and the like are set as the aerial photographing setting information based on the photographing plan data d2 and the like. The aerial photography setting information is held in the DB 31 or the like.

図5の(A)は、構造物5が概略的に長方体である場合における、Z方向の俯瞰の構成を示す。この構造物5は、鉛直に立つ4つの側面A1〜A4を有する。本画像表示システムは、例えばこれらの側面A1〜A4の全表面領域を、網羅的に撮影して劣化検査対象とする。また、構造物5は、例えば角部501のように、異なる方向の側面同士が接続されている角部を有する。   FIG. 5A shows a bird's-eye view configuration in the Z direction when the structure 5 is roughly a rectangular parallelepiped. This structure 5 has four side surfaces A1 to A4 standing vertically. The image display system comprehensively captures, for example, the entire surface area of these side surfaces A1 to A4 and sets the image as a degradation inspection target. In addition, the structure 5 has corners, such as corners 501, in which side surfaces in different directions are connected to each other.

本例では、対象物5の側面毎にグループ(側面グループ)として分けて空撮が行われる。本例では、4つの側面A1〜A4に対応して4つのグループに分けられ、対応して4つのルートR1〜R4が設定され、4回に分けて空撮が行われる。本例では、各グループのルートは、基本的に直線状のルート(破線矢印で示す)とされ、カメラ方向(一点鎖線矢印で示す)および対象距離D0が概略一定となるように制御される。   In the present example, aerial photography is performed separately for each side surface of the object 5 as a group (side surface group). In the present example, four routes R1 to R4 are set corresponding to four groups corresponding to the four side surfaces A1 to A4, and aerial photography is performed four times. In this example, the route of each group is basically a straight route (indicated by a dashed arrow), and is controlled so that the camera direction (indicated by an alternate long and short dash line) and the target distance D0 are substantially constant.

例えば、最初、側面A1のグループは、ルートR1で空撮が行われる。ルートR1では、カメラ方向がY方向(手前から奥への方向Y1)である。次に、側面A2のグループでは、ルートR2で空撮が行われる。ルートR2では、カメラ方向がX方向(右から左の方向X1)である。側面A3のルートR3、側面A4のルートR4についても同様である。   For example, first, in the group on the side surface A1, aerial photography is performed on the route R1. In the route R1, the camera direction is the Y direction (the direction Y1 from the front to the back). Next, in the group of the side surface A2, aerial photography is performed along the route R2. On route R2, the camera direction is the X direction (right-to-left direction X1). The same applies to the route R3 of the side surface A3 and the route R4 of the side surface A4.

図5の(B)は、(A)に対応して、構造物5および空撮のルートを斜視で示す。特に、側面A1のグループを空撮するルートR1における詳しい設定例を示す。本例では、側面A1(X−Z平面)の全領域を網羅的に撮影するにあたり、いわゆる線順次走査方式と同様の方式を用いている。この方式では、まず、ドローン10を、水平方向であるX方向において、側面A1の一方端から他方端まで、主走査のように直線状に移動させる。この水平方向の移動の際に、カメラ4の方向および対象距離D0が概略一定になるように制御される。ドローン10が側面A1の他方端に到達した後、次に、ドローン10を、鉛直方向(Z方向)で、副走査のように直線状に移動させる。次に、同様に、X方向で反対方向に折り返すように、側面A1の他方端から一方端まで、主走査のように直線状に移動させる。その後も同様に主走査、副走査が繰り返される。   FIG. 5B corresponds to FIG. 5A and shows the structure 5 and the route of aerial photography in a perspective view. Particularly, a detailed setting example of a route R1 for aerial photographing the group of the side surface A1 is shown. In this example, a method similar to a so-called line-sequential scanning method is used to comprehensively photograph the entire area of the side surface A1 (XZ plane). In this method, first, the drone 10 is linearly moved from one end of the side surface A1 to the other end in the X direction, which is a horizontal direction, as in main scanning. During the horizontal movement, the direction of the camera 4 and the target distance D0 are controlled so as to be substantially constant. After the drone 10 reaches the other end of the side surface A1, the drone 10 is then moved linearly in the vertical direction (Z direction) like a sub-scan. Next, similarly, the side surface A1 is linearly moved from the other end to one end of the side surface A1 like a main scan so as to be folded in the opposite direction in the X direction. Thereafter, the main scanning and the sub-scanning are similarly repeated.

なお、実施の形態の例では、主に鉛直に立つ側面を対象として説明しているが、構造物5の屋上等の水平面についても、同様に対象として処理することが可能である。その場合、空撮時のカメラ4の方向は、例えばZ方向下方となる。また、実施の形態の例では、空撮時のカメラ4の方向としては、側面を平面視する水平方向であるX方向やY方向とする場合を説明しているが、これに限らず、例えば斜め下方向等にしても、同様に処理することが可能である。   Note that, in the example of the embodiment, the description is mainly directed to the side surface that stands vertically, but the horizontal surface such as the roof of the structure 5 can be similarly processed as the target. In this case, the direction of the camera 4 during aerial photography is, for example, downward in the Z direction. Further, in the example of the embodiment, the case where the direction of the camera 4 at the time of aerial photography is the X direction or the Y direction which is a horizontal direction in which the side surface is viewed in a plan view is described, but is not limited thereto. The same processing can be performed even in an obliquely downward direction.

空撮の設定の際には、予め、3次元モデル生成機能のSFM処理を考慮して、画像間の重複状態が好適になるように、ドローン10のルート、カメラ4の撮影タイミング(間隔)等が設定される。例えば、ドローン10およびカメラ4の進行方向での重複状態が80%程度となるように設定される。この設定に基づいた空撮により、好適な重複状態の画像群が得られる。この画像群を入力としてSFM処理を確実に行うことができ、高精度の3次元モデルを得ることができる。   When setting the aerial photography, the route of the drone 10, the photographing timing (interval) of the camera 4, and the like are set in advance in consideration of the SFM processing of the three-dimensional model generation function so that the overlapping state between the images is suitable. Is set. For example, the overlapping state in the traveling direction of the drone 10 and the camera 4 is set to be about 80%. By performing aerial photography based on this setting, a group of images in a suitable overlapping state is obtained. The SFM processing can be reliably performed by using this image group as an input, and a highly accurate three-dimensional model can be obtained.

ただし、上記3次元モデル生成の用途に対応した画像群を、劣化検査にも用いる場合、画像間の重複領域が多いので、各画像の劣化検査の際に、検査済み領域(すなわち重複領域)が多く、再度検査する領域が多くなってしまい、非効率的である。そのため、効率的な劣化検査を行うためには、それらの画像群から、画像間の重複がなるべく少ない画像群を、劣化検査対象の画像群として選択することが好ましい。しかしながら、この画像選択を人手で行うことには、難しさがあり、手間が多大である。そこで、本画像表示システムでは、この画像選択を支援および効率化できるGUI等の仕組みを提供している。   However, when the image group corresponding to the use of the three-dimensional model generation is also used for the deterioration inspection, there are many overlapping areas between the images. Therefore, at the time of the deterioration inspection of each image, the inspected area (that is, the overlapping area) is reduced. In many cases, the area to be inspected again increases, which is inefficient. Therefore, in order to perform an efficient deterioration inspection, it is preferable to select an image group in which the overlap between the images is as small as possible from those image groups as an image group to be subjected to the deterioration inspection. However, it is difficult and time-consuming to manually select the image. Therefore, the present image display system provides a mechanism such as a GUI that can support and increase the efficiency of the image selection.

[空撮方式(2)]
図6は、ドローン10を用いた構造物5の空撮の方式の第2例を同様に示す。構造物5の形状等に応じて、このような空撮の方式が適宜に選択される。図6の(A)の構造物5は、本例では、図5の直方体の構造物5の側面A1に対し、さらに、右側(方向X2)の一部の手前側(方向Y2)に、別の直方体の部分が追加接続されたような形状を有する。この構造物5は、6つの側面a1〜a6を有し、それらの全表面領域が検査対象であるとする。また、この構造物5は、角部601、角部602、角部603等の角部を有する。角部601は、X方向に延在する側面a1と、Y方向に延在する側面a2とが接続されている部分であり、ドローン10からみて凹状になっている角部である。角部602は、Y方向に延在する側面a2と、X方向に延在する側面a3とが接続されている部分であり、ドローン10からみて凸状になっている角部である。角部603は、X方向に延在する側面a3と、Y方向に延在する側面a4とが接続されている部分であり、凸状になっている角部である。
[Aerial photography method (2)]
FIG. 6 similarly shows a second example of a method of aerial photographing of the structure 5 using the drone 10. Such an aerial photographing method is appropriately selected according to the shape of the structure 5 and the like. In the present example, the structure 5 in FIG. 6A is different from the side surface A1 of the rectangular parallelepiped structure 5 in FIG. 5 on a part of the right side (direction X2) on the near side (direction Y2). Has a shape such that a rectangular parallelepiped portion of the is connected additionally. This structure 5 has six side surfaces a1 to a6, and it is assumed that the entire surface area thereof is to be inspected. The structure 5 has corners such as a corner 601, a corner 602, and a corner 603. The corner portion 601 is a portion where the side surface a1 extending in the X direction and the side surface a2 extending in the Y direction are connected, and is a corner portion that is concave when viewed from the drone 10. The corner portion 602 is a portion where the side surface a2 extending in the Y direction and the side surface a3 extending in the X direction are connected, and is a convex portion viewed from the drone 10. The corner portion 603 is a portion where the side surface a3 extending in the X direction and the side surface a4 extending in the Y direction are connected, and is a convex corner portion.

本例では、同様に、対象物5の側面毎にグループとして分けて空撮が行われる。本例では、6つの側面a1〜a6に対応して6つのグループに分けられ、対応して6つのルートr1〜r6が設定され、6回に分けて空撮が行われる。各グループのルートは、直線状のルートとされ、カメラ方向および対象距離D0が概略一定となるように制御される。全体で、カメラ方向は、方向Y1,方向Y2,方向X1,方向X2の4種類に分けられる。例えば、側面a1のグループのルートr1では、カメラ方向がY方向(方向Y1)である。側面a2のグループのルートr2ででは、カメラ方向がX方向(方向X2)である。側面a3のルートr3では、カメラ方向がY方向(方向Y1)である。側面a4のルートr4では、カメラ方向がX方向(方向X1)である。他の側面のルートについても同様である。   In this example, similarly, aerial photography is performed by dividing the object 5 into groups for each side surface. In this example, the six side surfaces a1 to a6 are divided into six groups, six routes r1 to r6 are set correspondingly, and aerial photography is performed six times. The route of each group is a straight route, and is controlled so that the camera direction and the target distance D0 are substantially constant. As a whole, camera directions are divided into four types: a direction Y1, a direction Y2, a direction X1, and a direction X2. For example, in the route r1 of the group of the side surface a1, the camera direction is the Y direction (direction Y1). On the route r2 of the group of the side surface a2, the camera direction is the X direction (direction X2). On the route r3 of the side surface a3, the camera direction is the Y direction (direction Y1). On route r4 of side surface a4, the camera direction is the X direction (direction X1). The same applies to the routes of other aspects.

図6の(B)は、(A)に対応して、構造物5および空撮のルートを斜視で示す。特に、側面a1のルートr1や側面a3のルートr3等における詳しい設定例を示す。図5の(B)と同様に、側面毎に、線順次走査方式と同様の方式を用いている。   FIG. 6B shows the structure 5 and the route of the aerial photography in perspective, corresponding to FIG. In particular, a detailed setting example of the route r1 of the side surface a1 and the route r3 of the side surface a3 will be described. As in FIG. 5B, the same method as the line-sequential scanning method is used for each side surface.

[撮影範囲]
図7は、画像の撮影範囲等について模式図を示す。画像表示システムの画像表示制御部123は、以下のように、画像の撮影範囲を計算する。この撮影範囲は、重複率の計算に用いられる。撮影範囲は、画像の縦横の長さ等で規定される、現実世界でのサイズである。撮影範囲の計算のために、焦点距離(Fとする)、センササイズ(SSとする)、対象距離(Dとする)等を用いる。図7では、Z方向の俯瞰で、構造物5の壁面701(例えば側面A1)、ドローン10の空撮のルートの一部における進行方向K1(例えばX方向)、カメラ4の位置(カメラ位置Cとする)、カメラ4の方向(カメラ方向Vとする)、カメラ4のセンサ702、画像の撮影範囲(SAとする。特にX方向の幅を示す。)等を示す。
[Shooting range]
FIG. 7 is a schematic diagram illustrating an image capturing range and the like. The image display control unit 123 of the image display system calculates the image capturing range as described below. This imaging range is used for calculating the overlap rate. The shooting range is a size in the real world defined by the length and width of the image and the like. For calculating the photographing range, a focal length (F), a sensor size (SS), a target distance (D), and the like are used. In FIG. 7, the bird's-eye view in the Z direction shows the wall surface 701 (for example, the side surface A1) of the structure 5, the traveling direction K1 (for example, the X direction) in a part of the aerial photography route of the drone 10, and the position of the camera 4 (the camera position C). ), The direction of the camera 4 (referred to as a camera direction V), the sensor 702 of the camera 4, an image capturing range (referred to as an SA, particularly, a width in the X direction), and the like.

センサ702は、カメラ4の撮像素子であり、図7ではX方向の幅の部分を示す。センサ702は、所定のセンササイズSS(特にX方向の幅を示す)を有する。センササイズSSは、カメラ機種に応じたものであり、幅、高さ、対角距離等で規定される。センササイズSSは、画像情報202に含まれているか、または含まれていなくてもカメラ機種や他の情報から把握可能である。センサ702の中央位置を、カメラ位置Cとして示す。センサ702およびカメラ位置Cから、例えばY方向にカメラ方向V(一点鎖線矢印で示す)がある。カメラ方向Vが壁面701と交わる位置を位置Qで示す。位置Qは、画像および撮影範囲SAの中心位置に対応する。カメラ方向Vにおける、カメラ位置Cから壁面701(側面A1)の位置Qまでの距離において、焦点距離Fと対象距離Dとがある。焦点距離Fは、画像情報202から得られる。対象距離Dは、対象物までの距離である。対象距離Dは、撮影計画データd2に基づいて得られる。例えば図5の対象距離D0から対象距離Dが得られる。   The sensor 702 is an image sensor of the camera 4, and FIG. 7 shows a portion having a width in the X direction. The sensor 702 has a predetermined sensor size SS (particularly, a width in the X direction). The sensor size SS depends on the camera model, and is defined by a width, a height, a diagonal distance, and the like. The sensor size SS is included in the image information 202 or can be grasped from the camera model and other information even if it is not included. The center position of the sensor 702 is shown as camera position C. From the sensor 702 and the camera position C, for example, there is a camera direction V (indicated by an alternate long and short dash line arrow) in the Y direction. The position where the camera direction V intersects the wall surface 701 is indicated by a position Q. The position Q corresponds to the center position of the image and the shooting range SA. In the distance from the camera position C to the position Q of the wall surface 701 (side surface A1) in the camera direction V, there are a focal length F and a target distance D. The focal length F is obtained from the image information 202. The target distance D is a distance to the target. The target distance D is obtained based on the shooting plan data d2. For example, the target distance D is obtained from the target distance D0 in FIG.

計算機システム1(特に重複率計算部304)は、センササイズSS、焦点距離F、対象距離D等を用いて、撮影範囲SAを計算する。基本的な計算式は、[撮影範囲SA]=[センササイズSS]÷[焦点距離F]×[対象距離D]である。具体例は以下である。センササイズSSとして、横(幅)が23.5mm、縦(高さ)が15.6mmであるとする。焦点距離Fが35mmであるとする。対象距離Dが5m(=5000mm)であるとする。撮影範囲SAにおいて、横(X方向)の幅をSAX、縦(Z方向)の高さをSAZとした場合に、SAX=(23.5/35)×5000≒3357mm、SAZ=(15.6/35)×5000≒2229mmとして計算できる。   The computer system 1 (especially the overlap ratio calculation unit 304) calculates the shooting range SA using the sensor size SS, the focal length F, the target distance D, and the like. The basic calculation formula is [photographing range SA] = [sensor size SS] ÷ [focal length F] × [target distance D]. A specific example is as follows. It is assumed that the sensor size SS is 23.5 mm in width (width) and 15.6 mm in height (height). Assume that the focal length F is 35 mm. It is assumed that the target distance D is 5 m (= 5000 mm). In the photographing range SA, when the width in the horizontal (X direction) is SAX and the height in the vertical (Z direction) is SAZ, SAX = (23.5 / 35) × 5000 ≒ 3357 mm, SAZ = (15.6) / 35) × 5000 ≒ 2229 mm.

計算機システム1は、画像群の各画像の撮影範囲SAを同様に計算する。計算機システム1(重複率計算部304)は、各画像の撮影範囲SA等を用いて、画像間の重複率を計算する。また、計算機システム1(隣接画像判断部303)は、カメラ位置C、カメラ方向V、撮影範囲SA等の情報を用いて、画像間の位置関係を判断する。   The computer system 1 similarly calculates the shooting range SA of each image in the image group. The computer system 1 (overlap ratio calculation unit 304) calculates the overlap ratio between images using the shooting range SA of each image. The computer system 1 (adjacent image determining unit 303) determines the positional relationship between images using information such as the camera position C, the camera direction V, and the shooting range SA.

[カメラ位置およびカメラ方向]
計算機システム1は、カメラ位置Cやカメラ方向Vの情報を処理に用いる。カメラ位置Cやカメラ方向Vの情報は、例えば以下のような各方式で得ることができる。
[Camera position and camera direction]
The computer system 1 uses information on the camera position C and the camera direction V for processing. Information on the camera position C and the camera direction V can be obtained by, for example, the following methods.

(1)計算機システム1は、画像情報202内または空撮時のセンサデータ内に、カメラ位置Cやカメラ方向Vの情報を含んでいる場合には、そのカメラ位置Cやカメラ方向Vの情報を参照する。例えば、カメラ4自体に、カメラ位置Cやカメラ方向Vを検出できるセンサを備えてもよい。その場合、カメラ4で撮影した画像の画像データに、その検出したカメラ位置Cやカメラ方向Vの情報を関連付けることで、その情報を参照可能である。   (1) When the computer system 1 includes information on the camera position C and the camera direction V in the image information 202 or the sensor data at the time of aerial photography, the computer system 1 transmits the information on the camera position C and the camera direction V. refer. For example, the camera 4 itself may include a sensor that can detect the camera position C and the camera direction V. In this case, the information can be referred to by associating the information on the detected camera position C and the camera direction V with the image data of the image captured by the camera 4.

(2)計算機システム1は、画像情報202内にカメラ位置Cやカメラ方向Vの情報を含んでいない場合、他の情報から、カメラ位置Cやカメラ方向Vを計算する。例えば、計算機システム1は、空撮時のセンサデータに基づいて、ドローン10の位置および方向と、ジンバル14の位置および方向との各情報を得る。計算機システム1は、それらの情報を用いて、計算によって、カメラ位置Cおよびカメラ方向Vを得る。ドローン10に設置されているジンバル14の相対的位置関係と、ジンバル14に設置されているカメラ4の相対的位置関係とを合わせることで、カメラ位置C等を計算できる。   (2) When the image information 202 does not include the information on the camera position C and the camera direction V, the computer system 1 calculates the camera position C and the camera direction V from other information. For example, the computer system 1 obtains information on the position and direction of the drone 10 and the position and direction of the gimbal 14 based on the sensor data at the time of aerial photography. The computer system 1 obtains the camera position C and the camera direction V by calculation using the information. The camera position C and the like can be calculated by matching the relative positional relationship of the gimbal 14 installed on the drone 10 with the relative positional relationship of the camera 4 installed on the gimbal 14.

(3)計算機システム1は、画像群(例えば連続する3枚の画像)から、SFM処理によって、カメラ位置Cおよびカメラ方向Vを得る。実施の形態の画像表示システムでは、この方式を用いる。3次元モデル生成部122のSFM処理部122Aは、入力の画像群に対するSFM処理を行うことで、カメラ位置Cおよびカメラ方向Vを得る。   (3) The computer system 1 obtains a camera position C and a camera direction V from an image group (for example, three continuous images) by SFM processing. This method is used in the image display system of the embodiment. The SFM processing unit 122A of the three-dimensional model generation unit 122 obtains the camera position C and the camera direction V by performing the SFM processing on the input image group.

[画像間の重複(1)]
図8は、空撮進行方向での画像間および撮影範囲間の重複について示す。図8では、Z方向の俯瞰で、壁面701に対するルートの一部を示す。空撮時のドローン10の進行方向K1は、例えば図5のルートR1の主走査の方向X2や、図6のルートr1の主走査の方向X2である。カメラ方向Cは、方向Y1である。進行方向K1上において、ドローン10の位置Pの例として、位置P1〜P7を点で示す。対応して、カメラ位置Cの例として位置C1〜C7を点で示す。各位置での対象距離D0は一定である。位置P1〜P7や位置C1〜C7は、時系列の順序を持つ。また、位置C1〜C7等に対応して、画像および撮影範囲の側における中心位置を、位置Q1〜Q7の点で示す。例えば、画像g1〜g7、撮影範囲SA1〜SA7を有する。ここでの撮影範囲は、X方向の幅を示す。例えば、位置P1および位置C1で撮影された画像g1の撮影範囲SAが撮影範囲SA1であり、中心位置が位置Q1である。図8の例では、画像g1〜g7における撮影範囲SA1〜SA7は、進行方向K1において、それぞれの画像間で80%程度重複している場合を示す。
[Overlap between images (1)]
FIG. 8 shows the overlap between images and the photographing range in the aerial photographing traveling direction. In FIG. 8, a part of the route to the wall surface 701 is shown as a bird's-eye view in the Z direction. The traveling direction K1 of the drone 10 during the aerial photography is, for example, the main scanning direction X2 of the route R1 in FIG. 5 and the main scanning direction X2 of the route r1 in FIG. The camera direction C is the direction Y1. On the traveling direction K1, as an example of the position P of the drone 10, positions P1 to P7 are indicated by dots. Correspondingly, positions C1 to C7 are indicated by dots as examples of the camera position C. The target distance D0 at each position is constant. The positions P1 to P7 and the positions C1 to C7 have a chronological order. In addition, corresponding to the positions C1 to C7 and the like, the center position on the image and photographing range side is indicated by points Q1 to Q7. For example, it has images g1 to g7 and shooting ranges SA1 to SA7. The imaging range here indicates the width in the X direction. For example, the shooting range SA of the image g1 shot at the position P1 and the position C1 is the shooting range SA1, and the center position is the position Q1. The example of FIG. 8 illustrates a case where the photographing ranges SA1 to SA7 of the images g1 to g7 overlap by about 80% between the images in the traveling direction K1.

[画像間の重複(2)]
図9は、図8の例と対応して、平面視(X−Z平面、例えば側面A1)での画像間の重複について示す。図9では、画像g1〜g7について、重なりの様子がわかりやすいように、Z方向(進行サイド方向K2)でも少しずれがある場合を図示している。進行方向K1は、図8と同様に方向X2である場合を示し、進行サイド方向K2は、進行方向K1に対して垂直な鉛直方向である。進行方向K3は、進行方向K1に進行サイド方向K2のずれ(移動成分)を加えた場合の方向である。本例で、斜線パターンで示す重複領域901は、画像g1(撮影範囲SA1)と画像g2(撮影範囲SA2)との組における重複する領域を示す。重複領域902は、画像g1と画像g6(撮影範囲SA6)との組における重複する領域を示す。
[Overlap between images (2)]
FIG. 9 shows the overlap between images in plan view (XZ plane, for example, side A1), corresponding to the example of FIG. FIG. 9 illustrates a case where the images g1 to g7 are slightly shifted in the Z direction (the traveling side direction K2) so that the state of the overlap can be easily understood. The traveling direction K1 indicates the case of the direction X2 as in FIG. 8, and the traveling side direction K2 is a vertical direction perpendicular to the traveling direction K1. The traveling direction K3 is a direction when a displacement (movement component) of the traveling side direction K2 is added to the traveling direction K1. In the present example, an overlapping area 901 indicated by a diagonal line pattern indicates an overlapping area in a set of an image g1 (imaging area SA1) and an image g2 (imaging area SA2). The overlapping area 902 indicates an overlapping area in the set of the image g1 and the image g6 (the imaging range SA6).

本例で、画像g1〜g7は、3次元モデル生成用に必要な重複率(例えば80%程度)を確保するように撮影された画像群である。例えば、画像g1とその次の画像g2との組では、重複率OLが80%以上(例えば85%)となっている。同様に、画像g1に対する重複率OLは、画像g3では65%、画像g4では45%、画像g5では25%、画像g6では5%となっている。画像g1と画像g7の組では、重複が無く、画像間に隙間がある。   In this example, the images g1 to g7 are a group of images photographed so as to secure an overlap rate (for example, about 80%) necessary for generating a three-dimensional model. For example, in a set of the image g1 and the next image g2, the overlap ratio OL is 80% or more (for example, 85%). Similarly, the overlap ratio OL for the image g1 is 65% for the image g3, 45% for the image g4, 25% for the image g5, and 5% for the image g6. In the set of the image g1 and the image g7, there is no overlap and there is a gap between the images.

劣化検査用に設定された重複率閾値TOLが例えば20%であるとする。画像g1に関して、右側(方向X1)にある各候補画像(画像g2〜g7等)を考えた場合、前述(図4、S8)の重複率の条件を満たす画像として、画像g6が選択される。画像g1に対する画像g6の重複率OL(=5%)は、重複率閾値TOL(=20%)以下で0より大きい範囲内で最小となっている。   It is assumed that the overlap ratio threshold TOL set for the deterioration inspection is, for example, 20%. When considering each of the candidate images (images g2 to g7, etc.) on the right side (direction X1) with respect to the image g1, the image g6 is selected as the image that satisfies the above-described (FIG. 4, S8) overlapping rate condition. The overlap rate OL (= 5%) of the image g6 with respect to the image g1 is the minimum within a range that is equal to or less than the overlap rate threshold TOL (= 20%) and greater than 0.

なお、進行方向K1(X方向、画像の横方向)での重複率を考えるだけでなく、進行サイド方向K2(画像の縦方向)での重複率を同様に考えることができる。本画像表示システムは、進行サイド方向K2についても所定の重複率閾値を用いて同様に処理する。   In addition, not only the overlapping rate in the traveling direction K1 (X direction, the horizontal direction of the image) can be considered, but also the overlapping rate in the traveling side direction K2 (the vertical direction of the image). The present image display system performs the same processing for the traveling side direction K2 using a predetermined overlap ratio threshold.

[画像間の重複(3)]
図10は、図9の例と対応して、平面視(X−Z平面、例えば側面A1)での隣接画像の例について示す。ユーザが選択した第1画像が例えば画像g1であるとする。本画像表示システムは、画像g1に対し、3次元の空間的に周辺にある各画像を候補画像として調べる。図10の例では、画像g1に対し、右方向(方向X2)には、図9と同様に画像g2〜g7等がある。画像g1の右方向に関しては、図9のように重複が最小となる画像(隣接画像)として画像g6が選択される。右方向の隣接画像である画像g6を画像gaとしても示す。画像gaの位置Qaは、画像g6の位置Q6である。画像表示システムは、個別画面402に、画像gaを表すリンク画像を表示する。
[Overlap between images (3)]
FIG. 10 shows an example of an adjacent image in a plan view (XZ plane, for example, side A1), corresponding to the example of FIG. It is assumed that the first image selected by the user is, for example, the image g1. The present image display system examines three-dimensional spatially peripheral images of the image g1 as candidate images. In the example of FIG. 10, there are images g2 to g7 and the like in the right direction (direction X2) with respect to the image g1, as in FIG. In the right direction of the image g1, the image g6 is selected as an image (adjacent image) with the minimum overlap as shown in FIG. The image g6, which is an adjacent image in the right direction, is also shown as an image ga. The position Qa of the image ga is the position Q6 of the image g6. The image display system displays a link image representing the image ga on the individual screen 402.

画像g1に対し、左方向(方向X1)には、隣接画像として例えば画像gb(位置Qb)がある。画像g1と画像gbとの間にある各画像については省略している。同様に、画像g1に対し、上方向(方向Z1)には、隣接画像として例えば画像gc(位置Qc)がある。画像g1に対し、下方向(方向Z2)には、隣接画像として例えば画像gd(位置Qd)がある。同様に、画像g1に対し、右斜め下方向には、隣接画像として例えば画像ge(位置Qe)がある。画像g1に対し、右斜め上方向、左斜め上方向、左斜め下方向にも、図示省略するが、隣接画像がある。ユーザは、個別画面402で、第1画像に対して各方向に表示されるリンク画像(対応する隣接画像)から所望の次画像(第2画像)を選択することができる。   In the left direction (direction X1) with respect to the image g1, there is, for example, an image gb (position Qb) as an adjacent image. Each image between the image g1 and the image gb is omitted. Similarly, in the upward direction (direction Z1) with respect to the image g1, there is, for example, an image gc (position Qc) as an adjacent image. In the downward direction (direction Z2) with respect to the image g1, there is an image gd (position Qd) as an adjacent image, for example. Similarly, there is, for example, an image ge (position Qe) as an adjacent image in a diagonally lower right direction with respect to the image g1. Although not shown, there are adjacent images in the diagonally upper right direction, the diagonally upper left direction, and the diagonally lower left direction of the image g1. The user can select a desired next image (second image) from the link images (corresponding adjacent images) displayed in each direction with respect to the first image on the individual screen 402.

また、本画像表示システムで、ある第1画像(例えば画像g1)に対し、斜め方向にある画像、例えば右斜め下の位置Qeの画像geを判断する際には、以下の方式を用いてもよい。第1方式としては、位置Q1の画像g1に対し、直接的に斜め方向にある画像を探索し、画像g1と斜め方向にある画像との重複率を計算し、所定の重複率閾値(斜め方向用に設定される)を用いて、隣接画像を判断する。別の第2方式としては、位置Q1の画像g1に対し、先に、左右や上下にある隣接画像を判断し、その判断で得られた隣接画像(例えば画像ga、画像gd)に対し、さらに、上下や左右にある隣接画像を判断するようにしてもよい。すなわち、第1画像からの2段階で2方向の同様の判断の結果によって、斜め方向の隣接画像を得てもよい。   Further, in the present image display system, when determining an image in an oblique direction with respect to a certain first image (for example, image g1), for example, an image ge at a position Qe that is obliquely lower right, the following method may be used. Good. As a first method, an image in the oblique direction is directly searched for the image g1 at the position Q1, an overlap ratio between the image g1 and the image in the oblique direction is calculated, and a predetermined overlap ratio threshold (in the oblique direction) is calculated. Is set to determine the adjacent image. As another second method, first, left and right or top and bottom adjacent images are determined for the image g1 at the position Q1, and the adjacent images (eg, the image ga and the image gd) obtained by the determination are further processed. Alternatively, it is also possible to determine the adjacent images that are above, below, right and left. That is, oblique adjacent images may be obtained based on the result of the same determination in two directions in two stages from the first image.

[重複率の計算(1)]
図11〜図12を用いて、重複率の計算について説明する。重複率の基本的な定義に関しては以下である。理想的には、構造物5の表面領域(対応する撮影範囲SA)における重複の状態を考える。計算機システム1は、図7の位置Qを中心位置とした画像における表面領域において、画像間で重複する領域を考える。計算機システム1は、画像および重複領域のサイズを計算する。画像間での重複領域の重複度合いを表す率が、重複率として定義される。計算機システム1は、画像および重複領域のサイズに基づいて、重複率を計算する。撮影時のカメラ4と構造物5の表面との距離(対象距離D0)を一定とする場合、各画像内に写っている領域のサイズは、現実世界の物体のサイズと殆ど対応している。よって、その場合、画像の領域のサイズを用いて重複率を計算すれば、十分な効果が得られる。
[Calculation of duplication rate (1)]
The calculation of the overlap rate will be described with reference to FIGS. The basic definition of the overlap ratio is as follows. Ideally, a state of overlap in the surface area of the structure 5 (corresponding imaging range SA) is considered. The computer system 1 considers a region where the images overlap in the surface region in the image centered on the position Q in FIG. The computer system 1 calculates the size of the image and the overlapping area. The rate indicating the degree of overlap of the overlapping area between the images is defined as the overlap rate. The computer system 1 calculates an overlap rate based on the size of the image and the overlap area. When the distance between the camera 4 and the surface of the structure 5 at the time of photographing (target distance D0) is constant, the size of the region shown in each image almost corresponds to the size of the object in the real world. Therefore, in that case, a sufficient effect can be obtained by calculating the overlap ratio using the size of the image area.

図11は、まず、2枚の画像の撮影範囲SAにおける重複状態について示す。図11では、Z方向の俯瞰で示す。側面A1等を対象として、カメラ位置C1から撮影した画像G1と、カメラ位置C2から撮影した画像G2とを示す。画像G1の位置Q1、画像G2の位置Q2を示す。位置C1や位置Q1等は、それぞれ、3次元の位置座標を有する。画像G1の撮影範囲SAにおけるX方向の幅W1と、画像G2の撮影範囲SAにおけるX方向の幅W2とを示す。画像G1と画像G2との組における重複領域の幅を幅W12で示す。例えば、画像G1と画像G2とにおけるX方向での重複率は、画像G1の幅W1と、重複領域の幅W12とを用いて計算できる。   FIG. 11 shows the overlapping state of the two images in the shooting range SA. In FIG. 11, it is shown as a bird's-eye view in the Z direction. An image G1 taken from the camera position C1 and an image G2 taken from the camera position C2 are shown for the side surface A1 and the like. The position Q1 of the image G1 and the position Q2 of the image G2 are shown. Each of the position C1, the position Q1, and the like has three-dimensional position coordinates. The width W1 in the X direction of the photographing range SA of the image G1 and the width W2 in the X direction of the photographing range SA of the image G2 are shown. The width of the overlapping area in the set of the image G1 and the image G2 is indicated by a width W12. For example, the overlapping rate in the X direction between the image G1 and the image G2 can be calculated using the width W1 of the image G1 and the width W12 of the overlapping area.

なお、ドローン10のルートの航行上、風を受けて揺らされること等から、ドローン10の位置、カメラ4の位置、およびカメラ方向等には、揺れやずれが生じ得る。すなわち、各画像のカメラ方向Cが異なる場合がある。その場合でも、構造物5の表面での画像の撮影範囲SAや重複率を同様に計算可能である。   Since the drone 10 travels along the route and is shaken by the wind, the position of the drone 10, the position of the camera 4, the direction of the camera, and the like may be shaken or shifted. That is, the camera direction C of each image may be different. Even in that case, the photographing range SA of the image on the surface of the structure 5 and the overlap ratio can be calculated in the same manner.

[重複率の計算(2)]
図12は、図11に対応して、平面視(X−Z平面)の画像における重複状態について示す。また、本例では、位置Q1の画像G1と位置Q2の画像G2とで、画像サイズが異なる場合を示す。位置Q1の画像G1と位置Q2の画像G2との画像の組における重複領域1201(斜線パターン)を示す。画像G1は、X方向の幅Wとして、幅W1を有し、Z方向の高さHとして、高さH1を有する。画像G2は、幅W2を有し、高さH2を有する。画像G1と画像G2との組で、重複領域1201の幅W12、重複領域1201の高さH12を示す。画像G1の非重複部分の幅NW1、高さNH1、画像G1の非重複部分の幅NW2、高さNH2も示す。
[Calculation of duplication rate (2)]
FIG. 12 corresponds to FIG. 11 and shows an overlapping state in an image in plan view (XZ plane). Further, in this example, a case where the image size is different between the image G1 at the position Q1 and the image G2 at the position Q2 is shown. An overlapping area 1201 (a hatched pattern) in a set of an image G1 at a position Q1 and an image G2 at a position Q2 is shown. The image G1 has a width W1 as a width W in the X direction and a height H1 as a height H in the Z direction. Image G2 has width W2 and height H2. A pair of the image G1 and the image G2 indicates a width W12 of the overlapping area 1201 and a height H12 of the overlapping area 1201. The width NW1 and height NH1 of the non-overlapping part of the image G1 and the width NW2 and height NH2 of the non-overlapping part of the image G1 are also shown.

重複率OLとして、ここでは、画像の横方向(X方向)の重複率(OLWとする)と、画像の縦方向(Z方向)の重複率(OLHとする)とを考える。重複率OLは、第1画像に関して、元の長さに対する重複部分の長さの比率で定義できる。本例では、横(X方向)の重複率OLWは、OLW=W12/W1で、縦(Z方向)の重複率OLHは、OLH=H12/H1で計算できる。なお、3次元位置座標(X,Y,Z)は、2次元画像の処理上では適宜に2次元位置座標(x,y)に変換して処理される。   Here, as the overlapping rate OL, an overlapping rate in the horizontal direction (X direction) of the image (OLW) and an overlapping rate in the vertical direction (Z direction) of the image (OLH) are considered. The overlap rate OL can be defined by a ratio of the length of the overlap portion to the original length of the first image. In this example, the horizontal (X direction) overlap rate OLW can be calculated by OLW = W12 / W1, and the vertical (Z direction) overlap rate OLH can be calculated by OLH = H12 / H1. Note that the three-dimensional position coordinates (X, Y, Z) are appropriately converted into two-dimensional position coordinates (x, y) in the processing of the two-dimensional image and processed.

図12の例で、画像G1の位置Q1の座標を(X1,Y1,Z1)、画像G2の位置Q2の座標を(X2,Y2,Z2)とする。画像G1の撮影範囲SAにおける、X方向の左端の位置をX3、右端の位置をX4とする。画像G2の撮影範囲SAにおける、X方向の左端の位置をX5、右端の位置をX6とする。画像G1の撮影範囲SAにおける、Z方向の上端の位置をZ3、下端の位置をZ4とする。画像G2の撮影範囲SAにおける、Z方向の上端の位置をZ5、下端の位置をZ6とする。本例ではY方向の位置は同じである。   In the example of FIG. 12, the coordinates of the position Q1 of the image G1 are (X1, Y1, Z1), and the coordinates of the position Q2 of the image G2 are (X2, Y2, Z2). In the shooting range SA of the image G1, the left end position in the X direction is X3, and the right end position is X4. In the shooting range SA of the image G2, the left end position in the X direction is X5, and the right end position is X6. In the shooting range SA of the image G1, the position of the upper end in the Z direction is Z3, and the position of the lower end is Z4. In the shooting range SA of the image G2, the position of the upper end in the Z direction is Z5, and the position of the lower end is Z6. In this example, the positions in the Y direction are the same.

画像G1の上下左右の各端(辺)の位置は、中心の位置Q1、幅W1、高さH1を用いて以下のように得られる。画像G1の左端の位置X3は、X3=X1−(W1/2)で得られる。画像G1の右端の位置X4は、X4=X1+(W1/2)で得られる。画像G1の上端の位置Z3は、Z3=Z1−(H1/2)で得られる。画像G1の下端の位置Z4は、Z4=Z1+(W1/2)で得られる。同様にして、画像G2の各端の位置(X5,X6,Z5,Z6)を得ることができる。各画像の各端の位置を用いて、重複領域1201の幅W12および高さH12等を計算できる。例えば、W12=X4−X5、H12=Z5−Z4である。   The positions of the upper, lower, left, and right ends (sides) of the image G1 are obtained as follows using the center position Q1, the width W1, and the height H1. The position X3 at the left end of the image G1 is obtained by X3 = X1- (W1 / 2). The position X4 at the right end of the image G1 is obtained by X4 = X1 + (W1 / 2). The position Z3 of the upper end of the image G1 is obtained by Z3 = Z1- (H1 / 2). The position Z4 of the lower end of the image G1 is obtained by Z4 = Z1 + (W1 / 2). Similarly, the position (X5, X6, Z5, Z6) of each end of the image G2 can be obtained. Using the position of each end of each image, the width W12 and the height H12 of the overlapping area 1201 can be calculated. For example, W12 = X4-X5 and H12 = Z5-Z4.

計算の具体例として以下である。画像G1のサイズ(画素数で表される)が、W1=339、H1=252、画像G2のサイズが、W2=373、H2=244、とする。位置Q1の座標(X1,Z1)が(1420,2395)、位置Q2の座標(X2,Z2)が(1510,2376)とする。各画像端の座標として、X3=1251,X4=1589,X5=1324,X6=1696,Z3=2520,Z4=2269,Z5=2497,Z6=2254とする。これらの情報を用いて、重複領域1201の幅W12および高さH12は、W12=265、H12=228、として得られる。横の重複率OLWは、OLW=265/339≒0.78、すなわち78%となる。縦の重複率OLHは、OLH=228/252≒0.90、すなわち90%となる。   The following is a specific example of the calculation. It is assumed that the size (expressed by the number of pixels) of the image G1 is W1 = 339 and H1 = 252, and the size of the image G2 is W2 = 373 and H2 = 244. The coordinates (X1, Z1) of the position Q1 are (1420, 2395), and the coordinates (X2, Z2) of the position Q2 are (1510, 2376). As the coordinates of each image end, it is assumed that X3 = 1251, X4 = 1589, X5 = 1324, X6 = 1696, Z3 = 2520, Z4 = 2269, Z5 = 2497, and Z6 = 2254. Using these pieces of information, the width W12 and the height H12 of the overlapping area 1201 are obtained as W12 = 265 and H12 = 228. The horizontal overlap ratio OLW is OLW = 265/339 ≒ 0.78, that is, 78%. The vertical overlap ratio OLH is OLH = 228/252 ≒ 0.90, that is, 90%.

重複率は、上記方式に限らず、例えば以下のような方式で処理してもよい。画像に写っている画像内容における、画素の色や特徴点等で表される表面領域の物の状態を考える。公知の画像処理によって、画像から特徴点や色領域等を抽出可能である。計算機システム1は、各画像内での同じ物(特徴点等で表される)の位置を判断し、その同じ物の位置を基準として、画像間での重複領域を判断する。計算機システム1は、その重複領域のサイズ(画素数で表される)から、重複率を計算する。   The duplication ratio is not limited to the above method, and may be processed by the following method, for example. Consider the state of an object in a surface area represented by a pixel color, a feature point, or the like in the image content shown in the image. It is possible to extract feature points, color regions, and the like from an image by known image processing. The computer system 1 determines the position of the same thing (represented by a feature point or the like) in each image, and determines the overlapping area between the images based on the position of the same thing. The computer system 1 calculates an overlap rate from the size of the overlap area (represented by the number of pixels).

[SFM処理]
図13は、公知のSFMについての説明図を示す。SFMは、同じ対象物(複数の特徴点で表される)を、複数の視点(カメラ位置)から撮影した複数の画像を用いて、対象物の3次元座標と、カメラ方向およびカメラ位置の情報(カメラパラメータ)とを取得する方式である。例えば、3個のカメラ位置からの3枚の画像を用いて、それらの情報を取得可能である。SFMでは、カメラの動きに基づいた視差を利用して、対象物の同じ特徴点が、どれだけ変位したかに基づいて、3次元座標を推定計算する。計算された3次元座標が、対象物の構造や形状を表す。図13の例では、対象物OB(例えば立方体)に関して、連続的に撮影された3枚の画像PIC1〜PIC3を示す。対象物OBの特徴点の例として、特徴点A,Bを示す。画像PIC1〜PIC3を入力としたSFM処理では、各画像から特徴点群(例えば特徴点A,B)が抽出され、因子分解法等によって、特徴点群の3次元座標が得られる。例えば特徴点Aの座標(Xa,Ya,Za)、特徴点Bの座標(Xb,Yb,Zb)が得られる。それと共に、カメラ方向(例えば方向J1〜J3)およびカメラ位置(例えば位置E1〜E3)が推定される。なお、構造物3次元モデル生成機能に関しては、SFM方式をベースとした各種の応用的な方式や、他の方式についても、同様に適用可能である。
[SFM processing]
FIG. 13 is an explanatory diagram of a known SFM. The SFM uses a plurality of images obtained by photographing the same object (represented by a plurality of feature points) from a plurality of viewpoints (camera positions), and information on the three-dimensional coordinates of the object, the camera direction and the camera position. (Camera parameters). For example, the information can be obtained using three images from three camera positions. In SFM, three-dimensional coordinates are estimated and calculated based on how much the same feature point of the target object has been displaced using parallax based on the movement of the camera. The calculated three-dimensional coordinates represent the structure and shape of the object. In the example of FIG. 13, three images PIC <b> 1 to PIC <b> 3 continuously photographed with respect to the object OB (for example, a cube) are shown. The characteristic points A and B are shown as examples of the characteristic points of the object OB. In the SFM processing in which the images PIC1 to PIC3 are input, a feature point group (for example, feature points A and B) is extracted from each image, and three-dimensional coordinates of the feature point group are obtained by a factor decomposition method or the like. For example, the coordinates (Xa, Ya, Za) of the feature point A and the coordinates (Xb, Yb, Zb) of the feature point B are obtained. At the same time, the camera direction (for example, directions J1 to J3) and the camera position (for example, positions E1 to E3) are estimated. As for the structure three-dimensional model generation function, various applied methods based on the SFM method and other methods can be similarly applied.

[一覧画面(1)]
図14は、実施の形態で、一覧画面401の第1例を示す。一覧画面401では、画像群の一覧が表示される。本例では、画像情報202におけるIDや撮影日時を用いた順序で、画像群201の複数の画像(例えば#1〜#24等で示す)が、それぞれサムネイル形式で、縦横に並列に配置されて表示されている。これらの画像群は、例えば3次元モデル生成のために所定の重複率を考慮して撮影された画像群である。他の表示例としては、画像毎に、サムネイルだけでなく、画像情報201の情報を表示してもよい。
[List screen (1)]
FIG. 14 shows a first example of the list screen 401 in the embodiment. On the list screen 401, a list of image groups is displayed. In this example, a plurality of images (indicated by, for example, # 1 to # 24) of the image group 201 are arranged in a thumbnail format in a vertical and horizontal manner in an order using the ID and the shooting date and time in the image information 202. Is displayed. These image groups are, for example, image groups taken in consideration of a predetermined overlapping rate for generating a three-dimensional model. As another display example, not only the thumbnail but also the information of the image information 201 may be displayed for each image.

[個別画面(1)]
図15は、個別画面402の第1例を示す。個別画面402では、一覧画面401からユーザが選択した第1画像が、十分に大きな主要領域の枠1501に表示される。また、個別画面402でリンク画像の選択によって第2画像が選択された場合にも、その第2画像が枠1501に表示される。なお、個別画面402内の「一覧に戻る」ボタン1502の押下等の所定の操作によって、一覧画面401に戻ることもできる。
[Individual screen (1)]
FIG. 15 shows a first example of the individual screen 402. On the individual screen 402, the first image selected by the user from the list screen 401 is displayed in a sufficiently large main area frame 1501. Also, when the second image is selected by selecting the link image on the individual screen 402, the second image is displayed in the frame 1501. Note that the user can return to the list screen 401 by performing a predetermined operation such as pressing a “return to list” button 1502 in the individual screen 402.

個別画面402内で、第1画像の周辺には、リンク画像403が表示される。リンク画像403は、言い換えると、ナビゲーション画像である。図15の例では、第1画像(枠1501)の外側において、上下左右、および各斜め(右上、右下、左上、左下)の位置に、それぞれ、リンク画像403が表示されている。リンク画像403は、矢印形状である場合を示すが、これに限らず、所定の形状のGUI部品、アイコン画像等とすることができる。リンク画像403の他の例としては、サムネイル画像としてもよい。   In the individual screen 402, a link image 403 is displayed around the first image. The link image 403 is, in other words, a navigation image. In the example of FIG. 15, the link images 403 are displayed outside the first image (frame 1501) at the top, bottom, left, right, and diagonally (upper right, lower right, upper left, lower left) positions. The link image 403 is shown as having an arrow shape, but is not limited thereto, and may be a GUI component, an icon image, or the like having a predetermined shape. Another example of the link image 403 may be a thumbnail image.

これらのリンク画像403は、矢印で表す方向にある隣接画像を次画像として選択するための画像、部品である。これらのリンク画像403は、ある平面内における隣接画像を選択するための画像、部品である。ユーザは、リンク画像403を選択する操作(タップ等)が可能である。   These link images 403 are images and parts for selecting an adjacent image in the direction indicated by the arrow as the next image. These link images 403 are images and components for selecting an adjacent image in a certain plane. The user can perform an operation (such as tapping) for selecting the link image 403.

図15のGUI例では、これらのリンク画像403は、各方向での実際の隣接画像の有無に係わらず、各方向で全部が表示される。ユーザが、所望のリンク画像403(例えば右矢印)を選択操作する。その場合、その選択したリンク画像403で表す方向に、隣接画像が存在する場合には、その隣接画像が第2画像として選択される。すなわち、個別画面402の枠1501内の第1画像に代わり、その選択された第2画像が表示されるように、画面表示状態が遷移される。第2画像は新たな第1画像の扱いとなり、同様にリンク画像403が表示される。また、ユーザが選択操作したリンク画像403で表す方向に、隣接画像が無い場合には、遷移しない。   In the GUI example of FIG. 15, all of these link images 403 are displayed in each direction regardless of the presence or absence of an actual adjacent image in each direction. The user selects and operates a desired link image 403 (for example, a right arrow). In that case, if there is an adjacent image in the direction represented by the selected link image 403, the adjacent image is selected as the second image. That is, the screen display state is changed so that the selected second image is displayed instead of the first image in the frame 1501 of the individual screen 402. The second image is treated as a new first image, and the link image 403 is displayed similarly. If there is no adjacent image in the direction represented by the link image 403 selected and operated by the user, no transition is made.

また、このGUI例では、ユーザが、所望のリンク画像403(例えば右矢印)を選択操作した場合において、第1画像がある同一の平面(例えば側面A1)内で、そのリンク画像403が表す方向に、隣接画像がある場合には、その隣接画像が選択される。また、そのリンク画像403が表す方向に、同一の平面内での隣接画像が無く、前述の角部を介在して、奥や手前の方向に、他の面内の画像がある場合には、その画像が選択される。   Also, in this GUI example, when the user selects and operates a desired link image 403 (for example, a right arrow), the direction represented by the link image 403 in the same plane (for example, side A1) where the first image is located. If there is an adjacent image, the adjacent image is selected. Also, if there is no adjacent image in the same plane in the direction represented by the link image 403, and there is an image in another plane in the back or front direction with the aforementioned corner interposed, The image is selected.

他のGUI例としては、リンク画像403を、枠1501内の画像上に重ねて表示してもよい。   As another example of the GUI, the link image 403 may be displayed so as to be superimposed on the image in the frame 1501.

他のGUI例としては、リンク画像403を表示せずに、予めユーザ設定等で規定された所定の操作に応じて、隣接画像(第2画像)を選択させるようにしてもよい。例えば、キーボードのキー毎に、各方向のリンクとしての機能が割り当てられてもよい。   As another GUI example, the link image 403 may not be displayed, and the adjacent image (second image) may be selected according to a predetermined operation specified in advance by user settings or the like. For example, a function as a link in each direction may be assigned to each key of the keyboard.

他のGUI例としては、リンク画像403の代わりに、枠1501の線の位置に対する所定の操作によって、その位置に応じた方向の隣接画像を選択可能としてもよい。例えば、枠1501の右辺付近を選択操作した場合、右矢印の選択操作と同様の機能を果たす。   As another GUI example, instead of the link image 403, an adjacent image in a direction corresponding to the position of the line of the frame 1501 may be selected by a predetermined operation on the position of the line. For example, when the selection operation near the right side of the frame 1501 is performed, the same function as the selection operation of the right arrow is performed.

他のGUI例としては、リンク画像403の代わりに、公知のドラッグやスワイプ等の操作としてもよい。例えば、枠1501内で、右から左へのスワイプ操作がされた場合に、右矢印の選択操作と同様の機能を果たす。   As another GUI example, a well-known operation such as dragging and swiping may be used instead of the link image 403. For example, when a swipe operation from right to left is performed within the frame 1501, the same function as the selection operation of the right arrow is performed.

[個別画面(2)]
図16は、個別画面の第2例を示す。図16のGUI例では、第1画像に対し、周辺に、角部を介在する他の面の画像(隣接画像に相当する一番近い画像)が存在する場合に、その種類の画像および方向を表す特定のリンク画像404が表示される。このリンク画像404は、リンク画像403とは形状が異なる。例えば、第1画像に対し、同じ側面内の右側には隣接画像が無く、角部を介在して手前や奥にある他の側面に画像がある場合に、そのことを表すリンク画像404が表示される。本例では、第1画像に対し、右奥方向に隣接画像がある場合(例えば図25の角部602の付近で側面a2の画像#3に対する側面a3の画像#21)に、右奥方向を表すリンク画像404が表示される。また、第1画像に対し、右前方向に隣接画像がある場合(例えば図25の角部601の付近で側面a1の画像に対する側面a2の画像)には、右前方向を表すリンク画像404が表示される。
[Individual screen (2)]
FIG. 16 shows a second example of the individual screen. In the example of the GUI in FIG. 16, when there is an image of another surface with a corner interposed (a closest image corresponding to an adjacent image) around the first image, the image and the direction of the type are changed. A specific link image 404 to be displayed is displayed. The link image 404 has a different shape from the link image 403. For example, if there is no adjacent image on the right side in the same side of the first image and there is an image on the other side near or behind the corner, a link image 404 indicating that is displayed. Is done. In this example, when there is an adjacent image in the right back direction with respect to the first image (for example, image # 21 of side surface a3 with respect to image # 3 of side surface a2 near corner 602 in FIG. 25), the right back direction is changed. The displayed link image 404 is displayed. When there is an adjacent image in the right front direction with respect to the first image (for example, an image of the side surface a2 with respect to the image of the side surface a1 near the corner 601 in FIG. 25), a link image 404 indicating the right front direction is displayed. You.

他のリンク画像の例として、リンク画像405を示す。第1画像に対し、同じ面内で、Z方向の上側(方向Z1)に隣接画像がある場合、その上方向を表す矢印のリンク画像403が表示される。第1画像に対し、同じ面内で、Z方向の上側(方向Z1)に、隣接画像が無く、構造物5の屋上等の水平面に対応する画像が存在する場合、そのことを表すリンク画像405が表示される。このリンク画像405は、上奥方向を表す形状(例えば斜めに曲がった形状)を持つ。このリンク画像405の選択操作によって、その上奥方向にある画像を次画像として選択可能である。   A link image 405 is shown as an example of another link image. If there is an adjacent image above the first image in the same plane in the Z direction (direction Z1), a link image 403 of an arrow indicating the upward direction is displayed. If there is no adjacent image above the first image in the same plane in the Z direction (direction Z1) and an image corresponding to a horizontal plane such as the roof of the structure 5 exists, a link image 405 indicating that. Is displayed. The link image 405 has a shape (for example, a shape that is obliquely bent) representing the upper back direction. By the selection operation of the link image 405, the image located in the upper depth direction can be selected as the next image.

他のリンク画像の例として、リンク画像406を示す。リンク画像406は、第1画像に対し、同じ面内のある方向で、重複が最小となる隣接画像が無いが、重複せずに離れた位置に画像がある場合に、そのことを表すリンク画像として表示される。リンク画像406は、リンク画像403とは異なる形状を持つ。例えば、第1画像に対し、下側(方向Z2)に、隣接画像が無いが、離れた位置に画像がある場合、下方向で離れた位置を表すリンク画像406が表示される。このリンク画像406の選択操作によって、その離れた位置にある画像を選択可能である。   A link image 406 is shown as an example of another link image. The link image 406 is a link image indicating that, when there is no adjacent image that minimizes overlap in a certain direction in the same plane with respect to the first image, but there is an image at a distance without overlapping, the link image Will be displayed as The link image 406 has a different shape from the link image 403. For example, when there is no adjacent image below the first image (direction Z2) but there is an image at a distant position, a link image 406 representing a position distant in the downward direction is displayed. By the operation of selecting the link image 406, an image at a position apart from the image can be selected.

[個別画面(3)]
図17は、個別画面の第3例を示す。この個別画面402のGUI例では、リンク画像403を、隣接画像の有無に応じて、限定的に表示する。本例では、第1画像に対し、同一面内の隣接画像として、左、下、および左下の各位置に隣接画像が存在し、他の位置には存在しないとする。この場合に、図示のように、左、下、および左下を表す3つの矢印のリンク画像403が表示されている。また、本例では、第1画像の右側で、特に右奥の位置に、他の側面での画像が存在する場合に、図示のように、右奥を表す矢印のリンク画像404が表示されている。このGUI例では、表示情報量が限定されるので、ユーザがより作業をしやすい。
[Individual screen (3)]
FIG. 17 shows a third example of the individual screen. In the GUI example of the individual screen 402, the link image 403 is limitedly displayed according to the presence or absence of the adjacent image. In this example, it is assumed that adjacent images exist at the left, lower, and lower left positions as adjacent images in the same plane with respect to the first image, and do not exist at other positions. In this case, as shown in the figure, a link image 403 of three arrows indicating left, lower, and lower left is displayed. Further, in this example, when an image on the other side exists on the right side of the first image, particularly on the position on the right back side, a link image 404 of an arrow showing the right back side is displayed as shown in the figure. I have. In this GUI example, the amount of display information is limited, so that the user can work more easily.

[個別画面(4)]
図18は、個別画面の第4例を示す。この個別画面402では、枠1501内に第1画像を表示する際に、隣接画像との重複領域の画像内容をそのまま表示するのではなく、その重複領域を削除(言い換えるとマスク)した状態で表示する。具体的には、その重複領域は、例えば黒塗りや網掛け等の表現で表示される。本例では、第1画像(または第2画像)は、重複領域408を有する。この重複領域408は、1つ前に選択されていた前画像(説明のためにその領域を破線で示す)の右辺付近に対し、次画像として選択されて枠1501内に表示された画像の左辺付近が重複している領域である。
[Individual screen (4)]
FIG. 18 shows a fourth example of the individual screen. In the individual screen 402, when displaying the first image in the frame 1501, the image content of the overlapping area with the adjacent image is not displayed as it is, but the overlapping area is deleted (in other words, masked). I do. More specifically, the overlapping area is displayed by, for example, blackening or hatching. In this example, the first image (or the second image) has an overlapping area 408. The overlapping area 408 is located on the left side of the image selected as the next image and displayed in the frame 1501 in the vicinity of the right side of the previous image (the area is indicated by a broken line for the sake of explanation). The vicinity is an overlapping area.

このように重複領域408を削除表示することで、ユーザは、選択した画像のうちの重複領域408については、画像内容を見る必要が無く、視覚的な情報量が低減されているので、作業がしやすい。本例では、ユーザは、この画像の重複領域408が、前画像で劣化検査済みであることがわかるので、この画像の劣化検査の際に、この重複領域408を再度劣化検査する必要が無い。よって、劣化検査作業の効率化が図れる。   By deleting and displaying the overlapping area 408 in this manner, the user does not need to look at the image content of the overlapping area 408 in the selected image, and the visual information amount is reduced, so that the work can be performed. It's easy to do. In this example, the user knows that the overlapping area 408 of this image has been subjected to the deterioration inspection in the previous image, so that it is not necessary to perform the deterioration inspection of the overlapping area 408 again at the time of the deterioration inspection of this image. Therefore, the efficiency of the deterioration inspection work can be improved.

他のGUI例としては、重複領域408に、さらに、劣化検査済みであることを表す情報を付与して表示してもよい。他のGUI例としては、重複領域408を、枠線の表現で表示してもよい。   As another example of the GUI, the overlapping area 408 may be further displayed with information indicating that the deterioration has been inspected. As another example of the GUI, the overlapping area 408 may be displayed in a frame line expression.

[個別画面(5)]
図19は、個別画面の第5例を示す。この個別画面402では、未撮影領域(欠損領域)を、ユーザにわかるように所定の表現で表示する。未撮影領域(欠損領域)は、対応する画像が存在しない領域である。図19の(A)は、2枚の画像の関係の例を示す。画像191と画像192とが重複しており、重複率が大きい場合を示す。未撮影領域193は、これらの2枚の画像の外側にある領域であり、これらの2枚の画像を含む画像群では撮影されていない領域の例である。構造物5の側面等の領域のうち、この未撮影領域193は、画像としては存在しない。よって、この未撮影領域193は、劣化検査等の対象にできない。個別画面402では、このような未撮影領域193の箇所がユーザにわかるように表示する。これにより、ユーザは、未撮影領域193の箇所がわかり、劣化検査漏れ箇所等を認識でき、別途この箇所を撮影して劣化検査を行うといった対応も可能となる。
[Individual screen (5)]
FIG. 19 shows a fifth example of the individual screen. On this individual screen 402, the unphotographed area (missing area) is displayed in a predetermined expression so that the user can understand it. An unphotographed area (missing area) is an area where a corresponding image does not exist. FIG. 19A shows an example of the relationship between two images. The case where the image 191 and the image 192 overlap and the overlapping rate is large is shown. The unphotographed area 193 is an area outside these two images, and is an example of an area that has not been photographed in an image group including these two images. The unphotographed area 193 among the areas such as the side surfaces of the structure 5 does not exist as an image. Therefore, the unphotographed area 193 cannot be a target of a deterioration inspection or the like. On the individual screen 402, such a portion of the unphotographed area 193 is displayed so as to be understood by the user. Accordingly, the user can recognize the location of the unphotographed area 193, recognize the location where the deterioration inspection has been omitted, and perform the degradation inspection by separately capturing the location.

また、他の例の未撮影領域193bを示す。この未撮影領域193bは、画像192と画像194との隙間がある場合の領域である。基本的には画像間で重複させるように撮影するが、何らかの理由(例えば空撮時のエラー)で、このように隙間が生じて未撮影領域193bが生じる場合が考えられる。この場合にも同様に、未撮影領域193bの存在がわかるように表示される。   Also, a non-photographed area 193b of another example is shown. The unphotographed area 193b is an area where there is a gap between the image 192 and the image 194. Basically, the images are photographed so as to be overlapped between the images. However, for some reason (for example, an error during aerial photographing), it is conceivable that such a gap is generated and the unphotographed area 193b is generated. In this case as well, the image is displayed so that the existence of the unphotographed area 193b can be recognized.

図19の(B)および(C)は、(A)に対応して、個別画面402での未撮影領域193の表示例を示す。まず、(B)の例は、枠1501内に、選択された画像191を、そのまま画像191の画像サイズで表示する例を示す。説明上、重複している画像192も枠線で示す。この際、枠1501の外側に、未撮影領域193が存在する。このように、枠1501の外側に、未撮影領域193がある場合に、未撮影領域193を表す画像を所定の表現(例えばドットパターン)で表示してもよい。   FIGS. 19B and 19C show display examples of the unphotographed area 193 on the individual screen 402 corresponding to FIG. First, the example of (B) shows an example in which the selected image 191 is displayed in the frame 1501 at the image size of the image 191 as it is. For the purpose of explanation, the overlapping image 192 is also indicated by a frame line. At this time, an unphotographed area 193 exists outside the frame 1501. As described above, when the unphotographed area 193 exists outside the frame 1501, an image representing the unphotographed area 193 may be displayed in a predetermined expression (for example, a dot pattern).

(C)の例は、(B)の状態から、ユーザの所定の操作に応じて、画像191をシフト(平行移動)して表示した場合を示す。本画像表示システムは、個別画面402で枠1501内に表示する画像をシフトする機能や、拡大/縮小して表示する機能等も有する。例えば、第1画像に対するドラッグまたはスワイプ等の操作によって、このシフト表示を可能とし、第1画像に対するピンチ操作等によって拡大/縮小表示を可能とする。   The example of (C) shows a case where the image 191 is shifted (translated in parallel) and displayed according to a predetermined operation of the user from the state of (B). The image display system also has a function of shifting an image displayed in the frame 1501 on the individual screen 402, a function of enlarging / reducing the image, and the like. For example, this shift display is enabled by an operation such as dragging or swiping on the first image, and enlargement / reduction display is enabled by a pinch operation or the like on the first image.

本例では、(B)の状態から、シフトの操作によって、画像191の中心位置(位置Q1a)が、例えば左のやや上の位置Q1bに移動されている。このシフトによって、枠1501内には、画像191の一部、未撮影領域193の一部193c、画像192の一部192cが入っている状態となる。この個別画面402では、枠1501内に入っている画像部分が表示されると共に、未撮影領域193の一部193cも所定の表現で表示される。   In this example, the center position (position Q1a) of the image 191 is moved to, for example, a slightly upper left position Q1b by the shift operation from the state of (B). Due to this shift, a part of the image 191, a part 193 c of the unphotographed area 193, and a part 192 c of the image 192 are put in the frame 1501. On the individual screen 402, an image portion included in the frame 1501 is displayed, and a part 193c of the unphotographed area 193 is also displayed in a predetermined expression.

[個別画面(6)]
図20は、個別画面の第6例を示す。この個別画面402では、ある第1画像に対し、重複している隣接画像がある場合に、その隣接画像の存在がユーザにわかるように、枠線等の表現で表示する。本例では、枠1501内の第1画像に対し、右側の位置に隣接画像がある場合に、リンク画像403だけでなく、その隣接画像の輪郭(辺)を表す輪郭画像409(例えば破線)を表示する。これにより、ユーザは、第1画像に対し、例えば右側に隣接画像があることがわかり、重複度合いもわかる。ユーザは、その隣接画像を選択したい場合、リンク画像403またはその輪郭画像409を選択操作する。これにより、その隣接画像が選択され、枠1501内に表示される。
[Individual screen (6)]
FIG. 20 shows a sixth example of the individual screen. In the individual screen 402, when there is an adjacent image that overlaps with a certain first image, the image is displayed by a frame line or the like so that the user can recognize the existence of the adjacent image. In this example, when there is an adjacent image on the right side of the first image in the frame 1501, not only the link image 403 but also an outline image 409 (for example, a broken line) representing the outline (side) of the adjacent image is displayed. indicate. This allows the user to know that, for example, there is an adjacent image on the right side of the first image, and also knows the degree of overlap. When the user wants to select the adjacent image, the user operates the link image 403 or the outline image 409 thereof. As a result, the adjacent image is selected and displayed in the frame 1501.

また、図20の例では、個別画面402内に、重複率閾値TOLのユーザ設定用のGUI部品(重複率閾値設定欄)1503を表示している。このGUI部品1503では、現在設定されている重複率閾値TOLを表示し、そのTOL値をユーザが可変できるように、スライドバー等が設けられている。本例では、ユーザは、個別画面402でTOL値の状態を確認できる。また、ユーザは、用途や作業状態等に応じて、このGUI部品1503の操作によって、TOL値の設定を変更できる。また、図20の例のように、第1画像と隣接画像との実際の重複率を表示してもよい。   In the example of FIG. 20, a GUI component (duplication ratio threshold setting column) 1503 for user setting of the duplication ratio threshold TOL is displayed in the individual screen 402. The GUI component 1503 is provided with a slide bar or the like so as to display the currently set overlapping rate threshold TOL and allow the user to change the TOL value. In this example, the user can check the state of the TOL value on the individual screen 402. In addition, the user can change the setting of the TOL value by operating the GUI component 1503 according to the application, the working state, and the like. Also, as in the example of FIG. 20, the actual overlap ratio between the first image and the adjacent image may be displayed.

また、重複率閾値TOLの設定については、1つの値だけでなく、2つの値で範囲を設定するようにしてもよい。例えば、重複率の範囲が、40%以上で60%以下といったように設定され、その場合、その範囲に該当する画像が選択可能となる。   As for the setting of the overlap ratio threshold TOL, the range may be set not only by one value but also by two values. For example, the range of the overlap rate is set to be 40% or more and 60% or less, and in that case, an image corresponding to the range can be selected.

[劣化検査画面]
図21は、劣化検査画面の例を示す。実施の形態の画像表示システムでは、個別画面402がそのまま劣化検査画面である。ユーザは、個別画面402で個別の画像が選択された状態で、そのままその画像を対象として、劣化検査作業を行うことができる。劣化検査画面で、枠1501内には、選択された画像が劣化検査対象画像として表示されている。
[Deterioration inspection screen]
FIG. 21 shows an example of the deterioration inspection screen. In the image display system according to the embodiment, the individual screen 402 is a deterioration inspection screen as it is. With the individual image selected on the individual screen 402, the user can perform the deterioration inspection work on the image as it is. On the deterioration inspection screen, the selected image is displayed as a deterioration inspection target image in a frame 1501.

劣化検査は、例えば人による目視検査と、計算機による自動診断とがある。本画像表示システムでは、それらの両方の機能に対応している。本例では、ユーザは、劣化検査画面内の画像に対する目視検査を行う。ユーザは、この画像を目視して、劣化の有無や箇所を判断する。例えば、画像内にひび割れ等の劣化箇所2101がある場合を示す。この劣化検査画面では、劣化検査支援処理の例として、ユーザが目視検査で見つけた劣化箇所を、マーキングして表示することができる。ユーザは、例えば、劣化箇所2101に対し、所定の操作でマーキングを行う。マーキング操作例は、ドラッグ等によって枠で囲む操作である。マーキング画像例としては、赤色の枠2102が表示される。   The deterioration inspection includes, for example, a visual inspection by a person and an automatic diagnosis by a computer. The present image display system supports both of these functions. In this example, the user performs a visual inspection on the image in the deterioration inspection screen. The user visually checks this image and determines whether or not there is any deterioration and the location. For example, a case where there is a deteriorated portion 2101 such as a crack in an image is shown. On the deterioration inspection screen, as an example of the deterioration inspection support processing, a deterioration spot found by a user through a visual inspection can be marked and displayed. The user performs marking on the deteriorated portion 2101 by a predetermined operation, for example. An example of a marking operation is an operation of enclosing a frame by dragging or the like. A red frame 2102 is displayed as an example of the marking image.

また、枠1501外には、画像情報や構造物情報等を表示してもよい。枠1501外には、劣化検査のチェック項目(検査済み/未検査の状態が入力可能)、劣化有無項目、コメント入力欄等を設けてもよい。   Further, image information, structure information, and the like may be displayed outside the frame 1501. Outside the frame 1501, a check item for deterioration inspection (an inspected / uninspected state can be input), a deterioration presence / absence item, a comment input column, and the like may be provided.

自動診断機能を用いる場合、計算機システム1は、対象画像を入力として、劣化箇所を推定する。画像表示システムは、劣化検査画面で、計算機システム1による自動診断結果情報を表示する。例えば、推定された劣化箇所が、所定の表現で表示される。ユーザは、その結果情報を見て確認や最終判断を行う。   When the automatic diagnosis function is used, the computer system 1 estimates a deteriorated portion using a target image as an input. The image display system displays automatic diagnosis result information by the computer system 1 on a deterioration inspection screen. For example, the estimated deteriorated portion is displayed in a predetermined expression. The user confirms or makes a final decision by looking at the result information.

なお、変形例の画像表示システムでは、個別画面402とは別に、劣化検査画面を設けて、所定の操作(例えばダブルタップ等)に基づいてそれらの画面間で遷移させるようにしてもよい。   In the image display system according to the modified example, a deterioration inspection screen may be provided separately from the individual screen 402, and transition may be made between these screens based on a predetermined operation (for example, double tap).

[構造物3次元モデル画面]
図22は、構造物3次元モデル画面の例を示す。本画像表示システムは、一覧画面401等で、所定の操作を受けた場合、構造物3次元モデル画面を表示する。本画像表示システムは、3次元モデルデータd5に基づいて、構造物3次元モデルを、この画面内の領域に表示し、構造物情報等を合わせて表示する。この領域では、例えば地図(敷地等)上に構造物3次元モデルを重ねて斜視で表示される。この画面に対する所定の操作に応じて、構造物3次元モデルを見る方向や位置等が変更可能である。
[Structure 3D model screen]
FIG. 22 shows an example of a structure three-dimensional model screen. This image display system displays a structure three-dimensional model screen when a predetermined operation is received on the list screen 401 or the like. The present image display system displays a structure three-dimensional model in an area within this screen based on the three-dimensional model data d5, and also displays structure information and the like. In this area, for example, a three-dimensional structure is superimposed on a map (eg, a site) and displayed in a perspective view. According to a predetermined operation on this screen, the direction and position of viewing the three-dimensional structure model can be changed.

さらに、この構造物3次元モデルに対し、ユーザの所定の操作によって、側面等の領域を選択、指定可能としてもよい。本画像表示システムは、例えばある側面が選択、指定された場合、その側面に対応付けられる画像群を、一覧画面401に表示する。あるいは、構造物3次元モデルのうちのある位置が選択、指定された場合に、その位置に対応付けられる画像を、個別画面402に表示するようにしてもよい。   Further, a region such as a side surface may be selected and designated by a user's predetermined operation with respect to the three-dimensional structure model. When, for example, a certain aspect is selected and designated, the image display system displays an image group associated with the aspect on the list screen 401. Alternatively, when a certain position in the three-dimensional structure model is selected and designated, an image associated with the position may be displayed on the individual screen 402.

[一覧画面(2)]
図23は、一覧画面の第2例を示す。この一覧画面401では、元の画像群のうち、劣化検査対象の画像群が、一覧で表示される。先に、ユーザが、前述の個別画面402を通じて、劣化検査対象の画像群を選択する。その後、画像表示システムは、一覧画面401で、それらの劣化検査対象の画像群(選択画像群)を、一覧で表示する。一覧画面401内での所定の操作(例えば選択画像群表示ボタン押下)によって、その選択画像群を表示するようにしてもよい。また、この画面では、劣化検査対象の画像群(選択画像群)について、画像毎に、劣化検査情報(例えば検査済み、劣化有無等)を合わせて表示してもよい。
[List screen (2)]
FIG. 23 shows a second example of the list screen. On the list screen 401, among the original image groups, a group of images to be subjected to deterioration inspection is displayed in a list. First, the user selects a group of images to be subjected to deterioration inspection through the individual screen 402 described above. After that, the image display system displays a list of the images (selected images) to be subjected to the deterioration inspection on the list screen 401. The selected image group may be displayed by a predetermined operation (for example, pressing a selected image group display button) in the list screen 401. Further, on this screen, the deterioration inspection information (for example, inspection completed, presence or absence of deterioration, etc.) may be displayed together for each image with respect to the image group to be subjected to deterioration inspection (selected image group).

[一覧画面(3)]
図24は、一覧画面の第3例を示す。この一覧画面401は、図23の一覧画面401に対する変形例として、劣化検査対象の画像群の一覧を表示する際の別の方式を示す。この一覧画面401では、劣化検査対象の画像群を、構造物5の表面領域の形状(または生成した構造物3次元モデル)に沿った位置関係で配置して表示する。例えば、この一覧画面401内の領域2401では、選択された側面グループ毎に、劣化検査対象の画像群(隣接画像群)を表示している。例えば、図25の側面a2に関して、隣接画像群として画像#1〜#12がある。この領域内には、まず、選択されたグループの側面(すなわち一部平面領域)に対応する領域2401が表示される。その領域2401内に、複数の隣接画像(画像#1〜#12)が、実際の位置関係に合わせて配列されて表示される。また、画像(サムネイル)毎に、検査済みや劣化有無等の状態がわかるように、所定の表現で表示するようにしてもよい。領域2401内の1つの画像が選択操作された場合、個別画面402でその画像が表示される。
[List screen (3)]
FIG. 24 shows a third example of the list screen. This list screen 401 shows, as a modification example of the list screen 401 of FIG. 23, another method for displaying a list of the image group to be subjected to deterioration inspection. In the list screen 401, the image group to be subjected to the deterioration inspection is arranged and displayed in a positional relationship along the shape of the surface area of the structure 5 (or the generated structure three-dimensional model). For example, in an area 2401 in the list screen 401, an image group (adjacent image group) to be subjected to deterioration inspection is displayed for each selected side group. For example, regarding the side surface a2 in FIG. 25, there are images # 1 to # 12 as an adjacent image group. In this area, first, an area 2401 corresponding to the side surface of the selected group (that is, a partially planar area) is displayed. In the area 2401, a plurality of adjacent images (images # 1 to # 12) are arranged and displayed according to the actual positional relationship. In addition, for each image (thumbnail), it may be displayed in a predetermined expression so that the state such as the inspection completed or the presence or absence of deterioration can be understood. When one image in the area 2401 is selected, the image is displayed on the individual screen 402.

また、領域2401に、他の側面グループを選択するためのリンク画像2402を表示してもよい。例えば、右矢印のリンク画像2402が選択操作されると、側面a3のグループが選択され、領域2401内に同様に表示される。また、図24の側面グループ単位でのリンク画像2402を表示する際の例では、左右の矢印形状としているが、これに限らず各種の表現とすることが可能である。例えば、リンク画像2402は、図16のリンク画像404の例と同様に、3次元の空間で奥や前の方向に変化することを表す矢印形状としてもよい。例えば、側面a2から側面a3へのリンクのためのリンク画像2402は、右奥を表す曲がった矢印形状で表示される。   Further, a link image 2402 for selecting another side group may be displayed in the area 2401. For example, when the right arrow link image 2402 is selected, the group of the side surface a3 is selected and displayed in the area 2401 in the same manner. Further, in the example of displaying the link image 2402 in units of side groups in FIG. 24, the right and left arrows are used, but the present invention is not limited to this, and various expressions can be used. For example, similarly to the example of the link image 404 in FIG. 16, the link image 2402 may have an arrow shape indicating that the link image changes in a three-dimensional space in a depth direction or a front direction. For example, a link image 2402 for a link from the side surface a2 to the side surface a3 is displayed in a curved arrow shape representing the right back.

[隣接画像の判断]
図25や図26を用いて、空間的な位置関係での隣接画像(次画像)の判断およびGUI等について説明する。特に、図6の例のように、構造物5の角部を介在する側面同士での画像間の位置関係や次画像の選択判断を行う場合について説明する。複数の画像(および撮影範囲)は、3次元の空間内に配置されている。3次元の構造物5における角部、異なる側面、曲面等を撮影した画像群を扱う場合、対応して、各画像のカメラ方向Cが異なる場合がある。そのようにカメラ方向Cが異なる画像同士では、重複率や隣接画像の判断が難しい場合がある。そのため、本画像表示システム(特に隣接画像判断部303)では、画像の位置および方向の情報(例えばカメラ方向Cおよびカメラ方向V)を用いて、カメラ方向Cが異なる場合でも、画像間の位置関係を判断し、ある画像に対する次画像を判断する機能を持つ。本画像表示システムでは、空間内の画像の組での重複率を計算する際に、効率性も考慮して、画像の位置情報を用いて、画像の組を判断する。
[Judgment of adjacent images]
The determination of the adjacent image (next image) based on the spatial positional relationship, the GUI, and the like will be described with reference to FIGS. In particular, as in the example of FIG. 6, a case will be described in which the positional relationship between images on the side surfaces interposing the corners of the structure 5 and the selection of the next image are determined. A plurality of images (and shooting ranges) are arranged in a three-dimensional space. When handling an image group in which a corner, a different side surface, a curved surface, or the like of the three-dimensional structure 5 is photographed, the camera direction C of each image may be different. In such images having different camera directions C, it may be difficult to determine the overlap ratio and the adjacent image. Therefore, in the present image display system (particularly, the adjacent image determination unit 303), even when the camera direction C is different, the positional relationship between the images is determined using the information on the position and direction of the image (for example, the camera direction C and the camera direction V). Has the function of determining the next image for a certain image. In the present image display system, when calculating the overlap ratio of a set of images in space, the set of images is determined using the positional information of the images in consideration of efficiency.

図25は、図6の例に対応した、構造物5の側面間の画像関係の例を示す。本例では、構造物5の側面a2および側面a3における隣接画像の例を示す。ここでの隣接画像とは、劣化検査用に好適な画像として選択される画像群を示す。各画像を破線枠で示すが、実際には各画像同士で端部同士が一部重複している。   FIG. 25 shows an example of an image relationship between the side surfaces of the structure 5 corresponding to the example of FIG. In this example, examples of adjacent images on the side surface a2 and the side surface a3 of the structure 5 are shown. Here, the adjacent image indicates an image group selected as an image suitable for deterioration inspection. Although each image is indicated by a broken-line frame, in reality, the ends of each image partially overlap.

側面a2では、面内の左側、Y方向の奥側(方向Y1)に、角部601があり、面内の右側、Y方向の手前側(方向Y2)に、角部602がある。側面a3では、面内の左側(方向X1)に、角部602があり、面内の右側(方向X2)に、角部603がある。側面a2のグループのルートr2において、前述の走査のような空撮によって、画像群が撮影されている。それらの画像群のうち、重複が最小となるように選択された隣接画像群の例を、画像#1〜#12で示す。同様に、側面a3のグループのルートr3において、前述の走査のような空撮によって、画像群が撮影されている。それらの画像群のうち、重複が最小となるように選択された隣接画像群の例を、画像#21〜#32で示す。これらの画像番号は、撮影日時の順序とも対応している。重複率が大きいために選択されなかった画像については図示を省略している。   In the side surface a2, there is a corner 601 on the left side in the plane, on the far side in the Y direction (direction Y1), and on the right side in the plane, on the near side in the Y direction (direction Y2). In the side surface a3, the corner 602 is on the left side (direction X1) in the plane, and the corner 603 is on the right side (direction X2) in the plane. On the route r2 of the group on the side surface a2, an image group is captured by aerial photography like the above-described scanning. Images # 1 to # 12 show examples of adjacent image groups selected to minimize overlap among the image groups. Similarly, on the route r3 of the group on the side surface a3, an image group is captured by aerial photography such as the above-described scanning. Examples of adjacent image groups selected to minimize the overlap among the image groups are shown as images # 21 to # 32. These image numbers also correspond to the order of the shooting date and time. Images that are not selected due to a high overlap rate are not shown.

本画像表示システムは、個別画面402で、ユーザが選択した1枚の画像を表示する。例えば、第1画像として画像#3が選択されたとする。その場合、側面a2のY−Z平面内のみで考えると、隣接画像としては、画像#2,#4,#5がある。ここで、3次元の空間で考えると、図示のように、角部602において、側面a2の右端部には側面a3の左端部が接続されている。ユーザが個別画面402で画像#3をみた場合に、画像#3に対し、そのまま右側(方向Y2)には、構造物5が無いので隣接画像が無い。しかしながら、構造物5の表面形状に沿って、側面a2から側面a3へと曲がる方向を含めて、3次元の位置関係を考えた場合、画像#3に対して右奥に進む方向には、側面a3の画像#21が存在する。同様に、側面a3の画像#21からみた場合、左奥に進む方向には、側面a2の画像#3が存在する。   The image display system displays one image selected by the user on the individual screen 402. For example, assume that image # 3 is selected as the first image. In this case, considering only the YZ plane of the side surface a2, there are images # 2, # 4, and # 5 as adjacent images. Here, in a three-dimensional space, as shown, at the corner 602, the left end of the side surface a3 is connected to the right end of the side surface a2. When the user views the image # 3 on the individual screen 402, there is no adjacent image on the right side (direction Y2) of the image # 3 because there is no structure 5. However, when considering a three-dimensional positional relationship along the surface shape of the structure 5 including the direction of bending from the side surface a2 to the side surface a3, in the direction going to the far right with respect to the image # 3, An image # 21 of a3 exists. Similarly, when viewed from the image # 21 of the side surface a3, there is an image # 3 of the side surface a2 in the direction going to the far left.

劣化検査等の用途では、上記画像#3と画像#21との位置関係のような場合にも、これらの画像間での選択や表示を行うことができると有用である。そこで、本画像表示システムでは、このように、ある側面の画像と別の側面の画像とが連なっている場合(カメラ方向が異なる位置が近い画像がある場合)でも、画像間での選択や表示を可能とする機能を有する。このため、本画像表示システムでは、画像の位置や方向の情報を用いて、画像間の3次元の位置関係を判断し(図26)、側面間での隣接画像も判断して、リンク画像として提示する。例えば、個別画面402で画像#3が表示された場合、リンク画像としては、左や下を表すリンク画像だけでなく、右奥を表すリンク画像(図17、リンク画像404)も表示される。   For applications such as deterioration inspection, it is useful to be able to select and display between these images even in the case of the positional relationship between the images # 3 and # 21. Thus, in the present image display system, even when the image of one side and the image of another side are continuous (when there is an image whose position is different in the camera direction is close), selection and display between the images can be performed. It has a function that enables For this reason, in the present image display system, the three-dimensional positional relationship between the images is determined using the information on the position and direction of the image (FIG. 26), the adjacent images between the side surfaces are also determined, and a link image is determined. Present. For example, when the image # 3 is displayed on the individual screen 402, as the link image, not only the link image indicating the left or the bottom, but also the link image indicating the right back (the link image 404 in FIG. 17) is displayed.

なお、このように側面間での隣接画像の場合、画像間で重複する領域が無い場合がある。そのため、本画像表示システムは、この側面間での隣接画像の判断の際には、同じ平面内での重複率の判断ではなく、3次元の位置関係や距離の判断を主として行う(図4のS10等)。   In the case of the adjacent images between the side surfaces as described above, there is a case where there is no overlapping region between the images. Therefore, the present image display system mainly determines the three-dimensional positional relationship and the distance, not the overlap ratio in the same plane, when determining the adjacent image between the side surfaces (see FIG. 4). S10 etc.).

同様に、側面a2と側面a3との関係では、隣接画像として、画像#4と画像#26との組、画像#9と画像#27との組、画像#10と画像#32との組、が得られる。同様に、他の角部を介在する側面同士においても、それぞれ、隣接画像が得られる。   Similarly, in the relationship between the side surface a2 and the side surface a3, a pair of the image # 4 and the image # 26, a pair of the image # 9 and the image # 27, a pair of the image # 10 and the image # 32, Is obtained. Similarly, adjacent images can also be obtained on the side surfaces interposing other corners.

図26は、図25に対応して、構造物5の側面間での画像選択判断の例について示す。図26では、側面a1、側面a2、側面a3、角部601、角部602等を俯瞰で示す。側面a1のルートr1で、撮影時のカメラ位置Cの例として、位置c1,c2,c3を示す。これらの位置は、側面a1の角部601に近い位置である。いずれの位置でも、カメラ方向は方向Y1であり、対象距離D0は一定である。例えば位置c3で撮影した時の画像g11(特に撮影範囲の幅)を示す。また、側面a2のルートr2で、撮影時のカメラ位置Cの例として、位置c4,c5,c6等を示す。これらの位置は、側面a2の角部601に近い位置である。いずれの位置でも、カメラ方向は方向X2であり、対象距離D0は一定である。例えば位置c4(位置c3と殆ど同じ位置であるとする)で撮影した時の画像g12(特に撮影範囲の幅)を示す。   FIG. 26 shows an example of image selection determination between the side surfaces of the structure 5 corresponding to FIG. In FIG. 26, the side surface a1, the side surface a2, the side surface a3, the corner 601 and the corner 602 are shown in a bird's-eye view. Positions c1, c2, and c3 are shown as examples of the camera position C at the time of shooting along the route r1 of the side surface a1. These positions are positions near the corner 601 of the side surface a1. At any position, the camera direction is the direction Y1, and the target distance D0 is constant. For example, it shows an image g11 (especially the width of the photographing range) photographed at the position c3. Further, positions c4, c5, c6, and the like are shown as examples of the camera position C at the time of shooting along the route r2 of the side surface a2. These positions are positions near the corner 601 of the side surface a2. At any position, the camera direction is the direction X2, and the target distance D0 is constant. For example, it shows an image g12 (particularly the width of the photographing range) photographed at a position c4 (it is assumed to be almost the same position as the position c3).

本画像表示システムは、側面a1の画像g11に対し、隣接画像として、同じ側面内の隣接画像だけでなく、異なる側面の画像(画像g12)を判断する。その際、本画像表示システムは、各画像のカメラ位置Cの位置情報を用いて、カメラ位置C間の距離を計算して判断する。本画像表示システムは、例えば、画像g11の位置c3に対し、同じ側面内の画像(位置c1,c2等の画像)を除いて、カメラ位置C間の距離が最も小さくなる画像を判断する。本例では、位置c3に対し、位置c4が、距離が最も小さい。よって、位置c4の画像g12が、側面間の隣接画像としてピックアップされる。本画像表示システムは、画像g11に対し、画像g12を、側面間の隣接画像(側面間の場合では重複が無くても隣接画像と称する)として関連付け、対応するリンク画像を表示させる。   The image display system determines not only the adjacent image in the same side surface but also the image (image g12) of a different side surface as the adjacent image to the image g11 of the side surface a1. At this time, the present image display system calculates and determines the distance between the camera positions C using the position information of the camera position C of each image. The image display system determines, for example, an image in which the distance between the camera positions C is the smallest with respect to the position c3 of the image g11, except for images in the same side surface (images of the positions c1, c2, etc.). In this example, the position c4 has the smallest distance with respect to the position c3. Therefore, the image g12 at the position c4 is picked up as an adjacent image between the side surfaces. The image display system associates the image g11 with the image g11 as an adjacent image between the side surfaces (in the case of the side surface, it is called an adjacent image even if there is no overlap), and displays a corresponding link image.

なお、他の処理例として、本画像表示システムは、カメラ位置Cを用いるのではなく、近似的に、ドローン位置Pの情報を用いて、上記距離を判断してもよい。また、他の処理例として、本画像表示システムは、カメラ位置Cではなく、対応する画像および撮影範囲の中心の位置Qの情報を用いて、上記距離を判断してもよい。例えば、画像g11の中心位置が位置q3、画像g12の中心位置が位置q4であるとする。本画像表示システムは、同じ側面内の画像以外で、画像の中心位置間の距離が最も小さくなる画像を判断する。本例では、位置q3に対し、位置q4が最も距離が小さい。よって、位置q4の画像g12が、側面間の隣接画像としてピックアップされる。   As another processing example, the present image display system may determine the above-mentioned distance approximately using the information of the drone position P instead of using the camera position C. Further, as another processing example, the present image display system may determine the distance using the information of the corresponding image and the position Q of the center of the shooting range instead of the camera position C. For example, it is assumed that the center position of the image g11 is the position q3 and the center position of the image g12 is the position q4. The image display system determines an image in which the distance between the center positions of the images is the smallest other than the images in the same side surface. In this example, the position q4 has the smallest distance with respect to the position q3. Therefore, the image g12 at the position q4 is picked up as an adjacent image between the side surfaces.

角部602を介在する側面a2と側面a3との関係でも、上記と同様に、隣接画像を判断可能である。例えば、側面a2における位置c13(または位置q13)の画像g13を第1画像とした場合に、隣接画像として、側面a3における位置c14(または位置q14)の画像g14をピックアップできる。   Similarly to the above, it is possible to determine the adjacent image also in the relationship between the side surface a2 and the side surface a3 that interpose the corner 602. For example, when the image g13 at the position c13 (or the position q13) on the side surface a2 is the first image, the image g14 at the position c14 (or the position q14) on the side surface a3 can be picked up as an adjacent image.

個別画面402で、画像g11が表示されている場合、リンク画像としては、右前(方向Y2)を表すリンク画像が表示される。このリンク画像の選択によって画像g12に遷移可能である。個別画面402で、画像g12が表示されている場合、リンク画像としては、左前(方向X1)を表すリンク画像が表示される。このリンク画像の選択によって画像g11に遷移可能である。個別画面402で、画像g13が表示されている場合、リンク画像としては、右奥(方向X2)を表すリンク画像が表示される。このリンク画像の選択によって画像g14に遷移可能である。個別画面402で、画像g14が表示されている場合、リンク画像としては、左奥(方向Y1)を表すリンク画像が表示される。このリンク画像の選択によって画像g13に遷移可能である。   When the image g11 is displayed on the individual screen 402, a link image representing the front right (direction Y2) is displayed as the link image. It is possible to transit to the image g12 by selecting this link image. When the image g12 is displayed on the individual screen 402, a link image representing the front left (direction X1) is displayed as the link image. It is possible to transit to the image g11 by selecting this link image. When the image g13 is displayed on the individual screen 402, a link image representing the right back (direction X2) is displayed as the link image. It is possible to transit to the image g14 by selecting this link image. When the image g14 is displayed on the individual screen 402, a link image representing the back left (direction Y1) is displayed as the link image. It is possible to transit to the image g13 by selecting this link image.

なお、このようなリンク画像を介した表示画像遷移は、カメラ方向Cの変更に対応するユーザ視線方向の変更と対応している。本画像表示システムのGUIでは、このような3次元の構造物5の表面形状に沿った方向での画像選択および表示画像遷移を可能としている。これにより、ユーザは、劣化検査等の用途に応じた作業をより効率的にできる。   The transition of the display image via such a link image corresponds to a change in the user's line of sight corresponding to the change in the camera direction C. The GUI of the present image display system enables image selection and display image transition in a direction along the surface shape of such a three-dimensional structure 5. Thereby, the user can more efficiently perform the work according to the use such as the deterioration inspection.

なお、上記のように画像の位置や方向の情報を用いて画像の位置関係を判断する形態に限らず可能である。変形例としては、画像処理によって画像内から抽出される特徴点等の判断に基づいて、画像の位置関係を判断するようにしてもよい。   It is to be noted that the present invention is not limited to the above-described embodiment in which the positional relationship between images is determined using information on the position and direction of the image. As a modification, the positional relationship of the images may be determined based on the determination of the feature points and the like extracted from within the image by the image processing.

[空撮方式(3)]
図27は、応用例として、他の構造物5の空撮の方式の第3例を示す。本例の構造物5は、円柱形状を有する場合を示す。この構造物5の曲面を持つ側面A30の領域を、劣化検査対象とする場合に、以下のような空撮方式を用いる。図27の(A)は斜視、(B)はZ方向の俯瞰を示す。この方式の空撮設定例では、図示のように、曲面の側面A30に対し、ドローン10およびカメラ4を、対象距離D0を概略一定とするようにして、例えば水平方向に円周状に移動させるルートR30とする。このルートR30では、カメラ方向については、曲面の側面A30に対して例えば垂直に向くように制御される。例えば、ルートR30上のカメラ位置c31での画像g31、カメラ位置c32での画像g32、カメラ位置c33での画像g33等を示す。
[Aerial photography method (3)]
FIG. 27 shows a third example of an aerial photographing method of another structure 5 as an application example. The structure 5 of this example shows a case having a columnar shape. When the area of the side surface A30 having the curved surface of the structure 5 is to be subjected to deterioration inspection, the following aerial photography method is used. 27A shows a perspective view, and FIG. 27B shows an overhead view in the Z direction. In the aerial photography setting example of this method, as shown in the drawing, the drone 10 and the camera 4 are moved, for example, circumferentially in the horizontal direction with respect to the curved side surface A30 so that the target distance D0 is substantially constant. Route R30. In the route R30, the camera is controlled so as to face, for example, perpendicularly to the side surface A30 of the curved surface. For example, an image g31 at the camera position c31 on the route R30, an image g32 at the camera position c32, an image g33 at the camera position c33, and the like are shown.

このような空撮方式で得られた画像群の場合にも、同様に、本画像表示システムの処理が適用可能であり、概略同様の効果が得られる。本画像表示システムは、側面A30に沿って形成されている複数の画像(撮影範囲)について、同様に、重複率、隣接画像等を判断する。この場合、個別画面402では、側面A30に沿った方向で、各画像を選択可能である。この空撮方式の場合、特に、対象距離D0を一定とすることで、劣化検査がしやすく、また、SFM処理の精度を確保できる。この空撮方式に限らず、前述のように複数の直線状のルートに分ける方式としてもよい。   Also in the case of an image group obtained by such an aerial photography method, the processing of the image display system can be similarly applied, and substantially the same effect can be obtained. The image display system similarly determines the overlap ratio, adjacent images, and the like for a plurality of images (imaging ranges) formed along the side surface A30. In this case, on the individual screen 402, each image can be selected in a direction along the side surface A30. In the case of this aerial photography method, in particular, by setting the target distance D0 to be constant, it is possible to easily perform the deterioration inspection and to ensure the accuracy of the SFM processing. The method is not limited to the aerial photographing method, but may be a method of dividing into a plurality of linear routes as described above.

[処理タイミング]
実施の形態の画像表示システムでは、計算機システム1は、図4のフロー(S6)のように、ユーザ操作によってある第1画像が選択されたタイミング毎に、重複率や隣接画像判断の処理を実行している。処理タイミングは、これに限らず可能である。変形例では、計算機システム1(例えばサーバ3)は、予め、画像群のデータが入力されたタイミングや、ユーザによって一括処理実行が指定されたタイミングで、その画像群に対する重複率計算や隣接画像判断処理を一括処理として実行する。この処理の結果、元の画像群に関して、劣化検査等の用途に応じて、対象画像群をまとめて選択可能である。例えば、図25の例のように、3次元の空間での位置関係を持つ隣接画像群を構成することができる。計算機システム1は、この処理で構成した隣接画像群の情報を、構造物5の3次元モデルデータ等と合わせて管理する。そして、計算機システム1は、ユーザの操作に応じて、GUI画面(例えば図23、図24)に、その隣接画像群の情報を表示することができる。
[Processing timing]
In the image display system according to the embodiment, the computer system 1 executes the processing of the overlap ratio and the determination of the adjacent image at each timing when a certain first image is selected by a user operation, as shown in the flow (S6) of FIG. are doing. The processing timing is not limited to this, and is possible. In a modified example, the computer system 1 (for example, the server 3) calculates the overlap ratio and the adjacent image judgment for the image group at the timing when the data of the image group is input or when the execution of the batch processing is designated by the user in advance. Execute the process as a batch process. As a result of this processing, the target image group can be collectively selected with respect to the original image group according to the use such as the deterioration inspection. For example, as shown in the example of FIG. 25, a group of adjacent images having a positional relationship in a three-dimensional space can be configured. The computer system 1 manages the information of the adjacent image group formed by this processing together with the three-dimensional model data of the structure 5 and the like. Then, the computer system 1 can display information of the adjacent image group on a GUI screen (for example, FIGS. 23 and 24) in accordance with a user operation.

また、入力の画像群は、変更される場合がある。例えば、一部の画像が後から追加される場合もある。例えば、最初の撮影での未撮影領域がある場合に、2回目の撮影でその未撮影領域を対象として撮影される。そのような場合、計算機システム1は、その追加された画像に対し、同様に処理を実行する。すなわち、計算機システム1は、その追加画像を第1画像とし、処理済みの画像群を候補画像として、同様の重複率計算や隣接画像判断処理を再実行する。これにより、その追加画像に関して隣接画像群が構成され、画像群の関係が再構築、更新される。   Also, the input image group may be changed. For example, some images may be added later. For example, when there is an unphotographed area in the first photography, the second photography is performed for the unphotographed area as a target. In such a case, the computer system 1 performs the same process on the added image. That is, the computer system 1 re-executes the similar duplication ratio calculation and the adjacent image determination process using the additional image as the first image and the processed image group as the candidate image. Thereby, an adjacent image group is formed for the additional image, and the relationship between the image groups is reconstructed and updated.

[効果等]
上記のように、実施の形態の画像表示システムによれば、ドローン10のカメラ4で撮影した画像群から劣化検査等の用途のための画像を選択する際に、好適な画像を容易に選択することができ、ユーザの作業の手間を低減できる。用途に応じて、ユーザは、ある画像(第1画像)を見て確認や作業を行い、次にその画像の周囲にある画像から選択し、その画像(第2画像)を見て確認や作業を行う、といった場合が多い。そのような場合に、本画像表示システムでは、画像群の選択や作業を効率的に実現できる。実施の形態では、劣化検査の用途で、ユーザが目視検査の作業を効率的に実現できる。計算機による自動診断を行う場合でも、計算機が、選択画像群に対する処理を効率的に行うことができる。
[Effects]
As described above, according to the image display system of the embodiment, when selecting an image for use such as deterioration inspection from a group of images taken by the camera 4 of the drone 10, a suitable image is easily selected. This can reduce the work of the user. Depending on the application, the user checks and works by seeing a certain image (first image), then selects from images surrounding the image, and checks and works by viewing the image (second image). In many cases. In such a case, the present image display system can efficiently realize selection and operation of an image group. In the embodiment, the user can efficiently perform the work of the visual inspection for the purpose of the deterioration inspection. Even when automatic diagnosis is performed by the computer, the computer can efficiently perform processing on the selected image group.

上記のように、実施の形態の画像表示システムでは、3次元空間内での位置関係を持つ複数の2次元画像を対象として、画像内の物体に関する重複状態を判断する仕組みを有し、また、その重複状態に応じて画像間の選択や遷移をナビゲーションするGUI等の仕組みを有する。特に、本画像表示システムでは、構造物5の表面の3次元形状に沿った位置関係や方向での画像の選択や遷移が可能である。   As described above, the image display system according to the embodiment has a mechanism for judging an overlapping state of an object in an image with respect to a plurality of two-dimensional images having a positional relationship in a three-dimensional space, It has a mechanism such as a GUI for navigating selection and transition between images according to the overlapping state. In particular, in the present image display system, it is possible to select and transition an image in a positional relationship and a direction along the three-dimensional shape of the surface of the structure 5.

本画像表示システムでは、ユーザが第1画像を選択して個別画面402に表示した際に、その第1画像の周囲にある画像を探索して、重複率に基づいて隣接画像を判断し、対応するリンク画像を提示する。このように、本画像表示システムでは、処理を効率的に行うので、ユーザの待ち時間も少なくすることができる。   In the present image display system, when the user selects the first image and displays it on the individual screen 402, it searches for an image around the first image, determines an adjacent image based on the overlap rate, and The link image to be presented is presented. As described above, in the present image display system, since the processing is performed efficiently, the waiting time of the user can be reduced.

本画像表示システムは、劣化検査や3次元モデル生成の用途に限らず、他の用途にも適用可能である。他の用途に適用する場合でも、画像群および画像間で、用途に応じた重複率に従って好適な画像を選択でき、用途に応じた作業や処理を効率的に行うことができる。   The present image display system is applicable not only to the use for the deterioration inspection and the three-dimensional model generation but also to other uses. Even when applied to other uses, a suitable image can be selected according to the overlap rate according to the use between the image group and the image, and work and processing according to the use can be efficiently performed.

変形例の画像表示システムとしては、3次元モデル生成機能を持たない形態も可能である。   As a modified image display system, a form without a three-dimensional model generation function is also possible.

本画像表示システムでは、人手またはドローン10を用いて入力の画像群を得る構成としたが、これに限らず、入力の画像群は、任意の手段で得られたものとしてもよい。また、本画像表示システムでは、特に、劣化検査と3次元モデル生成との両方の用途に使用される画像群を扱う場合を説明した。特に、3次元モデル生成が可能なように撮影された画像群から、劣化検査用に好適な一部の画像群を選択する場合について説明した。これに限らず、ある第1用途のために撮影された第1画像群から、別の第2用途のための第2画像群を選択する場合に、本画像表示システムは有効である。   In the present image display system, the input image group is obtained by hand or by using the drone 10. However, the present invention is not limited to this, and the input image group may be obtained by any means. In addition, the present image display system has described a case in which an image group used for both the purpose of the deterioration inspection and the generation of the three-dimensional model is handled. In particular, a case has been described in which a partial image group suitable for deterioration inspection is selected from an image group photographed so that a three-dimensional model can be generated. The present invention is not limited to this, and the present image display system is effective when a second image group for another second use is selected from a first image group taken for a certain first use.

以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は前述の実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。   As described above, the present invention has been specifically described based on the embodiments. However, the present invention is not limited to the above-described embodiments, and can be variously modified without departing from the gist thereof.

1…計算機システム、201…画像群、202…画像情報、d1…構造物データ、d2…撮影計画データ、d4…検査データ、d5…3次元モデルデータ、121…劣化検査支援部、122…3次元モデル生成部、122A…SFM処理部、123…画像表示制御部、301…一覧表示部、302…個別表示部、303…隣接画像判断部、304…重複率計算部、401…一覧画面、402…個別画面。   DESCRIPTION OF SYMBOLS 1 ... Computer system, 201 ... Image group, 202 ... Image information, d1: Structure data, d2 ... Photographing plan data, d4 ... Inspection data, d5 ... 3D model data, 121 ... Deterioration inspection support part, 122 ... 3D Model generation unit, 122A: SFM processing unit, 123: Image display control unit, 301: List display unit, 302: Individual display unit, 303: Adjacent image determination unit, 304: Overlap ratio calculation unit, 401: List screen, 402 ... Individual screen.

Claims (30)

計算機システムによって構成される画像表示システムであって、
前記計算機システムは、
撮影の日時、位置、および方向が異なる複数の画像を含む画像群を入力し、
前記画像群の一覧を一覧画面に表示し、
ユーザの操作に基づいて前記画像群から選択された第1画像を個別画面に表示し、
前記第1画像と前記第1画像に対して空間的に周辺にある候補画像との組における空間的な位置関係の判断、および撮影範囲に関する重複状態の判断に基づいて、前記第1画像に対する隣接画像を判断し、
前記個別画面で、前記ユーザの操作に基づいて、前記第1画像に対する前記隣接画像を第2画像として選択し、前記第2画像を新たな前記第1画像として表示する、
画像表示システム。
An image display system configured by a computer system,
The computer system includes:
Enter a group of images containing multiple images with different shooting date and time, position, and direction,
Displaying a list of the image group on a list screen,
Displaying, on an individual screen, a first image selected from the image group based on a user operation;
Neighboring to the first image is determined based on a determination of a spatial positional relationship in a set of the first image and a candidate image spatially peripheral to the first image and a determination of an overlapping state regarding a shooting range. Judge the image,
On the individual screen, based on an operation of the user, the adjacent image to the first image is selected as a second image, and the second image is displayed as a new first image.
Image display system.
請求項1記載の画像表示システムにおいて、
前記計算機システムは、前記個別画面で、前記第1画像に対し、前記隣接画像の存在および方向を表すリンク画像を表示し、前記リンク画像に対する前記ユーザの操作に基づいて、前記隣接画像を前記第2画像として選択し、前記第2画像を新たな前記第1画像として表示する、
画像表示システム。
The image display system according to claim 1,
The computer system displays, on the individual screen, a link image representing the existence and direction of the adjacent image with respect to the first image, and displays the adjacent image on the basis of the user's operation on the link image. Selecting the two images and displaying the second image as the new first image;
Image display system.
請求項1記載の画像表示システムにおいて、
前記計算機システムは、前記第1画像と前記候補画像との組で、前記重複状態として、前記撮影範囲の重複率を計算し、前記重複率が重複率閾値の範囲内で最小となる前記候補画像を、前記隣接画像として選択する、
画像表示システム。
The image display system according to claim 1,
The computer system calculates an overlapping rate of the photographing range as the overlapping state with a set of the first image and the candidate image, and calculates the candidate image in which the overlapping rate is minimum within a range of an overlapping rate threshold. Is selected as the adjacent image,
Image display system.
請求項1記載の画像表示システムにおいて、
前記計算機システムは、前記画像群の各画像の撮影の位置を含む画像情報を用いて、前記第1画像と前記候補画像との組で、前記空間的な位置関係として、前記第1画像の位置と前記候補画像の位置との距離を計算し、前記距離が最も小さい前記候補画像を、前記隣接画像として選択する、
画像表示システム。
The image display system according to claim 1,
The computer system uses the image information including the shooting position of each image in the image group, and sets the position of the first image as the spatial positional relationship in a set of the first image and the candidate image. And calculating the distance between the position of the candidate image and selecting the candidate image having the smallest distance as the adjacent image,
Image display system.
請求項1記載の画像表示システムにおいて、
前記計算機システムは、前記画像群の各画像の撮影の位置を含む画像情報を用いて、前記第1画像と前記候補画像との組で、前記空間的な位置関係として、前記第1画像の撮影の方向と前記候補画像の撮影の方向とが概略同じである場合と、異なる場合とに分けて、それぞれの場合で前記隣接画像を判断する、
画像表示システム。
The image display system according to claim 1,
The computer system captures the first image as a spatial positional relationship in a set of the first image and the candidate image using image information including a capturing position of each image in the image group. The direction and the direction of shooting of the candidate image are substantially the same, and divided into different cases, and in each case, the adjacent image is determined.
Image display system.
請求項2記載の画像表示システムにおいて、
前記計算機システムは、前記個別画面で、前記リンク画像として、前記第1画像に対する前記隣接画像が存在する方向を表す形状を持つリンク画像を表示する、
画像表示システム。
The image display system according to claim 2,
The computer system, on the individual screen, displays, as the link image, a link image having a shape indicating a direction in which the adjacent image to the first image exists,
Image display system.
請求項2記載の画像表示システムにおいて、
前記空間的な位置関係として、前記第1画像の前記撮影範囲が配置されている第1面内の第1方向に対し、前記隣接画像の前記撮影範囲が配置されている第2面内の第2方向がある場合に、
前記計算機システムは、前記個別画面で、前記リンク画像として、前記第1方向から前記第2方向への変化を表す形状を持つリンク画像を表示する、
画像表示システム。
The image display system according to claim 2,
As the spatial positional relationship, with respect to a first direction in the first plane where the shooting range of the first image is arranged, a first direction in the second plane where the shooting range of the adjacent image is arranged. When there are two directions,
The computer system displays, on the individual screen, a link image having a shape representing a change from the first direction to the second direction, as the link image.
Image display system.
請求項1記載の画像表示システムにおいて、
前記第1画像と前記隣接画像との重複領域がある場合に、
前記計算機システムは、前記個別画面で、前記第1画像のうちの前記重複領域を、画像内容を削除した所定の表現で表示する、
画像表示システム。
The image display system according to claim 1,
When there is an overlapping area between the first image and the adjacent image,
The computer system, on the individual screen, displays the overlapping area of the first image in a predetermined expression with image content deleted,
Image display system.
請求項1記載の画像表示システムにおいて、
前記第1画像の周辺に未撮影領域がある場合に、
前記計算機システムは、前記個別画面で、前記第1画像の周辺の前記未撮影領域を、前記未撮影領域であることを表す所定の表現で表示する、
画像表示システム。
The image display system according to claim 1,
When there is an unphotographed area around the first image,
The computer system displays, on the individual screen, the unphotographed area around the first image in a predetermined expression indicating that the area is the unphotographed area.
Image display system.
請求項1記載の画像表示システムにおいて、
前記第1画像と前記隣接画像との重複領域がある場合に、
前記計算機システムは、前記個別画面で、前記第1画像のうちの前記重複領域を、前記重複領域の輪郭線または前記重複領域を表す所定の表現で表示する、
画像表示システム。
The image display system according to claim 1,
When there is an overlapping area between the first image and the adjacent image,
The computer system, on the individual screen, displays the overlap area of the first image in a predetermined expression representing the outline of the overlap area or the overlap area,
Image display system.
請求項1記載の画像表示システムにおいて、
前記計算機システムは、前記画像群のうち、前記個別画面での前記ユーザの操作を通じて選択された画像群の一覧を、前記一覧画面に表示する、
画像表示システム。
The image display system according to claim 1,
The computer system displays, on the list screen, a list of image groups selected through the operation of the user on the individual screen among the image groups.
Image display system.
請求項1記載の画像表示システムにおいて、
前記計算機システムは、前記画像群のうち、前記個別画面での前記ユーザの操作を通じて選択された画像群を、前記空間的な位置関係に合わせて配置し、前記一覧画面に表示する、
画像表示システム。
The image display system according to claim 1,
The computer system, of the image group, an image group selected through the user's operation on the individual screen is arranged according to the spatial positional relationship, and displayed on the list screen.
Image display system.
請求項1記載の画像表示システムにおいて、
前記画像群は、構造物の表面領域の劣化検査の用途のためにカメラで撮影された画像群であり、
前記個別画面は、前記ユーザの前記劣化検査の作業のための操作を受け付ける劣化検査画面である、
画像表示システム。
The image display system according to claim 1,
The group of images is a group of images taken by a camera for use in deterioration inspection of the surface area of the structure,
The individual screen is a deterioration inspection screen that receives an operation for the deterioration inspection work of the user,
Image display system.
請求項1記載の画像表示システムにおいて、
前記画像群は、構造物の3次元モデル生成の用途のためにカメラで撮影された画像群である、
画像表示システム。
The image display system according to claim 1,
The group of images is a group of images captured by a camera for use in generating a three-dimensional model of a structure.
Image display system.
請求項1記載の画像表示システムにおいて、
前記画像群は、カメラを搭載した飛行体によって空撮された画像群である、
画像表示システム。
The image display system according to claim 1,
The image group is a group of images taken aerial by a flying object equipped with a camera,
Image display system.
計算機システムによって構成される画像表示システムにおける画像表示方法であって、
前記計算機システムにおいて実行されるステップとして、
撮影の日時、位置、および方向が異なる複数の画像を含む画像群を入力するステップと、
前記画像群の一覧を一覧画面に表示するステップと、
ユーザの操作に基づいて前記画像群から選択された第1画像を個別画面に表示するステップと、
前記第1画像と前記第1画像に対して空間的に周辺にある候補画像との組における空間的な位置関係の判断、および撮影範囲に関する重複状態の判断に基づいて、前記第1画像に対する隣接画像を判断するステップと、
前記個別画面で、前記ユーザの操作に基づいて、前記第1画像に対する前記隣接画像を第2画像として選択し、前記第2画像を新たな前記第1画像として表示するステップと、
を有する、画像表示方法。
An image display method in an image display system configured by a computer system,
As steps performed in the computer system,
Inputting an image group including a plurality of images having different shooting dates and times, positions, and directions;
Displaying a list of the image group on a list screen;
Displaying, on an individual screen, a first image selected from the image group based on a user operation;
Neighboring to the first image is determined based on a determination of a spatial positional relationship in a set of the first image and a candidate image spatially peripheral to the first image and a determination of an overlapping state regarding a shooting range. Determining an image;
On the individual screen, based on the operation of the user, selecting the adjacent image to the first image as a second image, and displaying the second image as a new first image;
An image display method comprising:
請求項16記載の画像表示方法において、
前記計算機システムが、前記個別画面で、前記第1画像に対し、前記隣接画像の存在および方向を表すリンク画像を表示し、前記リンク画像に対する前記ユーザの操作に基づいて、前記隣接画像を前記第2画像として選択し、前記第2画像を新たな前記第1画像として表示するステップを有する、
画像表示方法。
The image display method according to claim 16,
The computer system displays, on the individual screen, a link image representing the existence and direction of the adjacent image with respect to the first image, and displays the adjacent image on the basis of an operation performed by the user on the link image. Selecting the two images and displaying the second image as the new first image.
Image display method.
請求項16記載の画像表示方法において、
前記計算機システムが、前記第1画像と前記候補画像との組で、前記重複状態として、前記撮影範囲の重複率を計算し、前記重複率が重複率閾値の範囲内で最小となる前記候補画像を、前記隣接画像として選択するステップを有する、
画像表示方法。
The image display method according to claim 16,
The computer system calculates an overlapping ratio of the photographing range as the overlapping state in a set of the first image and the candidate image, and the candidate image in which the overlapping ratio is the minimum within a range of an overlapping ratio threshold. Is selected as the adjacent image,
Image display method.
請求項16記載の画像表示方法において、
前記計算機システムが、前記画像群の各画像の撮影の位置を含む画像情報を用いて、前記第1画像と前記候補画像との組で、前記空間的な位置関係として、前記第1画像の位置と前記候補画像の位置との距離を計算し、前記距離が最も小さい前記候補画像を、前記隣接画像として選択するステップを有する、
画像表示方法。
The image display method according to claim 16,
The computer system uses the image information including the shooting position of each image in the image group, and sets the position of the first image as the spatial positional relationship in a set of the first image and the candidate image. And calculating the distance between the position of the candidate image and selecting the candidate image having the smallest distance as the adjacent image,
Image display method.
請求項16記載の画像表示方法において、
前記計算機システムが、前記画像群の各画像の撮影の位置を含む画像情報を用いて、前記第1画像と前記候補画像との組で、前記空間的な位置関係として、前記第1画像の撮影の方向と前記候補画像の撮影の方向とが概略同じである場合と、異なる場合とに分けて、それぞれの場合で前記隣接画像を判断するステップを有する、
画像表示方法。
The image display method according to claim 16,
The computer system captures the first image as a spatial positional relationship between the first image and the candidate image using image information including a capturing position of each image in the image group. And the case where the direction of shooting of the candidate image is substantially the same as the direction of shooting the candidate image, and the case where the direction is different, and a step of determining the adjacent image in each case,
Image display method.
請求項17記載の画像表示方法において、
前記計算機システムが、前記個別画面で、前記リンク画像として、前記第1画像に対する前記隣接画像が存在する方向を表す形状を持つリンク画像を表示するステップを有する、
画像表示方法。
The image display method according to claim 17,
The computer system further comprises a step of displaying, on the individual screen, a link image having a shape indicating a direction in which the adjacent image to the first image exists as the link image,
Image display method.
請求項17記載の画像表示方法において、
前記空間的な位置関係として、前記第1画像の前記撮影範囲が配置されている第1面内の第1方向に対し、前記隣接画像の前記撮影範囲が配置されている第2面内の第2方向がある場合に、
前記計算機システムが、前記個別画面で、前記リンク画像として、前記第1方向から前記第2方向への変化を表す形状を持つリンク画像を表示するステップを有する、
画像表示方法。
The image display method according to claim 17,
As the spatial positional relationship, with respect to a first direction in the first plane where the shooting range of the first image is arranged, a first direction in the second plane where the shooting range of the adjacent image is arranged. When there are two directions,
The computer system has a step of displaying, on the individual screen, a link image having a shape representing a change from the first direction to the second direction, as the link image.
Image display method.
請求項16記載の画像表示方法において、
前記第1画像と前記隣接画像との重複領域がある場合に、
前記計算機システムが、前記個別画面で、前記第1画像のうちの前記重複領域を、画像内容を削除した所定の表現で表示するステップを有する、
画像表示方法。
The image display method according to claim 16,
When there is an overlapping area between the first image and the adjacent image,
The computer system includes a step of displaying the overlapping area of the first image in a predetermined expression with image content deleted on the individual screen,
Image display method.
請求項16記載の画像表示方法において、
前記第1画像の周辺に未撮影領域がある場合に、
前記計算機システムは、前記個別画面で、前記第1画像の周辺の前記未撮影領域を、前記未撮影領域であることを表す所定の表現で表示するステップを有する、
画像表示方法。
The image display method according to claim 16,
When there is an unphotographed area around the first image,
The computer system has a step of displaying, on the individual screen, the unphotographed area around the first image in a predetermined expression representing the unphotographed area,
Image display method.
請求項16記載の画像表示方法において、
前記第1画像と前記隣接画像との重複領域がある場合に、
前記計算機システムが、前記個別画面で、前記第1画像のうちの前記重複領域を、前記重複領域の輪郭線または前記重複領域を表す所定の表現で表示するステップを有する、
画像表示方法。
The image display method according to claim 16,
When there is an overlapping area between the first image and the adjacent image,
The computer system further comprising a step of, on the individual screen, displaying the overlap area of the first image in a predetermined expression representing the outline of the overlap area or the overlap area,
Image display method.
請求項16記載の画像表示方法において、
前記計算機システムが、前記画像群のうち、前記個別画面での前記ユーザの操作を通じて選択された画像群の一覧を、前記一覧画面に表示するステップを有する、
画像表示方法。
The image display method according to claim 16,
The computer system has a step of displaying, on the list screen, a list of image groups selected through the operation of the user on the individual screen among the image groups,
Image display method.
請求項16記載の画像表示方法において、
前記計算機システムが、前記画像群のうち、前記個別画面での前記ユーザの操作を通じて選択された画像群を、前記空間的な位置関係に合わせて配置し、前記一覧画面に表示するステップを有する、
画像表示方法。
The image display method according to claim 16,
The computer system has a step of, among the image groups, arranging an image group selected through the operation of the user on the individual screen according to the spatial positional relationship, and displaying the image group on the list screen.
Image display method.
請求項16記載の画像表示方法において、
前記画像群は、構造物の表面領域の劣化検査の用途のためにカメラで撮影された画像群であり、
前記個別画面は、前記ユーザの前記劣化検査の作業のための操作を受け付ける劣化検査画面である、
画像表示方法。
The image display method according to claim 16,
The group of images is a group of images taken by a camera for use in deterioration inspection of the surface area of the structure,
The individual screen is a deterioration inspection screen that receives an operation for the deterioration inspection work of the user,
Image display method.
請求項16記載の画像表示方法において、
前記画像群は、構造物の3次元モデル生成の用途のためにカメラで撮影された画像群である、
画像表示方法。
The image display method according to claim 16,
The group of images is a group of images captured by a camera for use in generating a three-dimensional model of a structure.
Image display method.
請求項16記載の画像表示方法において、
前記画像群は、カメラを搭載した飛行体によって空撮された画像群である、
画像表示方法。
The image display method according to claim 16,
The image group is a group of images taken aerial by a flying object equipped with a camera,
Image display method.
JP2018124978A 2018-06-29 2018-06-29 Image display system and method Active JP7051616B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018124978A JP7051616B2 (en) 2018-06-29 2018-06-29 Image display system and method
SG11201808735TA SG11201808735TA (en) 2018-06-29 2018-08-24 Image display system and method
PCT/JP2018/031364 WO2020003548A1 (en) 2018-06-29 2018-08-24 Image display system and method
CN201880001267.9A CN110915201B (en) 2018-06-29 2018-08-24 Image display system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018124978A JP7051616B2 (en) 2018-06-29 2018-06-29 Image display system and method

Publications (2)

Publication Number Publication Date
JP2020005186A true JP2020005186A (en) 2020-01-09
JP7051616B2 JP7051616B2 (en) 2022-04-11

Family

ID=68985372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018124978A Active JP7051616B2 (en) 2018-06-29 2018-06-29 Image display system and method

Country Status (4)

Country Link
JP (1) JP7051616B2 (en)
CN (1) CN110915201B (en)
SG (1) SG11201808735TA (en)
WO (1) WO2020003548A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7003352B1 (en) 2021-04-12 2022-01-20 株式会社三井E&Sマシナリー Structure inspection data management system
WO2022244206A1 (en) * 2021-05-20 2022-11-24 日本電気株式会社 Measurement condition optimization system, three-dimensional data measurement system, measurement condition optimization method, and non-transitory computer-readable medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111510678B (en) * 2020-04-21 2021-12-24 上海歌尔泰克机器人有限公司 Unmanned aerial vehicle image transmission control method, device and system
WO2023188510A1 (en) * 2022-03-29 2023-10-05 富士フイルム株式会社 Image processing device, image processing method, and program
CN114778558B (en) * 2022-06-07 2022-09-09 成都纵横通达信息工程有限公司 Bridge monitoring device, system and method based on video image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090232A (en) * 1998-09-08 2000-03-31 Olympus Optical Co Ltd Panoramic image synthesizing device and record medium storing panoramic image synthesizing program
JP2006098256A (en) * 2004-09-30 2006-04-13 Ricoh Co Ltd Three-dimensional surface model preparing system, image processing system, program, and information recording medium
JP2006099497A (en) * 2004-09-30 2006-04-13 Seiko Epson Corp Synthesis of panoramic image
JP2013058124A (en) * 2011-09-09 2013-03-28 Sony Corp Information processing apparatus, information processing method, and program
JP2018074757A (en) * 2016-10-28 2018-05-10 株式会社東芝 Patrol inspection system, information processing apparatus, and patrol inspection control program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102819752B (en) * 2012-08-16 2015-04-22 北京理工大学 System and method for outdoor large-scale object recognition based on distributed inverted files
JP6335395B2 (en) * 2015-09-30 2018-05-30 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090232A (en) * 1998-09-08 2000-03-31 Olympus Optical Co Ltd Panoramic image synthesizing device and record medium storing panoramic image synthesizing program
JP2006098256A (en) * 2004-09-30 2006-04-13 Ricoh Co Ltd Three-dimensional surface model preparing system, image processing system, program, and information recording medium
JP2006099497A (en) * 2004-09-30 2006-04-13 Seiko Epson Corp Synthesis of panoramic image
JP2013058124A (en) * 2011-09-09 2013-03-28 Sony Corp Information processing apparatus, information processing method, and program
JP2018074757A (en) * 2016-10-28 2018-05-10 株式会社東芝 Patrol inspection system, information processing apparatus, and patrol inspection control program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7003352B1 (en) 2021-04-12 2022-01-20 株式会社三井E&Sマシナリー Structure inspection data management system
JP2022162443A (en) * 2021-04-12 2022-10-24 株式会社三井E&Sマシナリー Structure inspection data management system
WO2022244206A1 (en) * 2021-05-20 2022-11-24 日本電気株式会社 Measurement condition optimization system, three-dimensional data measurement system, measurement condition optimization method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
CN110915201A (en) 2020-03-24
CN110915201B (en) 2021-09-28
JP7051616B2 (en) 2022-04-11
SG11201808735TA (en) 2020-01-30
WO2020003548A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP7051616B2 (en) Image display system and method
US20230360330A1 (en) Method and system for displaying and navigating an optimal multi-dimensional building model
JP6835536B2 (en) Image processing method, display device and inspection system
WO2019073704A1 (en) Deterioration diagnosis system using aircraft
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
JP5248806B2 (en) Information processing apparatus and information processing method
US10977857B2 (en) Apparatus and method of three-dimensional reverse modeling of building structure by using photographic images
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
JP7332353B2 (en) Inspection system and inspection method
JP2018004541A (en) Information processing device, information processing method and program
JP2017182695A (en) Information processing program, information processing method, and information processing apparatus
US11395102B2 (en) Field cooperation system and management device
JP4588369B2 (en) Imaging apparatus and imaging method
JP7334460B2 (en) Work support device and work support method
JP2020021465A (en) Inspection system and inspection method
JP7184249B2 (en) Lightning protection range generation system and program
JP6940670B1 (en) Flight path creation method and system for unmanned aircraft
CN111581322B (en) Method, device and equipment for displaying region of interest in video in map window
KR200488998Y1 (en) Apparatus for constructing indoor map
JP2020021466A (en) Inspection system and inspection method
WO2020234912A1 (en) Mobile device, position display method, and position display program
TWI813480B (en) Cluster data synthesis apparatus, method, system, and computer-readable medium
JP6670918B2 (en) Generation device, generation method, and generation program
KR101861251B1 (en) Real-time ground compensation information acquisition system, and its method thereof
JP2022147856A (en) Remote surveying system using video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7051616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150