JP2024031584A - Information processing system, information processing method and program - Google Patents

Information processing system, information processing method and program Download PDF

Info

Publication number
JP2024031584A
JP2024031584A JP2022135233A JP2022135233A JP2024031584A JP 2024031584 A JP2024031584 A JP 2024031584A JP 2022135233 A JP2022135233 A JP 2022135233A JP 2022135233 A JP2022135233 A JP 2022135233A JP 2024031584 A JP2024031584 A JP 2024031584A
Authority
JP
Japan
Prior art keywords
information processing
vertices
processing system
images
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022135233A
Other languages
Japanese (ja)
Inventor
裕樹 柴山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CLUE Inc
Original Assignee
CLUE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CLUE Inc filed Critical CLUE Inc
Priority to JP2022135233A priority Critical patent/JP2024031584A/en
Publication of JP2024031584A publication Critical patent/JP2024031584A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】画像から容易に対象物の形状寸法を検出することができるようにする。【解決手段】情報処理システムであって、複数の位置から対象物を撮影した複数の画像を取得する画像取得部と、複数の画像のうちの少なくとも1つにおいて、対象物の頂点の位置の指定を受け付ける頂点取得部と、頂点の位置及び複数の画像に基づいて頂点及び頂点を結ぶ辺により構成される3次元モデルを作成するモデル作成部と、を備えることを特徴とする。【選択図】図1An object of the present invention is to easily detect the shape and dimensions of an object from an image. An information processing system includes an image acquisition unit that acquires a plurality of images of an object taken from a plurality of positions, and a designation of a position of a vertex of the object in at least one of the plurality of images. The present invention is characterized by comprising: a vertex acquisition unit that receives a vertex, and a model creation unit that creates a three-dimensional model composed of vertices and edges connecting the vertices based on the positions of the vertices and a plurality of images. [Selection diagram] Figure 1

Description

本発明は、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

特許文献1には、飛行体に搭載したカメラで対象物を撮像した画像から対象物である屋根の形状寸法を測定し、かかる形状寸法から屋根の面積を算出する技術が開示されている。 Patent Document 1 discloses a technique for measuring the shape and dimensions of a roof, which is a target object, from an image taken of the target object with a camera mounted on an aircraft, and calculating the area of the roof from the shape and dimensions.

特開2003-162552号公報Japanese Patent Application Publication No. 2003-162552

画像から屋根の形状を測定するためには様々な角度から対象物を撮像する必要がある。 In order to measure the shape of a roof from images, it is necessary to image the object from various angles.

本発明はこのような背景を鑑みてなされたものであり、画像から容易に対象物の形状寸法を検出することができる技術を提供することを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to provide a technique that can easily detect the shape and dimensions of an object from an image.

上記課題を解決するための本発明の主たる発明は、情報処理システムであって、複数の位置から対象物を撮影した複数の画像を取得する画像取得部と、前記複数の画像のうちの少なくとも1つにおいて、前記対象物の頂点の位置の指定を受け付ける頂点取得部と、前記頂点の位置及び前記複数の画像に基づいて前記頂点及び前記頂点を結ぶ辺により構成される3次元モデルを作成するモデル作成部と、を備えることを特徴とする。 The main invention of the present invention for solving the above problems is an information processing system, which includes an image acquisition unit that acquires a plurality of images of a target object from a plurality of positions, and at least one of the plurality of images. a vertex acquisition unit that receives designation of the position of the apex of the object; and a model that creates a three-dimensional model constituted by the apex and edges connecting the apex based on the position of the apex and the plurality of images. The invention is characterized by comprising a creation section.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed in the present application and methods for solving the problems will be made clear by the section of the embodiments of the invention and the drawings.

本発明によれば、画像から容易に対象物の形状寸法を検出することができる。 According to the present invention, the shape and dimensions of an object can be easily detected from an image.

本実施形態の概要を説明する図である。FIG. 2 is a diagram illustrating an overview of the present embodiment. 本実施形態に係る情報処理システム1の概略を示す図である。1 is a diagram schematically showing an information processing system 1 according to the present embodiment. 情報処理端末10のハードウェア構成例を示す図である。1 is a diagram showing an example of a hardware configuration of an information processing terminal 10. FIG. 情報処理端末10のソフトウェア構成例を示す図である。1 is a diagram showing an example of a software configuration of an information processing terminal 10. FIG. 画像情報121の表示例を示す図である。3 is a diagram illustrating a display example of image information 121. FIG. 頂点情報および線分情報の生成の一例を示す図である。FIG. 3 is a diagram illustrating an example of generation of vertex information and line segment information. ねじれ度合の評価の一例を説明する図である。It is a figure explaining an example of evaluation of a twist degree. 情報処理システム1の処理の流れの一例を示すフローチャートである。3 is a flowchart showing an example of the flow of processing of the information processing system 1. FIG. 他の実施形態に係る情報処理システム1’の概略を示す図である。FIG. 2 is a diagram schematically showing an information processing system 1' according to another embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.

<概要> <Summary>

図1は、本実施形態の概要を説明する図である。本実施形態に係る情報処理システム1は、対象物である建造物100の屋根101を撮像した画像から、屋根101の構造を解析しようとするものであり、例えば、平面部の面積や部位(軒や棟など)の長さを求め、屋根伏せ図を作成する。 FIG. 1 is a diagram illustrating an overview of this embodiment. The information processing system 1 according to the present embodiment attempts to analyze the structure of the roof 101 from an image taken of the roof 101 of a building 100, which is a target object. Find the length of the roof, ridge, etc.) and create a roof plan.

本実施形態の情報処理システム1では、屋根101の上空に飛行する飛行体30に付随するカメラ31が、屋根101を対象物として撮像する。 In the information processing system 1 of this embodiment, the camera 31 attached to the flying object 30 flying above the roof 101 images the roof 101 as a target object.

建造物100の近傍にはGCP(地上基準点)110が配置される。GCP110は、地上で上空より視認可能な位置に配置される。GCP110のサイズは予め与えられ、GCP110を撮像画像から検出することにより、屋根101の計測を行うことができる。 A GCP (ground control point) 110 is placed near the building 100. The GCP 110 is placed on the ground at a position that is visible from the sky. The size of the GCP 110 is given in advance, and the roof 101 can be measured by detecting the GCP 110 from the captured image.

本実施形態の情報処理システム1では、飛行体30は、異なる複数の高度(図1の例では高度H1及びH2の2つの高度を示すが、3つ以上の高度であってもよい。)から屋根101を撮像する。複数の高度から屋根101を撮像することにより、屋根101の3次元構造を計算する。 In the information processing system 1 of the present embodiment, the flying object 30 is moved from a plurality of different altitudes (the example in FIG. 1 shows two altitudes H1 and H2, but three or more altitudes may be used). The roof 101 is imaged. The three-dimensional structure of the roof 101 is calculated by capturing images of the roof 101 from multiple altitudes.

<システム構成>
図2は、本実施形態に係る情報処理システム1の概略を示す図である。図示のように、情報処理システム1は、情報処理端末10を備える。
<System configuration>
FIG. 2 is a diagram schematically showing the information processing system 1 according to the present embodiment. As illustrated, the information processing system 1 includes an information processing terminal 10.

本実施形態に係る情報処理端末10は、いわゆるタブレット状の小型のコンピュータによって実装される。他の実施形態においては、情報処理端末10は、スマートフォンまたはゲーム機等の携帯型の情報処理端末により実現されてもよいし、パーソナルコンピュータ等の据え置き型の情報処理端末により実現されてもよい。また、情報処理端末10は、複数のハードウェアにより実現され、それらに機能が分散された構成を有してもよい。 The information processing terminal 10 according to this embodiment is implemented by a small computer in the form of a so-called tablet. In other embodiments, the information processing terminal 10 may be realized by a portable information processing terminal such as a smartphone or a game machine, or may be realized by a stationary information processing terminal such as a personal computer. Further, the information processing terminal 10 may be realized by a plurality of pieces of hardware, and may have a configuration in which functions are distributed among them.

図3は、情報処理端末10のハードウェア構成例を示す図である。図示のように、情報処理端末10は、制御部11及び表示部であるタッチパネル部12を備える。 FIG. 3 is a diagram showing an example of the hardware configuration of the information processing terminal 10. As shown in FIG. As illustrated, the information processing terminal 10 includes a control section 11 and a touch panel section 12 that is a display section.

制御部11は、プロセッサ11a、メモリ11b、ストレージ11c、送受信部11d、及び入出力部11eを主要構成として備え、これらが互いにバス11fを介して電気的に接続される。 The control unit 11 mainly includes a processor 11a, a memory 11b, a storage 11c, a transmitting/receiving unit 11d, and an input/output unit 11e, which are electrically connected to each other via a bus 11f.

プロセッサ11aは、制御部11の動作を制御し、各要素間におけるデータの送受信の制御や、プログラムの実行に必要な処理等を行う演算装置である。 The processor 11a is an arithmetic device that controls the operation of the control unit 11, controls data transmission and reception between each element, and performs processing necessary for program execution.

このプロセッサ11aは、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ11cに格納されてメモリ11bに展開されたプログラムを実行して各処理を行う。 In this embodiment, the processor 11a is, for example, a CPU (Central Processing Unit), and executes a program stored in a storage 11c and developed in a memory 11b to perform various processes.

メモリ11bは、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える。 The memory 11b includes a main storage device made up of a volatile storage device such as a DRAM (Dynamic Random Access Memory), and an auxiliary storage device made up of a non-volatile storage device such as a flash memory or an HDD (Hard Disc Drive). .

このメモリ11bは、プロセッサ11aの作業領域として使用される一方、制御部11の起動時に実行されるBIOS(Basic Input/Output System)、及び各種の設定情報等が格納される。 The memory 11b is used as a work area for the processor 11a, and also stores a BIOS (Basic Input/Output System) executed when the control unit 11 is started, various setting information, and the like.

ストレージ11cは、プログラムや各種の処理に用いられる情報等が格納されている。例えば、屋根101の画像情報を撮像するための飛行体を、情報処理端末10を介してユーザが操作する場合、ストレージ11cには、かかる飛行体の飛行を制御するプログラムが格納されていてもよい。 The storage 11c stores programs and information used in various processes. For example, when a user operates a flying object for capturing image information of the roof 101 via the information processing terminal 10, a program for controlling the flight of the flying object may be stored in the storage 11c. .

送受信部11dは、制御部11をインターネット網等のネットワークに接続するものであって、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。 The transmitting/receiving unit 11d connects the control unit 11 to a network such as the Internet, and may include a short-range communication interface such as Bluetooth (registered trademark) or BLE (Bluetooth Low Energy).

本実施形態では、例えば、飛行体10の飛行を制御する制御信号が、この送受信部11dを介して飛行体10に送信されてもよい。 In this embodiment, for example, a control signal for controlling the flight of the flying object 10 may be transmitted to the flying object 10 via this transmitting/receiving section 11d.

入出力部11eは、入出力機器が接続されるインターフェースであって、本実施形態では、タッチパネル部12が接続される。 The input/output unit 11e is an interface to which input/output devices are connected, and in this embodiment, the touch panel unit 12 is connected.

バス11fは、接続したプロセッサ11a、メモリ11b、ストレージ11c、送受信部11d及び入出力部11eの間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。 The bus 11f transmits, for example, address signals, data signals, and various control signals among the connected processor 11a, memory 11b, storage 11c, transmitting/receiving section 11d, and input/output section 11e.

タッチパネル部12は、表示部の一例であり、取得した映像や画像が表示される表示面12aを備える。この表示面12aは、本実施形態では、表示面12aへの接触によって情報の入力を受け付けるものであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される。 The touch panel section 12 is an example of a display section, and includes a display surface 12a on which acquired videos and images are displayed. In this embodiment, the display surface 12a receives information input by touching the display surface 12a, and is implemented using various techniques such as a resistive film method and a capacitance method.

例えば、ユーザは、表示面12aに表示された画像に対して、タッチパネル部12を介して、線分情報やノード情報を入力し得る。また、表示面12aには、制御部11により出力される表示情報が表示される。 For example, the user can input line segment information and node information to the image displayed on the display surface 12a via the touch panel section 12. Furthermore, display information output by the control unit 11 is displayed on the display surface 12a.

図4は、情報処理端末10のソフトウェア構成例を示す図である。プロセッサ11aは、画像取得部111と、モデル作成部112と、計算部113と、頂点取得部114と、ねじれ評価部115と、判定部116と、補正部117と、図面作成部118と、を備える。また、ストレージ11cは、入力情報データベース120を備える。 FIG. 4 is a diagram showing an example of the software configuration of the information processing terminal 10. As shown in FIG. The processor 11a includes an image acquisition section 111, a model creation section 112, a calculation section 113, a vertex acquisition section 114, a twist evaluation section 115, a determination section 116, a correction section 117, and a drawing creation section 118. Be prepared. The storage 11c also includes an input information database 120.

入力情報データベース120は、画像情報121、頂点情報123、線分情報125を記憶する。 The input information database 120 stores image information 121, vertex information 123, and line segment information 125.

画像情報121は、対象物を撮影した画像である。本実施形態で画像情報121は飛行体30のカメラ31が撮影した屋根101の画像である。画像情報121の撮影画像には、屋根101及びGCP110が撮影される。複数の異なる高度から対象物を撮影した複数の画像に係る画像情報121が登録される。複数の画像は、同じ位置における異なる高度で撮影した画像であってよい。なお、カメラ31の画角は同じであってよい。 Image information 121 is an image of the object. In this embodiment, the image information 121 is an image of the roof 101 taken by the camera 31 of the flying object 30. The roof 101 and the GCP 110 are photographed in the photographed image of the image information 121. Image information 121 related to a plurality of images of a target object taken from a plurality of different altitudes is registered. The plurality of images may be images taken at different altitudes at the same location. Note that the angle of view of the camera 31 may be the same.

頂点情報123および線分情報125は、例えば、屋根101に対応する多角形(領域)を区画するための頂点102および線分103に関する情報である。線分103は、対象物を区画する多角形の外側および内側の境界の一部であり、対象物の構成部位に対応する。例えば、対象物が屋根101である場合、線分103に対応する構成部位とは、軒や棟等である。頂点102は、かかる複数の線分103を接続する頂点を意味する。なお、対象物が屋根101である場合、頂点102に対応する構成部位とは、軒や棟等の端部(頂部)である。 The vertex information 123 and the line segment information 125 are, for example, information regarding the vertices 102 and line segments 103 for dividing the polygon (region) corresponding to the roof 101. Line segments 103 are part of the outer and inner boundaries of a polygon that partitions the object, and correspond to constituent parts of the object. For example, when the target object is the roof 101, the component corresponding to the line segment 103 is an eave, a ridge, or the like. The vertex 102 means a vertex that connects the plurality of line segments 103. Note that when the object is the roof 101, the component corresponding to the apex 102 is an end (top) of an eave, a ridge, or the like.

画像取得部111は、飛行体30が撮影した画像を取得する。画像取得部111は、異なる高度から撮影した複数の画像を取得する。画像取得部111は、飛行体30が第1の高度(例えば図1のH1)で対象物(屋根101)を撮影した第1の画像を取得することができる。また、画像取得部111は、飛行体30が第2の高度(例えば図1のH2)で対象物(屋根101)を撮影した第2の画像を取得することもできる。 The image acquisition unit 111 acquires an image taken by the flying object 30. The image acquisition unit 111 acquires a plurality of images taken from different altitudes. The image acquisition unit 111 can acquire a first image of a target object (roof 101) taken by the flying object 30 at a first altitude (for example, H1 in FIG. 1). The image acquisition unit 111 can also acquire a second image of the object (roof 101) taken by the flying object 30 at a second altitude (for example, H2 in FIG. 1).

画像取得部111は、飛行体30と通信を行い、カメラ31から画像を取得するようにしてもよいし、予め入力情報データベース120に登録されている画像情報を読み出すようにしてもよい。 The image acquisition unit 111 may communicate with the flying object 30 and acquire images from the camera 31, or may read image information registered in the input information database 120 in advance.

また、画像取得部111は、入力情報データベース120から各種情報を取得することもできる。例えば、画像取得部111は、入力情報データベース120に含まれる画像情報121、頂点情報123及び線分情報125を取得することができる。 Further, the image acquisition unit 111 can also acquire various information from the input information database 120. For example, the image acquisition unit 111 can acquire image information 121, vertex information 123, and line segment information 125 included in the input information database 120.

頂点取得部114は、対象物の撮像画像上における対象物を画定する多角形の頂点の位置の指定を受け付ける。頂点取得部114は、建造物100に含まれる面部分(屋根101)に含まれる3つ以上の頂点を取得することができる。頂点取得部114は、例えば、ユーザから画像上の頂点の位置の指定を受け付けるようにしてもよいし、画像から画像認識処理により多角形を検出し、多角形の頂点を取得するようにしてもよい。かかる画像認識処理は、例えば、ディープラーニング等の公知の機械学習による手法が用いられてもよい。画像認識処理は、情報処理端末10のプロセッサ11aにおいて行われることができる。頂点取得部114は、例えば、第1の画像(高度H1)と第2の画像(高度H2)との両方について頂点を取得することができる。頂点取得部114は、一方の画像について頂点を取得し、高度及びカメラ31の画角に応じて頂点の位置を修正して他の画像における頂点を推定するようにしてもよいし、画像間の特徴点マッピングによって一方の画像の頂点を他方の画像上にマッピングしてもよい。 The vertex acquisition unit 114 receives designation of the position of the vertex of a polygon that defines the object on the captured image of the object. The vertex acquisition unit 114 can acquire three or more vertices included in the surface portion (roof 101) included in the building 100. For example, the vertex acquisition unit 114 may accept a designation of the position of a vertex on the image from the user, or may detect a polygon from the image through image recognition processing and acquire the vertex of the polygon. good. For this image recognition process, for example, a known machine learning method such as deep learning may be used. Image recognition processing can be performed in the processor 11a of the information processing terminal 10. The vertex acquisition unit 114 can acquire vertices for both the first image (altitude H1) and the second image (altitude H2), for example. The vertex acquisition unit 114 may acquire the vertices of one image, modify the position of the vertices according to the altitude and the angle of view of the camera 31, and estimate the vertices of the other image, or may estimate the vertices of the other image. The vertices of one image may be mapped onto the other image by feature point mapping.

図5は、画像情報121の表示例を示す図である。表示面12aには、取得された画像情報121をもとに、建造物100の屋根101を含む画像が表示される。情報処理端末10を操作するユーザは、表示面12aに表示される画像から、屋根101の構造を視認することができる。 FIG. 5 is a diagram showing a display example of the image information 121. An image including the roof 101 of the building 100 is displayed on the display surface 12a based on the acquired image information 121. A user operating the information processing terminal 10 can visually recognize the structure of the roof 101 from the image displayed on the display surface 12a.

頂点情報123および線分情報125は、例えば、情報処理端末10を操作するユーザが表示面12aに対する操作により生成されてもよい。具体的には、表示面12aに屋根101が映る画像が表示されている場合に、ユーザは、タッチパネル部12に対して、屋根101の構成部位に対応する線分103および頂点102を設定する操作を行ってもよい。 The vertex information 123 and the line segment information 125 may be generated, for example, by a user operating the information processing terminal 10 operating the display surface 12a. Specifically, when an image showing the roof 101 is displayed on the display surface 12a, the user performs an operation on the touch panel section 12 to set the line segment 103 and the vertex 102 corresponding to the constituent parts of the roof 101. You may do so.

図6は、頂点情報および線分情報の生成の一例を示す図である。例えばユーザのタッチパネル部12に対する操作により、頂点102a~102lおよび線分103a~103oが設定される。このとき、表示されている屋根101の画像に対して、頂点102および線分103が重畳されるようにユーザが入力することで、頂点102a~102lおよび線分103a~103oが設定されてもよい。このとき、対象物を区画する多角形とは、各線分103a~103oにより構成される多角形を指す。 FIG. 6 is a diagram illustrating an example of generation of vertex information and line segment information. For example, the vertices 102a to 102l and the line segments 103a to 103o are set by the user's operation on the touch panel unit 12. At this time, the vertices 102a to 102l and the line segments 103a to 103o may be set by the user inputting so that the vertices 102 and line segments 103 are superimposed on the displayed image of the roof 101. . At this time, the polygon that partitions the object refers to a polygon formed by each line segment 103a to 103o.

設定された頂点102a~102lおよび線分103a~103oはそれぞれ頂点情報および線分情報として生成され、ストレージ11cの入力情報データベース117に格納される。 The set vertices 102a to 102l and line segments 103a to 103o are generated as vertex information and line segment information, respectively, and stored in the input information database 117 of the storage 11c.

なお、図6に示した例では、ユーザのタッチパネル部12に対する操作により頂点情報123および線分情報125が生成されるとしたが、かかる例に限定されない。例えば、頂点情報および線分情報は、屋根101が映る画像に対する画像認識処理により、頂点102および線分103に相当する部分を抽出することで生成されてもよい。かかる画像認識処理は、例えば、ディープラーニング等の公知の機械学習による手法が用いられてもよい。この場合、例えば、屋根101が映る画像と屋根101の構成部位とに関する学習モデルを用いることで、画像認識処理が実現され得る。画像認識処理は、情報処理端末10のプロセッサ11aにおいて行われることができる。 Note that in the example shown in FIG. 6, the vertex information 123 and the line segment information 125 are generated by the user's operation on the touch panel unit 12, but the present invention is not limited to this example. For example, the vertex information and line segment information may be generated by extracting portions corresponding to the vertices 102 and line segments 103 through image recognition processing on an image in which the roof 101 is reflected. For this image recognition process, for example, a known machine learning method such as deep learning may be used. In this case, for example, image recognition processing can be realized by using a learning model regarding an image showing the roof 101 and the constituent parts of the roof 101. Image recognition processing can be performed in the processor 11a of the information processing terminal 10.

モデル作成部112は、撮影高度の異なる複数の画像に基づいて対象物の3次元モデルを作成する。モデル作成部112は、頂点取得部114が取得した第1及び第2の画像上での頂点の位置と、第1及び第2の画像とに基づいて3次元モデルを作成することができる。モデル作成部112は、例えば、第1及び第2の画像上でのGCP110の位置及び大きさに基づいて、第1及び第2の画像上における頂点の位置から、各頂点の現実空間上での相対的な位置関係と距離を計算することができる。モデル作成部112は、例えば、カメラ31の画角と、GCP110からの相対的な距離と、GCP110の実寸に対するGCP110のピクセル単位での大きさの比率とに応じて、頂点の相対的な3次元座標値(x、y、z)を計算することができる。モデル作成部112は、例えば、5点アルゴリズムやSfM(Structure from Motion)などの既存のアルゴリズムを用いて各頂点の3次元空間内での3次元座標値を計算することができる。 The model creation unit 112 creates a three-dimensional model of the object based on a plurality of images captured at different altitudes. The model creation unit 112 can create a three-dimensional model based on the positions of vertices on the first and second images acquired by the vertex acquisition unit 114 and the first and second images. For example, the model creation unit 112 calculates the position of each vertex in real space from the position of the vertex on the first and second images based on the position and size of the GCP 110 on the first and second images. Relative positions and distances can be calculated. The model creation unit 112 calculates the relative three-dimensionality of the vertices based on, for example, the angle of view of the camera 31, the relative distance from the GCP 110, and the ratio of the size in pixels of the GCP 110 to the actual size of the GCP 110. Coordinate values (x, y, z) can be calculated. The model creation unit 112 can calculate the three-dimensional coordinate value of each vertex in the three-dimensional space using, for example, an existing algorithm such as a five-point algorithm or SfM (Structure from Motion).

また、モデル作成部112は、例えば、SLAM(Simultaneous Localization and Mapping)の技術(とくにVisual SLAM)を用いて、撮影画像上の特徴点をマッピングし、この特徴点と、頂点102とを用いて3次元モデルを作成するようにしてもよい。例えば、モデル作成部112は、頂点102と、特徴点とを含めた各点をSfMなどのアルゴリズムに与えて3次元モデルを作成することができる。また、モデル作成部112は、上述のようにして頂点102に基づいて作成した3次元モデルを、特徴点を用いて補正するようにしてもよい。また、モデル作成部112は、例えば、Visual SLAMにより得られた特徴点に基づいて3次元モデルを作成し、作成した3次元モデルを構成するノード(頂点)のうち、頂点102に最も近いものを特定し、特定したノードの位置を、頂点102の位置と一致するように補正するようにしてもよい。 Further, the model creation unit 112 maps feature points on the photographed image using, for example, SLAM (Simultaneous Localization and Mapping) technology (particularly Visual SLAM), and uses the feature points and the vertices 102 to A dimensional model may also be created. For example, the model creation unit 112 can create a three-dimensional model by providing each point including the vertex 102 and feature points to an algorithm such as SfM. Further, the model creation unit 112 may correct the three-dimensional model created based on the vertices 102 as described above using the feature points. Furthermore, the model creation unit 112 creates a three-dimensional model based on feature points obtained by Visual SLAM, and selects the one closest to the vertex 102 among the nodes (vertices) constituting the created three-dimensional model. The position of the identified node may be corrected to match the position of the vertex 102.

また、モデル作成部112は、頂点の位置は、画像上の位置として計算してもよいし、所定の位置(例えば、ある頂点の位置)を基準とした相対的な位置として計算してもよいし、例えば、第1及び第2の画像上でのGCP110の位置及び大きさに基づいて、第1及び第2の画像上における頂点の位置から、頂点の3次元空間上での位置を計算するようにしてもよい。 Further, the model creation unit 112 may calculate the position of the vertex as a position on the image, or as a relative position with respect to a predetermined position (for example, the position of a certain vertex). For example, based on the position and size of the GCP 110 on the first and second images, the position of the vertex in the three-dimensional space is calculated from the position of the vertex on the first and second images. You can do it like this.

計算部113は、3次元モデルに基づいて対象物(本実施形態では屋根101)の面積及び対象物の部位の長さの少なくともいずれかを計算する。計算部113は、各頂点の位置を用いて、頂点間の部位の長さを計算することができる。計算部113は、例えば屋根面などの面部分を構成する多角形の拡張点の3次元座標値に基づいて、対象物の面部分の面積を計算することができる。 The calculation unit 113 calculates at least one of the area of the object (roof 101 in this embodiment) and the length of the part of the object based on the three-dimensional model. The calculation unit 113 can calculate the length of the region between the vertices using the position of each vertex. The calculation unit 113 can calculate the area of a surface portion of the object, for example, based on the three-dimensional coordinate values of extension points of a polygon that constitutes a surface portion such as a roof surface.

ねじれ評価部115は、頂点102により画定される多角形のねじれ度合を評価する。図7は、ねじれ度合の評価の一例を説明する図である。ねじれ評価部115は、例えば、3次元モデルにおける頂点102のそれぞれからの距離Dの合計が最小となる平面Pを特定し、これらの距離Dの合計に応じて面部分のねじれ度合を評価することができる。平面Pの特定は、例えば、最小二乗法などにより行うことができる。ねじれ評価部115は、例えば、距離Dの合計が長いほど高くなるようにねじれ度合を評価することができる。 The twist evaluation unit 115 evaluates the degree of twist of the polygon defined by the vertices 102. FIG. 7 is a diagram illustrating an example of evaluation of twist degree. The torsion evaluation unit 115, for example, identifies a plane P where the sum of distances D from each of the vertices 102 in the three-dimensional model is the minimum, and evaluates the degree of torsion of the plane portion according to the sum of these distances D. Can be done. The plane P can be specified by, for example, the least squares method. For example, the twist evaluation unit 115 can evaluate the twist degree such that the longer the total distance D is, the higher the twist degree becomes.

判定部116は、ねじれ度合が閾値以上であるか否かに応じて3次元モデルの作成が失敗したか否かを判定することができる。 The determining unit 116 can determine whether the creation of the three-dimensional model has failed depending on whether the degree of twist is equal to or greater than a threshold value.

補正部117は、頂点102の位置(3次元座標値)を補正する。補正部117は、上述した平面P上の頂点102から直近の位置(頂点102から平面Pに直角に延ばした直線と平面Pとの交点)を頂点102の位置(3次元座標値)として設定することができる。 The correction unit 117 corrects the position (three-dimensional coordinate values) of the vertex 102. The correction unit 117 sets the nearest position from the vertex 102 on the plane P described above (the intersection of the straight line extending from the vertex 102 at right angles to the plane P and the plane P) as the position (three-dimensional coordinate value) of the vertex 102. be able to.

また、補正部117は、複数の面部分が存在するような場合には、各面についてのねじれ度合(例えば、頂点102から平面Pへの最短距離Dの合計値)の総計が最小となるように、頂点102の位置を補正してもよい。補正部117は、例えば、最急降下法などにより3次元座標値の位置補正を行う。 In addition, when there are multiple surface portions, the correction unit 117 adjusts the degree of torsion for each surface so that the total sum (for example, the total value of the shortest distance D from the vertex 102 to the plane P) is the minimum. Additionally, the position of the vertex 102 may be corrected. The correction unit 117 performs position correction of the three-dimensional coordinate values using, for example, the steepest descent method.

また、補正部117は、頂点102の位置を、頂点102間の傾きが所定単位となるように補正することができる。所定単位は、例えば、1寸、あるいは0.5寸などの傾きとすることができる。屋根のように勾配が規格により定まるような場合には、屋根等を画定する多角形の頂点間の傾きが所定規格のキリのよい単位となることが多いため、当該単位の傾きとなるように頂点102の座標値を補正することにより、頂点102の誤差が修正されることが期待される。 Further, the correction unit 117 can correct the positions of the vertices 102 so that the slope between the vertices 102 is a predetermined unit. The predetermined unit can be, for example, a slope of 1 inch or 0.5 inch. In cases where the slope is determined by a standard, such as a roof, the slope between the vertices of the polygon that defines the roof is often a unit of sharpness according to the specified standard, so By correcting the coordinate values of the vertex 102, it is expected that the error of the vertex 102 will be corrected.

図面作成部118は、3次元モデルに基づいて屋根伏せ図を作成する。 The drawing creation unit 118 creates a roof plan based on the three-dimensional model.

<動作>
次に、本実施形態に係る情報処理システム1における処理の流れについて説明する。図8は、情報処理システム1の処理の流れの一例を示すフローチャートである。
<Operation>
Next, the flow of processing in the information processing system 1 according to this embodiment will be explained. FIG. 8 is a flowchart illustrating an example of the processing flow of the information processing system 1.

情報処理端末10は、異なる複数の高度から対象物を撮影した複数の画像情報を取得し(S101)、各画像情報において対象物を画定する多角形の各頂点102を取得する(S102)。 The information processing terminal 10 acquires a plurality of image information obtained by photographing a target object from a plurality of different altitudes (S101), and acquires each vertex 102 of a polygon defining the target object in each image information (S102).

情報処理端末10は、画像情報からGCP110を検出し(S103)、検出したGCP110の画像上の位置とサイズと、各画像上の頂点102の画像上の位置とに応じて、5点アルゴリズムやSfMなどにより頂点102の3次元座標値を計算して対象物の3次元モデルを作成する(S104)。 The information processing terminal 10 detects the GCP 110 from the image information (S103), and uses the five-point algorithm or SfM according to the position and size of the detected GCP 110 on the image and the position of the vertex 102 on each image on the image. The three-dimensional coordinate values of the apex 102 are calculated by the following methods, and a three-dimensional model of the object is created (S104).

情報処理端末10は、頂点102の3次元座標値を補正する(S105)。上述したように、情報処理端末10は、面部分を示す多角形の各頂点102から最小距離となる平面Pを特定し、平面Pから頂点102までの距離Dの総計が最小となるように頂点102の3次元座標値を補正することができる。また、情報処理端末10は、頂点102の間の部位の傾きが、所定単位(例えば、1寸や0.5寸など)となるように3次元座標値を補正することもできる。 The information processing terminal 10 corrects the three-dimensional coordinate value of the vertex 102 (S105). As described above, the information processing terminal 10 identifies the plane P that is the minimum distance from each vertex 102 of the polygon indicating the surface portion, and selects the vertices so that the total distance D from the plane P to the vertex 102 is the minimum. 102 three-dimensional coordinate values can be corrected. Further, the information processing terminal 10 can also correct the three-dimensional coordinate values so that the inclination of the parts between the vertices 102 is in a predetermined unit (for example, 1 inch, 0.5 inch, etc.).

情報処理端末10は、頂点102間の部位の長さ、頂点102を含む多角形が示す面部分の面積を計算し(S106)、3次元モデルに基づいて伏せ図を作成する(S107)。 The information processing terminal 10 calculates the length of the part between the vertices 102 and the area of the surface portion indicated by the polygon including the vertices 102 (S106), and creates a hidden map based on the three-dimensional model (S107).

以上説明したように、本発明の実施形態によれば、複数の高度から撮影した画像に映る対象物の形状寸法を容易かつ正確に求めることができる。飛行体30は、水平位置を移動せずに高度のみを変更して対象物を撮影してもよい。したがって、対象物の周囲に障害物などがある場合にも、容易に対象物の形状を求めることができる。 As described above, according to the embodiments of the present invention, the shape and dimensions of an object appearing in images taken from a plurality of altitudes can be easily and accurately determined. The flying object 30 may photograph the object by changing only the altitude without moving the horizontal position. Therefore, even if there are obstacles around the object, the shape of the object can be easily determined.

また、本実施形態では、撮影した画像に対象物の頂点102をプロットしたうえでマッピングを行うことができる。通常のSfMでは画像から抽出可能な数多くの特徴点をマッピングすることになるために対象物の各部位の位置の復元精度には誤差が出うるところ、本実施形態ではプロットした頂点102についてのみ3次元の位置を復元すればよいため、誤差を低減することができる。 Furthermore, in this embodiment, mapping can be performed after plotting the vertices 102 of the object on a photographed image. In normal SfM, many feature points that can be extracted from an image are mapped, so there may be errors in the accuracy of restoring the position of each part of the object, but in this embodiment, only the plotted vertices 102 are mapped. Since it is only necessary to restore the dimensional position, errors can be reduced.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the technical scope of the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. It is understood that these also naturally fall within the technical scope of the present invention.

上記の実施形態では、情報処理システム1は、情報処理端末10のみにより実現されていたが、本発明はかかる例に限定されない。図9は、他の実施形態に係る情報処理システム1’の概略を示す図である。他の実施形態では、情報処理システム1’は、情報処理端末10およびサーバ20を備える。この場合、例えば、上記の実施形態に係る情報処理端末10のプロセッサ11aおよびストレージ11cが有していた機能の一部または全部が、サーバ20の備えるプロセッサやストレージにより実現されてもよい。 In the above embodiment, the information processing system 1 is realized only by the information processing terminal 10, but the present invention is not limited to such an example. FIG. 9 is a diagram schematically showing an information processing system 1' according to another embodiment. In another embodiment, the information processing system 1' includes an information processing terminal 10 and a server 20. In this case, for example, part or all of the functions possessed by the processor 11a and the storage 11c of the information processing terminal 10 according to the above embodiment may be realized by the processor and storage included in the server 20.

また、上記実施の形態では、対象物が建造物100の屋根101である場合を説明したが、樹木や任意の地表面であってもよく、更には、一時的に停止している自動車や動物といった物体であってもよい。対象物の構成部位は、その対象物の種類や対象物が有する特定の構造に応じて適宜設定される。 Further, in the above embodiment, the case where the target object is the roof 101 of the building 100 has been described, but it may also be a tree or any ground surface, and furthermore, it may be a temporarily stopped car or an animal. It may be an object such as. The constituent parts of the object are appropriately set depending on the type of the object and the specific structure of the object.

また、上記実施形態では、2枚の画像(第1及び第2の画像)を用いて対象物の3次元モデルを作成するものとしたが、当然3枚以上の画像に基づいて3次元モデルを作成することも可能である。 Furthermore, in the above embodiment, the three-dimensional model of the object is created using two images (the first and second images), but of course the three-dimensional model is created based on three or more images. It is also possible to create one.

また、上記実施形態では、飛行体10が撮影した画像に基づいて屋根101の構造を解析するものとしたが、例えば近傍の高層建物の異なる階から撮影するなど、飛行体ではない手法を用いて異なる高度から撮影した画像を用いて解析を行うこともできる。 Further, in the above embodiment, the structure of the roof 101 is analyzed based on images taken by the flying object 10, but it is also possible to analyze the structure of the roof 101 based on images taken by the flying object 10. Analysis can also be performed using images taken from different altitudes.

また、異なる高度からの画像でもよいし、水平移動や撮影向きの異なる画像でもよい。 Furthermore, images may be taken from different altitudes, or may be images moved horizontally or shot in different directions.

また、上記実施形態では、異なる高度から同一対象物を撮影した複数の画像に基づいて対象物の3次元構造を推定するものとしたが、水平移動や高度変更による異なる位置から同一の対象物を撮影した複数の画像に基づいて対象物の3次元構造を推定するようにしてもよい。この場合にも、GCP110が撮影されるようにすることで、上記実施形態と同様の処理により対象物(例えば屋根101)の3次元モデルを作成することができる。 Furthermore, in the above embodiment, the three-dimensional structure of the object is estimated based on multiple images taken of the same object from different altitudes, but the same object can be estimated from different positions due to horizontal movement or altitude changes. The three-dimensional structure of the object may be estimated based on a plurality of captured images. Also in this case, by photographing the GCP 110, a three-dimensional model of the object (for example, the roof 101) can be created by the same processing as in the above embodiment.

また、上記実施形態では、対象物が建造物100の屋根101である場合を説明したが、樹木や任意の地表面であってもよく、更には、一時的に停止している自動車や動物といった物体であってもよい。対象物の構成部位は、その対象物の種類や対象物が有する特定の構造に応じて適宜設定される。 Further, in the above embodiment, the case where the target object is the roof 101 of the building 100 has been explained, but it may also be a tree or any ground surface, and furthermore, it may be a temporarily stopped car or an animal. It may be an object. The constituent parts of the object are appropriately set depending on the type of the object and the specific structure of the object.

また、上記実施形態では、撮影高度の異なる画像を取得するものとしたが、これに限らず、撮影位置の異なる画像であればよい。 Further, in the above embodiment, images taken at different photographing altitudes are acquired, but the present invention is not limited to this, and any images taken at different photographing positions may be used.

また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。 Furthermore, each step in the above embodiments does not necessarily need to be processed chronologically in the order described in the flowchart. For example, each step in the processing of the above embodiment may be processed in a different order from the order described as a flowchart, or may be processed in parallel.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本発明に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in this specification are merely explanatory or illustrative, and are not limiting. In other words, the technology according to the present invention can have other effects that are obvious to those skilled in the art from the description of this specification, in addition to or in place of the above effects.

<開示事項>
なお、本開示には、以下のような構成も含まれる。
[項目1]
複数の位置から対象物を撮影した複数の画像を取得する画像取得部と、
前記複数の画像のうちの少なくとも1つにおいて、前記対象物の頂点の位置の指定を受け付ける頂点取得部と、
前記頂点の位置及び前記複数の画像に基づいて前記頂点及び前記頂点を結ぶ辺により構成される3次元モデルを作成するモデル作成部と、
を備えることを特徴とする情報処理システム。
[項目2]
項目1に記載の情報処理システムであって、
前記画像取得部は、異なる高度から前記対象物を撮影した複数の前記画像を取得すること、
を特徴とする情報処理システム。
[項目3]
項目1に記載の情報処理システムであって、
前記3次元モデルに基づいて前記対象物の面積及び前記対象物の部位の長さの少なくともいずれかを計算する計算部を備えること、
を特徴とする情報処理システム。
[項目4]
項目1に記載の情報処理システムであって、
前記対象物は屋根であり、
前記3次元モデルに基づいて屋根伏せ図を作成する図面作成部を備えること、
を特徴とする情報処理システム。
[項目5]
項目1に記載の情報処理システムであって、
前記頂点取得部は、前記対象物に含まれる面部分に含まれる3つ以上の頂点を取得し、
前記3次元モデルにおける前記頂点のそれぞれからの距離が最小となる平面を特定し、前記距離に応じて前記面部分のねじれ度合を評価するねじれ評価部を備えること、
を特徴とする情報処理システム。
[項目6]
項目5に記載の情報処理システムであって、
前記ねじれ度合が閾値以上であるか否かに応じて前記3次元モデルの作成が失敗したか否かを判定する判定部を備えること、
を特徴とする情報処理システム。
[項目7]
項目5に記載の情報処理システムであって、
前記頂点の位置を、前記頂点から直近の前記平面上の位置に補正する補正部を備えること、
を特徴とする情報処理システム。
[項目8]
項目5に記載の情報処理システムであって、
前記頂点の位置を、前記頂点間の距離が所定単位となるように補正する補正部を備えること、
を特徴とする情報処理システム。
[項目9]
複数の位置から対象物を撮影した複数の画像を取得するステップと、
前記複数の画像のうちの少なくとも1つにおいて、前記対象物の頂点の位置の指定を受け付けるステップと、
前記頂点の位置及び前記複数の画像に基づいて前記頂点及び前記頂点を結ぶ辺により構成される3次元モデルを作成するステップと、
を情報処理装置が実行することを特徴とする情報処理方法。
[項目10]
複数の位置から対象物を撮影した複数の画像を取得するステップと、
前記複数の画像のうちの少なくとも1つにおいて、前記対象物の頂点の位置の指定を受け付けるステップと、
前記頂点の位置及び前記複数の画像に基づいて前記頂点及び前記頂点を結ぶ辺により構成される3次元モデルを作成するステップと、
を情報処理装置に実行させるためのプログラム。
<Disclosure>
Note that the present disclosure also includes the following configurations.
[Item 1]
an image acquisition unit that acquires multiple images of a target object from multiple positions;
a vertex acquisition unit that receives designation of a position of a vertex of the object in at least one of the plurality of images;
a model creation unit that creates a three-dimensional model composed of the vertices and edges connecting the vertices based on the positions of the vertices and the plurality of images;
An information processing system comprising:
[Item 2]
The information processing system described in item 1,
The image acquisition unit acquires a plurality of images of the object taken from different altitudes;
An information processing system characterized by:
[Item 3]
The information processing system described in item 1,
comprising a calculation unit that calculates at least one of the area of the object and the length of a part of the object based on the three-dimensional model;
An information processing system characterized by:
[Item 4]
The information processing system described in item 1,
the object is a roof;
comprising a drawing creation unit that creates a roof plan based on the three-dimensional model;
An information processing system characterized by:
[Item 5]
The information processing system described in item 1,
The vertex acquisition unit acquires three or more vertices included in a surface portion included in the object,
comprising a torsion evaluation unit that identifies a plane having a minimum distance from each of the vertices in the three-dimensional model and evaluates the degree of torsion of the surface portion according to the distance;
An information processing system characterized by:
[Item 6]
The information processing system described in item 5,
comprising a determination unit that determines whether creation of the three-dimensional model has failed depending on whether the degree of twist is equal to or greater than a threshold;
An information processing system characterized by:
[Item 7]
The information processing system described in item 5,
comprising a correction unit that corrects the position of the vertex to a position on the plane closest to the vertex;
An information processing system characterized by:
[Item 8]
The information processing system described in item 5,
comprising a correction unit that corrects the positions of the vertices so that the distance between the vertices is a predetermined unit;
An information processing system characterized by:
[Item 9]
acquiring a plurality of images of the object from a plurality of positions;
receiving designation of the position of the apex of the object in at least one of the plurality of images;
creating a three-dimensional model composed of the vertices and edges connecting the vertices based on the positions of the vertices and the plurality of images;
An information processing method, characterized in that an information processing device executes the following.
[Item 10]
acquiring a plurality of images of the object from a plurality of positions;
receiving a designation of the position of a vertex of the object in at least one of the plurality of images;
creating a three-dimensional model composed of the vertices and edges connecting the vertices based on the positions of the vertices and the plurality of images;
A program that causes an information processing device to execute.

1 情報処理システム
10 情報処理端末
11 制御部
102 頂点
1 Information processing system 10 Information processing terminal 11 Control unit 102 Vertex

Claims (10)

複数の位置から対象物を撮影した複数の画像を取得する画像取得部と、
前記複数の画像のうちの少なくとも1つにおいて、前記対象物の頂点の位置の指定を受け付ける頂点取得部と、
前記頂点の位置及び前記複数の画像に基づいて前記頂点及び前記頂点を結ぶ辺により構成される3次元モデルを作成するモデル作成部と、
を備えることを特徴とする情報処理システム。
an image acquisition unit that acquires multiple images of a target object from multiple positions;
a vertex acquisition unit that receives designation of a position of a vertex of the object in at least one of the plurality of images;
a model creation unit that creates a three-dimensional model composed of the vertices and edges connecting the vertices based on the positions of the vertices and the plurality of images;
An information processing system comprising:
請求項1に記載の情報処理システムであって、
前記画像取得部は、異なる高度から前記対象物を撮影した複数の前記画像を取得すること、
を特徴とする情報処理システム。
The information processing system according to claim 1,
The image acquisition unit acquires a plurality of images of the object taken from different altitudes;
An information processing system characterized by:
請求項1に記載の情報処理システムであって、
前記3次元モデルに基づいて前記対象物の面積及び前記対象物の部位の長さの少なくともいずれかを計算する計算部を備えること、
を特徴とする情報処理システム。
The information processing system according to claim 1,
comprising a calculation unit that calculates at least one of the area of the object and the length of a part of the object based on the three-dimensional model;
An information processing system characterized by:
請求項1に記載の情報処理システムであって、
前記対象物は屋根であり、
前記3次元モデルに基づいて屋根伏せ図を作成する図面作成部を備えること、
を特徴とする情報処理システム。
The information processing system according to claim 1,
the object is a roof;
comprising a drawing creation unit that creates a roof plan based on the three-dimensional model;
An information processing system characterized by:
請求項1に記載の情報処理システムであって、
前記頂点取得部は、前記対象物に含まれる面部分に含まれる3つ以上の頂点を取得し、
前記3次元モデルにおける前記頂点のそれぞれからの距離が最小となる平面を特定し、前記距離に応じて前記面部分のねじれ度合を評価するねじれ評価部を備えること、
を特徴とする情報処理システム。
The information processing system according to claim 1,
The vertex acquisition unit acquires three or more vertices included in a surface portion included in the object,
comprising a torsion evaluation unit that identifies a plane having a minimum distance from each of the vertices in the three-dimensional model and evaluates the degree of torsion of the surface portion according to the distance;
An information processing system characterized by:
請求項5に記載の情報処理システムであって、
前記ねじれ度合が閾値以上であるか否かに応じて前記3次元モデルの作成が失敗したか否かを判定する判定部を備えること、
を特徴とする情報処理システム。
The information processing system according to claim 5,
comprising a determination unit that determines whether creation of the three-dimensional model has failed depending on whether the degree of twist is equal to or greater than a threshold;
An information processing system characterized by:
請求項5に記載の情報処理システムであって、
前記頂点の位置を、前記頂点から直近の前記平面上の位置に補正する補正部を備えること、
を特徴とする情報処理システム。
The information processing system according to claim 5,
comprising a correction unit that corrects the position of the vertex to a position on the plane closest to the vertex;
An information processing system characterized by:
請求項5に記載の情報処理システムであって、
前記頂点の位置を、前記頂点間の距離が所定単位となるように補正する補正部を備えること、
を特徴とする情報処理システム。
The information processing system according to claim 5,
comprising a correction unit that corrects the positions of the vertices so that the distance between the vertices is a predetermined unit;
An information processing system characterized by:
複数の位置から対象物を撮影した複数の画像を取得するステップと、
前記複数の画像のうちの少なくとも1つにおいて、前記対象物の頂点の位置の指定を受け付けるステップと、
前記頂点の位置及び前記複数の画像に基づいて前記頂点及び前記頂点を結ぶ辺により構成される3次元モデルを作成するステップと、
を情報処理装置が実行することを特徴とする情報処理方法。
acquiring a plurality of images of the object from a plurality of positions;
accepting designation of the position of the apex of the object in at least one of the plurality of images;
creating a three-dimensional model composed of the vertices and edges connecting the vertices based on the positions of the vertices and the plurality of images;
An information processing method, characterized in that an information processing device executes the following.
複数の位置から対象物を撮影した複数の画像を取得するステップと、
前記複数の画像のうちの少なくとも1つにおいて、前記対象物の頂点の位置の指定を受け付けるステップと、
前記頂点の位置及び前記複数の画像に基づいて前記頂点及び前記頂点を結ぶ辺により構成される3次元モデルを作成するステップと、
を情報処理装置に実行させるためのプログラム。
acquiring a plurality of images of the object from a plurality of positions;
accepting designation of the position of the apex of the object in at least one of the plurality of images;
creating a three-dimensional model composed of the vertices and edges connecting the vertices based on the positions of the vertices and the plurality of images;
A program that causes an information processing device to execute.
JP2022135233A 2022-08-26 2022-08-26 Information processing system, information processing method and program Pending JP2024031584A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022135233A JP2024031584A (en) 2022-08-26 2022-08-26 Information processing system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022135233A JP2024031584A (en) 2022-08-26 2022-08-26 Information processing system, information processing method and program

Publications (1)

Publication Number Publication Date
JP2024031584A true JP2024031584A (en) 2024-03-07

Family

ID=90106439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022135233A Pending JP2024031584A (en) 2022-08-26 2022-08-26 Information processing system, information processing method and program

Country Status (1)

Country Link
JP (1) JP2024031584A (en)

Similar Documents

Publication Publication Date Title
US11783543B2 (en) Method and system for displaying and navigating an optimal multi-dimensional building model
JP6723061B2 (en) Information processing apparatus, information processing apparatus control method, and program
US20110110557A1 (en) Geo-locating an Object from Images or Videos
CN110411435B (en) Robot positioning method and device and robot
EP3239931A1 (en) Image processing apparatus and image processing method
US10102647B2 (en) Image processing device, image processing method, and non-transitory computer-readable storage medium that determines camera position based on a comparison of estimated postures
US8831335B2 (en) Stereo matching processing apparatus, stereo matching processing method and computer-readable recording medium
US9160979B1 (en) Determining camera position for a photograph having a displaced center of projection
JP7131994B2 (en) Self-position estimation device, self-position estimation method, self-position estimation program, learning device, learning method and learning program
WO2017154061A1 (en) Map making device and map making method
US11682168B1 (en) Method and system for virtual area visualization
US20180101981A1 (en) Smoothing 3d models of objects to mitigate artifacts
JP2022087153A (en) Information processing system
US10600202B2 (en) Information processing device and method, and program
US20210192777A1 (en) Method, device and storage medium for positioning object
CN112083403A (en) Positioning tracking error correction method and system for virtual scene
CN111239763A (en) Object positioning method and device, storage medium and processor
CN112154429A (en) High-precision map positioning method, system, platform and computer readable storage medium
US10146331B2 (en) Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates
JP2024031584A (en) Information processing system, information processing method and program
CN113168712A (en) System and method for selecting complementary images from multiple images for 3D geometry extraction
WO2022021132A1 (en) Computer device positioning method and apparatus, computer device, and storage medium
CN108109171A (en) Unmanned plane aerophotograph revolves detection method, device, equipment and the storage medium of drift angle
JP7184249B2 (en) Lightning protection range generation system and program
CN113503883A (en) Method for collecting data for constructing map, storage medium and electronic equipment