JPWO2020039470A1 - Image processing system - Google Patents
Image processing system Download PDFInfo
- Publication number
- JPWO2020039470A1 JPWO2020039470A1 JP2020537904A JP2020537904A JPWO2020039470A1 JP WO2020039470 A1 JPWO2020039470 A1 JP WO2020039470A1 JP 2020537904 A JP2020537904 A JP 2020537904A JP 2020537904 A JP2020537904 A JP 2020537904A JP WO2020039470 A1 JPWO2020039470 A1 JP WO2020039470A1
- Authority
- JP
- Japan
- Prior art keywords
- image information
- image
- processing unit
- information
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 271
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 14
- 238000000034 method Methods 0.000 description 35
- 238000000605 extraction Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000000052 comparative effect Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 238000007689 inspection Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本発明は,画像処理システムを提供することを目的とする。対象物をモデル化するために用いる複数の画像情報に対する画像処理システムであって,画像処理システムは,複数の画像情報の入力を受け付ける画像情報入力受付処理部と,入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部と,画像情報の画質の判定を行う画質判定処理部と,を有しており,オーバーラップ処理部において特定した画像情報のうち,画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,画像処理システムである。An object of the present invention is to provide an image processing system. An image processing system for a plurality of image information used for modeling an object. The image processing system includes an image information input reception processing unit that accepts input of a plurality of image information and an image information that receives the input. It has an overlap processing unit that specifies image information that satisfies the conditions related to the degree of overlap of the reference image information with the shooting area, and an image quality determination processing unit that determines the image quality of the image information. This is an image processing system that uses the results determined by the image quality determination processing unit to identify the image information that satisfies the conditions related to image quality from the image information specified by the wrap processing unit, and selects that image information as the output target. ..
Description
本発明は,画像処理システムに関する。 The present invention relates to an image processing system.
近年,橋梁,ダム,トンネルなどの各種構造物の老朽化の維持管理や災害対策などの観点から,構造物の点検業務が重要となっている。構造物の点検業務においては,点検ロボットやUAV(Unmanned Aerial Vehicle),情報技術の活用する取り組みが行われている。 In recent years, structural inspection work has become important from the viewpoint of maintenance and management of aging of various structures such as bridges, dams, and tunnels, and disaster countermeasures. In the inspection work of structures, efforts are being made to utilize inspection robots, UAVs (Unmanned Aerial Vehicles), and information technology.
そして点検業務の一つの方法として,検査対象物となる構造物の状況を3次元モデルで再現することで,構造物の損傷や劣化の状況をコンピュータの画面上で確認する方法がある。 Then, as one method of inspection work, there is a method of confirming the state of damage or deterioration of the structure on a computer screen by reproducing the state of the structure to be inspected with a three-dimensional model.
3次元モデルで再現する場合,構造物を多視点から撮影した画像情報を用い,画像情報間の特徴点を対応づけ,その特徴点の3次元上の座標を,三角測量の原理により,3次元形状を再現する技術を用いる。この技術は,SfM(Structure from Motion)と呼ばれている。 When reproducing with a three-dimensional model, the image information obtained by photographing the structure from multiple viewpoints is used, the feature points between the image information are associated with each other, and the three-dimensional coordinates of the feature points are three-dimensionally measured by the principle of triangulation. Use a technique to reproduce the shape. This technique is called SfM (Structure from Motion).
SfMを用いる場合,同一の構造物の同一箇所を異なる視点から,少なくとも2以上の視点から画像を撮影していなければならない。そのため,SfMに用いる画像情報では,撮影位置を変更しながら,ほかの画像情報と撮影範囲が重なる(オーバーラップ)するように撮影されている。 When SfM is used, images of the same part of the same structure must be taken from different viewpoints and from at least two viewpoints. Therefore, in the image information used for SfM, while changing the shooting position, the image information is photographed so as to overlap (overlap) with other image information.
特許文献1および特許文献2には,画像情報間の特徴点を対応づける技術が開示されている。また特許文献3には撮影した画像から物体形状を生成する精度を向上させる技術が開示されている。さらに,特許文献4には良質の画像を選定する画像評価方法が開示されている。
Patent Document 1 and
SfMを用いて構造物の画像を撮影して構造物の3次元モデルを生成する場合,2次元の画像情報から3次元に再構成する必要があることから,膨大な処理時間が発生する。とくに点検業務の場合,高解像度の画像情報を用いるため,処理時間が大きくなる。たとえば画像情報間のオーバーラップ率を60%程度とした場合であっても,画像情報が5000枚程度の場合,GPU(Graphics Processing Unit)を搭載した専用のコンピュータを用いたとしても数日や1週間程度の処理時間を要することがある。そのため処理時間の短縮が求められている。 When an image of a structure is taken using SfM to generate a three-dimensional model of the structure, a huge amount of processing time is required because it is necessary to reconstruct the structure from the two-dimensional image information in three dimensions. Especially in the case of inspection work, high-resolution image information is used, which increases the processing time. For example, even if the overlap rate between image information is about 60%, if the image information is about 5000 sheets, even if a dedicated computer equipped with a GPU (Graphics Processing Unit) is used, it will take several days or 1 It may take about a week to process. Therefore, reduction of processing time is required.
しかし特許文献1乃至特許文献3の技術をSfMに適用したとしても,多少の高速化は期待できる可能性があるが,大幅な処理時間の短縮を図ることはできない。なぜならSfMにおける処理時間は,画像情報の枚数の組み合わせ数に比例することから,SfMそのものにおける処理の高速化では解決が難しいからである。 However, even if the techniques of Patent Documents 1 to 3 are applied to SfM, some speedup may be expected, but the processing time cannot be significantly reduced. This is because the processing time in SfM is proportional to the number of combinations of the number of image information, and it is difficult to solve the problem by speeding up the processing in SfM itself.
また,特許文献4の方法で選定される画像の「最良の写真」とは情緒的な「良い写真」の意味である。そのため,かかる方法を用いたとしても,計測上の精度の高いデータとしての意味での最良の写真を得ることはできない。 Further, the "best photograph" of the image selected by the method of Patent Document 4 means an emotional "good photograph". Therefore, even if such a method is used, it is not possible to obtain the best photograph in the sense of highly accurate measurement data.
そこで本発明者は上記課題に鑑み,3次元モデルの再構成に要する処理時間の短縮を図ることができる画像処理システムを発明した。 Therefore, in view of the above problems, the present inventor has invented an image processing system capable of shortening the processing time required for reconstructing a three-dimensional model.
第1の発明は,対象物をモデル化するために用いる複数の画像情報に対する画像処理システムであって,前記画像処理システムは,前記複数の画像情報の入力を受け付ける画像情報入力受付処理部と,前記入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部と,前記画像情報の画質の判定を行う画質判定処理部と,を有しており,前記オーバーラップ処理部において特定した画像情報のうち,前記画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,画像処理システムである。 The first invention is an image processing system for a plurality of image information used for modeling an object, wherein the image processing system includes an image information input reception processing unit that accepts input of the plurality of image information. Of the image information received, the overlap processing unit that specifies the image information that satisfies the condition regarding the degree of overlap of the reference image information with the shooting area, and the image quality determination process that determines the image quality of the image information. Of the image information specified by the overlap processing unit, the image information that satisfies the conditions related to image quality is specified by using the result of determination by the image quality determination processing unit, and the image information is specified. Is an image processing system that selects as an output target.
本発明のように構成することで,対象物をモデル化するために用いる画像情報のうち,重複度合いが高い画像情報についてはその一部を間引くことができ,モデル化に用いる画像情報の数を減らすことができる。また,画質を考慮して画像情報の選択をしているので,高品質の画像情報でモデル化を実行できるので,モデル化の際の精度を向上させることができる。 By configuring as in the present invention, among the image information used for modeling the object, a part of the image information having a high degree of duplication can be thinned out, and the number of image information used for modeling can be reduced. Can be reduced. In addition, since the image information is selected in consideration of the image quality, modeling can be performed with high quality image information, so that the accuracy at the time of modeling can be improved.
上述の発明において,前記画像処理システムは,前記入力を受け付けた画像情報に撮影位置等情報が対応づけられていない場合には,撮影位置等情報を推定する撮影位置推定処理部,を有する画像処理システムのように構成することができる。 In the above-described invention, the image processing system includes an image processing unit that estimates shooting position information when information such as shooting position is not associated with the image information that has received the input. It can be configured like a system.
撮影装置に撮影位置や撮影方向を計測する装置を取り付けた上で対象物の撮影を行うことが好ましいが,そうでない場合であっても,本発明の処理を用いることで,撮影位置や撮影方向である撮影位置等情報を推定することができる。 It is preferable to attach a device for measuring the shooting position and shooting direction to the shooting device before shooting the object, but even if this is not the case, the processing of the present invention can be used to shoot the shooting position and shooting direction. Information such as the shooting position can be estimated.
上述の発明において,前記撮影位置推定処理部は,比較対象とする画像情報のそれぞれの特徴点を対応づけることでその移動量を算出し,前記算出した移動量を用いて相対位置を算出することで画像情報の撮影位置等情報を推定する,画像処理システムのように構成することができる。 In the above-described invention, the imaging position estimation processing unit calculates the movement amount by associating the feature points of the image information to be compared with each other, and calculates the relative position using the calculated movement amount. It can be configured like an image processing system that estimates information such as the shooting position of image information.
撮影位置等情報の推定処理にはさまざまな処理があるが,本発明の処理のように実行するとよい。 There are various processes for estimating information such as the shooting position, but it is preferable to execute the process as in the process of the present invention.
上述の発明において,前記画像処理システムは,画像情報における撮影位置等情報を用いて,その画像情報における撮影領域を算出する撮影領域算出処理部,を有する画像処理システムのように構成することができる。 In the above-described invention, the image processing system can be configured like an image processing system having a shooting area calculation processing unit that calculates a shooting area in the image information by using information such as a shooting position in the image information. ..
画像情報の撮影領域は本発明を用いることで算出できる。 The imaging area of image information can be calculated by using the present invention.
第5の発明は,画像処理システムであって,対象物を撮影した複数の画像情報の入力を受け付ける画像情報入力受付処理部と,前記複数の画像情報から画像情報を選択する画像情報選択処理部と,を有しており,前記画像情報選択処理部は,画像情報の撮影領域の重複度合いに関する条件を充足する画像情報のうち,画質に関する条件を充足する画像情報を選択する,画像処理システムである。 A fifth invention is an image processing system, which is an image information input reception processing unit that accepts input of a plurality of image information obtained by photographing an object, and an image information selection processing unit that selects image information from the plurality of image information. The image information selection processing unit is an image processing system that selects image information that satisfies the condition related to image quality from among the image information satisfying the condition related to the degree of duplication of the shooting area of the image information. be.
複数の画像情報から必要な画像情報を選択する場合には,本発明を用いることがよい。 The present invention may be used when necessary image information is selected from a plurality of image information.
上述の発明において,前記画像処理システムは,前記画像情報選択処理部で選択した画像情報を,画像情報に基づいて対象物のモデル化の処理を実行するソフトウェアに出力する出力処理部,を有する画像処理システムのように構成することができる。 In the above-described invention, the image processing system includes an output processing unit that outputs image information selected by the image information selection processing unit to software that executes modeling processing of an object based on the image information. It can be configured like a processing system.
上述の各発明は,本発明の処理によって選択した画像情報は,複数の画像情報に基づいて対象物をモデル化するためのソフトウェアに出力すると,高い技術的効果を得ることができる。 In each of the above-mentioned inventions, when the image information selected by the processing of the present invention is output to software for modeling an object based on a plurality of image information, a high technical effect can be obtained.
第1の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,対象物をモデル化するために用いる複数の画像情報の入力を受け付ける画像情報入力受付処理部,前記入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部,前記画像情報の画質の判定を行う画質判定処理部,として機能させる画像処理プログラムであって,前記オーバーラップ処理部において特定した画像情報のうち,前記画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,画像処理プログラムである。 The first invention can be realized by loading and executing the program of the present invention in a computer. That is, the computer is used in the image information input reception processing unit that accepts the input of a plurality of image information used for modeling the object, and the image information that has received the input overlaps with the shooting area of the reference image information. An image processing program that functions as an overlap processing unit that specifies image information that satisfies the conditions related to the degree, and an image quality determination processing unit that determines the image quality of the image information, and is the image information specified by the overlap processing unit. Among these, it is an image processing program that identifies image information that satisfies the conditions related to image quality by using the result of determination by the image quality determination processing unit, and selects the image information as an output target.
第5の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,対象物を撮影した複数の画像情報の入力を受け付ける画像情報入力受付処理部,前記複数の画像情報から画像情報を選択する画像情報選択処理部,として機能させる画像処理プログラムであって,前記画像情報選択処理部は,画像情報の撮影領域の重複度合いに関する条件を充足する画像情報のうち,画質に関する条件を充足する画像情報を選択する,画像処理プログラムである。 The fifth invention can be realized by loading the program of the present invention into a computer and executing it. That is, it is an image processing program that causes a computer to function as an image information input reception processing unit that accepts input of a plurality of image information obtained by photographing an object, and an image information selection processing unit that selects image information from the plurality of image information. The image information selection processing unit is an image processing program that selects image information that satisfies the condition related to image quality from among the image information satisfying the condition relating to the degree of duplication of the imaging area of the image information.
本発明の画像処理システムを発明することで,3次元モデルの再構成に要する処理時間の短縮を図ることができる。また,画質を加味した画像情報を選択することで,3次元モデルの再構成についても精度の向上を図ることができる。 By inventing the image processing system of the present invention, the processing time required for reconstructing the three-dimensional model can be shortened. Further, by selecting the image information in consideration of the image quality, it is possible to improve the accuracy of the reconstruction of the three-dimensional model.
本発明の画像処理システム1の全体の処理機能の構成の一例を図1に,後述する撮影位置推定処理部21の処理機能の構成の一例を図2に,後述する画像情報選択処理部23の処理機能の構成の一例を図3に,画像処理システム1で用いるコンピュータのハードウェア構成の一例を図4に示す。
An example of the configuration of the entire processing function of the image processing system 1 of the present invention is shown in FIG. 1, and an example of the configuration of the processing function of the photographing position
画像処理システム1は制御コンピュータ2を用いる。制御コンピュータ2は,画像処理システム1における処理機能を実現するためのコンピュータである。
The image processing system 1 uses a
制御コンピュータ2は,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,ディスプレイなどの表示装置72と,情報の入力を行う入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報を通信する通信装置74とを有している。なお,コンピュータがタッチパネルディスプレイを備えている場合には表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。
The
タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。
The touch panel display is a device in which the functions of the
画像処理システム1は一台のコンピュータによって実現されていてもよいが,その一部または全部の機能が複数のコンピュータによって実現されていてもよい。この場合のコンピュータとして,たとえばクラウドサーバであってもよい。また,画像処理システム1におけるコンピュータが,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末であってもよい。 The image processing system 1 may be realized by one computer, but some or all of its functions may be realized by a plurality of computers. The computer in this case may be, for example, a cloud server. Further, the computer in the image processing system 1 may be a portable communication terminal such as a mobile phone, a smartphone, or a tablet computer.
本発明の画像処理システム1における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。 Each means in the image processing system 1 of the present invention is only logically distinguished in its function, and may form the same area physically or substantially.
画像処理システム1は,画像情報入力受付処理部20と撮影位置推定処理部21と撮影領域算出処理部22と画像情報選択処理部23と出力処理部24とを有する。
The image processing system 1 includes an image information input
画像情報入力受付処理部20は,構造物などの対象物を撮影した画像情報の入力を撮影装置などから受け付ける。なお画像情報としては動画像であってもよいし静止画像であってもよい。動画像の場合には,フレームごとの静止画像に変換したうえで処理を実行する。対象物などを撮影した画像情報は連続しており,前後の画像情報同士は,撮影位置も近接している。そのため,画像情報入力受付処理部20で入力を受け付ける画像情報では,前後の画像情報について,同じ領域を異なる位置(異なる視点)から撮影している。なお,同じ領域を同じ位置(同じ視点)から撮影していてもよい。また,画像情報には,撮影位置および撮影方向を記録する装置を撮影装置に取り付けることで,画像情報ごとに撮影位置および撮影方向を示す情報(撮影位置等情報)を対応づけておいてもよい。
The image information input
撮影位置推定処理部21は,画像情報に撮影位置等情報が対応づけられていない場合に,当該画像情報の撮影位置等情報を推定する処理を実行する。すなわち,画像情報入力受付処理部20で入力を受け付けた画像情報のうち,比較対象とする2つの画像情報の特徴点を対応づけ,それに基づいて相対位置を算出することで,撮影位置等情報を推定する。
The shooting position
撮影位置推定処理部21は,特徴点抽出処理部210と特徴点対応検索処理部211と相対位置算出処理部212とを有する。
The shooting position
特徴点抽出処理部210は,画像情報における特徴点を抽出する。特徴点を抽出する処理としては,たとえばSIFT,SURF,ORB,KAZEなどが一例としたあるが,それに限定されない。
The feature point
特徴点対応検索処理部211は,2つの画像情報における特徴点を対応づける射影行列を求める。
The feature point correspondence
相対位置算出処理部212は,特徴点対応検索処理部211で特定した射影行列に基づいて算出した移動量を用いて,画像情報PXに対する画像情報PYの相対位置を算出し,撮影位置等情報として推定する。
The relative position
具体的には,画像情報入力受付処理部20で入力を受け付けた一つの画像情報P1,たとえば画像情報入力受付処理部20で入力を受け付けた画像情報のうちの最初の画像情報を特定し,その画像情報P1に対する特徴点を特徴点抽出処理部210が抽出する。また,その画像情報P1の撮影位置を原点として設定する。そして,当該画像情報P1と比較する画像情報P2(たとえば画像情報P1の次の画像情報など,画像情報P1にオーバーラップする領域がある画像情報)を特定し,画像情報P2の特徴点を特徴点抽出処理部210が抽出する。そして,特徴点対応検索処理部211は,画像情報P1における特徴点と画像情報P2における特徴点とを対応づける射影行列を公知の手法により求める。なお,特徴点のベクトルは主に,平行移動と回転であることから,それ以外の特徴点は誤判定であるとして削除する。そして,相対位置算出処理部212は,特徴点対応検索処理部211が求めた射影行列に基づいて,画像情報P1から画像情報P2への移動量を算出することで,画像情報P2の画像情報P1に対する相対位置を求め,撮影位置等情報として推定する。
Specifically, one image information P1 for which input is received by the image information input
なお,撮影位置推定処理部21は,上述の処理において画像情報入力受付処理部20で受け付けた画像情報をそのまま用いてもよいが,たとえばグレースケールなどへの変換,ファイルの大きさ(縦や横の大きさ)の縮小などをしてデータ量を減らしたあとに,特徴点抽出処理部210,特徴点対応検索処理部211,相対位置算出処理部212の処理などをしてもよい。特徴点を抽出するにあたり,画像情報の色と画像情報の大きさは必要ないからである。
The shooting position
撮影領域算出処理部22は,画像情報に対応づけられた撮影位置等情報または撮影位置推定処理部21で推定した撮影位置等情報に基づいて,対象物の撮影領域を算出する。具体的には撮影装置の情報(撮像素子サイズ,レンズの焦点距離)と撮影対象物までの平均距離の入力を受け付け,これらの情報に基づいて画像情報に写っている物体の実際のサイズ(大きさ)を算出する。そして,撮影画像のピクセル単位の長さを実寸換算したmmの長さを利用し,撮影位置と撮影方向とを示す撮影位置等情報から撮影領域を算出する。
The shooting area
画像情報選択処理部23は,画像情報入力受付処理部20で画像情報のうち,必要な画像情報を選択する(不要な画像情報を間引く)処理を実行する。画像情報選択処理部23は,オーバーラップ処理部230と画質判定処理部231とを有する。
The image information
オーバーラップ処理部230は,注目する画像情報の撮影領域へのオーバーラップ率が所定の閾値以上である画像情報を特定する。そして,特定した画像情報のうち,画質判定処理部231における画質判定処理による最適な画像情報を特定し,出力対象リストとして追加する。オーバーラップ率は比較対象とする2つの画像情報の撮影領域がどれだけ重複しているかの比率の算出で行える。
The
画質判定処理部231は,画像情報が最適な画像情報であるか否かを判定する。最適な画像情報か否かは,コントラストが高い画像情報であるか,エッジのはっきりした画像情報であるかなど,画質に関する要素をスコアリングすることで判定できる。最適な画像情報であるか否かは,これらに限定するものではなく,画質の良さ(画像情報にボケやブレがない)を判定することに用いる処理であればいかなる処理であっても用いることができる。たとえば機械学習によって,画質の良さを学習させ,判定させてもよい。コントラストが高いか否かは,画像情報における輝度値の分散に基づいて判定でき,分散の大きさに応じたスコア(評価値)を付与する。分散が大きい画像情報は高コントラストとして高いスコアが付与される。またエッジのある画像情報か否かは,ラプラシアンフィルタ(差分フィルタ)の分散から求めることができ,分散の大きさに応じたスコア(評価値)を付与する。コントラストおよびエッジに対する各評価値を用いて所定の演算をすることで,画質に関する要素をスコアリングした評価値である画質スコアを算出する。画質スコアが高ければ3次元モデルの再構成などに向いている計測上の精度の高い画像情報と判定でき,低ければそうではない画像情報と判定できる。なお,コントラスト,エッジに関する処理についても,これらに限定するものではなく,ほかの処理を用いることができる。また,オーバーラップ率の閾値は,任意のタイミングで入力を受け付けてもよいし,あらかじめ所定値が設定されていてもよい。
The image quality
画質判定処理部231における各画像情報の画質をスコアリングする処理は,それを用いる前であればいかなるタイミングで行ってもよい。
The process of scoring the image quality of each image information in the image quality
図8に画像情報選択処理部23における処理の概念の一例を示す。注目する画像情報がP1であったとき,オーバーラップ処理部230は,あらかじめ定められたオーバーラップ率(たとえば20%)を充足する画像情報を,画像情報P1よりも後の画像情報から探索をする。そして,探索の結果,画像情報P2(P1へのオーバーラップ率60%),画像情報P3(P1へのオーバーラップ率40%,),画像情報P4(P1へのオーバーラップ20%)を特定したとする。また,画質判定処理部231で特定した画像情報P2,P3,P4の画質スコアがそれぞれ10,30,20であったとする。
FIG. 8 shows an example of the concept of processing in the image information
このとき,オーバーラップ処理部230は,もっとも画質スコアの高い画像情報P3を選択し,出力対象リストに追加をする。
At this time, the
つぎに,オーバーラップ処理部230は,選択した画像情報P3を基準に,画像情報P3へのオーバーラップ率が所定の閾値以上の画像情報を,画像情報P3よりも後の画像情報から探索をする。そして,探索の結果,画像情報P4(P3へのオーバーラップ率80%),画像情報P5(P3へのオーバーラップ率40%,),画像情報P6(P3へのオーバーラップ20%)を特定したとする。また,画質判定処理部231で特定した画像情報P4,P5,P6の画質スコアが20,30,40であったとする。このとき,オーバーラップ処理部230は,もっとも画質スコアの高い画像情報P6を選択し,出力対象リストに追加をする。
Next, the
つぎに,オーバーラップ処理部230は,選択した画像情報P6を基準に,上述と同様の処理を,後続する画像情報がなくなるまで繰り返す。
Next, the
このように,従来であれば,画像情報P1乃至P6の6枚の画像情報があったところ,画像情報P1,画像情報P3,画像情報P6の3枚のみを選択し,画像情報P2,画像情報P4,画像情報P5を間引くことができる。また選択した3枚の画像情報はいずれも画質がオーバーラップしていたほかの画像情報より良いので,3次元モデルの再構成にあたり,精度を向上することもできる。 As described above, conventionally, where there were six image information of image information P1 to P6, only three images of image information P1, image information P3, and image information P6 were selected, and image information P2 and image information were selected. P4 and image information P5 can be thinned out. Moreover, since the three selected image information are all better than the other image information whose image quality overlaps, the accuracy can be improved when reconstructing the three-dimensional model.
なお,オーバーラップ処理部230は,オーバーラップ率の閾値を充足する画像情報のうち,画質判定処理部231で判定した画質スコアがもっともよい画像情報を選択したが,一つに限ることなく,複数の画像情報を選択するようにしても良い。たとえば画質スコアが一定の閾値以上である画像情報を出力対象リストに追加するようにしても良い。複数の画像情報を選択した場合,次の処理の基準とする画像情報としては,選択した画像情報のうち,もっとも後ろにある画像情報を選択することが好ましいがそれに限定しない。
The
また,オーバーラップによる判定で画像情報を選択する場合,たとえば構造物の隅の方の画像情報など,画像情報の抜けが発生する可能性がある。そこで,画像情報選択処理部23は,撮影領域の周辺にある画像情報であって,出力対象リストに加えていない画像情報を出力対象リストに追加をする処理を実行してもよい。具体的には,出力対象リストに含まれている画像情報がカバーしている撮影領域全体に対し,出力対象リストに含まれていない画像情報から,今の撮影領域全体を拡大することができる画像情報を出力対象リストに追加することで行う。
In addition, when image information is selected by judgment based on overlap, there is a possibility that image information may be omitted, for example, image information in the corner of a structure. Therefore, the image information
出力処理部24は,出力対象リストにある画像情報を抽出し,3次元モデルの再構成処理などで用いる画像情報として出力をする。たとえばSfMの処理を実行するソフトウェアに出力対象リストにある画像情報を入力する。
The
つぎに本発明の画像処理システム1を用いた処理プロセスの一例を,図5乃至図7のフローチャートを用いて説明する。 Next, an example of the processing process using the image processing system 1 of the present invention will be described with reference to the flowcharts of FIGS. 5 to 7.
まず3次元モデル化する構造物などの対象物を撮影した画像情報P1乃至Pnを制御コンピュータ2に読み込ませ,画像情報入力受付処理部20でその入力を受け付ける(S100)。この際に,撮影位置等情報がある場合には,画像情報に対応づけてその入力を受け付ける。画像情報入力受付処理部20は,入力を受け付けた画像情報,撮影位置等情報を記憶装置71に記憶させる。
First, the
そして撮影位置等情報が画像情報に対応づけられていない場合(S110),撮影位置推定処理部21は,撮影位置推定処理を実行する(S120)。
When the information such as the shooting position is not associated with the image information (S110), the shooting position
具体的には,まず撮影位置推定処理部21は,記憶装置71に記憶した画像情報について,グレースケールに変換をし,また,ファイルの縦,横のサイズを等倍で縮小する。そして,特徴点抽出処理部210は,撮影位置等情報の原点として用いる画像情報P1の特徴点を抽出する(S200)。また画像情報P1の撮影位置およびその撮影方向を基準となる原点として設定する。なお,撮影位置および撮影方向は,担当者による入力を受け付けてもよい。
Specifically, first, the photographing position
そして,特徴点対応検索処理部211は,画像情報P1を第1の比較画像PX,画像情報P1の次の画像情報P2を第2の比較画像PYとして設定する(S220)。また特徴点抽出処理部210は,第2の比較画像PY(画像情報P2)の特徴点を抽出する(S230)。
Then, the feature point correspondence
このように第1の比較画像PX,第2の比較画像PYの特徴点がそれぞれ抽出できると,特徴点対応検索処理部211は,平行移動と回転以外であるベクトルを有する特徴点を削除した上で,第1の比較画像PXの特徴点と,第2の比較画像PYの特徴点とを対応づける射影行列を求める(S240)。
When the feature points of the first comparison image PX and the second comparison image PY can be extracted in this way, the feature point correspondence
そして,相対位置算出処理部212は,射影行列に基づいて第1の比較画像PXの撮影位置から第2の比較画像PYへの移動量を算出し,第2の比較画像PYの相対位置を算出する(S250)。これによって,画像情報P2の画像情報P1の撮影位置に対する相対位置が特定できる。
Then, the relative position
そして,画像情報P2の次に画像情報がある場合(S260),第2の比較画像PYを第1の比較画像PX,第2の比較画像PY(画像情報P2)の次の画像情報P3を第2の比較画像PXとして設定して(S270),S230以降と同様の処理を反復する。 Then, when there is image information next to the image information P2 (S260), the second comparison image PY is the first comparison image PX, and the second comparison image PY (image information P2) is the next image information P3. It is set as the comparison image PX of 2 (S270), and the same processing as after S230 is repeated.
このような処理を実行することで,隣り合う画像情報同士の相対位置が特定できるので,撮影位置推定処理部21は,原点とした画像情報P1の撮影位置等情報に基づいて相対位置を絶対位置に変換することで,各画像情報の撮影位置等情報の絶対位置を推定する。
By executing such processing, the relative positions of adjacent image information can be specified. Therefore, the shooting position
以上のようにして撮影位置推定処理部21で各画像情報の撮影位置等情報の推定処理後,または画像情報に撮影位置等情報が対応づけられている場合(S110),撮影領域算出処理部22が,撮影位置等情報に基づいて,各画像情報P1乃至Pnにおける撮影領域(画像情報が写している領域)を算出する(S130)。
After the shooting position
撮影領域算出処理部22において,各画像情報P1乃至Pnにおける撮影領域を算出後,画像情報選択処理部23は,不要な画像情報を間引き,必要な画像情報を選択する画像情報選択処理を実行する(S140)。
After the shooting area
まず画像情報選択処理部23は,基準とする画像情報として画像情報P1を出力対象リストに追加する(S300)。そしてオーバーラップ処理部230は,画像情報P1を注目画像情報Pαに,画像情報P1の撮影領域A1を注目画像情報Pαの撮影領域Aαとして設定する(S310)。
First, the image information
そして,オーバーラップ処理部230は,撮影領域Aαへのオーバーラップ率の閾値以上,たとえば20%以上となる撮影領域を有する画像情報を,注目画像情報Pα(画像情報P1)より後の画像情報から探索し,特定する(S320)。図8の場合,画像情報P2(P1へのオーバーラップ率60%),画像情報P3(P1へのオーバーラップ率40%,),画像情報P4(P1へのオーバーラップ20%)を特定したとする。なお,画像情報は連続的であるため,いったん,オーバーラップ率の閾値を充足しない画像情報があった場合,それ以後の画像情報ではオーバーラップ率の閾値を充足することは考えにくい。そのため,オーバーラップ処理部230がオーバーラップ率の閾値を充足しない画像情報があることを判定した場合には,その時点でオーバーラップ率を充足する画像情報の探索を終了してもよい。
Then, the
そしてS320においてオーバーラップ率を充足する画像情報を特定すると,画像情報選択処理部23は,画質判定処理部231でスコアリングした画質スコアに基づいて,所定条件を充足する画質スコアを有する画像情報,たとえばもっとも高い画質スコアを有する画像情報を出力対象リストに追加する画像情報として特定し,その画像情報を出力対象リストに追加する(S330)。たとえば,図8において,画質判定処理部231で特定した画像情報P2,P3,P4の画質スコアがそれぞれ10,30,20であったとすると,画像情報P3を出力対象リストに追加する画像情報として特定する。また,出力対象リストに追加した画像情報P3を画像情報Pβ,画像情報P3の撮影領域A3を画像情報Pβの撮影領域Aβとして設定する(S330)。
Then, when the image information satisfying the overlap rate is specified in S320, the image information
そして出力対象リストに追加した画像情報P3のあとに画像情報がある場合(S340),画像情報Pβ(画像情報P3)を注目画像情報Pαに,撮影領域Aβを注目画像情報Pαの撮影領域Aα(画像情報P3の撮影領域A3)として設定する(S350)。そして,S320以降の処理を反復する。 When there is image information after the image information P3 added to the output target list (S340), the image information Pβ (image information P3) is set to the attention image information Pα, and the shooting area Aβ is set to the shooting area Aα of the attention image information Pα (S340). It is set as the shooting area A3) of the image information P3 (S350). Then, the processing after S320 is repeated.
オーバーラップ処理部230は,同様の処理を実行する。たとえば図8に示すように,撮影領域Aα(画像情報P3の撮影領域A3)へのオーバーラップ率が20%以上となる撮影領域を有する画像情報を,注目画像情報Pα(画像情報P3)より後の画像情報から探索し,画像情報P4(P3へのオーバーラップ率80%),画像情報P5(P3へのオーバーラップ率40%,),画像情報P6(P3へのオーバーラップ20%)を特定する(S320)。そして,特定した画像情報P4,P5,P6の画質スコアが20,30,40であったとすると,その中から画質スコアに関する条件を充足する画像情報,たとえば画質スコアがもっともよい画像情報P6を出力対象リストに追加する画像情報として特定する(S330)。
The
そして出力対象リストに追加した画像情報P6のあとに画像情報がある場合(S340),画像情報Pβ(画像情報P6)を注目画像情報Pαに,撮影領域Aβを注目画像情報Pαの撮影領域Aα(画像情報P6の撮影領域A6)として設定する(S350)。そして,S320以降の処理を反復する。 When there is image information after the image information P6 added to the output target list (S340), the image information Pβ (image information P6) is set to the attention image information Pα, and the shooting area Aβ is set to the shooting area Aα of the attention image information Pα (S340). It is set as the shooting area A6) of the image information P6 (S350). Then, the processing after S320 is repeated.
画像情報選択処理部23は,以上の処理を,後続する画像情報がなくなるまで繰り返す。
The image information
なお画像情報選択処理部23が選択した画像情報のリストである出力対象リストの情報は,記憶装置71に記憶される。
The output target list information, which is a list of image information selected by the image information
画像情報選択処理部23は,S340で後続する画像情報がなくなったことを判定すると,撮影領域の周辺にある画像情報であって,出力対象リストに加えていない画像情報を出力対象リストに追加をする処理を実行する(S360)。この処理としては,担当者が手作業で行ってもよい。
When the image information
以上のように画像情報選択処理部23による画像情報選択処理の終了後,出力処理部24は,出力対象リストにある画像情報を記憶装置71から抽出して出力する(S150)。たとえばSfMの処理を実行するソフトウェアに画像情報を渡す。
After the image information selection process by the image information
そしてSfMの処理を実行するソフトウェアは,本発明の画像処理システム1から受け取った画像情報に基づいてSfMの処理を実行することで,従来よりも処理時間を短縮して,かつ精度の良い3次元モデルの再構成を行うことができる。 Then, the software that executes the SfM processing executes the SfM processing based on the image information received from the image processing system 1 of the present invention, thereby shortening the processing time and having high accuracy in three dimensions. The model can be reconstructed.
本発明の画像処理システム1を用いることで,対象物の全体を一度に処理するのではなく,部分(たとえば橋梁のうち橋脚部分)に分けて処理を実行することが可能となる。 By using the image processing system 1 of the present invention, it is possible to perform the processing by dividing the entire object into parts (for example, the pier portion of the bridge) instead of processing the entire object at once.
対象物(橋梁の橋脚部分)を撮影したすべての画像情報が141枚の場合について,本発明の画像処理システムによってオーバーラップ率を70%以上として選択した画像情報が70枚となったとき,図9に示す実験結果となった。なお,図9の実験では,CPUとしてIntel Core i7−6850K 3.6GHz,メモリとして64GB,GraphicsとしてNVIDIA GTX1060を3枚,OSとしてWindows10 64bit,三次元化プログラムとしてAgi社PhotoScanVer.1.4.1を用いた。 In the case where all the image information obtained by photographing the object (the pier portion of the bridge) is 141 images, when the image information selected by the image processing system of the present invention with the overlap rate of 70% or more is 70 images, the figure is shown. The experimental results shown in 9 were obtained. In the experiment of FIG. 9, Intel Core i7-6850K 3.6 GHz was used as the CPU, 64 GB was used as the memory, three NVIDIA GTX 1060s were used as the Graphics, Windows 10 64 bits were used as the OS, and PhotoScan Ver. 1.4.1 was used.
図9の実験結果によれば,141枚のすべての画像情報についてSfMの処理を実行した場合の処理時間が4時間24分1秒であるのに対し,本発明の画像処理システム1による処理を用いた場合には,本発明の処理(事前選別処理時間)の処理時間が8分45秒,SfMの処理を実行した場合の処理時間が3時間9分50秒であった。そのため,合計の処理時間でも3時間18分35秒となり,1時間5分26秒(全体の30%程度)の処理時間を短縮できている。図9ではすべての画像が141枚であったが,実際の作業では,たとえば一つの橋梁は5000枚程度の画像情報が3次元モデルの再構成に用いられる。そのため処理時間として3日程度要している。本発明の画像処理システム1を用いて30%程度の処理時間が短縮できれば,2.1日程度の処理時間で足り,大幅な処理時間の短縮となる。
According to the experimental results of FIG. 9, the processing time when the SfM processing is executed for all 141 image information is 4
また図9の実験結果で出力した際の,橋梁の橋脚部分の3次元モデルが図10である。図10(a)が141枚のすべての画像情報を用いてSfMの処理を実行した場合であり,図10(b)が本発明の処理によって出力した70枚の画像情報を用いてSfMの処理を実行した場合である。本発明の処理によって画像情報を選択したとしても,3次元モデルを再構成できる。 Further, FIG. 10 shows a three-dimensional model of the pier portion of the bridge when the experimental result of FIG. 9 is output. FIG. 10A shows a case where the SfM process is executed using all 141 image information, and FIG. 10B shows the SfM process using the 70 image information output by the process of the present invention. Is executed. Even if the image information is selected by the process of the present invention, the three-dimensional model can be reconstructed.
本発明の画像処理システム1は,SfMの処理のほか,複数の画像情報に基づいて一つの画像情報やモデルを再構成する場合,たとえば構造物の写真をパノラマ合成する場合などにも適用できる。 The image processing system 1 of the present invention can be applied not only to SfM processing but also to the case of reconstructing one image information or model based on a plurality of image information, for example, the case of panoramic composition of photographs of structures.
また,機械学習用の正解データの作成処理にも用いることができる。すなわち,画像情報に写っている物体を認識するための機械学習をさせるには,画像情報のどこに何が写っているのかの正解データを用意しなければならない。この正解データの作成の際に,物体を撮影した画像情報から同じような画像情報(オーバーラップ率が大きく変化のない画像情報)を取り除いて正解データを作成する作業を効率化する処理にも適用することができる。 It can also be used to create correct answer data for machine learning. That is, in order to perform machine learning for recognizing an object reflected in the image information, it is necessary to prepare correct answer data of what is reflected in the image information. When creating this correct answer data, it is also applied to the process of removing similar image information (image information with a large overlap rate and no change) from the image information of the captured object to streamline the work of creating the correct answer data. can do.
本発明の画像処理システム1を発明することで,3次元モデルの再構成に要する処理時間の短縮を図ることができる。また,画質を加味した画像情報を選択することで,3次元モデルの再構成についても精度の向上を図ることができる。 By inventing the image processing system 1 of the present invention, the processing time required for reconstructing the three-dimensional model can be shortened. Further, by selecting the image information in consideration of the image quality, it is possible to improve the accuracy of the reconstruction of the three-dimensional model.
1:画像処理システム
2:制御コンピュータ
20:画像情報入力受付処理部
21:撮影位置推定処理部
22:撮影領域算出処理部
23:画像情報選択処理部
24:出力処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
210:特徴点抽出処理部
211:特徴点対応検索処理部
212:相対位置算出処理部
230:オーバーラップ処理部
231:画質判定処理部1: Image processing system 2: Control computer 20: Image information input reception processing unit 21: Shooting position estimation processing unit 22: Shooting area calculation processing unit 23: Image information selection processing unit 24: Output processing unit 70: Computing device 71: Storage Device 72: Display device 73: Input device 74: Communication device 210: Feature point extraction processing unit 211: Feature point correspondence search processing unit 212: Relative position calculation processing unit 230: Overlap processing unit 231: Image quality determination processing unit
Claims (8)
前記画像処理システムは,
前記複数の画像情報の入力を受け付ける画像情報入力受付処理部と,
前記入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部と,
前記画像情報の画質の判定を行う画質判定処理部と,を有しており,
前記オーバーラップ処理部において特定した画像情報のうち,前記画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,
ことを特徴とする画像処理システム。An image processing system for multiple image information used to model an object.
The image processing system is
An image information input reception processing unit that accepts the input of a plurality of image information, and an image information input reception processing unit.
Of the image information that has received the input, the overlap processing unit that specifies the image information that satisfies the condition regarding the degree of overlap of the reference image information with the shooting area, and the overlap processing unit.
It has an image quality determination processing unit that determines the image quality of the image information.
Of the image information specified by the overlap processing unit, the image information that satisfies the conditions related to image quality is specified by using the result determined by the image quality determination processing unit, and the image information is selected as an output target.
An image processing system characterized by this.
前記入力を受け付けた画像情報に撮影位置等情報が対応づけられていない場合には,撮影位置等情報を推定する撮影位置推定処理部,
を有することを特徴とする請求項1に記載の画像処理システム。The image processing system is
When the information such as the shooting position is not associated with the image information that has received the input, the shooting position estimation processing unit that estimates the information such as the shooting position,
The image processing system according to claim 1, wherein the image processing system comprises.
比較対象とする画像情報のそれぞれの特徴点を対応づけることでその移動量を算出し,前記算出した移動量を用いて相対位置を算出することで画像情報の撮影位置等情報を推定する,
ことを特徴とする請求項2に記載の画像処理システム。The shooting position estimation processing unit
The amount of movement is calculated by associating each feature point of the image information to be compared, and the relative position is calculated using the calculated amount of movement to estimate information such as the shooting position of the image information.
The image processing system according to claim 2, wherein the image processing system is characterized by the above.
画像情報における撮影位置等情報を用いて,その画像情報における撮影領域を算出する撮影領域算出処理部,
を有することを特徴とする請求項2または請求項3に記載の画像処理システム。The image processing system is
Shooting area calculation processing unit that calculates the shooting area in the image information using information such as the shooting position in the image information,
The image processing system according to claim 2 or 3, wherein the image processing system has.
対象物を撮影した複数の画像情報の入力を受け付ける画像情報入力受付処理部と,
前記複数の画像情報から画像情報を選択する画像情報選択処理部と,を有しており,
前記画像情報選択処理部は,
画像情報の撮影領域の重複度合いに関する条件を充足する画像情報のうち,画質に関する条件を充足する画像情報を選択する,
ことを特徴とする画像処理システム。It is an image processing system
An image information input reception processing unit that accepts input of multiple image information of an object, and
It has an image information selection processing unit that selects image information from the plurality of image information.
The image information selection processing unit is
Select the image information that satisfies the condition related to image quality from the image information that satisfies the condition related to the degree of duplication of the shooting area of the image information.
An image processing system characterized by this.
前記画像情報選択処理部で選択した画像情報を,画像情報に基づいて対象物のモデル化の処理を実行するソフトウェアに出力する出力処理部,
を有することを特徴とする請求項1から請求項5のいずれかに記載の画像処理システム。The image processing system is
An output processing unit that outputs the image information selected by the image information selection processing unit to software that executes modeling processing of an object based on the image information.
The image processing system according to any one of claims 1 to 5, wherein the image processing system has.
対象物をモデル化するために用いる複数の画像情報の入力を受け付ける画像情報入力受付処理部,
前記入力を受け付けた画像情報のうち,基準とする画像情報の撮影領域との重複度合いに関する条件を充足する画像情報を特定するオーバーラップ処理部,
前記画像情報の画質の判定を行う画質判定処理部,
として機能させる画像処理プログラムであって,
前記オーバーラップ処理部において特定した画像情報のうち,前記画質判定処理部で判定した結果を用いて,画質に関する条件を充足する画像情報を特定し,その画像情報を出力対象として選択する,
ことを特徴とする画像処理プログラム。Computer,
Image information input reception processing unit that accepts input of multiple image information used to model an object,
An overlap processing unit that specifies image information that satisfies the condition regarding the degree of overlap of the reference image information with the shooting area among the image information that has received the input.
Image quality determination processing unit that determines the image quality of the image information,
It is an image processing program that functions as
Of the image information specified by the overlap processing unit, the image information that satisfies the conditions related to image quality is specified by using the result determined by the image quality determination processing unit, and the image information is selected as an output target.
An image processing program characterized by this.
対象物を撮影した複数の画像情報の入力を受け付ける画像情報入力受付処理部,
前記複数の画像情報から画像情報を選択する画像情報選択処理部,
として機能させる画像処理プログラムであって,
前記画像情報選択処理部は,
画像情報の撮影領域の重複度合いに関する条件を充足する画像情報のうち,画質に関する条件を充足する画像情報を選択する,
ことを特徴とする画像処理プログラム。Computer,
Image information input reception processing unit that accepts input of multiple image information of an object,
Image information selection processing unit that selects image information from the plurality of image information,
It is an image processing program that functions as
The image information selection processing unit is
Select the image information that satisfies the condition related to image quality from the image information that satisfies the condition related to the degree of duplication of the shooting area of the image information.
An image processing program characterized by this.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/030642 WO2020039470A1 (en) | 2018-08-20 | 2018-08-20 | Image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6910622B2 JP6910622B2 (en) | 2021-07-28 |
JPWO2020039470A1 true JPWO2020039470A1 (en) | 2021-08-10 |
Family
ID=69592502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537904A Active JP6910622B2 (en) | 2018-08-20 | 2018-08-20 | Image processing system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6910622B2 (en) |
WO (1) | WO2020039470A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022181024A1 (en) * | 2021-02-26 | 2022-09-01 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011139367A (en) * | 2009-12-28 | 2011-07-14 | Canon Inc | Apparatus and method for processing image |
JP2017182695A (en) * | 2016-03-31 | 2017-10-05 | 富士通株式会社 | Information processing program, information processing method, and information processing apparatus |
JP2018090982A (en) * | 2016-11-30 | 2018-06-14 | 国際航業株式会社 | Inspection device and inspection method |
-
2018
- 2018-08-20 WO PCT/JP2018/030642 patent/WO2020039470A1/en active Application Filing
- 2018-08-20 JP JP2020537904A patent/JP6910622B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011139367A (en) * | 2009-12-28 | 2011-07-14 | Canon Inc | Apparatus and method for processing image |
JP2017182695A (en) * | 2016-03-31 | 2017-10-05 | 富士通株式会社 | Information processing program, information processing method, and information processing apparatus |
JP2018090982A (en) * | 2016-11-30 | 2018-06-14 | 国際航業株式会社 | Inspection device and inspection method |
Also Published As
Publication number | Publication date |
---|---|
WO2020039470A1 (en) | 2020-02-27 |
JP6910622B2 (en) | 2021-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109003325B (en) | Three-dimensional reconstruction method, medium, device and computing equipment | |
JP7403528B2 (en) | Method and system for reconstructing color and depth information of a scene | |
KR100793838B1 (en) | Appratus for findinng the motion of camera, system and method for supporting augmented reality in ocean scene using the appratus | |
JP6491517B2 (en) | Image recognition AR device, posture estimation device, and posture tracking device | |
CN107274337B (en) | Image splicing method based on improved optical flow | |
US9542735B2 (en) | Method and device to compose an image by eliminating one or more moving objects | |
CN109472820B (en) | Monocular RGB-D camera real-time face reconstruction method and device | |
US20120212573A1 (en) | Method, terminal and computer-readable recording medium for generating panoramic images | |
WO2017091927A1 (en) | Image processing method and dual-camera system | |
US10785469B2 (en) | Generation apparatus and method for generating a virtual viewpoint image | |
JP2014003520A (en) | Image processing device and imaging device equipped with image processing device, image processing method, and image processing program | |
US20210295467A1 (en) | Method for merging multiple images and post-processing of panorama | |
JP5439277B2 (en) | Position / orientation measuring apparatus and position / orientation measuring program | |
US20190228563A1 (en) | Image processing apparatus, image processing method, and storage medium | |
WO2023093739A1 (en) | Multi-view three-dimensional reconstruction method | |
CN105809664B (en) | Method and device for generating three-dimensional image | |
KR101593316B1 (en) | Method and apparatus for recontructing 3-dimension model using stereo camera | |
CN111080776A (en) | Processing method and system for human body action three-dimensional data acquisition and reproduction | |
CN103700082B (en) | Image split-joint method based on dual quaterion relative orientation | |
CN111105452A (en) | High-low resolution fusion stereo matching method based on binocular vision | |
JP6910622B2 (en) | Image processing system | |
US9098746B2 (en) | Building texture extracting apparatus and method thereof | |
KR101566459B1 (en) | Concave surface modeling in image-based visual hull | |
CN115239559A (en) | Depth map super-resolution method and system for fusion view synthesis | |
CN113034345B (en) | Face recognition method and system based on SFM reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6910622 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |