JP2021039647A - Image data classification device and image data classification method - Google Patents

Image data classification device and image data classification method Download PDF

Info

Publication number
JP2021039647A
JP2021039647A JP2019161853A JP2019161853A JP2021039647A JP 2021039647 A JP2021039647 A JP 2021039647A JP 2019161853 A JP2019161853 A JP 2019161853A JP 2019161853 A JP2019161853 A JP 2019161853A JP 2021039647 A JP2021039647 A JP 2021039647A
Authority
JP
Japan
Prior art keywords
image data
similarity
classification
unit
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019161853A
Other languages
Japanese (ja)
Inventor
智洋 近田
Tomohiro Chikada
智洋 近田
淳 黒崎
Atsushi Kurosaki
淳 黒崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2019161853A priority Critical patent/JP2021039647A/en
Publication of JP2021039647A publication Critical patent/JP2021039647A/en
Pending legal-status Critical Current

Links

Abstract

To provide an image data classification technique that allows a user to efficiently and easily use appropriate image data used for restoring a three-dimensional shape of an object among a large amount of image data.SOLUTION: An image data classification device 1 includes: an image data acquisition unit 10 that acquires identification information indicating ordering of a plurality of image data and each of the plurality of image data; a feature amount calculation unit 11 that calculates a feature amount of each of the plurality of acquired image data; a similarity calculation unit 12 that calculates, based on the feature amount calculated by the feature amount calculation unit 11, degree of similarity between the plurality of image data; and a classification unit 15 that classifies, based on the similarity calculated by the similarity calculation unit 12 and the identification information attached to each of the plurality of image data, the plurality of image data into one or more groups.SELECTED DRAWING: Figure 1

Description

本発明は、画像データ分類装置および画像データ分類方法に関し、特に3次元形状を復元するために用いる画像データの分類技術に関する。 The present invention relates to an image data classification device and an image data classification method, and more particularly to an image data classification technique used for restoring a three-dimensional shape.

コンピュータの処理能力の向上と映像技術の進歩に伴い、汎用的なコンピュータ、スマートフォン、タブレット端末などで3次元情報を描画できるようになってきた。そのため、実世界の3次元モデルを利用した多様なアプリケーションやサービスが登場している。建物やプラント、工場などの広い空間に関しても、実空間の3次元空間情報の計測とそれを応用した設備管理などの取り組みが進められている。 With the improvement of computer processing power and the progress of video technology, it has become possible to draw three-dimensional information on general-purpose computers, smartphones, tablet terminals, and the like. Therefore, various applications and services using real-world 3D models have appeared. For large spaces such as buildings, plants, and factories, efforts such as measurement of 3D spatial information in real space and facility management applying it are being promoted.

従来から、実空間の3次元形状を復元する技術として、高精度なレーザスキャナやLight Detection and Ranging、Laser Imaging Detection and Ranging(LiDAR)などが利用されてきた。しかし、レーザスキャナは機材の価格が高価であることや、LiDARは、空間を3次元化するには空間分解が低いといった課題があった。 Conventionally, as a technique for restoring a three-dimensional shape in a real space, a high-precision laser scanner, Light Detection and Ranger, Laser Imaging Detection and Ranking (LiDAR), and the like have been used. However, the laser scanner has problems that the equipment is expensive, and LiDAR has a problem that the spatial decomposition is low in order to make the space three-dimensional.

そこで近年、コンピュータビジョンの発展に伴い、複数の静止画像から3次元形状を復元することができる、visualSLAMやStructure from Motion(SfM)などの技術開発が進展している。visualSLAMやSfMは、複数の静止画像から特徴点を抽出し、特徴点のマッチングから、3次元形状を復元するためのパラメータを算出し、3次元形状を構築する技術である。 Therefore, in recent years, with the development of computer vision, technological developments such as visual SLAM and Structure from Motion (SfM), which can restore a three-dimensional shape from a plurality of still images, have been progressing. VisualSLAM and SfM are technologies for extracting feature points from a plurality of still images, calculating parameters for restoring the three-dimensional shape from matching of the feature points, and constructing the three-dimensional shape.

visualSLAMやSfMを用いた従来の技術では、一般的に撮影対象を囲むように撮影する場合や、連続する静止画像の重複する領域が多い場合に、精緻な3次元形状を構築することができる。しかし、visualSLAMやSfMを用いた従来の技術では、テクスチャが少ない場合や広い室内の3次元形状を復元しようとする場合に、撮影された静止画像によっては、ユーザの希望するような3次元形状が復元できない場合がある。 In the conventional technique using visualSLAM or SfM, it is generally possible to construct a precise three-dimensional shape when shooting so as to surround the shooting target or when there are many overlapping regions of continuous still images. However, in the conventional technology using visualSLAM or SfM, when there are few textures or when trying to restore a three-dimensional shape in a large room, depending on the still image taken, the three-dimensional shape desired by the user can be obtained. It may not be possible to restore.

具体的には、3次元情報の復元に適した静止画像群であっても、その前後の画像に、復元する3次元情報の精度を低下させるような、ブレ、ボケなどを含む画像が存在する場合がある。カメラの移動距離が大きくて、共通部分があまり含まれていない場合、計算上において連続的な一連の静止画像としてみなされない場合がある。また、カメラで撮影された画像の数が対象物に対して不十分な場合には、計算に不適または、不要な静止画像群として、3次元形状の復元処理における計算対象から除外されてしまう場合もある。 Specifically, even if the still image group is suitable for restoring 3D information, there are images including blur, blur, etc. in the images before and after the image, which may reduce the accuracy of the restored 3D information. In some cases. If the moving distance of the camera is large and does not include many common parts, it may not be regarded as a continuous series of still images in the calculation. In addition, when the number of images taken by the camera is insufficient for the object, it is excluded from the calculation target in the three-dimensional shape restoration process as a group of still images that are unsuitable for calculation or unnecessary. There is also.

3次元形状がユーザの期待通りに得られるかどうかについて判断するためには、画像を撮影する現場で、3次元形状の復元を実施することが考えられる。しかし、撮影される静止画像の数が多い場合は復元処理の計算時間が一定程度かかるために現実的ではない。 In order to determine whether or not the three-dimensional shape can be obtained as expected by the user, it is conceivable to restore the three-dimensional shape at the site where the image is taken. However, when the number of still images to be captured is large, it is not realistic because the calculation time of the restoration process takes a certain amount.

そこで、3次元形状を復元するために用いられる画像を事前にユーザが表示画面で確認するという方法が考えられる。しかし、画像処理について専門的な知識を有さないユーザが、所望の対象物を3次元形状に復元するためにより有効な静止画像を個々に選択することは実際には困難である。 Therefore, a method is conceivable in which the user confirms the image used for restoring the three-dimensional shape on the display screen in advance. However, it is practically difficult for a user who does not have specialized knowledge about image processing to individually select a more effective still image for restoring a desired object to a three-dimensional shape.

例えば、特許文献1は、3次元形状の復元の正確さを高めるために、より正確なカメラの位置や特徴点の位置情報を算出できるような画像を選択する技術を開示している。しかし、コンピュータ内のロジックとパラメータとによって、使用される静止画像が取捨選択されたとしても、ユーザが希望する復元対象を3次元化できるとは限らない。 For example, Patent Document 1 discloses a technique for selecting an image that can calculate more accurate camera position and feature point position information in order to improve the accuracy of restoration of a three-dimensional shape. However, even if the still image to be used is selected by the logic and parameters in the computer, it is not always possible to make the restoration target desired by the user three-dimensional.

また、例えば、特許文献2および特許文献3は、映像からシーンを検出して分類する技術を開示している。特許文献2および特許文献3に記載の技術では、動画像を前提として、撮影対象に対する高い連続性が求められる特徴量を利用している。このような従来の技術を、ユーザがデジタルカメラなどで撮影した静止画像に適用する場合には、連続性が保たれず、対象物の3次元形状の復元精度が低下する場合がある。また、特許文献2および特許文献3に記載の技術では、特定の撮影対象の検索を主眼としており、3次元形状の復元のためのシーンの分類とは必ずしも傾向は一致しない。 Further, for example, Patent Document 2 and Patent Document 3 disclose a technique for detecting and classifying scenes from an image. In the techniques described in Patent Documents 2 and 3, on the premise of moving images, feature quantities that require high continuity with respect to an imaged object are used. When such a conventional technique is applied to a still image taken by a user with a digital camera or the like, continuity may not be maintained and the restoration accuracy of the three-dimensional shape of the object may be lowered. Further, the techniques described in Patent Documents 2 and 3 focus on searching for a specific photographing target, and the tendency does not necessarily match the classification of scenes for restoring a three-dimensional shape.

特許第5012615号公報Japanese Patent No. 501625 特開2017−112448号公報JP-A-2017-112448 特許第4177689号公報Japanese Patent No. 4177689

従来の技術では、大量な画像データのうち、対象物の3次元形状を復元する際に用いられる適切な画像データを、ユーザが効率的かつ容易に利用できない問題があった。 In the conventional technique, there is a problem that the user cannot efficiently and easily use the appropriate image data used for restoring the three-dimensional shape of the object among a large amount of image data.

本発明は、上述した課題を解決するためになされたものであり、大量な画像データのうち、対象物の3次元形状を復元する際に用いられる適切な画像データを、ユーザが効率的かつ容易に利用することができる画像データ分類技術を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and the user can efficiently and easily obtain appropriate image data used when restoring the three-dimensional shape of an object among a large amount of image data. It is an object of the present invention to provide an image data classification technique that can be used for.

上述した課題を解決するために、本発明に係る画像データ分類装置は、複数の画像データおよび前記複数の画像データのそれぞれに付された順序付けを示す識別情報を取得するように構成された画像データ取得部と、取得された前記複数の画像データのそれぞれの特徴量を算出するように構成された特徴量算出部と、前記特徴量算出部によって算出された前記特徴量に基づいて、前記複数の画像データの互いの類似度を算出するように構成された類似度算出部と、前記類似度算出部によって算出された前記類似度と、前記複数の画像データのそれぞれに付された前記識別情報とに基づいて、前記複数の画像データを1または複数のグループに分類するように構成された分類部とを備える。 In order to solve the above-mentioned problems, the image data classification device according to the present invention is configured to acquire a plurality of image data and identification information indicating the ordering attached to each of the plurality of image data. Based on the acquisition unit, the feature amount calculation unit configured to calculate the feature amount of each of the acquired plurality of image data, and the feature amount calculated by the feature amount calculation unit, the plurality of A similarity calculation unit configured to calculate the similarity between image data, the similarity calculated by the similarity calculation unit, and the identification information attached to each of the plurality of image data. It is provided with a classification unit configured to classify the plurality of image data into one or a plurality of groups based on the above.

また、本発明に係る画像データ分類装置において、前記識別情報は、前記複数の画像データが撮影された順番を示す情報であってもよい。 Further, in the image data classification device according to the present invention, the identification information may be information indicating the order in which the plurality of image data are captured.

また、本発明に係る画像データ分類装置において、前記識別情報は、前記複数の画像データのそれぞれが撮影された時刻を示す情報であってもよい。 Further, in the image data classification device according to the present invention, the identification information may be information indicating the time when each of the plurality of image data was photographed.

また、本発明に係る画像データ分類装置において、前記複数の画像データは静止画像であり、前記特徴量算出部は、前記複数の画像データのそれぞれに含まれる特徴点を検出し、前記類似度算出部は、前記複数の画像データ同士における前記特徴点間の幾何学的な距離を算出し、算出した前記距離を比較して前記類似度を算出してもよい。 Further, in the image data classification device according to the present invention, the plurality of image data are still images, and the feature amount calculation unit detects feature points included in each of the plurality of image data and calculates the similarity. The unit may calculate the geometric distance between the feature points in the plurality of image data and compare the calculated distances to calculate the similarity.

また、本発明に係る画像データ分類装置において、前記分類部は、前記複数の画像データを、前記複数の画像データのうちから選定された代表画像データごとのグループに分類してもよい。 Further, in the image data classification device according to the present invention, the classification unit may classify the plurality of image data into a group for each representative image data selected from the plurality of image data.

また、本発明に係る画像データ分類装置において、前記類似度算出部によって算出された前記類似度と、前記類似度に対応する画像データに付された前記識別情報とに基づいて、前記類似度が極大となる画像データを前記代表画像データとして選定するように構成された代表画像選定部をさらに備えていてもよい。 Further, in the image data classification device according to the present invention, the similarity is determined based on the similarity calculated by the similarity calculation unit and the identification information attached to the image data corresponding to the similarity. A representative image selection unit configured to select the maximum image data as the representative image data may be further provided.

また、本発明に係る画像データ分類装置において、前記分類部による分類結果を表示装置に表示させるように構成された表示部をさらに備えていてもよい。 Further, the image data classification device according to the present invention may further include a display unit configured to display the classification result by the classification unit on the display device.

また、本発明に係る画像データ分類装置において、前記類似度算出部によって算出された前記類似度をフィルタリングして平滑化するように構成された平滑化処理部をさらに備えていてもよい。 Further, the image data classification device according to the present invention may further include a smoothing processing unit configured to filter and smooth the similarity calculated by the similarity calculation unit.

また、本発明に係る画像データ分類装置において、前記複数の画像データが分類される前記グループの数を変更して調整するように構成された調整部をさらに備え、前記分類部は、前記複数の画像データを、前記調整部によって変更された数の前記グループに分類してもよい。 Further, the image data classification device according to the present invention further includes an adjustment unit configured to change and adjust the number of the groups in which the plurality of image data are classified, and the classification unit includes the plurality of adjustment units. The image data may be classified into the group in the number changed by the adjusting unit.

上述した課題を解決するために、本発明に係る画像データ分類方法は、複数の画像データおよび前記複数の画像データのそれぞれに付された順序付けを示す識別情報を取得する第1ステップと、前記第1ステップで取得された前記複数の画像データのそれぞれの特徴量を算出する第2ステップと、前記第2ステップで算出された前記特徴量に基づいて、前記複数の画像データの互いの類似度を算出する第3ステップと、前記第3ステップで算出された前記類似度と、前記複数の画像データのそれぞれに付された前記識別情報とに基づいて、前記複数の画像データを1または複数のグループに分類する第4ステップとを備える。 In order to solve the above-mentioned problems, the image data classification method according to the present invention includes a first step of acquiring a plurality of image data and identification information indicating the ordering attached to each of the plurality of image data, and the first step. Based on the second step of calculating the feature amount of each of the plurality of image data acquired in one step and the feature amount calculated in the second step, the degree of similarity between the plurality of image data is calculated. One or a plurality of groups of the plurality of image data based on the third step to be calculated, the similarity calculated in the third step, and the identification information attached to each of the plurality of image data. It is provided with a fourth step of classifying into.

本発明によれば、複数の画像データの互いの類似度と、複数の画像データのそれぞれに付された順序付けを示す識別情報とに基づいて複数の画像データを1または複数のグループに分類するので、複数の画像データから、対象物の3次元形状を復元する際に用いられる適切な画像データを、ユーザは効率的かつ容易に利用することができる。 According to the present invention, a plurality of image data are classified into one or a plurality of groups based on the similarity between the plurality of image data and the identification information indicating the ordering attached to each of the plurality of image data. , The user can efficiently and easily use the appropriate image data used when restoring the three-dimensional shape of the object from the plurality of image data.

図1は、本発明の第1の実施の形態に係る画像データ分類装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image data classification device according to the first embodiment of the present invention. 図2は、第1の実施の形態に係る画像データを説明するための図である。FIG. 2 is a diagram for explaining image data according to the first embodiment. 図3は、第1の実施の形態に係る分類部を説明するための図である。FIG. 3 is a diagram for explaining a classification unit according to the first embodiment. 図4は、第1の実施の形態に係る画像データ分類装置のハードウェア構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the hardware configuration of the image data classification device according to the first embodiment. 図5は、第1の実施の形態に係る画像データ分類装置の動作を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining the operation of the image data classification device according to the first embodiment. 図6は、第1の実施の形態に係る代表画像データの選定を説明するための図である。FIG. 6 is a diagram for explaining selection of representative image data according to the first embodiment. 図7は、第1の実施の形態に係る分類結果の表示例を示す図である。FIG. 7 is a diagram showing a display example of the classification result according to the first embodiment. 図8は、本発明の第2の実施の形態に係る画像データ分類装置の構成を示すブロック図である。FIG. 8 is a block diagram showing a configuration of an image data classification device according to a second embodiment of the present invention.

以下、本発明の好適な実施の形態について、図1から図8を参照して詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to FIGS. 1 to 8.

[発明の概要]
まず、本発明の実施の形態に係る画像データ分類装置1の概要について説明する。
画像データ分類装置1は、複数の画像データを、互いに類似する複数の画像データごとのグループに分類してユーザに提示する。各グループを代表する代表画像データが表示画面に表示されるので、ユーザは、複数の画像データを1枚ずつ確認する必要がない。
[Outline of Invention]
First, an outline of the image data classification device 1 according to the embodiment of the present invention will be described.
The image data classification device 1 classifies a plurality of image data into groups for each of a plurality of similar image data and presents them to the user. Since the representative image data representing each group is displayed on the display screen, the user does not need to check a plurality of image data one by one.

例えば、ユーザが複数の静止画像から対象物の3次元形状を復元して対象物を分析する場合を考える。このような場合、ユーザはグループを代表する代表画像データを確認して、分析の対象とする画像データ群のみを選定することができる。 For example, consider a case where a user restores a three-dimensional shape of an object from a plurality of still images and analyzes the object. In such a case, the user can confirm the representative image data representing the group and select only the image data group to be analyzed.

例えば、よく知られた階層型クラスタリングを用いて、複数の画像データを階層クラスタに分けてユーザに提示することも可能である。しかし、階層型クラスタリングを用いた従来例では、複数の画像データは類似性の高いグループごとに分類されるが、画像データが撮影された順番に沿って分類されない場合がある。階層クラスタに分けられた画像データは、ユーザにとって確認が容易でない場合がある。 For example, using well-known hierarchical clustering, it is possible to divide a plurality of image data into hierarchical clusters and present them to the user. However, in the conventional example using hierarchical clustering, a plurality of image data are classified into groups having high similarity, but the image data may not be classified according to the order in which they were taken. Image data divided into hierarchical clusters may not be easy for the user to check.

画像データ分類装置1は、ユーザによって撮影された大量の画像データにおける互いの類似度を算出し、算出した類似度と、画像データが撮影された時間情報や撮影された順番などの順序付けを示す識別情報とに基づいて画像データを複数のグループに分類してユーザに分類結果を提示する。 The image data classification device 1 calculates the degree of similarity with each other in a large amount of image data taken by the user, and identifies the calculated degree of similarity and the ordering such as time information in which the image data was taken and the order in which the image data was taken. Based on the information, the image data is classified into a plurality of groups and the classification result is presented to the user.

このように、本実施の形態に係る画像データ分類装置1は、画像データが撮影された時間や撮影された順番などの時系列情報を反映して、画像データの分類を行うことがその特徴の一つである。 As described above, the image data classification device 1 according to the present embodiment is characterized in that it classifies the image data by reflecting the time series information such as the time when the image data was taken and the order in which the image data was taken. It is one.

[第1の実施の形態]
次に、本発明の第1の実施の形態に係る画像データ分類装置1について図1から図7を参照して説明する。
[First Embodiment]
Next, the image data classification device 1 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 7.

[画像データ分類装置の機能ブロック]
図1に示すように、画像データ分類装置1は、画像データ取得部10、特徴量算出部11、類似度算出部12、平滑化処理部13、代表画像選定部14、分類部15、記憶部16、および表示部17を備える。
[Functional block of image data classification device]
As shown in FIG. 1, the image data classification device 1 includes an image data acquisition unit 10, a feature amount calculation unit 11, a similarity calculation unit 12, a smoothing processing unit 13, a representative image selection unit 14, a classification unit 15, and a storage unit. A display unit 17 and a display unit 17 are provided.

画像データ取得部10は、複数の画像データおよび複数の画像データのそれぞれに付された識別情報を取得する。画像データは、例えば、ユーザが図示されないデジタルカメラなどを用いて、連続的または一定の時間間隔をおいて非連続に撮影した複数の静止画像などの画像データである。画像データの数は、例えば、数百枚から数千枚に上る場合もある。 The image data acquisition unit 10 acquires the plurality of image data and the identification information attached to each of the plurality of image data. The image data is, for example, image data such as a plurality of still images taken continuously or discontinuously at regular time intervals by a user using a digital camera (not shown) or the like. The number of image data may be, for example, hundreds to thousands.

画像データのそれぞれには、画像データの順序付けを示す識別情報が付されている。識別情報は、画像データが撮影された順番あるいは画像データ取得部10が画像データを取得した順番を示す情報である。例えば、識別情報として、画像データのシーケンシャルな番号やシーケンシャルな画像名などを用いることができる。画像データが撮影された順番の代わりに、複数の画像データが撮影された時刻、あるいは画像データ取得部10によって取得された時刻を示す情報を識別情報として用いることができる。 Identification information indicating the ordering of the image data is attached to each of the image data. The identification information is information indicating the order in which the image data was taken or the order in which the image data acquisition unit 10 acquired the image data. For example, as the identification information, a sequential number of image data, a sequential image name, or the like can be used. Instead of the order in which the image data is taken, information indicating the time when the plurality of image data are taken or the time acquired by the image data acquisition unit 10 can be used as the identification information.

なお、画像データ取得部10は、連続的に撮影された静止画像を取得する場合の他、動画を取得して、複数の静止画像を生成することもできる。 The image data acquisition unit 10 can acquire a moving image and generate a plurality of still images, in addition to the case of acquiring continuously captured still images.

また、画像データ取得部10は、取得した画像データについて輝度の調整やノイズの除去などの前処理を行ってもよい。画像データ取得部10によって取得された各画像データと対応する識別情報は、記憶部16に蓄積される。 Further, the image data acquisition unit 10 may perform preprocessing such as adjusting the brightness and removing noise on the acquired image data. The identification information corresponding to each image data acquired by the image data acquisition unit 10 is stored in the storage unit 16.

特徴量算出部11は、画像データ取得部10によって取得された複数の画像データのそれぞれの特徴量を算出する。より詳細には、特徴量算出部11は、複数の画像データのそれぞれに含まれるエッジやコーナーなどの特徴点を検出し、検出した特徴点の特徴量を算出する。ここでいう特徴量とは、特徴点周辺の領域を画素値や微分値により特徴ベクトルにしたものである。特徴量算出部11は、例えば、KAZEアルゴリズム、AKAZEアルゴリズム、SIFTアルゴリズム、またはSURFアルゴリズムなどの画像データの特徴量抽出アルゴリズムを用いて画像データの特徴量を算出する。 The feature amount calculation unit 11 calculates the feature amount of each of the plurality of image data acquired by the image data acquisition unit 10. More specifically, the feature amount calculation unit 11 detects feature points such as edges and corners included in each of the plurality of image data, and calculates the feature amount of the detected feature points. The feature amount referred to here is a feature vector obtained by converting a region around a feature point into a feature vector based on a pixel value or a differential value. The feature amount calculation unit 11 calculates the feature amount of the image data by using the feature amount extraction algorithm of the image data such as the KAZE algorithm, the AKAZE algorithm, the SIFT algorithm, or the SURF algorithm.

類似度算出部12は、特徴量算出部11によって算出された複数の画像データの互いの類似度を算出する。例えば、類似度算出部12は、任意の画像データについて、その画像データに付された識別情報が示す画像データが撮影された順番に基づいて、直前または直後に撮影された画像データを抽出する。また、類似度算出部12は、画像データ同士において対応する特徴点間の類似度を算出する。 The similarity calculation unit 12 calculates the degree of similarity between the plurality of image data calculated by the feature amount calculation unit 11. For example, the similarity calculation unit 12 extracts image data captured immediately before or after the arbitrary image data based on the order in which the image data indicated by the identification information attached to the image data is captured. In addition, the similarity calculation unit 12 calculates the similarity between the corresponding feature points in the image data.

類似度算出部12は、画像データ同士において、最も類似度が高い特徴点同士を互いに対応する特徴点として検出する。特徴点間の類似度としては、特徴点における特徴量(特徴ベクトル)のユークリッド距離や市街地距離、相関係数などを用いれば良い。類似度算出部12は、この類似度を積算もしくは、対応点の数で平均化したものを画像データ同士の類似度とする。また、類似度算出部12は、対応する特徴点の数を画像データ同士の類似度としても良い。 The similarity calculation unit 12 detects the feature points having the highest degree of similarity among the image data as feature points corresponding to each other. As the degree of similarity between the feature points, the Euclidean distance, the urban distance, the correlation coefficient, etc. of the feature quantity (feature vector) at the feature points may be used. The similarity calculation unit 12 integrates the similarity or averages the similarity by the number of corresponding points to obtain the similarity between the image data. Further, the similarity calculation unit 12 may set the number of corresponding feature points as the similarity between the image data.

平滑化処理部13は、類似度算出部12によって算出された類似度をフィルタリングして平滑化する。例えば、平滑化処理部13は、移動平均フィルタを用いて、2枚の画像データの対応する特徴点間の類似度について、移動平均を行って平滑化を行う。より具体的には、平滑化処理部13は、次の式(1)を用いて、類似度の平滑化処理を行う。 The smoothing processing unit 13 filters and smoothes the similarity calculated by the similarity calculation unit 12. For example, the smoothing processing unit 13 uses a moving average filter to perform a moving average for the similarity between the corresponding feature points of the two image data to perform smoothing. More specifically, the smoothing processing unit 13 performs a smoothing process of similarity using the following equation (1).

上式(1)において、平滑化された類似度はSIM_Ave(i)、iは基準とする画像データを示す識別情報で(i=N+1,N+2,・・・,N−k)(ただし、N≧1)、(2N+1)は、フィルタのサイズを表す。 In the above equation (1), the smoothed similarity is SIM_Ave (i), and i is the identification information indicating the reference image data (i = N + 1, N + 2, ..., Nk) (however, N ≧ 1) and (2N + 1) represent the size of the filter.

代表画像選定部14は、類似度算出部12によって算出された類似度と、その類似度に対応する画像データに付された識別情報とを用いて、複数の画像データを代表する代表画像データを選定する。具体的には、代表画像選定部14は、平滑化処理部13が平滑化した類似度SIM_Ave(i)について微分SIM_Ave’(i)を計算する。代表画像選定部14は、平滑化した類似度の微分SIM_Ave’(i−1)>0、かつ、SIM_Ave’(i)<0となる画像データを、類似度が極大になる画像データ、すなわち、代表画像データIとして選定する。 The representative image selection unit 14 uses the similarity calculated by the similarity calculation unit 12 and the identification information attached to the image data corresponding to the similarity to generate representative image data representing a plurality of image data. Select. Specifically, the representative image selection unit 14 calculates the differential SIM_Ave'(i) for the similarity SIM_Ave (i) smoothed by the smoothing processing unit 13. The representative image selection unit 14 selects the image data in which the smoothed differential SIM_Ave'(i-1)> 0 and the SIM_Ave'(i) <0 are the image data in which the similarity is maximized, that is, Select as representative image data I.

分類部15は、類似度算出部12によって算出された複数の画像データの互いの類似度と、複数の画像データのそれぞれに付された識別情報とに基づいて、複数の画像データを1または複数のグループに分類する。 The classification unit 15 sets one or a plurality of image data based on the degree of similarity between the plurality of image data calculated by the similarity calculation unit 12 and the identification information attached to each of the plurality of image data. Classify into the group of.

より詳細には、分類部15は、代表画像選定部14が選定した代表画像データIを画像データを分類するグループとして用いる。分類部15は、各画像データの撮影された順番に基づいて、各画像データと、その画像データと時系列的に近い2枚の代表画像データとの類似度をそれぞれ算出する。分類部15は、算出した2つの類似度を比較して、類似度がより高い方の代表画像データのグループに画像データを分類する。 More specifically, the classification unit 15 uses the representative image data I selected by the representative image selection unit 14 as a group for classifying the image data. The classification unit 15 calculates the degree of similarity between each image data and two representative image data that are close in time series to the image data, based on the order in which the image data was taken. The classification unit 15 compares the two calculated similarities and classifies the image data into the group of the representative image data having the higher similarity.

具体的には、分類部15は、任意の画像データiについて、その画像データiに付された、画像データiが撮影された順番に基づいて、その画像データiの順番に時系列的により近い2つの代表画像データI、I+1を抽出する。分類部15は、画像データiと抽出した代表画像データI、I+1のそれぞれとの類似度(距離)を算出する。分類部15は、画像データの分類境界線を、[画像データiと代表画像データIの類似度]<[画像データiと代表画像データI+1の類似度]、となる画像データiの位置に決定する。 Specifically, the classification unit 15 is closer to the order of the image data i in chronological order based on the order in which the image data i was photographed attached to the image data i for the arbitrary image data i. Two representative image data I and I + 1 are extracted. The classification unit 15 calculates the degree of similarity (distance) between the image data i and the extracted representative image data I and I + 1. The classification unit 15 determines the classification boundary line of the image data at the position of the image data i such that [similarity between the image data i and the representative image data I] <[similarity between the image data i and the representative image data I + 1]. To do.

分類部15は、決定した境界線に基づいて、代表画像データIと代表画像データI+1との間に存在する画像データを、代表画像データIまたは代表画像データI+1のうち類似度がより高い(距離が近い)方のグループに分類する。 Based on the determined boundary line, the classification unit 15 sets the image data existing between the representative image data I and the representative image data I + 1 to have a higher degree of similarity among the representative image data I or the representative image data I + 1 (distance). Classify into the group (closer to).

記憶部16は、画像データ取得部10によって取得された複数の画像データおよび識別情報を記憶する。また、記憶部16は、代表画像選定部14によって選定された代表画像データを示す情報、および、分類部15による分類結果を記憶する。 The storage unit 16 stores a plurality of image data and identification information acquired by the image data acquisition unit 10. Further, the storage unit 16 stores information indicating the representative image data selected by the representative image selection unit 14 and the classification result by the classification unit 15.

表示部17は、分類部15による分類結果を表示装置108に表示させる。例えば、表示部17は、図2の例に示すように、表示装置108の表示画面に、複数の画像データ(IM1,IM2,・・・,IMN)を、撮影された順番1〜Nにしたがって画面左から右に並べて表示する。 The display unit 17 causes the display device 108 to display the classification result by the classification unit 15. For example, as shown in the example of FIG. 2, the display unit 17 displays a plurality of image data (IM1, IM2, ..., IMN) on the display screen of the display device 108 according to the order of shooting 1 to N. Display side by side from left to right on the screen.

また、図3の例に示すように、表示部17は、分類部15による分類結果として、代表画像データに対応する分類グループGR1,GR2,・・・,GRNに分類された画像データを表示画面に表示する。例えば、代表画像データが撮影された順番に、グループGR1,GR2,・・・を、画面上から下に並べて表示することができる。また、各グループに分類された画像データは、画像データが撮影された順番に応じて、画面左から右に並べて表示することができる。 Further, as shown in the example of FIG. 3, the display unit 17 displays the image data classified into the classification groups GR1, GR2, ..., GRN corresponding to the representative image data as the classification result by the classification unit 15. Display in. For example, the groups GR1, GR2, ... Can be displayed side by side from the top to the bottom of the screen in the order in which the representative image data is captured. Further, the image data classified into each group can be displayed side by side from the left to the right of the screen according to the order in which the image data are taken.

[画像データ分類装置のハードウェア構成]
次に上述した機能を有する画像データ分類装置1のハードウェア構成の一例について、図4を参照して説明する。
[Hardware configuration of image data classification device]
Next, an example of the hardware configuration of the image data classification device 1 having the above-mentioned functions will be described with reference to FIG.

図4に示すように、画像データ分類装置1は、例えば、バス101を介して接続されるプロセッサ102、主記憶装置103、通信インターフェース104、補助記憶装置105、入出力I/O106、入力装置107、および表示装置108を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。 As shown in FIG. 4, the image data classification device 1 includes, for example, a processor 102, a main storage device 103, a communication interface 104, an auxiliary storage device 105, an input / output I / O 106, and an input device 107 connected via a bus 101. , And a computer equipped with a display device 108, and a program that controls these hardware resources.

プロセッサ102は、CPUやGPUなどによって構成される。なお、プロセッサ102は複数のGPUによって構成される場合には、画像信号に係る情報を適宜分割し、複数のGPUによって並列処理を行う。 The processor 102 is composed of a CPU, a GPU, and the like. When the processor 102 is composed of a plurality of GPUs, the information related to the image signal is appropriately divided and parallel processing is performed by the plurality of GPUs.

主記憶装置103には、プロセッサ102が各種制御や演算を行うためのプログラムが予め格納されている。プロセッサ102と主記憶装置103とによって、図1に示した特徴量算出部11、類似度算出部12、平滑化処理部13、代表画像選定部14、分類部15など、画像データ分類装置1の各機能が実現される。 A program for the processor 102 to perform various controls and calculations is stored in the main storage device 103 in advance. The image data classification device 1 includes the feature amount calculation unit 11, the similarity calculation unit 12, the smoothing processing unit 13, the representative image selection unit 14, and the classification unit 15 shown in FIG. 1 by the processor 102 and the main storage device 103. Each function is realized.

通信インターフェース104は、画像データ分類装置1と各種外部電子機器との間をネットワーク接続するためのインターフェース回路である。例えば、分類部15による分類結果を通信インターフェース104から通信ネットワークNWを介して外部の図示されない端末装置などに送信することができる。 The communication interface 104 is an interface circuit for connecting the image data classification device 1 and various external electronic devices to a network. For example, the classification result by the classification unit 15 can be transmitted from the communication interface 104 to an external terminal device (not shown) via the communication network NW.

補助記憶装置105は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。補助記憶装置105には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。 The auxiliary storage device 105 is composed of a readable and writable storage medium and a drive device for reading and writing various information such as programs and data to and from the storage medium. A semiconductor memory such as a hard disk or a flash memory can be used as the storage medium in the auxiliary storage device 105.

補助記憶装置105は、画像データ分類装置1が画像データの分類処理を実行するためのプログラムを格納するプログラム格納領域を有する。また、補助記憶装置105は、特徴量算出部11によって用いられる画像データの特徴量抽出アルゴリズムを格納する領域を有する。また、補助記憶装置105は、類似度算出部12によって用いられる類似度算出の関数を格納する領域を有する。また、補助記憶装置105は、平滑化処理部13によって用いられるフィルタ情報を格納する領域を有する。 The auxiliary storage device 105 has a program storage area for storing a program for the image data classification device 1 to execute the image data classification process. Further, the auxiliary storage device 105 has an area for storing the feature amount extraction algorithm of the image data used by the feature amount calculation unit 11. Further, the auxiliary storage device 105 has an area for storing the similarity calculation function used by the similarity calculation unit 12. Further, the auxiliary storage device 105 has an area for storing the filter information used by the smoothing processing unit 13.

補助記憶装置105によって、図1で説明した記憶部16が実現される。さらには、例えば、上述したデータやプログラムやなどをバックアップするためのバックアップ領域などを有していてもよい。 The auxiliary storage device 105 realizes the storage unit 16 described with reference to FIG. Further, for example, it may have a backup area for backing up the above-mentioned data, programs, and the like.

入出力I/O106は、外部機器からの信号を入力したり、外部機器へ信号を出力したりするI/O端子により構成される。 The input / output I / O 106 is composed of an I / O terminal that inputs a signal from an external device and outputs a signal to the external device.

入力装置107は、キーボードやタッチパネルなどで構成され、外部からの操作入力に応じた信号を出力する。 The input device 107 is composed of a keyboard, a touch panel, or the like, and outputs a signal corresponding to an operation input from the outside.

表示装置108は、液晶ディスプレイなどによって構成される。表示装置108は、図1で説明した表示部17を実現する。 The display device 108 is composed of a liquid crystal display or the like. The display device 108 realizes the display unit 17 described with reference to FIG.

カメラ109は、光信号を画像信号に変換して、動画や静止画像を生成することができる。より詳細には、カメラ109は、CCD(電荷結合素子:Charge−Coupled Device)イメージセンサや、CMOSイメージセンサなどの撮像素子を有し、撮像領域から入射する光を受光面に結像して、電気信号に変換する。なお、カメラ109が動画を撮影する場合のフレームレートや露出値、倍率、焦点などは、予めカメラ109が備える図示されない制御部によって自動的に設定される。カメラ109と画像データ分類装置1との間の通信は、無線で行われてもよい。 The camera 109 can convert an optical signal into an image signal to generate a moving image or a still image. More specifically, the camera 109 has an image pickup device such as a CCD (charge-coupled device) image sensor or a CMOS image sensor, and forms an image of light incident from the image pickup region on the light receiving surface. Convert to an electrical signal. The frame rate, exposure value, magnification, focus, etc. when the camera 109 shoots a moving image are automatically set in advance by a control unit (not shown) included in the camera 109. Communication between the camera 109 and the image data classification device 1 may be performed wirelessly.

[画像データ分類方法]
次に、上述した構成を有する画像データ分類装置1の動作について、図5のフローチャートを用いて説明する。以下において、記憶部16には、予め画像データの特徴量抽出アルゴリズムが記憶されているものとする。また、ユーザは事前にカメラ109により、3次元形状に復元して分析を行いたい対象物や対象エリアの周辺の静止画像を連続的に撮影している。また、カメラ109によって撮影される画像データには、撮影された順番を示すシーケンス情報が識別情報として付されるものとする。
[Image data classification method]
Next, the operation of the image data classification device 1 having the above-described configuration will be described with reference to the flowchart of FIG. In the following, it is assumed that the feature amount extraction algorithm of the image data is stored in the storage unit 16 in advance. In addition, the user continuously captures still images of the object to be analyzed and the periphery of the target area by the camera 109 in advance by restoring the shape to a three-dimensional shape. Further, it is assumed that sequence information indicating the order in which the images are taken is attached as identification information to the image data taken by the camera 109.

まず、画像データ取得部10は、カメラ109で撮影された複数の画像データと、対応する識別情報とをカメラ109から取得する(ステップS1)。より詳細には、画像データ取得部10は、カメラ109により連続的に撮影された画像データと、画像データが撮影された順番を示す情報とを取得し、記憶部16に蓄積する。画像データ取得部10は、取得した画像データについて、輝度の調整やノイズの除去など、公知の信号処理によって画像データの前処理を行うことができる。 First, the image data acquisition unit 10 acquires a plurality of image data captured by the camera 109 and the corresponding identification information from the camera 109 (step S1). More specifically, the image data acquisition unit 10 acquires image data continuously photographed by the camera 109 and information indicating the order in which the image data is photographed, and stores the image data in the storage unit 16. The image data acquisition unit 10 can preprocess the acquired image data by known signal processing such as adjusting the brightness and removing noise.

次に、特徴量算出部11は、画像データ取得部10によって取得された画像データごとに、エッジやコーナーなどの特徴点を検出し、検出した特徴点の特徴量を算出する(ステップS2)。より具体的には、特徴量算出部11は、KAZEアルゴリズム、AKAZEアルゴリズム、SIFTアルゴリズム、またはSURFアルゴリズムなど公知の特徴量抽出アルゴリズムを用いて、画像データの特徴量を算出する。算出された画像データの特徴点および特徴量は、画像データごとに記憶部16に記憶される。 Next, the feature amount calculation unit 11 detects feature points such as edges and corners for each image data acquired by the image data acquisition unit 10, and calculates the feature amount of the detected feature points (step S2). More specifically, the feature amount calculation unit 11 calculates the feature amount of the image data by using a known feature amount extraction algorithm such as the KAZE algorithm, the AKAZE algorithm, the SIFT algorithm, or the SURF algorithm. The calculated feature points and feature amounts of the image data are stored in the storage unit 16 for each image data.

次に、類似度算出部12は、2枚の画像データを用いて、各画像データの特徴点および特徴量に基づいて、画像データ間の距離を算出し、算出した距離から、画像データ同士の互いの類似度を算出する(ステップS3)。例えば、類似度算出部12は、2枚の画像データの特徴点間のユークリッド距離に基づいて類似度を算出することができる。算出された類似度は、画像データごとに対応付けて記憶部16に記憶される。 Next, the similarity calculation unit 12 calculates the distance between the image data based on the feature points and the feature amount of each image data using the two image data, and from the calculated distance, the image data of each other The degree of similarity with each other is calculated (step S3). For example, the similarity calculation unit 12 can calculate the similarity based on the Euclidean distance between the feature points of the two image data. The calculated similarity is stored in the storage unit 16 in association with each image data.

次に、平滑化処理部13は、ステップS3で算出された類似度をフィルタリングして平滑化する(ステップS4)。具体的には、平滑化処理部13は、上述の式(1)を用いて、2枚の画像データの対応する特徴点間の類似度について、移動平均フィルタを適用して、平滑化を行う。平滑化された類似度は、記憶部16に記憶される。 Next, the smoothing processing unit 13 filters and smoothes the similarity calculated in step S3 (step S4). Specifically, the smoothing processing unit 13 uses the above equation (1) to apply a moving average filter to smooth the similarity between the corresponding feature points of the two image data. .. The smoothed similarity is stored in the storage unit 16.

次に、代表画像選定部14は、複数の画像データを代表する複数の代表画像データを選定する(ステップS5)。より具体的には、代表画像選定部14は、ステップS4で平滑化された2枚の画像データの対応する特徴点間の類似度の微分を計算し、算出した値に基づいて、類似度が極大になる画像データを代表画像データとして選定する。 Next, the representative image selection unit 14 selects a plurality of representative image data representing the plurality of image data (step S5). More specifically, the representative image selection unit 14 calculates the derivative of the similarity between the corresponding feature points of the two image data smoothed in step S4, and the similarity is determined based on the calculated value. The maximum image data is selected as the representative image data.

図6は、代表画像選定部14によって選定された代表画像データを説明するための図である。図6の横軸は、画像データが撮影された順番を示している。各縦棒は1枚の画像データを示している。また、縦軸は、特徴点の数を示している。 FIG. 6 is a diagram for explaining representative image data selected by the representative image selection unit 14. The horizontal axis of FIG. 6 indicates the order in which the image data was taken. Each vertical bar indicates one image data. The vertical axis shows the number of feature points.

図6において、b1〜b9は、代表画像選定部14によって選定された代表画像データを示している。すなわち、代表画像データb1〜b9は、分類部15が画像データの分類に用いる9つのグループを示している。 In FIG. 6, b1 to b9 show representative image data selected by the representative image selection unit 14. That is, the representative image data b1 to b9 indicate nine groups used by the classification unit 15 for classifying the image data.

図5に戻り、分類部15は、複数の画像データのそれぞれを、代表画像データb1〜b9に対応するグループのいずれかに分類する(ステップS6)。より詳細には、分類部15は、複数の画像データのうちの任意の画像データiが撮影された順番に近い、2枚の代表画像データI、I+1を抽出し、それぞれの代表画像データI、I+1との類似度を算出する。このとき、分類部15は、分類境界線を、[画像データiと代表画像データIとの類似度]<[画像データiと代表画像データI+1との類似度]となる画像データiの位置に決定する。分類部15は、複数の画像データの全てについて、類似度を算出してグルーピングする。 Returning to FIG. 5, the classification unit 15 classifies each of the plurality of image data into one of the groups corresponding to the representative image data b1 to b9 (step S6). More specifically, the classification unit 15 extracts two representative image data I, I + 1, which are close to the order in which arbitrary image data i of the plurality of image data was taken, and each representative image data I, The degree of similarity with I + 1 is calculated. At this time, the classification unit 15 sets the classification boundary line at the position of the image data i such that [similarity between the image data i and the representative image data I] <[similarity between the image data i and the representative image data I + 1]. decide. The classification unit 15 calculates and groups the similarity of all of the plurality of image data.

その後、表示部17は、分類部15による分類結果を表示装置108に表示させる(ステップS7)。図7は、表示部17による表示例を示す図である。図7の横軸は、画像データが撮影された順番を示している。各縦棒は1枚の画像データを示している。また、縦軸は、特徴点の数を示している。図7の例では、60枚の画像データを9のグループに分類した分類結果を示している。表示部17は、全ての画像データを、撮影された順番に沿って時系列に並べて表示する。また、表示部17は、クループごとに色分けして分類結果を表示することができる。 After that, the display unit 17 causes the display device 108 to display the classification result by the classification unit 15 (step S7). FIG. 7 is a diagram showing a display example by the display unit 17. The horizontal axis of FIG. 7 indicates the order in which the image data was taken. Each vertical bar indicates one image data. The vertical axis shows the number of feature points. In the example of FIG. 7, the classification result of classifying 60 image data into 9 groups is shown. The display unit 17 displays all the image data in chronological order in the order in which they were photographed. In addition, the display unit 17 can display the classification result by color-coding each group.

図7の例に示す、画像データ(順番1〜5)は代表画像データa1のグループに分類されている。図7の例では、代表画像データa1は、壁、コンプレッサ、および空気タンクが設置されたエリアを撮影した画像データである。画像データ(順番6〜8)は、代表画像データa2のグループに分類されている。代表画像データa2は、コンプレッサを正面から撮影した画像データである。画像データ(順番9〜14)は、代表画像データa3のグループに分類されている。代表画像データa3は、コンプレッサの正面から右回りに移動したエリアを撮影した画像データである。 The image data (orders 1 to 5) shown in the example of FIG. 7 are classified into the group of representative image data a1. In the example of FIG. 7, the representative image data a1 is image data obtained by photographing an area in which a wall, a compressor, and an air tank are installed. The image data (orders 6 to 8) are classified into the group of representative image data a2. The representative image data a2 is image data obtained by photographing the compressor from the front. The image data (orders 9 to 14) are classified into the group of representative image data a3. The representative image data a3 is image data obtained by photographing an area moved clockwise from the front of the compressor.

画像データ(順番15〜30)は、代表画像データa4のグループに分類されている。代表画像データa4は、空気源の側面のエリアを撮影した画像データである。画像データ(順番31〜34)は、代表画像データa5のグループに分類されている。代表画像データa5は、除湿器の周辺を撮影した画像データである。画像データ(順番35〜40)は、代表画像データa6のグループに分類されている。代表画像データa6は、除湿器およびヘッダーの周辺を撮影した画像データである。 The image data (orders 15 to 30) are classified into the group of representative image data a4. The representative image data a4 is image data obtained by photographing an area on the side surface of the air source. The image data (orders 31 to 34) are classified into the group of representative image data a5. The representative image data a5 is image data obtained by photographing the periphery of the dehumidifier. The image data (orders 35 to 40) are classified into the group of representative image data a6. The representative image data a6 is image data obtained by photographing the periphery of the dehumidifier and the header.

画像データ(順番41〜46)は、代表画像データa7のグループに分類されている。代表画像データa7は、制御盤の周辺を撮影した画像データである。画像データ(順番47〜53)は、代表画像データa8のグループに分類されている。代表画像データa8は、エアタンクの周辺を撮影した画像データである。画像データ(順番54〜60)は、代表画像データa7のグループに分類されている。代表画像データa7は、制御盤の周辺を撮影した画像データである。 The image data (orders 41 to 46) are classified into the group of representative image data a7. The representative image data a7 is image data obtained by photographing the periphery of the control panel. The image data (orders 47 to 53) are classified into the group of representative image data a8. The representative image data a8 is image data obtained by photographing the periphery of the air tank. The image data (orders 54 to 60) are classified into the group of representative image data a7. The representative image data a7 is image data obtained by photographing the periphery of the control panel.

ユーザは、60枚の画像データのうち、代表画像データa1〜a9のみを表示画面において確認して、3次元形状を復元して分析したい対象物やエリアが含まれている画像データのグループを選択することができる。ユーザが分析を希望する対象物が確実に含まれている画像データ群が3次元形状の復元の計算に用いられることで、3次元形状の復元処理の計算負荷が低減し、処理時間を短縮することができる。 The user confirms only the representative image data a1 to a9 on the display screen out of the 60 image data, and selects a group of image data including the object or area to be analyzed by restoring the three-dimensional shape. can do. By using the image data group that surely includes the object that the user wants to analyze in the calculation of the restoration of the three-dimensional shape, the calculation load of the restoration processing of the three-dimensional shape is reduced and the processing time is shortened. be able to.

また、ユーザは、表示装置108の表示画面において、各グループに分類された画像データの数を確認することができる。例えば、あるグループの画像データが疎になっている場合に、そのグループに分類される画像データを追加することができる。分類結果の表示に基づいて、ユーザは、画像データを追加する措置をとることができるので、画像データの連続性を高めることが可能となる。その結果、画像データが疎になっているために3次元形状の復元処理において、計算に適していない画像データ群として画像データが処理対象から除外されることを抑制することができる。 In addition, the user can confirm the number of image data classified into each group on the display screen of the display device 108. For example, when the image data of a certain group is sparse, the image data classified into the group can be added. Based on the display of the classification result, the user can take measures to add the image data, so that the continuity of the image data can be improved. As a result, it is possible to prevent the image data from being excluded from the processing target as an image data group that is not suitable for calculation in the three-dimensional shape restoration process because the image data is sparse.

以上説明したように、第1の実施の形態に係る画像データ分類装置1によれば、複数の画像データを、それぞれの画像データが撮影された順番や時間情報を用いて複数のグループに分類するので、大量な画像データのうち、対象物の3次元形状を復元する際に用いられる適切な画像データを、ユーザは効率的かつ容易に利用することができる。 As described above, according to the image data classification device 1 according to the first embodiment, a plurality of image data are classified into a plurality of groups using the order in which the image data was taken and the time information. Therefore, among a large amount of image data, the user can efficiently and easily use the appropriate image data used when restoring the three-dimensional shape of the object.

また、第1の実施の形態に係るが画像データ分類装置1によれば、画像データの分類結果を、画像が撮影された順番に並べて表示画面に表示するので、大量の画像データの状況を俯瞰する情報をユーザに提示することができる。 Further, according to the image data classification device 1 according to the first embodiment, since the classification results of the image data are displayed on the display screen in the order in which the images are taken, a bird's-eye view of the situation of a large amount of image data is obtained. Information to be used can be presented to the user.

また、第1の実施の形態に係る画像データ分類装置1によれば、より簡易な計算手順により、大量の画像データを分類するので、ユーザが対象物をカメラ109で撮影している現場において、ユーザに分類結果を提示することができる。そのため、ユーザは、撮影現場で提示される分類結果に基づいて、画像データの追加など、適切な措置を講ずることができる。 Further, according to the image data classification device 1 according to the first embodiment, a large amount of image data is classified by a simpler calculation procedure, so that in the field where the user is photographing the object with the camera 109, the image data is classified. The classification result can be presented to the user. Therefore, the user can take appropriate measures such as adding image data based on the classification result presented at the shooting site.

また、第1の実施の形態に係る画像データ分類装置1によれば、画像データが撮影された順番などの時系列情報が分類結果に反映されるので、ユーザが3次元形状の復元に関する専門的な知識を有さない場合であっても、対象物の3次元形状の復元で使用される適切な画像データを選択することができる。また、その結果として、ユーザが希望する対象物やエリアの3次元形状がより確実に復元されることになる。 Further, according to the image data classification device 1 according to the first embodiment, time-series information such as the order in which the image data is taken is reflected in the classification result, so that the user is specialized in the restoration of the three-dimensional shape. Even if you do not have sufficient knowledge, you can select appropriate image data to be used in the restoration of the three-dimensional shape of the object. Further, as a result, the three-dimensional shape of the object or area desired by the user is more reliably restored.

なお、説明した実施の形態では、複数の画像データを代表する代表画像データについては、代表画像選定部14が選定する場合について説明した。しかし、代表画像データは、ユーザが複数の画像データから任意に選定し、入力装置107がユーザからの操作入力を受け付けることで、代表画像データが選定される構成としてもよい。 In the embodiment described, the case where the representative image selection unit 14 selects the representative image data representing the plurality of image data has been described. However, the representative image data may be arbitrarily selected from a plurality of image data by the user, and the representative image data may be selected by the input device 107 receiving the operation input from the user.

[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the same components as those in the first embodiment described above are designated by the same reference numerals, and the description thereof will be omitted.

第1の実施の形態では、表示部17が、分類部15による画像データの分類結果を表示装置108に表示させる場合について説明した。これに対し、第2の実施の形態に係る画像データ分類装置1Aでは、さらに、代表画像データの枚数、すなわち、分類グループの数を調整する調整部18を備える。 In the first embodiment, the case where the display unit 17 causes the display device 108 to display the classification result of the image data by the classification unit 15 has been described. On the other hand, the image data classification device 1A according to the second embodiment further includes an adjustment unit 18 for adjusting the number of representative image data, that is, the number of classification groups.

図8は、本実施の形態に係る画像データ分類装置1Aの構成を示すブロック図である。画像データ分類装置1Aは、画像データ取得部10、特徴量算出部11、類似度算出部12、平滑化処理部13、代表画像選定部14、分類部15、記憶部16、表示部17、および調整部18を備える。調整部18以外の構成は、第1の実施の形態の各構成と同様である。 FIG. 8 is a block diagram showing a configuration of the image data classification device 1A according to the present embodiment. The image data classification device 1A includes an image data acquisition unit 10, a feature amount calculation unit 11, a similarity calculation unit 12, a smoothing processing unit 13, a representative image selection unit 14, a classification unit 15, a storage unit 16, a display unit 17, and a display unit 17. The adjusting unit 18 is provided. The configurations other than the adjusting unit 18 are the same as those of the first embodiment.

調整部18は、複数の画像データが分類されるグループの数を変更して調整する。より詳細には、調整部18は、平滑化処理部13が用いる移動平均フィルタのパラメータを変更する。調整部18によって変更された移動平均フィルタのパラメータに基づいて、平滑化処理部13は、類似度の平滑化を行う。また、代表画像選定部14は、平滑化された類似度を用いて、対応する数の代表画像データを選定する。例えば、調整部18は、入力装置107が受け付けたユーザからの操作入力に基づいて、移動平均フィルタのパラメータを変更することができる。 The adjusting unit 18 changes and adjusts the number of groups in which a plurality of image data are classified. More specifically, the adjusting unit 18 changes the parameters of the moving average filter used by the smoothing processing unit 13. Based on the parameters of the moving average filter changed by the adjusting unit 18, the smoothing processing unit 13 smoothes the similarity. In addition, the representative image selection unit 14 selects a corresponding number of representative image data using the smoothed similarity. For example, the adjusting unit 18 can change the parameters of the moving average filter based on the operation input from the user received by the input device 107.

具体的には、まず初期設定された移動平均フィルタのパラメータに基づいて、平滑化処理部13による平滑化処理、代表画像選定部14による代表画像データの選定、および分類部15による画像データの分類が実行される。その後、表示部17によって表示画面に表示された分類結果に応じて、ユーザによる分類グループ数の変更を示す操作入力を入力装置107が受け付けて、調整部18は、移動平均フィルタのパラメータを変更することができる。 Specifically, first, based on the parameters of the initially set moving average filter, the smoothing process 13 performs the smoothing process, the representative image selection unit 14 selects the representative image data, and the classification unit 15 classifies the image data. Is executed. After that, the input device 107 receives an operation input indicating the change in the number of classification groups by the user according to the classification result displayed on the display screen by the display unit 17, and the adjustment unit 18 changes the parameters of the moving average filter. be able to.

以上説明したように、第2の実施の形態に係る画像データ分類装置1Aによれば、複数の画像データが分類されるグループの数を調整できるので、ユーザは分類結果をより効率的かつ容易に利用することができる。 As described above, according to the image data classification device 1A according to the second embodiment, the number of groups in which a plurality of image data are classified can be adjusted, so that the user can more efficiently and easily classify the classification results. It can be used.

なお、説明した実施の形態では、画像データ分類装置1、1Aは、カメラ109によって撮影された画像データを取得して、分類する場合について説明した。しかし、画像データは別途準備され、記憶部16に予め記憶されていてもよい。 In addition, in the above-described embodiment, the case where the image data classification devices 1 and 1A acquire and classify the image data captured by the camera 109 has been described. However, the image data may be prepared separately and stored in the storage unit 16 in advance.

なお第1および第2の実施の形態で説明した、画像データ分類装置1、1Aは単一の装置で構成される場合に限らず、各機能部は複数の端末装置に分散された形態であってもよい。 The image data classification devices 1 and 1A described in the first and second embodiments are not limited to the case where they are composed of a single device, and each functional unit is a form in which each functional unit is distributed to a plurality of terminal devices. You may.

以上、本発明の画像データ分類装置および画像データ分類方法における実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。 Although the embodiments of the image data classification apparatus and the image data classification method of the present invention have been described above, the present invention is not limited to the described embodiments, and those skilled in the art are within the scope of the invention described in the claims. It is possible to make various transformations that can be imagined.

1…画像データ分類装置、10…画像データ取得部、11…特徴量算出部、12…類似度算出部、13…平滑化処理部、14…代表画像選定部、15…分類部、16…記憶部、17…表示部、101…バス、102…プロセッサ、103…主記憶装置、104…通信インターフェース、105…補助記憶装置、106…入出力I/O、107…入力装置、108…表示装置、109…カメラ、NW…通信ネットワーク。 1 ... Image data classification device, 10 ... Image data acquisition unit, 11 ... Feature amount calculation unit, 12 ... Similarity calculation unit, 13 ... Smoothing processing unit, 14 ... Representative image selection unit, 15 ... Classification unit, 16 ... Memory Unit, 17 ... Display unit, 101 ... Bus, 102 ... Processor, 103 ... Main storage device, 104 ... Communication interface, 105 ... Auxiliary storage device, 106 ... Input / output I / O, 107 ... Input device, 108 ... Display device, 109 ... Camera, NW ... Communication network.

Claims (10)

複数の画像データおよび前記複数の画像データのそれぞれに付された順序付けを示す識別情報を取得するように構成された画像データ取得部と、
取得された前記複数の画像データのそれぞれの特徴量を算出するように構成された特徴量算出部と、
前記特徴量算出部によって算出された前記特徴量に基づいて、前記複数の画像データの互いの類似度を算出するように構成された類似度算出部と、
前記類似度算出部によって算出された前記類似度と、前記複数の画像データのそれぞれに付された前記識別情報とに基づいて、前記複数の画像データを1または複数のグループに分類するように構成された分類部と
を備える画像データ分類装置。
An image data acquisition unit configured to acquire identification information indicating a plurality of image data and the ordering attached to each of the plurality of image data, and an image data acquisition unit.
A feature amount calculation unit configured to calculate the feature amount of each of the acquired plurality of image data, and a feature amount calculation unit.
A similarity calculation unit configured to calculate the similarity between the plurality of image data based on the feature amount calculated by the feature amount calculation unit, and a similarity calculation unit.
The plurality of image data are classified into one or a plurality of groups based on the similarity calculated by the similarity calculation unit and the identification information attached to each of the plurality of image data. An image data classification device including a classification unit.
請求項1に記載の画像データ分類装置において、
前記識別情報は、前記複数の画像データが撮影された順番を示す情報である
ことを特徴とする画像データ分類装置。
In the image data classification apparatus according to claim 1,
The identification information is an image data classification device characterized in that the identification information is information indicating the order in which the plurality of image data are taken.
請求項1または請求項2に記載の画像データ分類装置において、
前記識別情報は、前記複数の画像データのそれぞれが撮影された時刻を示す情報である
ことを特徴とする画像データ分類装置。
In the image data classification apparatus according to claim 1 or 2.
The identification information is an image data classification device, characterized in that each of the plurality of image data is information indicating a time when the image data was taken.
請求項1から3のいずれか1項に記載の画像データ分類装置において、
前記複数の画像データは静止画像であり、
前記特徴量算出部は、前記複数の画像データのそれぞれに含まれる特徴点を検出し、
前記類似度算出部は、前記複数の画像データ同士における前記特徴点間の幾何学的な距離を算出し、算出した前記距離を比較して前記類似度を算出する
ことを特徴とする画像データ分類装置。
In the image data classification apparatus according to any one of claims 1 to 3,
The plurality of image data are still images, and the plurality of image data are still images.
The feature amount calculation unit detects feature points included in each of the plurality of image data, and detects the feature points.
The image data classification is characterized in that the similarity calculation unit calculates a geometric distance between the feature points in the plurality of image data and compares the calculated distances to calculate the similarity. apparatus.
請求項1から4のいずれか1項に記載の画像データ分類装置において、
前記分類部は、前記複数の画像データを、前記複数の画像データのうちから選定された代表画像データごとのグループに分類することを特徴とする画像データ分類装置。
In the image data classification apparatus according to any one of claims 1 to 4.
The image data classification device is characterized in that the classification unit classifies the plurality of image data into a group for each representative image data selected from the plurality of image data.
請求項5に記載の画像データ分類装置において、
前記類似度算出部によって算出された前記類似度と、前記類似度に対応する画像データに付された前記識別情報とに基づいて、前記類似度が極大となる画像データを前記代表画像データとして選定するように構成された代表画像選定部をさらに備える
ことを特徴とする画像データ分類装置。
In the image data classification apparatus according to claim 5,
Based on the similarity calculated by the similarity calculation unit and the identification information attached to the image data corresponding to the similarity, the image data having the maximum similarity is selected as the representative image data. An image data classification device characterized by further including a representative image selection unit configured to perform the above.
請求項1から6のいずれか1項に記載の画像データ分類装置において、
前記分類部による分類結果を表示装置に表示させるように構成された表示部をさらに備える
ことを特徴とする画像データ分類装置。
In the image data classification apparatus according to any one of claims 1 to 6,
An image data classification device further comprising a display unit configured to display the classification result by the classification unit on the display device.
請求項1から7のいずれか1項に記載の画像データ分類装置において、
前記類似度算出部によって算出された前記類似度をフィルタリングして平滑化するように構成された平滑化処理部をさらに備える
ことを特徴とする画像データ分類装置。
In the image data classification apparatus according to any one of claims 1 to 7.
An image data classification device further comprising a smoothing processing unit configured to filter and smooth the similarity calculated by the similarity calculation unit.
請求項1から8のいずれか1項に記載の画像データ分類装置において、
前記複数の画像データが分類される前記グループの数を変更して調整するように構成された調整部をさらに備え、
前記分類部は、前記複数の画像データを、前記調整部によって変更された数の前記グループに分類する
ことを特徴とする画像データ分類装置。
In the image data classification apparatus according to any one of claims 1 to 8.
Further, an adjustment unit configured to change and adjust the number of the groups in which the plurality of image data are classified is provided.
The image data classification device is characterized in that the classification unit classifies the plurality of image data into the group in a number changed by the adjustment unit.
複数の画像データおよび前記複数の画像データのそれぞれに付された順序付けを示す識別情報を取得する第1ステップと、
前記第1ステップで取得された前記複数の画像データのそれぞれの特徴量を算出する第2ステップと、
前記第2ステップで算出された前記特徴量に基づいて、前記複数の画像データの互いの類似度を算出する第3ステップと、
前記第3ステップで算出された前記類似度と、前記複数の画像データのそれぞれに付された前記識別情報とに基づいて、前記複数の画像データを1または複数のグループに分類する第4ステップと
を備える画像データ分類方法。
The first step of acquiring the identification information indicating the ordering of the plurality of image data and the plurality of image data, and
The second step of calculating the feature amount of each of the plurality of image data acquired in the first step, and
Based on the feature amount calculated in the second step, the third step of calculating the similarity between the plurality of image data to each other, and
A fourth step of classifying the plurality of image data into one or a plurality of groups based on the similarity calculated in the third step and the identification information attached to each of the plurality of image data. Image data classification method comprising.
JP2019161853A 2019-09-05 2019-09-05 Image data classification device and image data classification method Pending JP2021039647A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161853A JP2021039647A (en) 2019-09-05 2019-09-05 Image data classification device and image data classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161853A JP2021039647A (en) 2019-09-05 2019-09-05 Image data classification device and image data classification method

Publications (1)

Publication Number Publication Date
JP2021039647A true JP2021039647A (en) 2021-03-11

Family

ID=74848687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161853A Pending JP2021039647A (en) 2019-09-05 2019-09-05 Image data classification device and image data classification method

Country Status (1)

Country Link
JP (1) JP2021039647A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210095A1 (en) * 2022-04-28 2023-11-02 テンソル・コンサルティング株式会社 Video identification device, video identification method, and video identification program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210095A1 (en) * 2022-04-28 2023-11-02 テンソル・コンサルティング株式会社 Video identification device, video identification method, and video identification program

Similar Documents

Publication Publication Date Title
CN108898567B (en) Image noise reduction method, device and system
JP5538617B2 (en) Methods and configurations for multi-camera calibration
CN109299703B (en) Method and device for carrying out statistics on mouse conditions and image acquisition equipment
EP3511903A1 (en) Three-dimensional model generating device and three-dimensional model generating method
US11636610B2 (en) Determining multiple camera positions from multiple videos
JP7159384B2 (en) Image processing device, image processing method, and program
US9971939B2 (en) Image processing apparatus, display state determination apparatus, and image processing method
CN111131688B (en) Image processing method and device and mobile terminal
JP7032913B2 (en) Image processing device, image processing method, computer program
CN116012432A (en) Stereoscopic panoramic image generation method and device and computer equipment
CN115457176A (en) Image generation method and device, electronic equipment and storage medium
CN108229281B (en) Neural network generation method, face detection device and electronic equipment
US8218823B2 (en) Determining main objects using range information
Janardhana Rao et al. Hybridized cuckoo search with multi-verse optimization-based patch matching and deep learning concept for enhancing video inpainting
CN113888438A (en) Image processing method, device and storage medium
JP2021039647A (en) Image data classification device and image data classification method
JP2016219879A (en) Image processing apparatus, image processing method and program
JP6669390B2 (en) Information processing apparatus, information processing method, and program
KR101913623B1 (en) A Method of Generating 3-Dimensional Advertisement Using Photographed Images
CN115205111A (en) Image splicing method and device, terminal equipment and storage medium
CN114757984A (en) Scene depth estimation method and device of light field camera
Van Vo et al. High dynamic range video synthesis using superpixel-based illuminance-invariant motion estimation
CN113283319A (en) Method and device for evaluating face ambiguity, medium and electronic equipment
CN112991419A (en) Parallax data generation method and device, computer equipment and storage medium
JP2020009099A (en) Image processing device, image processing method, and program