JP2020091718A - Photographed image classification device and photographed image classification method - Google Patents

Photographed image classification device and photographed image classification method Download PDF

Info

Publication number
JP2020091718A
JP2020091718A JP2018229082A JP2018229082A JP2020091718A JP 2020091718 A JP2020091718 A JP 2020091718A JP 2018229082 A JP2018229082 A JP 2018229082A JP 2018229082 A JP2018229082 A JP 2018229082A JP 2020091718 A JP2020091718 A JP 2020091718A
Authority
JP
Japan
Prior art keywords
image data
captured image
classification
unit
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018229082A
Other languages
Japanese (ja)
Inventor
尚吾 藤田
Shogo Fujita
尚吾 藤田
渡邉 隆史
Takashi Watanabe
隆史 渡邉
酒井 修二
Shuji Sakai
修二 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2018229082A priority Critical patent/JP2020091718A/en
Publication of JP2020091718A publication Critical patent/JP2020091718A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a photographed image classification device capable of associating, with each target object, and classifying each piece of photographed image data photographed while changing the target object and an imaging location, when photographing the photographed image data in a multi-viewpoint image to be used for restoring a three-dimensional shape model of the target object.SOLUTION: A photographed image classification device associates, with each target object, and classifies a multi-viewpoint image for restoring a three-dimensional shape model of each target object. The photographed image data classification device includes a photographed image classification part configured to classify, corresponding to metadata added to photographed image data and related to a photographing condition when photographing the photographed image data, each piece of the photographed image data to an image data set photographing each target object.SELECTED DRAWING: Figure 1

Description

本発明は、対象物体の3次元形状モデルを復元する際に用いる多視点画像を分類する撮像画像分類装置及び撮像画像分類方法に関する。 The present invention relates to a captured image classification device and a captured image classification method for classifying multi-view images used when restoring a three-dimensional shape model of a target object.

多視点画像に基づく3次元復元技術は、コンピュータビジョンの研究コミュニティだけでなく、文化財のデジタルアーカイブやエンターテイメント産業など、幅広い分野で注目されている。 3D reconstruction technology based on multi-view images has been attracting attention not only in computer vision research communities but also in a wide range of fields such as digital archiving of cultural assets and entertainment industry.

上述した多視点画像に基づく3次元復元技術は、三角測量の技術を用いており、最終的に、各視点におけるデプスマップを統合することによって、3次元座標点群を生成する。
このため、各視点における画像(撮像画像データである視点画像)を用いて世界座標系における対象物体の3次元形状モデルを復元する際、2つ以上の異なる視点画像間において、世界座標系における3次元座標点の座標点に対応する視点画像それぞれの対応画素を検出する処理が行なわれる。
The three-dimensional restoration technique based on the multi-viewpoint image described above uses a triangulation technique, and finally, the three-dimensional coordinate point group is generated by integrating the depth maps at each viewpoint.
Therefore, when a three-dimensional shape model of a target object in the world coordinate system is restored using images at each viewpoint (viewpoint image that is captured image data), three or more points in the world coordinate system between two or more different viewpoint images are restored. The process of detecting the corresponding pixel of each viewpoint image corresponding to the coordinate point of the dimensional coordinate point is performed.

したがって、3次元形状モデルを精度良く復元するために、撮像装置による撮像位置を移動させつつ、対象物体の全体の面を撮像する必要がある。
そのため、ユーザが対象物体を撮像する視点画像の数は非常に多くなり、複数の対象物体の3次元形状モデルの復元を行なう際、各対象物体の多視点画像を分類する作業に時間が取られることになる。
そのため、分類を行なう必要がないように、対象物体を画像列として整理して撮像することが行なわれている(例えば、特許文献1、特許文献2参照)。
Therefore, in order to accurately restore the three-dimensional shape model, it is necessary to move the imaging position of the imaging device and image the entire surface of the target object.
Therefore, the number of viewpoint images in which the user images the target object becomes very large, and when restoring the three-dimensional shape models of the plurality of target objects, it takes time to classify the multi-viewpoint images of each target object. It will be.
Therefore, the target objects are arranged and imaged as an image sequence so that it is not necessary to perform classification (see, for example, Patent Documents 1 and 2).

特開平05−35854号公報JP 05-35854 A 特開平04−62676号公報JP, 04-62676, A

しかしながら、上記特許文献1及び特許文献2においては、撮像装置の移動が既知であり、隣接して撮像が行なわれることが前提となっており、隣接して撮像されたことを示す撮像位置の入力が必要となる。
また、対象物体が異なった場合などの境目の情報が無く、対象物体を撮像する撮像位置が隣接していない場合、同一の対象物体を撮像した多視点画像か否かの判断がつかない。この場合、ユーザが撮像画像を一枚ごとに確認して、対象物体毎の撮像画像の分類を行なうため、ユーザに仕分けの負荷がかかる。
However, in the above-mentioned Patent Documents 1 and 2, the movement of the image pickup device is known, and it is premised that adjacent image pickups are performed, and the input of the image pickup position indicating that the adjacent image pickups have been performed. Is required.
In addition, when there is no boundary information such as when the target objects are different and the image capturing positions for capturing the target objects are not adjacent to each other, it is impossible to determine whether the images are multi-viewpoint images of the same target object. In this case, the user confirms the picked-up images one by one and classifies the picked-up images for each target object, which imposes a sorting load on the user.

本発明は、このような状況に鑑みてなされたもので、対象物体の3次元形状モデルの復元に用いる多視点画像における撮像画像データを撮像した際、対象物体及び撮像位置を変えつつ撮像した撮像画像データの各々を、それぞれの対象物体に対応させて分類することができる撮像画像分類装置及び撮像画像分類方法を提供する。 The present invention has been made in view of such a situation, and when capturing imaged image data in a multi-viewpoint image used to restore a three-dimensional shape model of a target object, the captured image is captured while changing the target object and the imaging position. Provided are a captured image classification device and a captured image classification method capable of classifying each piece of image data in association with each target object.

上述した課題を解決するために、本発明の撮像画像分類装置は、対象物体の各々の3次元形状モデルの復元に用いる多視点画像を、前記対象物体それぞれに対応させて分類する撮像画像分類装置であり、撮像画像データに付加されている、当該撮像画像データを撮像した際の撮影条件に関するメタデータに対応して、前記撮像画像データの各々を、前記対象物体のそれぞれを撮像した画像データセットに分類する撮像画像データ分類部を備えることを特徴とする。 In order to solve the above-mentioned problem, a captured image classification apparatus of the present invention is a captured image classification apparatus for classifying a multi-viewpoint image used for reconstruction of each three-dimensional shape model of a target object in association with each of the target objects. In addition, in correspondence with the metadata added to the captured image data regarding the capturing conditions when capturing the captured image data, each of the captured image data is an image data set obtained by capturing each of the target objects. It is characterized by including a captured image data classification unit for classifying into.

本発明の撮像画像分類装置は、前記メタデータが、解像度、絞り値、焦点距離、シャッター速度、ISO(国際標準化機構)感度、撮像日時及びGPS(Global Positioning System)情報の各々であり、前記撮像画像データ分類部が、少なくとも前記メタデータのいずれかにより、前記撮像画像データの各々の分類を行なうことを特徴とする。 In the captured image classification apparatus of the present invention, the metadata is each of resolution, aperture value, focal length, shutter speed, ISO (International Organization for Standardization) sensitivity, image capturing date and time, and GPS (Global Positioning System) information. The image data classifying section classifies each of the captured image data by at least one of the metadata.

本発明の撮像画像分類装置は、前記メタデータのいずれかを用いて分類を行なう場合、前記撮像画像データ分類部が、前記メタデータの数値に対応して前記撮像画像データの各々をソートし、それぞれの前記撮像画像データの間におけるパラメータの数値の距離が所定の離間距離を超える部分で、前記対象物体に対応して前記撮像画像データそれぞれを分類することを特徴とする In the captured image classification device of the present invention, when performing classification using any of the metadata, the captured image data classification unit sorts each of the captured image data according to a numerical value of the metadata, It is characterized in that each of the captured image data is classified corresponding to the target object at a portion where a numerical distance of a parameter between the captured image data exceeds a predetermined separation distance.

本発明の撮像画像分類装置は、前記メタデータが、解像度、絞り値、焦点距離、シャッター速度、ISO(国際標準化機構)感度、撮像日時及びGPS(Global Positioning System)情報の各々であり、前記撮像画像データ分類部が、前記メタデータにおける複数のパラメータにより、前記撮像画像データ毎に多次元ベクトルを生成し、前記撮像画像データの各々を多次元ベクトル間の類似度により分類することを特徴とする。 In the captured image classification apparatus of the present invention, the metadata is each of resolution, aperture value, focal length, shutter speed, ISO (International Organization for Standardization) sensitivity, image capturing date and time, and GPS (Global Positioning System) information. The image data classifying unit generates a multidimensional vector for each of the captured image data based on a plurality of parameters in the metadata, and classifies each of the captured image data according to a similarity between the multidimensional vectors. ..

本発明の撮像画像分類装置は、対象物体の各々の3次元形状モデルの復元に用いる多視点画像を、前記対象物体それぞれに対応させて分類する撮像画像分類装置であり、前記対象物体の各々を撮像した撮像画像データのそれぞれに、当該対象物体を識別する識別情報を付与する識別情報付与部と、前記撮像画像データの各々に付与されている前記識別情報に対応して、前記撮像画像データの各々を、前記対象物体のそれぞれを撮像した画像データセットに分類する撮像画像データ分類部とを備えることを特徴とする。 The captured image classification apparatus of the present invention is a captured image classification apparatus that classifies a multi-viewpoint image used for reconstruction of each three-dimensional shape model of a target object in association with each of the target objects. To each of the captured image data that has been captured, an identification information assigning unit that assigns identification information that identifies the target object, and the identification information that is assigned to each of the captured image data. And a captured image data classifying unit that classifies each of the target objects into an image data set in which each of the target objects is captured.

本発明の撮像画像分類装置は、前記対象物体の撮像が開始された時点を検出する撮像開始検出部をさらに備え、前記識別情報付与部が、前記撮像開始検出部が撮像が開始された時点を検出した場合、前記撮像画像データの各々に同一の前記識別情報を付与することを特徴とする。 The captured image classification device of the present invention further includes an image capturing start detection unit that detects a time point when the image capturing of the target object is started, and the identification information assigning unit determines a time point when the image capturing start detection unit starts image capturing. When detected, the same identification information is added to each of the captured image data.

本発明の撮像画像分類装置は、前記対象物体の撮像が終了した時点を検出する撮像終了検出部をさらに備えることを特徴とする。 The captured image classification apparatus of the present invention is characterized by further comprising an image capturing end detection unit that detects a time point when the image capturing of the target object is completed.

本発明の撮像画像分類方法は、対象物体の各々の3次元形状モデルの復元に用いる多視点画像を、前記対象物体それぞれに対応させて分類する撮像画像分類方法であり、撮像画像データ分類部が、撮像画像データに付加されている、当該撮像画像データを撮像した際の撮影条件に関するメタデータに対応して、前記撮像画像データの各々を、前記対象物体のそれぞれを撮像した画像データセットに分類する過程含むことを特徴とする。 The picked-up image classification method of the present invention is a picked-up image classification method for classifying a multi-viewpoint image used for reconstruction of each three-dimensional shape model of a target object in association with each of the target objects. , Each of the captured image data is classified into an image data set in which each of the target objects is captured, corresponding to the metadata added to the captured image data and related to the shooting condition when the captured image data is captured. It is characterized by including the process of doing.

本発明の撮像画像分類方法は、対象物体の各々の3次元形状モデルの復元に用いる多視点画像を、前記対象物体それぞれに対応させて分類する撮像画像分類方法であり、識別情報付与部が、前記対象物体の各々を撮像した撮像画像データのそれぞれに、当該対象物体を識別する識別情報を付与する識別情報付与過程と、撮像画像データ分類部が、前記撮像画像データの各々に付与されている前記識別情報に対応して、前記撮像画像データの各々を、前記対象物体のそれぞれを撮像した画像データセットに分類する撮像画像データ分類過程とを含むことを特徴とする。 The captured image classification method of the present invention is a captured image classification method for classifying a multi-viewpoint image used for reconstruction of each three-dimensional shape model of a target object in association with each of the target objects. An identification information assigning process of assigning identification information for identifying the target object to each of the captured image data obtained by capturing each of the target objects, and a captured image data classification unit is assigned to each of the captured image data. A captured image data classification process of classifying each of the captured image data into an image data set of each of the target objects, corresponding to the identification information.

以上説明したように、本発明によれば、対象物体の3次元形状モデルの復元に用いる多視点画像における撮像画像データを撮像した際、対象物体及び撮像位置を変えつつ撮像した撮像画像データの各々を、それぞれの対象物体に対応させて分類することができる撮像画像分類装置及び撮像画像分類方法を提供することができる。 As described above, according to the present invention, when the captured image data in the multi-viewpoint image used to restore the three-dimensional shape model of the target object is captured, each of the captured image data captured while changing the target object and the capturing position. It is possible to provide a captured image classification device and a captured image classification method capable of classifying the images according to respective target objects.

本発明の第1の実施形態による撮像画像分類装置を備えた撮像システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging system provided with the captured image classification apparatus by the 1st Embodiment of this invention. 撮像日時をパラメータとして用いた撮像画像データのデータセットへの分類を説明する図である。It is a figure explaining classification|category to the data set of the captured image data which used the imaging date and time as a parameter. 画像表示制御部104が画像表示部300の表示画面に表示するユーザ制御入力画面の一例を示す図である。FIG. 9 is a diagram showing an example of a user control input screen displayed on the display screen of the image display unit 300 by the image display control unit 104. 本発明の第1の実施形態による撮像画像分類装置100が行なう撮像画像データの分類処理の動作例を示すフローチャートである。6 is a flowchart showing an operation example of classification processing of captured image data performed by the captured image classification apparatus 100 according to the first embodiment of the present invention. 本発明の第2の実施形態による撮像画像分類装置100が行なう撮像画像データの分類処理の動作例を示すフローチャートである。9 is a flowchart showing an operation example of classification processing of captured image data performed by the captured image classification device 100 according to the second embodiment of the present invention. 本発明の第3の実施形態による撮像画像分類装置を備えた撮像システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging system provided with the captured image classification apparatus by the 3rd Embodiment of this invention. 撮像画像分類装置100Aの撮像画像データの分類処理におけるGUI(Graphical User Interface)を説明する図である。It is a figure explaining GUI (Graphical User Interface) in classification processing of the picked-up image data of picked-up image classification device 100A. 本実施形態による撮像画像分類装置100Aが行なう撮像画像データの分類処理の動作例を示すフローチャートである。6 is a flowchart showing an operation example of classification processing of captured image data performed by the captured image classification apparatus 100A according to the present embodiment.

<第1の実施形態>
以下、本発明の第1の実施形態について、図面を参照して説明する。図1は、本発明の第1の実施形態による撮像画像分類装置を備えた撮像システムの構成例を示すブロック図である。撮像画像分類装置100は、3次元形状モデルを復元するために用いる多視点画像として、複数の対象物体の各々を異なる撮像位置で撮像した撮像画像データそれぞれを、対象物体毎に対応させて分類する装置である。
<First Embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of an imaging system including a captured image classification device according to the first embodiment of the present invention. The captured image classification apparatus 100 classifies, as a multi-view image used to restore a three-dimensional shape model, captured image data obtained by capturing a plurality of target objects at different image capturing positions in association with each target object. It is a device.

図1において、撮像システム1は、撮像画像分類装置100、撮像部200及び画像表示部300各々を備えている。撮像システム1は、例えばスマートフォンであり、撮像画像分類装置100の機能のアプリケーションをインストールして、後述する多視点画像の撮像を支援している。本実施形態においては、一例として、多視点画像の撮像画像データとして、静止画の撮像を支援する構成を説明するが、動画でも処理自体は同様である。
3次元形状モデル復元装置(サーバ)2は、撮像システム1から供給される対象物体毎の撮像画像データのデータセットにより、例えばSfM(Structure from Motion)のアルゴリズムを用いて、対応する対象物体の3次元形状モデルの復元を行なう。
In FIG. 1, the imaging system 1 includes a captured image classification device 100, an imaging unit 200, and an image display unit 300. The imaging system 1 is, for example, a smartphone, installs an application of the function of the captured image classification device 100, and supports capturing of a multi-viewpoint image described below. In the present embodiment, as an example, a configuration that supports the capturing of a still image as captured image data of a multi-viewpoint image will be described, but the process itself is the same for a moving image.
The three-dimensional shape model restoration device (server) 2 uses the data set of the captured image data for each target object supplied from the imaging system 1 to, for example, use the SfM (Structure from Motion) algorithm to determine the corresponding target object 3 Restore the 3D model.

撮像画像分類装置100は、多視点画像の撮像を支援する装置であり、画像データ入力部101、撮像画像データ分類部102、撮像終了検出部103、画像表示制御部104、ユーザ編集入力部105、復元開始通知部106及び記憶部107の各々を備えている。
撮像部200は、例えば、スマートフォンに内蔵されている撮像素子を有するカメラ機能部である。
画像表示部300は、上記スマートフォンに設けられた表示装置であり、例えば液晶ディスプレイを備えている。
The captured image classification device 100 is a device that supports capturing of multi-viewpoint images, and includes an image data input unit 101, a captured image data classification unit 102, an imaging end detection unit 103, an image display control unit 104, a user edit input unit 105, Each of the restoration start notification unit 106 and the storage unit 107 is provided.
The image capturing section 200 is, for example, a camera function section having an image capturing element incorporated in a smartphone.
The image display unit 300 is a display device provided in the smartphone and includes, for example, a liquid crystal display.

画像データ入力部101は、撮像部200から撮像された撮像画像データを順次入力し、記憶部107に書き込んで記憶させる。撮像画像データには、3次元形状モデルを復元する対象の対象物体の画像が含まれている。 The image data input unit 101 sequentially inputs captured image data captured by the image capturing unit 200, writes the captured image data in the storage unit 107, and stores the image data. The captured image data includes an image of the target object that is the target for restoring the three-dimensional shape model.

撮像画像データ分類部102は、記憶部107にランダムに書き込まれて記憶されている複数の対象物体を撮像した撮像画像データの各々を、それぞれ対応する対象物体毎の画像データセット(撮像画像データのグループ)として分類する。ここで、撮像画像データ分類部102は、撮像画像データの分類を行なう際、解像度(縦方向(短辺)ピクセル数、横方向(長辺)ピクセル数、縦方向ピクセル数×横方向ピクセル数=数総ピクセル数)、絞り値、焦点距離、シャッター速度、ISO(国際標準化機構)感度、撮像日時及びGPS(Global Positioning System)情報などの撮像画像データに付加されているメタデータであるExif(Exchangeable image file format)の埋め込み情報を用いて、撮像画像データの各々を、それぞれ対応する対象物体の画像データセットに分類する。 The picked-up image data classification unit 102 sets each of the picked-up image data obtained by picking up a plurality of target objects, which are randomly written and stored in the storage unit 107, as an image data set (corresponding to the picked-up image data Group). Here, when the captured image data classification unit 102 classifies the captured image data, the resolution (the number of pixels in the vertical direction (short side), the number of pixels in the horizontal direction (long side), the number of pixels in the vertical direction×the number of pixels in the horizontal direction= (Total number of pixels), aperture value, focal length, shutter speed, ISO (International Organization for Standardization) sensitivity, imaging date and time, and Exif (Exchangeable) which is metadata added to captured image data such as GPS (Global Positioning System) information. Each of the captured image data is classified into the corresponding image data set of the target object using the embedded information of the (image file format).

本実施形態においては、対象物体の撮像画像データを撮像する際、上記メタデータにおいて、解像度、絞り値、焦点距離、シャッター速度及びISO感度の各々は通常固定されており、またメタデータにおける撮像日時及びGPSの各々の数値が大きく変化することはないことを、撮像画像データの画像データセットへの分類に利用している。 In the present embodiment, when the captured image data of the target object is captured, each of the resolution, aperture value, focal length, shutter speed, and ISO sensitivity is usually fixed in the metadata, and the date and time when the image is captured in the metadata. The fact that the numerical values of GPS and GPS do not change significantly is used for classification of captured image data into image data sets.

図2は、撮像日時をパラメータとして用いた撮像画像データのデータセットへの分類を説明する図である。
図2(a)は、分類の例として、画像データセット#1、#2、#3の各々の撮像画像データの撮像日時の差時間それぞれを示すデータテーブル示している。画像データセット#1は7枚の撮像画像データ、画像データセット#2は8枚の撮像画像データ、画像データセット#3は10枚の撮像画像データのグループである。
FIG. 2 is a diagram for explaining classification of captured image data into a data set using the capturing date and time as a parameter.
FIG. 2A shows, as an example of classification, a data table showing the respective time differences between the image capture dates and times of the captured image data of the image data sets #1, #2, and #3. The image data set #1 is a group of 7 pieces of captured image data, the image data set #2 is a group of 8 pieces of captured image data, and the image data set #3 is a group of 10 pieces of captured image data.

図2(b)は、図2(a)に示すデータテーブルにおける撮像画像データの差時間の各々と、画像データセット間の差時間の各々とで作成したヒストグラムを示している。図2(b)のヒストグラムは、横軸が差時間を示し、縦軸が所定の時間差範囲に含まれる撮像画像データ数(頻度)、画像データセット間の撮像間隔の差時間を示している。 FIG. 2B shows a histogram created for each difference time of captured image data and each difference time between image data sets in the data table shown in FIG. 2A. In the histogram of FIG. 2B, the horizontal axis represents the difference time, and the vertical axis represents the number (frequency) of captured image data included in the predetermined time difference range and the difference time of the image capturing intervals between the image data sets.

このヒストグラムから判るように、頻度の山が頻度0の谷を挟んで2個生成され、一方の山が撮像画像データ間の撮像日時の時間差が30秒程度までの範囲に含まれる。しかしながら、他方の山は、一方の山からの外れ値となり、画像データセット間の撮像画像データの撮像日時の時間差を示し、撮像する対象物体を変更するための移動や撮像の準備などにより数分の範囲に含まれている。このため、例えば、1分30秒までの差時間であれば、同一の対象物体を撮像していることが推定できるため、1分30秒以上の差時間を有する撮像時刻の差時間を、撮像する対象物体を変更したことを示す画像データセットの区切りとして用いることができる。また、3個以上の山が形成された場合には、最も左の谷の差時間(谷の中央の差時間)を区切りとして用いる。 As can be seen from this histogram, two frequency peaks are generated across a valley with a frequency of 0, and one peak is included in the range of up to about 30 seconds in the imaging date/time difference between the captured image data. However, the other mountain becomes an outlier from the one mountain, indicating the time difference between the image capture date and time of the captured image data between the image data sets, and it may take a few minutes due to movement to change the target object to be imaged or preparation for image capture. It is included in the range of. Therefore, for example, if the difference time is up to 1 minute and 30 seconds, it can be estimated that the same target object is being imaged. It can be used as a delimiter of the image data set indicating that the target object to be changed is changed. Further, when three or more peaks are formed, the time difference between the leftmost valleys (time difference between the center of the valleys) is used as a delimiter.

図1に戻り、撮像画像データ分類部102は、記憶部107に書き込まれて記憶されている撮像画像データを撮像日時順となるようにソートを行ない、それぞれの撮像時刻の差時間を算出する。また、撮像画像データ分類部102は、差時間のヒストグラムを作成し、上述した区切りの差時間を分類差時間として抽出する。
そして、撮像画像データ分類部102は、ソートされた撮像日時の差時間が分類差時間以上である撮像画像データの組合せを抽出し、この撮像画像データの間を画像データセットの区切りとする。
Returning to FIG. 1, the captured image data classification unit 102 sorts the captured image data written and stored in the storage unit 107 in order of the date and time of image capturing, and calculates the time difference between the respective image capturing times. Further, the captured image data classification unit 102 creates a histogram of the difference time, and extracts the difference time of the above-mentioned division as the classification difference time.
Then, the captured image data classification unit 102 extracts a combination of captured image data in which the time difference of the sorted image capturing dates and times is the classification time difference or more, and sets the captured image data as a delimiter of the image data set.

すなわち、図2(a)に示される撮像画像データのデータテーブルにおいて、各画像データセットにおける撮像画像データの撮像日時の差時間は、30秒以下である。一方、画像データセット#1の最後に撮像された撮像画像データと、画像データセット#2の最初に撮像された撮像画像データとの差時間は、270秒であり、画像データセットにおける撮像画像データ間の差時間に比較して大きく区切りとしての利用が可能であることを示している。 That is, in the data table of the captured image data shown in FIG. 2A, the time difference between the captured image data of the captured image data in each image data set is 30 seconds or less. On the other hand, the time difference between the last captured image data of image data set #1 and the first captured image data of image data set #2 is 270 seconds, and the captured image data in the image data set is 270 seconds. It shows that it can be used as a large break compared to the time difference between them.

これにより、撮像画像データ分類部102は、分類差時間以上離れた差時間となる撮像日時を有する撮像画像データの区切りを検出し、区切りの間にある撮像画像データの各々を画像データセットとして抽出する。
そして、撮像画像データ分類部102は、対象物体毎に設けられた所定の画像データセットとして、区切りにより抽出した撮像画像データを書き込んで記憶させ、画像データセットとして書き込まれた撮像画像データそれぞれを、対象物体の種類毎のグループとする。
As a result, the captured image data classification unit 102 detects the boundaries of the captured image data having imaging dates and times that are different from each other by the classification difference time and extracts each of the captured image data between the boundaries as an image data set. To do.
Then, the captured image data classification unit 102 writes and stores the captured image data extracted by the delimiters as a predetermined image data set provided for each target object, and stores each of the captured image data written as the image data set. There is a group for each type of target object.

撮像終了検出部103は、撮像システム1に備えられた図示しない入力手段により、ユーザが入力する撮像終了を示す情報を検出し、撮像終了信号を画像データ入力部101及び撮像画像データ分類部102に対して出力する。
これにより、撮像画像データ分類部102は、記憶部107における撮像画像データの画像データセットへの分類を開始する。
ここで、撮像終了の検出は、画像表示部300に表示される終了ボタンをユーザが押下したことを検出したり、ユーザが撮像システム1を振って加速度センサにより検出する構成を用いても良い。
The image capturing end detection unit 103 detects information indicating the image capturing end input by the user by an input unit (not shown) provided in the image capturing system 1, and outputs an image capturing end signal to the image data input unit 101 and the captured image data classification unit 102. Output to.
Accordingly, the captured image data classification unit 102 starts classification of the captured image data in the storage unit 107 into image data sets.
Here, the detection of the end of imaging may be detected by detecting that the user has pressed the end button displayed on the image display unit 300, or by shaking the imaging system 1 by the user and detecting it by the acceleration sensor.

画像表示制御部104は、画像表示部300の表示画面に対して、ユーザ制御入力画面を表示する。
ユーザ編集入力部105は、ユーザが上記ユーザ制御入力画面を操作して入力した制御情報に対応した、画像データセット及び撮像画像データに対する処理を行なう。
The image display control unit 104 displays a user control input screen on the display screen of the image display unit 300.
The user edit input unit 105 performs processing on the image data set and the captured image data corresponding to the control information input by the user operating the user control input screen.

図3は、画像表示制御部104が画像表示部300の表示画面に表示するユーザ制御入力画面の一例を示す図である。
図3(a)は、記憶部107に記憶されているデータセットの一覧を示すデータセットテーブルの画像を示している。
このデータセットテーブルは、レコード毎に、対象物体に対応した画像データセットのデータセット番号、データセット名、画像読み出し、復元実行及び削除の各々の欄が設けられている。
FIG. 3 is a diagram showing an example of a user control input screen displayed on the display screen of the image display unit 300 by the image display control unit 104.
FIG. 3A shows an image of a data set table showing a list of data sets stored in the storage unit 107.
This data set table has columns for each record, that is, the data set number of the image data set corresponding to the target object, the data set name, image reading, restoration execution, and deletion.

ここで、データセット番号は、例えば、撮像された順番によりシリアルに付与された番号である。データセット名は、例えば、撮像した対象物体が識別できる名称である。
一方、画像読み出し、復元実行及び削除の欄は、ユーザが制御情報を入力する欄である。画像読み出しの欄は、この欄内のアイコン501を、選択することにより、対応する画像データセット内の撮像画像データの一覧が図3(b)に示すように表示される。
この図3(b)は、記憶部107に記憶されているデータセット名「モニュメント#1」の多視点画像の撮像画像データの各々が、サムネイル化されて配列して表示される。
Here, the data set number is, for example, a number serially assigned in the order in which images are taken. The data set name is, for example, a name by which the imaged target object can be identified.
On the other hand, the fields of image reading, restoration execution and deletion are fields in which the user inputs control information. In the image reading column, by selecting the icon 501 in this column, a list of captured image data in the corresponding image data set is displayed as shown in FIG. 3B.
In FIG. 3B, each of the picked-up image data of the multi-viewpoint image of the data set name “Monument #1” stored in the storage unit 107 is thumbnailed and arranged and displayed.

ユーザ編集入力部105は、データセット名「モニュメント#1」と同一のレコードにある画像読み出しのアイコン501が選択されると、この画像データセットの撮像画像データを画像表示部300の表示画面に表示させる制御信号を、画像表示制御部104に対して出力する。
これにより、画像表示制御部104は、記憶部107におけるデータセット名「モニュメント#1」の撮像画像データを順次読み出し、サムネイル化して図3(b)に示すように、画像表示部300の表示画面に表示する。
When the image reading icon 501 in the same record as the data set name “Monument #1” is selected, the user edit input unit 105 displays the captured image data of this image data set on the display screen of the image display unit 300. A control signal to be output is output to the image display control unit 104.
As a result, the image display control unit 104 sequentially reads the captured image data of the data set name “Monument #1” in the storage unit 107, converts it into thumbnails, and displays the display screen of the image display unit 300 as illustrated in FIG. 3B. To display.

また、ユーザ編集入力部105は、データセット名「モニュメント#1」と同一のレコードにある復元実行のアイコン502が選択されると、この画像データセットの撮像画像データを多視点画像として、3次元形状モデルを復元させる制御信号を、復元開始通知部106に対して出力する。
これにより、復元開始通知部106は、データセット名「モニュメント#1」とともに、3次元形状モデルを復元させる制御信号を3次元形状モデル復元装置2に対して出力する。
In addition, when the restoration execution icon 502 in the same record as the data set name “Monument #1” is selected, the user edit input unit 105 sets the captured image data of this image data set as a multi-viewpoint image in three dimensions. A control signal for restoring the shape model is output to the restoration start notification unit 106.
As a result, the restoration start notification unit 106 outputs to the 3D geometric model restoration device 2 a control signal for restoring the 3D geometric model together with the data set name “Monument #1”.

また、ユーザ編集入力部105は、データセット名「モニュメント#1」と同一のレコードにある削除のアイコン503が選択されると、この画像データセットの撮像画像データを削除する。
これにより、ユーザ編集入力部105は、記憶部107におけるデータセット名「モニュメント#1」とともに、この画像データセット内の全ての撮像画像データを削除する。
When the delete icon 503 in the same record as the data set name “Monument #1” is selected, the user edit input unit 105 deletes the captured image data of this image data set.
As a result, the user edit input unit 105 deletes all the captured image data in this image data set together with the data set name “Monument #1” in the storage unit 107.

図4は、本実施形態による撮像画像分類装置100が行なう撮像画像データの分類処理の動作例を示すフローチャートである。撮像画像データの分類に使用するメタデータは、撮像画像データを撮像した撮像日時を用いて説明する。
ステップS101:画像データ入力部101は、ユーザが撮像システム2の撮像部200により撮像した対象物体の撮像画像データを順次入力し、記憶部107に対して書き込んで記憶させる。このとき、ユーザは、複数の対象物体を時系列に連続して撮像を行なっている。このため、記憶部107には、複数の対象物体に対応する撮像画像データの各々がランダムに記憶されている。また、この撮像画像データの各々には、メタデータとしてExifの情報が埋め込まれている。
FIG. 4 is a flowchart showing an operation example of classification processing of captured image data performed by the captured image classification apparatus 100 according to the present embodiment. The metadata used to classify the captured image data will be described using the date and time when the captured image data was captured.
Step S101: The image data input unit 101 sequentially inputs the imaged image data of the target object imaged by the imaging unit 200 of the imaging system 2 by the user, and writes and stores the imaged data in the storage unit 107. At this time, the user continuously images a plurality of target objects in time series. Therefore, the storage unit 107 randomly stores each of the captured image data corresponding to the plurality of target objects. In addition, Exif information is embedded as metadata in each of the captured image data.

ステップS102:撮像終了検出部103は、ユーザが撮像処理を終了する操作を、所定の入力手段に対して行なったか否かの判定を行なう。
このとき、撮像終了検出部103は、ユーザが撮像処理を終了する操作を行った場合、撮像画像データ分類部102に撮像終了信号を出力するとともに、処理をステップS103へ進める。
一方、撮像終了検出部103は、ユーザが撮像処理を終了する操作を行わない場合、処理をステップS101へ進める。
Step S102: The image capturing end detection unit 103 determines whether or not the user has performed an operation to terminate the image capturing process on a predetermined input unit.
At this time, when the user performs an operation to end the image capturing process, the image capturing end detecting unit 103 outputs an image capturing end signal to the captured image data classifying unit 102, and advances the process to step S103.
On the other hand, when the user does not perform the operation of ending the image capturing process, the image capturing end detecting unit 103 advances the process to step S101.

ステップS103:撮像画像データ分類部102は、記憶部107から撮像画像データの各々のメタデータとして撮像日時を、一個ずつ順次読み出す。 Step S103: The captured image data classification unit 102 sequentially reads the captured date and time from the storage unit 107 as metadata of each of the captured image data, one by one.

ステップS104:撮像画像データ分類部102は、読み出した撮像画像データの各々の撮像日時を時系列にソートする。 Step S104: The captured image data classification unit 102 sorts the captured image dates of the read captured image data in time series.

ステップS105:撮像画像データ分類部102は、メタデータの撮像日時を時系列とするソートが、記憶部107における全ての撮像画像データに対して終了したか否かの判定を行なう。
このとき、撮像画像データ分類部102は、記憶部107における全ての撮像画像データの撮像日時のソートが終了した場合、処理をステップS106へ進める。
一方、撮像画像データ分類部102は、記憶部107における全ての撮像画像データの撮像日時のソートが終了していない場合、処理をステップS103へ進める。
Step S105: The captured image data classification unit 102 determines whether or not the sorting of the captured date and time of the metadata in time series is completed for all the captured image data in the storage unit 107.
At this time, the captured image data classification unit 102 advances the process to step S106 when the sorting of the captured date and time of all the captured image data in the storage unit 107 is completed.
On the other hand, the captured image data classification unit 102 advances the processing to step S103 when the sorting of the captured date and time of all the captured image data in the storage unit 107 is not completed.

ステップS106:撮像画像データ分類部102は、撮像日時順にソートされた撮像画像データの撮像日時と、直後の撮像画像データの撮像日時との時間の差である差時間を算出する。ここで、撮像画像データ分類部102は、ソートして配列した全ての隣接した組合せの撮像画像データの撮像日時の差時間を算出する。
そして、撮像画像データ分類部102は、差時間のヒストグラムを作成し、このヒストグラムから上述したように分類差時間を抽出する。
Step S106: The captured image data classification unit 102 calculates a difference time which is a time difference between the captured date and time of the captured image data sorted in the order of captured date and time and the captured date and time of the captured image data immediately after. Here, the captured image data classification unit 102 calculates the time difference between the captured date and time of the captured image data of all adjacent combinations that are sorted and arranged.
Then, the captured image data classification unit 102 creates a histogram of the difference time and extracts the classification difference time from the histogram as described above.

ステップS107:撮像画像データ分類部102は、抽出した分類差時間に基づき、ソーとされた撮像日時を分割し、分割された撮像日時に基づき、記憶部107の撮像画像データを、対象物体毎に画像データセットに分類する。 Step S107: The captured image data classification unit 102 divides the captured image date and time based on the extracted classification difference time, and the captured image data of the storage unit 107 for each target object based on the divided image capture date and time. Classify into image datasets.

また、本実施形態において、メタデータとして撮像画像データの撮像日時を用いたがGPSでも同様に、撮像画像データ分類部102は、位置情報の位置を緯度及び経度の順にソートし、そのときに求められる、撮像画像データ毎の位置情報における緯度経度の座標の差分である距離を抽出する。そして、撮像画像データ分類部102は、この距離に対して上述した差時間と同一の処理を行ない、分類距離を求めて、GPSの位置情報を用いた撮像画像データの分類処理を行なう。また、緯度及び経度からなる2次元空間上に各撮像画像データの位置情報をプロットし、クラスタ分析で分類処理を行なっても良い。 Further, in the present embodiment, the image capture date and time of the captured image data is used as the metadata, but similarly in the GPS, the captured image data classification unit 102 sorts the position of the position information in the order of latitude and longitude, and obtains at that time. The distance that is the difference between the latitude and longitude coordinates in the position information for each captured image data is extracted. Then, the picked-up image data classification unit 102 performs the same process as the above-described time difference for this distance, obtains the classified distance, and performs the classified process of the picked-up image data using the GPS position information. Further, the position information of each captured image data may be plotted on a two-dimensional space composed of latitude and longitude, and the classification processing may be performed by cluster analysis.

また、解像度、絞り値、焦点距離、シャッター速度、ISO感度を分類に用いるメタデータとした場合、撮像画像データ分類部102は、それぞれのメタデータのヒストグラムを作成する。すなわち、撮像画像データ分類部102は、メタデータの種類毎に、メタデータの各数値範囲を横軸とし、この数値範囲に入る撮像画像データの数を縦軸としてヒストグラムを作成する。
そして、撮像画像データ分類部102は、対象物体の数と同一の山ができるメタデータを選択し、このヒストグラムの山のある数値範囲に基づき、撮像画像データの各々を分類する。
When the resolution, aperture value, focal length, shutter speed, and ISO sensitivity are used as the metadata for classification, the captured image data classification unit 102 creates a histogram of each metadata. That is, the captured image data classification unit 102 creates a histogram for each type of metadata with the horizontal axis representing each numerical value range of the metadata and the vertical axis representing the number of captured image data falling within this numerical value range.
Then, the captured image data classification unit 102 selects metadata in which the same number of mountains as the number of target objects is formed, and classifies each of the captured image data based on the numerical range of the mountains in this histogram.

上述したように、本実施形態によれば、Exifのメタデータを用いて、同一の対象物体を撮像した際、このデータセットにおけるメタデータの数値が近いことを利用して、撮像画像データ分類部102によりメタデータの差を求めて、ソート順に配列したメタデータ間での差の小さい撮像画像データをグルーピングすることで、対象物体の3次元形状モデルの復元に用いる多視点画像における撮像画像データを撮像した際、対象物体及び撮像位置を変えつつ撮像した撮像画像データの各々を、それぞれの対象物体に対応させて容易に分類することができる。 As described above, according to the present embodiment, when the same target object is imaged using the Exif metadata, the captured image data classification unit uses the fact that the numerical values of the metadata in this data set are close to each other. By obtaining the difference in metadata by 102 and grouping the captured image data having a small difference between the metadata arranged in the sort order, the captured image data in the multi-viewpoint image used to restore the three-dimensional shape model of the target object can be obtained. When picked up, each of the picked-up image data picked up while changing the target object and the picked-up position can be easily classified corresponding to each target object.

<第2の実施形態>
以下、本発明の第2の実施形態について、図面を参照して説明する。第2の実施形態の撮像画像分類装置は、本発明の第1の実施形態による撮像画像分類装置と同様の構成である。以下、第1の実施形態と異なる動作についてのみ説明する。
撮像画像データ分類部102は、撮像画像データの分類を行なう際、解像度、絞り値、焦点距離、シャッター速度、ISO感度、撮像日時及びGPS情報の各々の2個以上の組合せ、あるいは全ての多次元ベクトルを、撮像画像データ毎に評価ベクトル空間に生成する。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. The captured image classification apparatus according to the second embodiment has the same configuration as the captured image classification apparatus according to the first embodiment of the present invention. Only the operation different from that of the first embodiment will be described below.
When the captured image data classification unit 102 classifies the captured image data, a combination of two or more of each of resolution, aperture value, focal length, shutter speed, ISO sensitivity, image capturing date and GPS information, or all multidimensional. A vector is generated in the evaluation vector space for each captured image data.

そして、撮像画像データ分類部102は、撮像画像データの各々の多次元ベクトルと、異なる撮像画像データの多次元ベクトルとの類似度を算出する。類似度の算出方法としては、ユークリッド距離といった距離に基づくもの、あるいはコサイン類似度といったベクトルの内積に基づくものが適宜使用できる。以下、本実施形態においては、コサイン類似度を用いた場合で説明する。
このとき、撮像画像データ分類部102は、上述したコサイン類似度が予め設定された類似度閾値以上である多次元ベクトルを有する撮像画像データを、同一の画像データセットとして分類する。
Then, the captured image data classification unit 102 calculates the degree of similarity between each multidimensional vector of the captured image data and the multidimensional vector of different captured image data. As a method of calculating the similarity, a method based on a distance such as Euclidean distance or a method based on an inner product of vectors such as cosine similarity can be appropriately used. Hereinafter, in the present embodiment, a case of using the cosine similarity will be described.
At this time, the captured image data classification unit 102 classifies captured image data having a multidimensional vector whose cosine similarity is equal to or higher than a preset similarity threshold as the same image data set.

図5は、本実施形態による撮像画像分類装置100が行なう撮像画像データの分類処理の動作例を示すフローチャートである。撮像画像データの分類に使用するメタデータは、撮像画像データに付与されているExifのメタデータ全てとして説明する。
また、ステップS101からステップS102は、第1の実施形態と同様のため、説明を省略する。
FIG. 5 is a flowchart showing an operation example of classification processing of captured image data performed by the captured image classification apparatus 100 according to the present embodiment. The metadata used to classify the captured image data will be described as all the Exif metadata added to the captured image data.
Further, since steps S101 to S102 are the same as those in the first embodiment, the description thereof will be omitted.

ステップS203:撮像画像データ分類部102は、記憶部107から順次、撮像画像データに埋め込まれているExifの情報(解像度、絞り値、焦点距離、シャッター速度、ISO感度、撮像日時及びGPS情報)を読み出す。 Step S203: The captured image data classification unit 102 sequentially obtains the Exif information (resolution, aperture value, focal length, shutter speed, ISO sensitivity, image capture date and GPS information) embedded in the captured image data from the storage unit 107. read out.

ステップS204:撮像画像データ分類部102は、解像度、絞り値、焦点距離、シャッター速度、ISO感度、撮像日時及びGPS情報の数値から多次元ベクトルを、撮像画像データ毎に生成する。 Step S204: The captured image data classification unit 102 generates a multidimensional vector for each captured image data from the numerical values of the resolution, aperture value, focal length, shutter speed, ISO sensitivity, image capturing date and GPS information.

ステップS205:撮像画像データ分類部102は、記憶部107における全ての撮像画像データからのExifの情報の読み出しと、読み出したExifの情報の多次元ベクトルの生成とが終了したか否かの判定を行なう。
このとき、撮像画像データ分類部102は、記憶部107における全ての撮像画像データのExifの情報の読み出しと、読み出したExifの情報の多次元ベクトルの生成とが終了した場合、処理をステップS206へ進める。
一方、撮像画像データ分類部102は、記憶部107における全ての撮像画像データのExifの情報の読み出しと、読み出したExifの情報の多次元ベクトルの生成とが終了していない場合、処理をステップS203へ進める。
Step S205: The captured image data classification unit 102 determines whether or not the reading of the Exif information from all the captured image data in the storage unit 107 and the generation of the multidimensional vector of the read Exif information are completed. To do.
At this time, when the captured image data classification unit 102 finishes reading the Exif information of all the captured image data in the storage unit 107 and generating the multidimensional vector of the read Exif information, the process proceeds to step S206. Proceed.
On the other hand, if the reading of the Exif information of all the captured image data in the storage unit 107 and the generation of the multidimensional vector of the read Exif information have not been completed, the captured image data classification unit 102 performs processing in step S203. Proceed to.

ステップS206:撮像画像データ分類部102は、撮像画像データの各々のペアを、全ての撮像画像データが漏れなく組み合わせとなるように生成する。
そして、撮像画像データ分類部102は、組合せの全てのペア同士において、撮像画像データのExifの情報の多次元ベクトル間のコサイン類似度を算出する。
Step S206: The picked-up image data classification unit 102 generates each pair of picked-up image data such that all picked-up image data are combined without omission.
Then, the captured image data classification unit 102 calculates the cosine similarity between the multidimensional vectors of the Exif information of the captured image data for all pairs of combinations.

ステップS207:撮像画像データ分類部102は、上述したコサイン類似度が予め設定された類似度閾値以上である多次元ベクトルの組合せの撮像画像データそれぞれを、同一の画像データセットとして分類する。
そして、撮像画像データ分類部102は、例えば、記憶部107において、分類した撮像画像データの各々を、それぞれ分類毎のデータセットとして書き込んで記憶させる。
Step S207: The captured image data classification unit 102 classifies each captured image data of a combination of multidimensional vectors whose cosine similarity is equal to or higher than a preset similarity threshold as the same image data set.
Then, the captured image data classification unit 102 writes and stores each of the classified captured image data as a data set for each classification in the storage unit 107, for example.

上述したように、本実施形態によれば、Exifのメタデータを用いて、同一の対象物体を撮像した際、このデータセットにおけるメタデータの数値が近いことを利用して、撮像画像データ分類部102において、撮像画像データのメタデータの多次元ベクトルを算出し、撮像画像データのペアを記憶部107の全て撮像画像データが組み合わさるように作成し、このペア毎にコサイン類似度を求めて、予め設定した類似度閾値以上である組合せの多次元ベクトルの撮像画像データを同一の撮像対象を撮像したデータセットとしてグルーピングすることで、対象物体の3次元形状モデルの復元に用いる多視点画像における撮像画像データを撮像した際、対象物体及び撮像位置を変えつつ撮像した撮像画像データの各々を、それぞれの対象物体に対応させて容易に分類することができる。 As described above, according to the present embodiment, when the same target object is imaged using the Exif metadata, the captured image data classification unit uses the fact that the numerical values of the metadata in this data set are close to each other. In 102, a multidimensional vector of the metadata of the captured image data is calculated, a pair of captured image data is created so that all the captured image data in the storage unit 107 are combined, and a cosine similarity is obtained for each pair, Imaging in a multi-viewpoint image used for reconstruction of a three-dimensional shape model of a target object by grouping captured image data of multidimensional vectors of combinations that are equal to or greater than a preset similarity threshold value as a data set of the same imaging target. When the image data is captured, each of the captured image data captured while changing the target object and the capturing position can be easily classified corresponding to each target object.

<第3の実施形態>
以下、本発明の第3の実施形態について、図面を参照して説明する。図6は、本発明の第3の実施形態による撮像画像分類装置を備えた撮像システムの構成例を示すブロック図である。撮像画像分類装置100Aは、3次元形状モデルを復元するために用いる多視点画像として、複数の対象物体の各々を異なる撮像位置で撮像した撮像画像データそれぞれを、対象物体毎に対応させて分類する装置である。
<Third Embodiment>
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. FIG. 6 is a block diagram showing a configuration example of an image pickup system including a picked-up image classification device according to the third embodiment of the present invention. The captured image classification apparatus 100A classifies, as a multi-viewpoint image used to restore a three-dimensional shape model, captured image data obtained by capturing a plurality of target objects at different image capturing positions in association with each target object. It is a device.

図6において、撮像システム1Aは、撮像画像分類装置100A、撮像部200及び画像表示部300各々を備えている。撮像システム1Aは、第1の実施形態と同様に、スマートフォンなどであり、撮像画像分類装置100Aの機能のアプリケーションをインストールして、後述する多視点画像の撮像を支援している。また、本実施形態においては、第1の実施形態と同様に、多視点画像の撮像画像データとして、静止画の撮像を支援する構成を説明するが、動画でも処理自体は同様である。第1の実施形態と同様な構成については同一の符号を付してある。 In FIG. 6, the imaging system 1A includes a captured image classification device 100A, an imaging unit 200, and an image display unit 300. The imaging system 1A is, for example, a smartphone as in the first embodiment, installs an application having the function of the captured image classification apparatus 100A, and supports the capturing of multi-view images described below. Further, in the present embodiment, as in the first embodiment, a configuration that supports capturing of a still image as captured image data of a multi-viewpoint image will be described, but the processing itself is the same for a moving image. The same components as those in the first embodiment are designated by the same reference numerals.

撮像画像データ分類部102Aは、入力される際に撮像画像データに付与されるセット識別情報により、対象物体毎のデータセットに対して、撮像画像データの各々を分類する。
撮像開始検出部108は、撮像システム1Aに備えられた図示しない入力手段(後述)により、ユーザが入力する撮像開始を示す情報を検出し、撮像開始信号を画像データ入力部101及び識別情報付与部109に対して出力する。
撮像終了検出部103は、撮像システム1に備えられた図示しない入力手段により、ユーザが入力する撮像終了を示す情報を検出し、撮像終了信号を画像データ入力部101、撮像画像データ分類部102A及び識別情報付与部109に対して出力する。
The captured image data classification unit 102A classifies each of the captured image data into the data set for each target object based on the set identification information added to the captured image data when input.
The image capturing start detecting unit 108 detects information indicating the image capturing start input by the user by an input unit (not shown) provided in the image capturing system 1A, and outputs an image capturing start signal to the image data input unit 101 and the identification information adding unit. It outputs to 109.
The image capturing end detecting unit 103 detects information indicating the image capturing end input by the user by an input unit (not shown) included in the image capturing system 1, and outputs an image capturing end signal to the image data input unit 101, the captured image data classifying unit 102A, and It is output to the identification information addition unit 109.

図7は、撮像画像分類装置100Aの撮像及び分類処理におけるGUIを説明する図である。
図7(a)は、Start(撮像開始)ボタン550(撮像画像データの撮像を開始する入力を行う入力手段)を押下することで、画像表示部300の表示画面300Aに表示されている対象物体の画像800の撮像画像データの撮像が開始されることを示す図である。すなわち、Startボタン550が押下された場合、撮像開始検出部108は、撮像開始を検出し、撮像開始信号を画像データ入力部101及び識別情報付与部109に対して出力する。
FIG. 7 is a diagram illustrating a GUI in the image capturing and classifying process of the captured image classifying apparatus 100A.
FIG. 7A shows a target object displayed on the display screen 300A of the image display unit 300 by pressing the Start (imaging start) button 550 (input means for inputting to start imaging of captured image data). FIG. 8 is a diagram showing that image pickup of imaged image data of image 800 of FIG. That is, when the Start button 550 is pressed, the imaging start detection unit 108 detects the imaging start and outputs an imaging start signal to the image data input unit 101 and the identification information addition unit 109.

図7(b)は、Startボタン550が押下されることにより、このStartボタン550の位置にFinish(撮像終了)ボタン552が新たに表示されることを示している。また、撮像ボタン551を押下することにより、表示画面300Aに表示されている対象物体の画像(プレビュー画像)800が撮像画像データとして撮像されることを示している。すなわち、撮像ボタン551が押下された場合、撮像部200が表示画面300Aに表示されている対象物体を撮像し、画像データ入力部101に対して供給する。 FIG. 7B shows that when the Start button 550 is pressed, a Finish (imaging end) button 552 is newly displayed at the position of the Start button 550. Also, it is indicated that by pressing the image capture button 551, an image (preview image) 800 of the target object displayed on the display screen 300A is captured as captured image data. That is, when the image capturing button 551 is pressed, the image capturing unit 200 captures an image of the target object displayed on the display screen 300A and supplies it to the image data input unit 101.

また、Previewボタン553が押下された場合、画像表示制御部104が図3で説明したように、ユーザ制御入力画面を表示画面300Aに表示する、あるいは、撮像が開始されてから撮像された対象物体の撮像画像データのサムネイル画像を表示画面300Aに表示する。
また、図7(b)に示すように、画像表示制御部104は、撮像が開始されてから撮像された撮像画像データの数を、撮像数を示す文字列画像554として、表示画面300Aに表示する。
Further, when the Preview button 553 is pressed, the image display control unit 104 displays the user control input screen on the display screen 300A as described in FIG. 3, or the target object imaged after the imaging is started. A thumbnail image of the captured image data of is displayed on the display screen 300A.
Further, as illustrated in FIG. 7B, the image display control unit 104 displays the number of captured image data captured since the start of image capturing on the display screen 300A as a character string image 554 indicating the number of captured images. To do.

図7(c)は、Finishボタン552(撮像画像データの撮像を終了する入力を行う入力手段)を押下することで、画像表示部300の表示画面300Aに表示されている対象物体の画像800の撮像画像データの撮像が終了されることを示す図である。すなわち、Finishボタン552が押下された場合、撮像終了検出部103は、撮像終了を検出し、撮像終了信号を画像データ入力部101及び識別情報付与部109に対して出力する。 In FIG. 7C, the image 800 of the target object displayed on the display screen 300A of the image display unit 300 is displayed by pressing the Finish button 552 (input means for inputting to finish capturing the captured image data). It is a figure which shows that imaging of captured image data is complete|finished. That is, when the Finish button 552 is pressed, the image capturing end detection unit 103 detects the image capturing end and outputs an image capturing end signal to the image data input unit 101 and the identification information addition unit 109.

識別情報付与部109は、撮像開始検出部108から撮像開始信号が供給された場合、撮像終了検出部103から撮像終了信号が供給されるまで、画像データ入力部101から供給される撮像画像データに対して同一の識別情報を付与する。ここで、識別情報付与部109は、乱数発生器から生成された乱数、データセットの順番を示すシリアル番号、Startボタン550が押下された日時、撮像開始信号が供給されてから最初に入力される撮像画像データのExifにおける撮像日時などのデータを上記識別情報として用いる。
そして、識別情報付与部109は、識別情報を付与した撮像画像データを、記憶部107に対して順次書き込んで記憶させる。
When the image capture start signal is supplied from the image capture start detection unit 108, the identification information addition unit 109 adds the captured image data supplied from the image data input unit 101 until the image capture end signal is supplied from the image capture end detection unit 103. The same identification information is given to them. Here, the identification information assigning unit 109 is first input after the random number generated by the random number generator, the serial number indicating the order of the data set, the date and time when the Start button 550 is pressed, and the imaging start signal are supplied. Data such as the shooting date and time in the Exif of the captured image data is used as the identification information.
Then, the identification information addition unit 109 sequentially writes the captured image data to which the identification information has been added to the storage unit 107 and stores the same.

撮像画像データ分類部102Aは、記憶部107に記憶されている撮像画像データを読み出す際、撮像物体のデータセットとして同一の識別情報が付与されている撮像画像データを抽出して、データセット単位で読み出す。
また、撮像画像データ分類部102Aは、記憶部107を参照して、同一の識別情報が付与されている撮像画像データの各々を画像データセットとして、対象物体毎の種類に分類する構成としても良い。
When reading the picked-up image data stored in the storage unit 107, the picked-up image data classification unit 102A extracts picked-up image data to which the same identification information is added as the data set of the picked-up object, and the data set unit read out.
Further, the captured image data classification unit 102A may be configured to refer to the storage unit 107 and classify each of the captured image data to which the same identification information is added as an image data set into a type for each target object. ..

また、識別情報付与部109は、撮像開始検出部108から撮像開始信号が供給された場合、画像データセットのフォルダを生成する構成としても良い。
このとき、撮像画像データ分類部102Aは、撮像開始検出部108から撮像開始信号が供給された場合、撮像終了検出部103から撮像終了信号が供給されるまで、識別情報付与部109が生成したフォルダに対し、画像データ入力部101から供給される撮像画像データを画像データセットとして入力して分類処理を行う。
The identification information addition unit 109 may be configured to generate a folder of image data sets when the imaging start signal is supplied from the imaging start detection unit 108.
At this time, when the image capture start signal is supplied from the image capture start detection unit 108, the captured image data classification unit 102A creates a folder generated by the identification information addition unit 109 until the image capture end signal is supplied from the image capture end detection unit 103. On the other hand, the captured image data supplied from the image data input unit 101 is input as an image data set to perform classification processing.

図8は、本実施形態による撮像画像分類装置100Aが行なう撮像画像データの分類処理の動作例を示すフローチャートである。撮像画像データの分類に使用する識別情報として乱数を用いることで説明する。撮像画像データの分類のアプリケーションが起動された場合、撮像画像分類装置100Aが以下の分類処理を行う。 FIG. 8 is a flowchart showing an operation example of classification processing of captured image data performed by the captured image classification apparatus 100A according to the present embodiment. A description will be given using a random number as identification information used for classification of captured image data. When the application for classifying the captured image data is activated, the captured image classification device 100A performs the following classification processing.

ステップS301:撮像開始検出部108は、Startボタン550が押下されたか否か、すなわち撮像を開始する入力が行われたか否かの判定を行う。このとき、撮像開始検出部108は、Startボタン550が押下された場合、処理をステップS302へ進める。ここで、撮像開始検出部108は、撮像開始信号を画像データ入力部101及び識別情報付与部109に対して出力する。
一方、撮像開始検出部108は、Startボタン550が押下されない場合、ステップS301の処理を繰り返す。
Step S301: The imaging start detection unit 108 determines whether or not the Start button 550 has been pressed, that is, whether or not an input for starting imaging has been made. At this time, if the Start button 550 is pressed, the imaging start detection unit 108 advances the process to step S302. Here, the imaging start detection unit 108 outputs an imaging start signal to the image data input unit 101 and the identification information addition unit 109.
On the other hand, when the Start button 550 is not pressed, the imaging start detection unit 108 repeats the process of step S301.

ステップS302:識別情報付与部109は、内部に備える乱数発生器により乱数を発生させ、この乱数を撮像画像データに付与する識別情報とする。 Step S302: The identification information adding unit 109 generates a random number by the random number generator provided therein, and uses this random number as the identification information to be added to the captured image data.

ステップS303:画像データ入力部101は、撮像部200から供給される撮像画像データを識別情報付与部109に対して出力する。
これにより、識別情報付与部109は、画像データ入力部101から供給される撮像画像データに対し、生成した識別情報を付与し、記憶部107に対して書き込んで記憶させる。
Step S303: The image data input unit 101 outputs the captured image data supplied from the image capturing unit 200 to the identification information adding unit 109.
As a result, the identification information adding unit 109 adds the generated identification information to the captured image data supplied from the image data input unit 101, and writes and stores the identification information in the storage unit 107.

ステップS304:撮像終了検出部103は、Finishボタン552が押下されたか否か、すなわち撮像を終了する入力が行われたか否かの判定を行う。このとき、撮像終了検出部103は、Finishボタン552が押下された場合、処理をステップS305へ進める。ここで、撮像終了検出部103は、撮像終了信号を画像データ入力部101及び識別情報付与部109に対して出力する。
一方、撮像終了検出部103は、Finishボタン552が押下されない場合、処理をステップS303へ進める。
Step S304: The image capturing end detection unit 103 determines whether or not the Finish button 552 has been pressed, that is, whether or not an input for ending the image capturing has been performed. At this time, when the Finish button 552 is pressed, the imaging end detection unit 103 advances the process to step S305. Here, the imaging end detection unit 103 outputs an imaging end signal to the image data input unit 101 and the identification information addition unit 109.
On the other hand, if the Finish button 552 is not pressed, the imaging end detection unit 103 advances the process to step S303.

また、図8の破線で囲まれた以下のステップS305及びステップS306の各々は、本実施形態に必須の処理ではないが、撮像画像データの画像データセットへの分類が終了した後、画像データセットにおいて3次元形状モデルの復元に使用できないと予測される撮像画像データを除去する仕訳処理として、任意に付け加えることが可能な処理である。
このステップS305及びステップS306の各々を付け加えることにより、3次元形状モデルの復元を行なう際に、人手による仕分けを行なう手間を省くことができる。
Further, each of the following steps S305 and S306 surrounded by a broken line in FIG. 8 is not an essential process in the present embodiment, but after the classification of the captured image data into the image data set is completed, the image data set This is a process that can be arbitrarily added as a journalizing process for removing the captured image data that is predicted to be unusable for the restoration of the three-dimensional shape model.
By adding each of step S305 and step S306, it is possible to save the labor of manual sorting when restoring the three-dimensional shape model.

ステップS305:撮像画像データ分類部102Aは、同一の識別情報が付与されている撮像画像データの各々のExifにおけるメタデータの多次元ベクトルを算出する。
そして、撮像画像データ分類部102Aは、同一の識別情報が付与されている撮像画像データの各々の2個の組み合わせを生成する(第1の実施形態と同様に、全ての撮像画像データが組み合わせとなるようにペアを生成する)。
撮像画像データ分類部102Aは、それぞれの組み合わせのコサイン類似度を算出する。
Step S305: The captured image data classification unit 102A calculates a multidimensional vector of metadata in each Exif of the captured image data to which the same identification information is added.
Then, the captured image data classification unit 102A generates two combinations of each of the captured image data to which the same identification information is added (similar to the first embodiment, all the captured image data are combined. To generate a pair).
The captured image data classification unit 102A calculates the cosine similarity of each combination.

ステップS306:撮像画像データ分類部102Aは、算出したコサイン類似度の各々が予め設定した類似度閾値以上か否かの判定を行う。
そして、撮像画像データ分類部102Aは、コサイン類似度が類似度閾値未満の組み合わせとなる撮像画像データを抽出して、この撮像画像データを記憶部107から削除する、あるいは識別情報を変更するなどの処理を行い、データセットから3次元形状モデルの復元に利用できないと予想される撮像画像データを排除する仕分け処理を行う。
Step S306: The captured image data classification unit 102A determines whether or not each of the calculated cosine similarities is equal to or greater than a preset similarity threshold.
Then, the captured image data classification unit 102A extracts captured image data that is a combination whose cosine similarity is less than the similarity threshold value, deletes this captured image data from the storage unit 107, or changes identification information. Processing is performed, and sorting processing is performed to exclude captured image data that is expected to be unusable for restoration of the three-dimensional geometric model from the data set.

上述したように、本実施形態によれば、対象物体毎に、撮像画像データの撮像を開始した際、識別情報付与部109が対象物体に対応するデータセットとする撮像画像データに付与する識別情報を生成し、個々の対象物体の撮像開始から撮像終了まで、同一の識別情報を撮像画像データに付与するため、記憶部107にランダムに撮像画像データを記憶させても、この識別情報を用いて対象物体の各々のデータセットの撮像画像データそれぞれを容易に抽出でき、対象物体及び撮像位置を変えつつ撮像した3次元形状モデルの復元に用いる多視点画像における撮像画像データの各々を、ユーザが分類の手間をかけずに物体それぞれ対応させて容易に分類することができる。 As described above, according to the present embodiment, when the imaging of the captured image data is started for each target object, the identification information assigning unit 109 assigns the identification information to the captured image data as a data set corresponding to the target object. Is generated, and the same identification information is added to the captured image data from the start of image capturing of each target object to the end of image capturing, even if the storage unit 107 randomly stores the captured image data, this identification information is used. The user can easily extract each of the captured image data of each data set of the target object, and the user can classify each of the captured image data in the multi-view image used to restore the three-dimensional shape model captured while changing the target object and the imaging position. It is possible to easily classify the objects by associating them with each other without taking the trouble of.

また、本実施形態によれば、同一の対象物体を撮像した撮像画像データから、Exifのメタデータを用いて、3次元形状モデルを復元する際に利用可能な撮像画像データのみとなるよう仕分け処理が行なうため、容易に高い精度で3次元形状モデルを復元するできる撮像画像データのデータセットを得ることが可能となる。 Further, according to the present embodiment, the sorting processing is performed so that only the captured image data that can be used when the three-dimensional shape model is restored from the captured image data obtained by capturing the same target object using the Exif metadata. Therefore, it is possible to easily obtain a data set of captured image data capable of reconstructing a three-dimensional geometric model with high accuracy.

また、本実施形態においては、撮像システムの一例としてスマートフォンに、撮像画像分類装置100あるいは100Aの各々の機能を、例えばアプリケーションとしてそれぞれインストールして、3次元形状モデルの復元に用いる対象物体の多視点画像における撮像画像データの分類を行なう構成として説明した。
しかしながら、撮像システムを、例えば、デジタルカメラ(クライアント)と撮像画像分類装置(サーバ)とを備えるサーバクライアントシステムとして構築しても良い。この場合、サーバには、撮像画像データ分類部102または102Aの計算負荷が大きくなる処理を行なう構成を持たせる。その他の画像データ入力部101、撮像終了検出部103、ユーザ編集入力部105及び復元開始通知部106などは、アプリケーションとして、デジタルカメラにインストールしておく。
Further, in the present embodiment, as an example of an imaging system, the functions of each of the captured image classification apparatus 100 or 100A are installed as, for example, an application in a smartphone, and multi-viewpoints of a target object used for restoration of a three-dimensional shape model are used. It has been described as the configuration for classifying the captured image data in the image.
However, the imaging system may be constructed as, for example, a server client system including a digital camera (client) and a captured image classification device (server). In this case, the server is configured to perform a process that increases the calculation load of the captured image data classification unit 102 or 102A. The other image data input unit 101, the imaging end detection unit 103, the user edit input unit 105, the restoration start notification unit 106, and the like are installed in the digital camera as applications.

なお、本発明における図1の撮像画像分類装置100、図6の撮像画像分類装置100Aの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませて実行することにより、3次元画像形状モデルを復元するための撮像画像データを分類する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWW(World Wide Web)システムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM(Compact Disc - Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM(Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。 Note that a program for realizing the functions of the captured image classification apparatus 100 of FIG. 1 and the captured image classification apparatus 100A of FIG. 6 according to the present invention is recorded in a computer-readable recording medium, and the program recorded in this recording medium is recorded. May be loaded into a computer system and executed to perform a process of classifying the captured image data for restoring the three-dimensional image shape model. The “computer system” mentioned here includes an OS (Operating System) and hardware such as peripheral devices. Further, the "computer system" also includes a WWW (World Wide Web) system having a homepage providing environment (or display environment). The “computer-readable recording medium” is a portable medium such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), and a CD-ROM (Compact Disc-Read Only Memory), and is incorporated in a computer system. A storage device such as a hard disk. Further, the "computer-readable recording medium" means a volatile memory (RAM (Random Access) in a computer system which is a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Memory)), such as holding a program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the program may be transmitted from a computer system that stores the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be a program for realizing a part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The embodiment of the present invention has been described in detail above with reference to the drawings, but the specific configuration is not limited to this embodiment, and includes design changes and the like without departing from the scope of the present invention.

1…撮像システム
2…3次元形状モデル復元装置
100,100A…撮像画像分類装置
101…画像データ入力部
102,102A…撮像画像データ分類部
103…撮像終了検出部
104…画像表示制御部
105…ユーザ編集入力部
106…復元開始通知部
107…記憶部
108…撮像開始検出部
109…識別情報付与部
200…撮像部
300…画像表示部
DESCRIPTION OF SYMBOLS 1... Imaging system 2... Three-dimensional geometric model restoration device 100, 100A... Captured image classification device 101... Image data input part 102, 102A... Captured image data classification part 103... Imaging end detection part 104... Image display control part 105... User Edit input unit 106... Restoration start notification unit 107... Storage unit 108... Imaging start detection unit 109... Identification information addition unit 200... Imaging unit 300... Image display unit

Claims (9)

対象物体の各々の3次元形状モデルの復元に用いる多視点画像を、前記対象物体それぞれに対応させて分類する撮像画像分類装置であり、
撮像画像データに付加されている、当該撮像画像データを撮像した際の撮影条件に関するメタデータに対応して、前記撮像画像データの各々を、前記対象物体のそれぞれを撮像した画像データセットに分類する撮像画像データ分類部
を備えることを特徴とする撮像画像分類装置。
A captured image classification device for classifying a multi-viewpoint image used for reconstruction of each three-dimensional shape model of a target object in association with each of the target objects.
Each of the captured image data is classified into an image data set in which each of the target objects is captured, corresponding to the metadata added to the captured image data and related to the shooting condition when the captured image data was captured. A captured image classification apparatus comprising: a captured image data classification unit.
前記メタデータが、解像度、絞り値、焦点距離、シャッター速度、ISO(国際標準化機構)感度、撮像日時及びGPS(Global Positioning System)情報の各々であり、
前記撮像画像データ分類部が、少なくとも前記メタデータのいずれかにより、前記撮像画像データの各々の分類を行なう
ことを特徴とする請求項1に記載の撮像画像分類装置。
The metadata is each of resolution, aperture value, focal length, shutter speed, ISO (International Organization for Standardization) sensitivity, imaging date and time, and GPS (Global Positioning System) information,
The captured image classification apparatus according to claim 1, wherein the captured image data classification unit classifies each of the captured image data according to at least one of the metadata.
前記メタデータのいずれかを用いて分類を行なう場合、
前記撮像画像データ分類部が、前記メタデータの数値に対応して前記撮像画像データの各々をソートし、それぞれの前記撮像画像データの間におけるパラメータの数値の距離が所定の離間距離を超える部分で、前記対象物体に対応して前記撮像画像データそれぞれを分類する
ことを特徴とする請求項2に記載の撮像画像分類装置。
When performing classification using any of the above metadata,
The captured image data classification unit sorts each of the captured image data in accordance with the numerical value of the metadata, and in a portion where the numerical distance of the parameter between the respective captured image data exceeds a predetermined separation distance. The captured image classification apparatus according to claim 2, wherein each of the captured image data is classified according to the target object.
前記メタデータが、解像度、絞り値、焦点距離、シャッター速度、ISO(国際標準化機構)感度、撮像日時及びGPS(Global Positioning System)情報の各々であり、
前記撮像画像データ分類部が、
前記メタデータにおける複数のパラメータにより、前記撮像画像データ毎に多次元ベクトルを生成し、前記撮像画像データの各々を多次元ベクトル間の類似度により分類する
ことを特徴とする請求項1に記載の撮像画像分類装置。
The metadata is each of resolution, aperture value, focal length, shutter speed, ISO (International Organization for Standardization) sensitivity, imaging date and time, and GPS (Global Positioning System) information,
The captured image data classification unit,
The multi-dimensional vector is generated for each of the captured image data using a plurality of parameters in the metadata, and each of the captured image data is classified according to the similarity between the multi-dimensional vectors. Captured image classification device.
対象物体の各々の3次元形状モデルの復元に用いる多視点画像を、前記対象物体それぞれに対応させて分類する撮像画像分類装置であり、
前記対象物体の各々を撮像した撮像画像データのそれぞれに、当該対象物体を識別する識別情報を付与する識別情報付与部と、
前記撮像画像データの各々に付与されている前記識別情報に対応して、前記撮像画像データの各々を、前記対象物体のそれぞれを撮像した画像データセットに分類する撮像画像データ分類部と
を備えることを特徴とする撮像画像分類装置。
A captured image classification device for classifying a multi-viewpoint image used for reconstruction of each three-dimensional shape model of a target object in association with each of the target objects.
An identification information assigning unit that assigns identification information for identifying the target object to each of the captured image data obtained by capturing each of the target objects,
A captured image data classification unit that classifies each of the captured image data into an image data set in which each of the target objects is captured, corresponding to the identification information given to each of the captured image data. A picked-up image classifying device.
前記対象物体の撮像が開始された時点を検出する撮像開始検出部をさらに備え、
前記識別情報付与部が、前記撮像開始検出部が撮像が開始された時点を検出した場合、前記撮像画像データの各々に同一の前記識別情報を付与する
ことを特徴とする請求項5に記載の撮像画像分類装置。
Further comprising an imaging start detection unit that detects a time point when the imaging of the target object is started,
The identification information providing unit attaches the same identification information to each of the captured image data when the imaging start detection unit detects a time point when the imaging is started. Captured image classification device.
前記対象物体の撮像が終了した時点を検出する撮像終了検出部をさらに備える
ことを特徴とする請求項1から請求項6のいずれか一項に記載の撮像画像分類装置。
The captured image classification apparatus according to any one of claims 1 to 6, further comprising an imaging end detection unit that detects a time point when the imaging of the target object is completed.
対象物体の各々の3次元形状モデルの復元に用いる多視点画像を、前記対象物体それぞれに対応させて分類する撮像画像分類方法であり、
撮像画像データ分類部が、撮像画像データに付加されている、当該撮像画像データを撮像した際の撮影条件に関するメタデータに対応して、前記撮像画像データの各々を、前記対象物体のそれぞれを撮像した画像データセットに分類する過程
含むことを特徴とする撮像画像分類方法。
A captured image classification method for classifying a multi-viewpoint image used for reconstruction of each three-dimensional shape model of a target object in association with each of the target objects,
The captured image data classification unit captures each of the captured image data and each of the target objects corresponding to the metadata added to the captured image data and related to the capturing conditions when capturing the captured image data. A method for classifying a captured image, characterized by including a process of classifying the image data set.
対象物体の各々の3次元形状モデルの復元に用いる多視点画像を、前記対象物体それぞれに対応させて分類する撮像画像分類方法であり、
識別情報付与部が、前記対象物体の各々を撮像した撮像画像データのそれぞれに、当該対象物体を識別する識別情報を付与する識別情報付与過程と、
撮像画像データ分類部が、前記撮像画像データの各々に付与されている前記識別情報に対応して、前記撮像画像データの各々を、前記対象物体のそれぞれを撮像した画像データセットに分類する撮像画像データ分類過程と
を含むことを特徴とする撮像画像分類方法。
A captured image classification method for classifying a multi-viewpoint image used for reconstruction of each three-dimensional shape model of a target object in association with each of the target objects,
An identification information providing unit, an identification information providing process of providing identification information for identifying the target object to each of the captured image data obtained by capturing each of the target objects,
A captured image in which the captured image data classification unit classifies each of the captured image data into an image data set of each of the target objects corresponding to the identification information given to each of the captured image data. A method for classifying a captured image, comprising: a data classification process.
JP2018229082A 2018-12-06 2018-12-06 Photographed image classification device and photographed image classification method Pending JP2020091718A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018229082A JP2020091718A (en) 2018-12-06 2018-12-06 Photographed image classification device and photographed image classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018229082A JP2020091718A (en) 2018-12-06 2018-12-06 Photographed image classification device and photographed image classification method

Publications (1)

Publication Number Publication Date
JP2020091718A true JP2020091718A (en) 2020-06-11

Family

ID=71012907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018229082A Pending JP2020091718A (en) 2018-12-06 2018-12-06 Photographed image classification device and photographed image classification method

Country Status (1)

Country Link
JP (1) JP2020091718A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111858992A (en) * 2020-07-04 2020-10-30 广东粤源工程咨询有限公司 Water conservancy project photo management method and system based on GPS and label information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111858992A (en) * 2020-07-04 2020-10-30 广东粤源工程咨询有限公司 Water conservancy project photo management method and system based on GPS and label information
CN111858992B (en) * 2020-07-04 2023-10-20 广东粤源工程咨询有限公司 Hydraulic engineering photo management method and system based on GPS and tag information

Similar Documents

Publication Publication Date Title
TWI338265B (en) System, apparatus, method and program for processing image
JP6723748B2 (en) Image management apparatus, image management method and program
CN111401205B (en) Action recognition method and device, electronic equipment and computer readable storage medium
JP5735330B2 (en) Image processing apparatus and image processing method
WO2016127478A1 (en) Image processing method and device, and terminal
US20070065044A1 (en) Method, medium, and system with a combinational photograph thumbnail
US20200202158A1 (en) Methods and systems for detecting and analyzing a region of interest from multiple points of view
CN110781911B (en) Image matching method, device, equipment and storage medium
JP4457988B2 (en) Image management apparatus, image management method, and computer program
JP2016521892A (en) Interactive and automatic 3D object scanning method for database creation
US11263477B2 (en) Method of auto-generation of multidepth image by interconnecting images into tree structure
CN111046235A (en) Method, system, equipment and medium for searching acoustic image archive based on face recognition
KR101812103B1 (en) Method and program for setting thumbnail image
JP4327827B2 (en) Video recording / reproducing system and video recording / reproducing method
TWI556640B (en) Media file management method and system, and computer-readable medium
JP2006276948A (en) Image processing device, image processing method, image processing program, and recording medium storing image processing program
JP6203188B2 (en) Similar image search device
JP2018101385A (en) Picture managing device, method for managing pictures, and program
JP2017010549A (en) Method and apparatus for data retrieval in lightfield database
JP6765353B2 (en) Structure inspection system, structure inspection equipment and structure inspection method
US20160239944A1 (en) Image Resolution Enhancement Based on Data from Related Images
JP2020091745A (en) Imaging support device and imaging support method
JP6132996B1 (en) Image processing apparatus, image processing method, and image processing program
JP2020091718A (en) Photographed image classification device and photographed image classification method
JP2010257267A (en) Device, method and program for detecting object area