JP7414918B1 - Image collection system, image collection method, and program - Google Patents

Image collection system, image collection method, and program Download PDF

Info

Publication number
JP7414918B1
JP7414918B1 JP2022148982A JP2022148982A JP7414918B1 JP 7414918 B1 JP7414918 B1 JP 7414918B1 JP 2022148982 A JP2022148982 A JP 2022148982A JP 2022148982 A JP2022148982 A JP 2022148982A JP 7414918 B1 JP7414918 B1 JP 7414918B1
Authority
JP
Japan
Prior art keywords
image
photographed
unit
user
reward
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022148982A
Other languages
Japanese (ja)
Other versions
JP2024043792A (en
Inventor
満 中澤
朋英 長島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2022148982A priority Critical patent/JP7414918B1/en
Application granted granted Critical
Publication of JP7414918B1 publication Critical patent/JP7414918B1/en
Publication of JP2024043792A publication Critical patent/JP2024043792A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】3次元モデルを生成するために利用可能な撮影画像を効率よく収集する。【解決手段】画像収集システム(1)の画像収集部(102)は、ユーザのユーザ端末(20)から、撮影部(26)により生成された撮影画像を収集する。判定結果取得部(103)は、3次元モデルの生成対象となるオブジェクトが撮影画像に示されているか否かの判定結果を取得する。報酬付与部(104)は、判定結果に基づいて、ユーザに対し、報酬を付与する。【選択図】図4The present invention efficiently collects captured images that can be used to generate a three-dimensional model. An image collection unit (102) of an image collection system (1) collects photographed images generated by a photographing unit (26) from a user's user terminal (20). A determination result acquisition unit (103) acquires a determination result as to whether or not an object for which a three-dimensional model is to be generated is shown in the photographed image. The reward giving unit (104) gives a reward to the user based on the determination result. [Selection diagram] Figure 4

Description

本開示は、画像収集システム、画像収集方法、及びプログラムに関する。 The present disclosure relates to an image collection system, an image collection method, and a program.

従来、撮影部により生成された撮影画像に示されたオブジェクトの3次元モデルを生成する技術が知られている。例えば、撮影画像から3次元モデルを生成する技術として、特許文献1に記載のフォトグラメトリと呼ばれる手法と、非特許文献1,2に記載のニューラルレンダリングと呼ばれる手法と、が知られている。このような技術では、種々の位置及び角度からオブジェクトを撮影する必要があるので、撮影画像を用意するのに非常に手間がかかる。このため、撮影画像を効率良く収集することが求められている。 2. Description of the Related Art Conventionally, a technique for generating a three-dimensional model of an object shown in a photographed image generated by a photographing unit is known. For example, as a technique for generating a three-dimensional model from a photographed image, a method called photogrammetry described in Patent Document 1 and a method called neural rendering described in Non-Patent Documents 1 and 2 are known. In such a technique, it is necessary to photograph the object from various positions and angles, so it is very time-consuming to prepare the photographed images. Therefore, there is a need to efficiently collect captured images.

例えば、特許文献2には、利用者がアップロードした撮影画像のうち、検索者が指定した検索条件を満たす撮影画像を特定し、当該特定された撮影画像を検索者に提供しつつ、検索条件を満たす撮影画像をアップロードした利用者に対し、報酬を付与する技術が記載されている。例えば、特許文献3には、自身が予約した宿泊施設を撮影部で撮影して撮影画像をアップロードしたユーザに対し、報酬を付与する技術が記載されている。特許文献2,3の技術は、何らかの目的で撮影画像を収集する技術の一例といえる。 For example, Patent Document 2 discloses that among the captured images uploaded by the user, captured images that satisfy the search conditions specified by the searcher are identified, and the search conditions are set while providing the identified captured images to the searcher. It describes a technology that provides rewards to users who upload images that meet the criteria. For example, Patent Document 3 describes a technique for providing a reward to a user who takes a photograph of an accommodation facility he/she has reserved using a photographing unit and uploads the photographed image. The techniques disclosed in Patent Documents 2 and 3 can be said to be examples of techniques for collecting captured images for some purpose.

特開2019-032226号公報JP2019-032226A 特開2021-002147号公報Japanese Patent Application Publication No. 2021-002147 特開2019-211833号公報JP2019-211833A

Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, Ren Ng, “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”, arXiv preprint arXiv:2003.08934(https://arxiv.org/pdf/2003.08934.pdf)Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, Ren Ng, “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”, arXiv preprint arXiv:2003.08934 (https://arxiv.org/ pdf/2003.08934.pdf) Ricardo Martin-Brualla, Noha Radwan, Mehdi S. M. Sajjadi, Jonathan T. Barron, Alexey Dosovitskiy, Daniel Duckworth, “NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo Collections”, arXiv preprint arXiv:2008.02268(https://arxiv.org/pdf/2008.02268)Ricardo Martin-Brualla, Noha Radwan, Mehdi S. M. Sajjadi, Jonathan T. Barron, Alexey Dosovitskiy, Daniel Duckworth, “NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo Collections”, arXiv preprint arXiv:2008.02268 (https://arxiv. org/pdf/2008.02268)

しかしながら、特許文献2,3の技術は、そもそもオブジェクトの3次元モデルを生成することを目的としていない。このため、撮影画像から3次元モデルを生成する特許文献1及び非特許文献1,2のような技術に特許文献2,3の技術を適用したとしても、3次元モデルの生成に適した撮影画像を効率よく収集できるわけではない。従来の技術では、3次元モデルを生成するために利用可能な撮影画像を効率よく収集することができなかった。 However, the techniques of Patent Documents 2 and 3 are not intended to generate a three-dimensional model of an object in the first place. For this reason, even if the techniques of Patent Documents 2 and 3 are applied to the techniques of Patent Document 1 and Non-Patent Documents 1 and 2 that generate a 3D model from a captured image, the captured images are not suitable for generating a 3D model. cannot be collected efficiently. With conventional techniques, it has not been possible to efficiently collect captured images that can be used to generate a three-dimensional model.

本開示の目的の1つは、3次元モデルを生成するために利用可能な撮影画像を効率よく収集することである。 One of the objectives of the present disclosure is to efficiently collect captured images that can be used to generate a three-dimensional model.

本開示に係る画像収集システムは、ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集部と、3次元モデルの生成対象となるオブジェクトが前記撮影画像に示されているか否かの判定結果を取得する判定結果取得部と、前記判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与部と、を含む。 An image collection system according to the present disclosure includes an image collection unit that collects photographed images generated by a photographing unit from a user's user terminal, and whether or not an object for which a three-dimensional model is to be generated is shown in the photographed image. The present invention includes a determination result acquisition unit that acquires the determination result, and a reward granting unit that provides a reward to the user based on the determination result.

本開示によれば、3次元モデルを生成するために利用可能な撮影画像を効率よく収集できる。 According to the present disclosure, it is possible to efficiently collect captured images that can be used to generate a three-dimensional model.

画像収集システムの全体構成の一例を示す図である。1 is a diagram showing an example of the overall configuration of an image collection system. ユーザが報酬付与サービスを利用する流れの一例を示す図である。It is a diagram showing an example of a flow in which a user uses a reward provision service. 審査画面の一例を示す図である。It is a figure which shows an example of an examination screen. 画像収集システムで実現される機能の一例を示す図である。FIG. 2 is a diagram illustrating an example of functions realized by the image collection system. ユーザデータベースの一例を示す図である。FIG. 3 is a diagram showing an example of a user database. タスクデータベースの一例を示す図である。FIG. 3 is a diagram showing an example of a task database. タスクに設定された撮影条件の一例である。This is an example of shooting conditions set for a task. 画像収集システムで実行される処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of processing executed by the image collection system. 変形例で実現される機能の一例を示す図である。It is a figure which shows an example of the function implement|achieved in a modification. 互いに重複部分を含む複数の撮影画像の一例を示す図である。FIG. 3 is a diagram showing an example of a plurality of captured images including mutually overlapping parts. 撮影条件が表示される様子の一例を示す図である。FIG. 3 is a diagram illustrating an example of how photographing conditions are displayed.

[1.画像収集システムの全体構成]
本開示に係る画像収集システムの実施形態の一例を説明する。図1は、画像収集システムの全体構成の一例を示す図である。例えば、画像収集システム1は、サーバ10、ユーザ端末20、及び判定者端末30を含む。サーバ10、ユーザ端末20、及び判定者端末30の各々は、インターネット又はLAN等のネットワークNに接続可能である。
[1. Overall configuration of image acquisition system]
An example of an embodiment of an image collection system according to the present disclosure will be described. FIG. 1 is a diagram showing an example of the overall configuration of an image acquisition system. For example, the image collection system 1 includes a server 10, a user terminal 20, and a judge terminal 30. Each of the server 10, user terminal 20, and judge terminal 30 can be connected to a network N such as the Internet or a LAN.

サーバ10は、サーバコンピュータである。例えば、サーバ10は、制御部11、記憶部12、及び通信部13を含む。制御部11は、少なくとも1つのプロセッサを含む。記憶部12は、RAM等の揮発性メモリと、フラッシュメモリ等の不揮発性メモリと、を含む。通信部13は、有線通信用の通信インタフェースと、無線通信用の通信インタフェースと、の少なくとも一方を含む。 Server 10 is a server computer. For example, the server 10 includes a control section 11, a storage section 12, and a communication section 13. Control unit 11 includes at least one processor. The storage unit 12 includes volatile memory such as RAM and nonvolatile memory such as flash memory. The communication unit 13 includes at least one of a communication interface for wired communication and a communication interface for wireless communication.

ユーザ端末20は、ユーザのコンピュータである。ユーザは、後述のタスクを行う者である。ユーザは、クラウドワーカーと呼ばれることもある。例えば、ユーザ端末20は、パーソナルコンピュータ、タブレット端末、又はスマートフォンである。例えば、ユーザ端末20は、制御部21、記憶部22、通信部23、操作部24、表示部25、及び撮影部26を含む。制御部21、記憶部22、及び通信部23の物理的構成は、それぞれ制御部11、記憶部12、及び通信部13と同様である。操作部24は、タッチパネル等の入力デバイスである。表示部25は、液晶ディスプレイ又は有機ELディスプレイである。撮影部26は、少なくとも1つのカメラを含む。 User terminal 20 is a user's computer. A user is a person who performs a task described below. Users are sometimes called crowdworkers. For example, the user terminal 20 is a personal computer, a tablet terminal, or a smartphone. For example, the user terminal 20 includes a control section 21, a storage section 22, a communication section 23, an operation section 24, a display section 25, and a photographing section 26. The physical configurations of the control section 21, the storage section 22, and the communication section 23 are the same as those of the control section 11, the storage section 12, and the communication section 13, respectively. The operation unit 24 is an input device such as a touch panel. The display section 25 is a liquid crystal display or an organic EL display. Photographing unit 26 includes at least one camera.

判定者端末30は、判定者のコンピュータである。判定者は、後述の撮影画像の審査を行う者である。例えば、判定者端末30は、パーソナルコンピュータ、タブレット端末、又はスマートフォンである。例えば、判定者端末30は、制御部31、記憶部32、通信部33、操作部34、及び表示部35を含む。制御部31、記憶部32、通信部33、操作部34、及び表示部35の物理的構成は、それぞれ制御部11、記憶部12、通信部13、操作部24、及び表示部25と同様である。 The judge terminal 30 is a judge's computer. The judge is a person who judges the captured images, which will be described later. For example, the judge terminal 30 is a personal computer, a tablet terminal, or a smartphone. For example, the judge terminal 30 includes a control section 31, a storage section 32, a communication section 33, an operation section 34, and a display section 35. The physical configurations of the control unit 31, storage unit 32, communication unit 33, operation unit 34, and display unit 35 are the same as those of the control unit 11, storage unit 12, communication unit 13, operation unit 24, and display unit 25, respectively. be.

なお、記憶部12,22,32に記憶されるプログラムは、ネットワークNを介して供給されてもよい。また、コンピュータ読み取り可能な情報記憶媒体に記憶されたプログラムが、情報記憶媒体を読み取る読取部(例えば、光ディスクドライブやメモリカードスロット)、又は、外部機器とデータの入出力をするための入出力部(例えば、USBポート)を介して供給されてもよい。 Note that the programs stored in the storage units 12, 22, and 32 may be supplied via the network N. In addition, a program stored in a computer-readable information storage medium can be used as a reading section (for example, an optical disk drive or a memory card slot) for reading the information storage medium, or an input/output section for inputting and outputting data with external equipment. (e.g., a USB port).

また、画像収集システム1は、少なくとも1つのコンピュータを含めばよく、図1の例に限られない。例えば、画像収集システム1は、サーバ10だけを含み、ユーザ端末20及び判定者端末30は、画像収集システム1の外部に存在してもよい。例えば、画像収集システム1は、サーバ10及び判定者端末30だけを含み、ユーザ端末20は、画像収集システム1の外部に存在してもよい。 Furthermore, the image collection system 1 only needs to include at least one computer, and is not limited to the example shown in FIG. 1 . For example, the image collection system 1 may include only the server 10, and the user terminal 20 and judge terminal 30 may exist outside the image collection system 1. For example, the image collection system 1 may include only the server 10 and the judge terminal 30, and the user terminal 20 may exist outside the image collection system 1.

[2.画像収集システムの概要]
本実施形態では、報酬付与サービスがユーザに提供される場合を例に挙げる。報酬付与サービスは、所定のタスクを達成すると報酬を付与するサービスである。タスクは、報酬を獲得するための条件又は課題である。例えば、タスクは、ユーザ端末20を利用して行われる作業又はアンケートである。報酬は、タスクの遂行に対する対価である。報酬は、ユーザに何らかの利益が生じるものであればよく、例えば、ポイント、電子マネー、電子的バリュー、クーポン、チケット、トークン、暗号資産、画像、動画若しくは楽曲等のデジタルコンテンツ、現金、又は物品であってもよい。本実施形態では、報酬の種別に応じて、ユーザのアカウント、ブロックチェーンネットワーク上のウォレットアドレスおよび住所等に基づいて報酬を付与する。
[2. Overview of image collection system]
In this embodiment, a case where a reward provision service is provided to a user will be exemplified. The reward giving service is a service that gives a reward when a predetermined task is accomplished. A task is a condition or task for acquiring a reward. For example, a task is a work or a questionnaire conducted using the user terminal 20. Rewards are compensation for completing a task. The reward may be anything that provides some kind of benefit to the user, such as points, electronic money, electronic value, coupons, tickets, tokens, crypto assets, digital content such as images, videos, or songs, cash, or goods. There may be. In this embodiment, rewards are given based on the user's account, wallet address on the blockchain network, address, etc., depending on the type of reward.

図2は、ユーザが報酬付与サービスを利用する流れの一例を示す図である。本実施形態では、ユーザが報酬付与サービスに会員登録済みであるものとする。例えば、ユーザがユーザ端末20を操作して報酬付与サービスにログインすると、報酬付与サービスのトップページに相当するトップ画面SC1が表示部25に表示される。トップ画面SC1には、ユーザが参加可能なタスクの一覧が表示される。本実施形態では、3次元モデルの生成対象となるオブジェクトが示された撮影画像をアップロードするタスクを例に挙げる。 FIG. 2 is a diagram illustrating an example of a flow in which a user uses a reward provision service. In this embodiment, it is assumed that the user has already registered as a member of the reward granting service. For example, when a user operates the user terminal 20 to log in to the reward grant service, a top screen SC1 corresponding to the top page of the reward grant service is displayed on the display unit 25. A list of tasks in which the user can participate is displayed on the top screen SC1. In this embodiment, a task of uploading a captured image showing an object for which a three-dimensional model is to be generated will be taken as an example.

3次元モデルは、ポリゴンと呼ばれる多面体の集合体である。ポリゴンは、複数の頂点によって定義されるので、3次元モデルは、頂点の集合体ということもできる。3次元モデルは、仮想的なオブジェクトを示す。例えば、3次元モデルは、コンピュータグラフィックソフトに構築された仮想空間に配置される。仮想空間は、仮想的な3次元空間である。仮想空間には、所定の位置を原点としたワールド座標系の座標軸が設定される。3次元モデルを構成する頂点の位置は、ワールド座標系の座標で表現される。 A three-dimensional model is a collection of polyhedra called polygons. Since a polygon is defined by a plurality of vertices, a three-dimensional model can also be called a collection of vertices. A three-dimensional model represents a virtual object. For example, a three-dimensional model is placed in a virtual space constructed using computer graphics software. The virtual space is a virtual three-dimensional space. Coordinate axes of a world coordinate system with a predetermined position as the origin are set in the virtual space. The positions of the vertices constituting the three-dimensional model are expressed in coordinates of the world coordinate system.

オブジェクトは、現実空間に存在する物体である。オブジェクトは、撮影対象となる被写体ということもできる。オブジェクトは、任意の物体であってよく、例えば、建造物、道路、動物、植物、乗物、電化製品、又は雑貨である。撮影画像は、オブジェクトの全部又は一部が示された画像である。撮影画像の少なくとも一部の画素には、オブジェクトが示される。本実施形態では、撮影部26により撮影画像が生成される場合を説明するが、撮影画像は、撮影部26以外の他のカメラにより生成されてもよい。 An object is an object that exists in real space. The object can also be referred to as a subject to be photographed. The object may be any object, such as a building, road, animal, plant, vehicle, electrical appliance, or miscellaneous goods. The photographed image is an image in which all or part of the object is shown. An object is shown in at least some pixels of the captured image. In this embodiment, a case will be described in which a photographed image is generated by the photographing section 26, but the photographed image may be generated by a camera other than the photographing section 26.

図2の例では、架空の観光地に存在するABC神殿の3次元モデルを生成するために、ABC神殿の撮影画像をアップロードするタスクが設定されている。例えば、ユーザがボタンB10を選択すると、タスクの詳細を示す詳細画面SC2が表示部25に表示される。ユーザがボタンB20を選択すると、タスクへの参加が完了する。ユーザがタスクに参加すると、記憶部22に記憶された撮影画像の一覧を示す一覧画面SC3が表示部25に表示される。 In the example of FIG. 2, a task is set to upload photographed images of Temple ABC in order to generate a three-dimensional model of Temple ABC, which exists in a fictitious tourist spot. For example, when the user selects button B10, a detailed screen SC2 showing details of the task is displayed on the display unit 25. When the user selects button B20, participation in the task is completed. When the user participates in the task, a list screen SC3 showing a list of captured images stored in the storage unit 22 is displayed on the display unit 25.

例えば、ユーザが、一覧画面SC3からABC神殿の撮影画像を選択してアップロードすると、撮影画像のアップロードが完了したことを示す完了画面SC4が表示部25に表示される。ユーザは、撮影部26でABC神殿を撮影し、その場で撮影画像をアップロードしてもよい。ユーザは、一度に複数の撮影画像を選択してアップロードしてもよい。ユーザは、タスクに参加した直後ではなく、ある程度の時間が経過した後に撮影画像をアップロードしてもよい。本実施形態では、ユーザは、タスクに設定された期限内ならいつでも撮影画像をアップロードできるものとする。 For example, when the user selects and uploads a photographed image of the ABC temple from the list screen SC3, a completion screen SC4 is displayed on the display unit 25 indicating that the upload of the photographed image has been completed. The user may take a photograph of the ABC temple with the photographing unit 26 and upload the photographed image on the spot. The user may select and upload multiple captured images at once. The user may upload the captured image after a certain amount of time has passed, rather than immediately after participating in the task. In this embodiment, it is assumed that the user can upload captured images at any time within the deadline set for the task.

例えば、報酬付与サービスでは、種々のユーザから撮影画像が収集される。詳細は後述するが、撮影画像から3次元モデルを生成する方法自体は、公知の方法を利用可能である。ただし、ユーザがアップロードした撮影画像に、3次元モデルの生成対象が示されていなければ、この撮影画像は、3次元モデルの生成に利用できない。例えば、ユーザは、3次元モデルの生成対象となるオブジェクトが示されていない撮影画像を誤って選択してアップロードする可能性がある。 For example, in a reward granting service, captured images are collected from various users. Although details will be described later, a known method can be used to generate a three-dimensional model from a photographed image. However, if the photographed image uploaded by the user does not indicate the object for which a three-dimensional model is to be generated, this photographed image cannot be used to generate a three-dimensional model. For example, a user may erroneously select and upload a captured image that does not show an object for which a three-dimensional model is to be generated.

例えば、3次元モデルの生成対象となるオブジェクトが撮影画像に示されていたとしても、ユーザがアップロードした撮影画像が不鮮明だと、3次元モデルの生成に利用できない可能性がある。ユーザが、既にアップロード済みの他の撮影画像と同じような位置及び角度でオブジェクトが撮影された撮影画像をアップロードしても、3次元モデルの生成に有用ではない可能性もある。 For example, even if an object for which a three-dimensional model is to be generated is shown in a photographed image, if the photographed image uploaded by the user is unclear, there is a possibility that it cannot be used to generate a three-dimensional model. Even if the user uploads a photographed image in which an object is photographed at the same position and angle as other photographed images that have already been uploaded, it may not be useful for generating a three-dimensional model.

そこで、本実施形態では、3次元モデルの生成に利用可能な撮影画像であるか否かを判定者が審査するようにしている。例えば、判定者は、報酬付与サービスを提供する企業の従業員である。判定者による審査に合格した撮影画像をアップロードしたユーザに対し、報酬が付与される。例えば、判定者が、判定者端末30を操作してサーバ10にアクセスすると、複数のユーザの各々がアップロードした撮影画像の一覧を示す審査画面が表示部35に表示される。 Therefore, in this embodiment, a judge judges whether the captured image can be used to generate a three-dimensional model. For example, the judge is an employee of a company that provides a compensation service. A reward will be given to a user who uploads a captured image that passes the review by the judge. For example, when a judge operates the judge terminal 30 to access the server 10, a screening screen showing a list of captured images uploaded by each of a plurality of users is displayed on the display unit 35.

図3は、審査画面の一例を示す図である。図3の例では、正面方向の互いに異なる位置からオブジェクトが撮影された撮影画像が審査画面SC5に表示されているが、他の角度からオブジェクトが撮影された撮影画像もアップロードされているものとする。例えば、判定者が審査画面SC5をスクロールすると、他の角度からオブジェクトが撮影された撮影画像も表示される。判定者は、審査画面SC5に表示された撮影画像のうち、3次元モデルの生成に利用する撮影画像を選択する。 FIG. 3 is a diagram showing an example of the examination screen. In the example of FIG. 3, photographed images of the object photographed from different positions in the front direction are displayed on the examination screen SC5, but it is assumed that photographed images of the object photographed from other angles have also been uploaded. . For example, when the judge scrolls the screening screen SC5, captured images of the object captured from other angles are also displayed. The judge selects a photographed image to be used for generating a three-dimensional model from among the photographed images displayed on the examination screen SC5.

例えば、判定者は、オブジェクトが鮮明に示されている撮影画像を選択する。例えば、判定者は、選択済みの撮影画像とは異なる位置及び角度からオブジェクトが撮影された撮影画像を選択する。判定者は、3次元モデルの生成に有用なのであれば、他の観点で撮影画像を審査してもよい。判定者がある程度の数の撮影画像を選択して審査を完了すると、サーバ10は、判定者端末30から、判定者による判定結果を取得する。サーバ10は、判定者が選択した撮影画像をアップロードしたユーザに対し、報酬を付与する。 For example, the judge selects a captured image in which the object is clearly shown. For example, the judge selects a photographed image in which the object is photographed from a different position and angle from the selected photographed image. The judge may judge the captured images from other viewpoints as long as they are useful for generating a three-dimensional model. When the judge selects a certain number of captured images and completes the examination, the server 10 acquires the judgment result by the judge from the judge terminal 30. The server 10 gives a reward to the user who uploads the photographed image selected by the judge.

以上のように、本実施形態の画像収集システム1は、報酬付与サービスのタスクとして、3次元モデルの生成対象となるオブジェクトが示された撮影画像をアップロードすることを設定する。画像収集システム1は、判定者により選択された撮影画像をアップロードしたユーザに対し、報酬を付与する。画像収集システム1は、報酬によって、3次元モデルを生成するために利用可能な撮影画像をアップロードする動機付けをユーザに与えることができる。これにより、撮影画像を効率よく収集できるようになる。以降、本実施形態の詳細を説明する。 As described above, the image collection system 1 of this embodiment sets, as a task of the reward provision service, to upload a photographed image showing an object for which a three-dimensional model is to be generated. The image collection system 1 gives a reward to the user who uploads the photographed image selected by the judge. The image collection system 1 can motivate the user to upload captured images that can be used to generate a three-dimensional model by providing a reward. This makes it possible to efficiently collect captured images. Hereinafter, details of this embodiment will be explained.

[3.画像収集システムで実現される機能]
図4は、画像収集システム1で実現される機能の一例を示す図である。
[3. Functions achieved by the image acquisition system]
FIG. 4 is a diagram showing an example of functions realized by the image collection system 1.

[3-1.サーバで実現される機能]
例えば、サーバ10は、データ記憶部100、タスク設定部101、画像収集部102、判定結果取得部103、報酬付与部104、及び生成部105を含む。データ記憶部100は、記憶部12により実現される。タスク設定部101、画像収集部102、判定結果取得部103、報酬付与部104、及び生成部105の各々は、制御部11により実現される。
[3-1. Functions realized by the server]
For example, the server 10 includes a data storage section 100, a task setting section 101, an image collection section 102, a determination result acquisition section 103, a reward provision section 104, and a generation section 105. The data storage section 100 is realized by the storage section 12. Each of the task setting section 101 , image collection section 102 , determination result acquisition section 103 , reward giving section 104 , and generation section 105 is realized by the control section 11 .

[データ記憶部]
データ記憶部100は、報酬付与サービスを提供するために必要なデータを記憶する。例えば、データ記憶部100は、ユーザデータベースDB1及びタスクデータベースDB2を記憶する。
[Data storage unit]
The data storage unit 100 stores data necessary for providing reward granting services. For example, the data storage unit 100 stores a user database DB1 and a task database DB2.

図5は、ユーザデータベースDB1の一例を示す図である。ユーザデータベースDB1は、ユーザに関する各種情報が格納されたデータベースである。例えば、ユーザデータベースDB1には、ユーザID、パスワード、ユーザの名前、保有ポイント、及び参加タスク情報が格納される。あるユーザが報酬付与サービスの会員登録を完了すると、このユーザに対応するレコードがユーザデータベースDB1に作成される。ユーザデータベースDB1には、ユーザに関する任意の情報が格納されてよい。ユーザデータベースDB1に格納される情報は、図5の例に限られない。 FIG. 5 is a diagram showing an example of the user database DB1. The user database DB1 is a database that stores various information regarding users. For example, the user database DB1 stores user IDs, passwords, user names, held points, and participating task information. When a certain user completes membership registration for the reward granting service, a record corresponding to this user is created in the user database DB1. The user database DB1 may store any information regarding users. The information stored in the user database DB1 is not limited to the example shown in FIG. 5.

ユーザIDは、ユーザを一意に識別可能な情報である。ユーザID及びパスワードは、ユーザが報酬付与サービスにログインするために利用される。保有ポイントは、ユーザが保有するポイントである。例えば、ユーザは、実店舗、オンライン上の店舗、又はオンライン上のサービスでポイントを利用可能である。報酬としてポイントが付与されると、保有ポイントが増える。保有ポイントは、ユーザデータベースDB1以外の他のデータベースで管理されてもよい。ポイント以外の他の報酬が付与される場合には、ユーザに付与された他の報酬に関する情報がユーザデータベースDB1に格納されてもよい。 The user ID is information that can uniquely identify a user. The user ID and password are used by the user to log into the reward provision service. The held points are points held by the user. For example, a user can use points at a physical store, an online store, or an online service. When points are given as rewards, the number of points held increases. The held points may be managed in a database other than the user database DB1. When rewards other than points are awarded, information regarding the other rewards awarded to the user may be stored in the user database DB1.

参加タスク情報は、ユーザが参加したタスクに関する情報である。例えば、参加タスク情報は、ユーザが参加したタスクのタスクIDと、当該タスクの進行状況と、を含む。タスクIDは、タスクを一意に識別可能な情報である。タスクの進行状況は、タスクがどの程度進行しているかを示す情報である。本実施形態では、撮影画像をアップロードすることがタスクに相当するので、ユーザがアップロードした撮影画像がタスクの達成状況として格納される。ユーザが、タスクの進行状況からアップロード済みの撮影画像を削除できるようにしてもよい。 The participating task information is information regarding tasks in which the user has participated. For example, the participation task information includes the task ID of the task in which the user has participated, and the progress status of the task. The task ID is information that can uniquely identify a task. The progress status of a task is information indicating how far the task is progressing. In this embodiment, since uploading a photographed image corresponds to a task, the photographed image uploaded by the user is stored as the task accomplishment status. The user may be able to delete uploaded captured images from the task progress status.

図6は、タスクデータベースDB2の一例を示す図である。タスクデータベースDB2は、タスクに関する各種情報が格納されたデータベースである。例えば、タスクデータベースDB2には、タスクID、タイトル、説明文、期限、報酬情報、及び付与情報が格納される。新たなタスクが報酬付与サービスに登録されると、新たなタスクに対応するレコードがタスクデータベースDB2に作成される。タスクデータベースDB2には、タスクに関する任意の情報が格納されてよい。タスクデータベースDB2に格納される情報は、図6の例に限られない。 FIG. 6 is a diagram showing an example of the task database DB2. The task database DB2 is a database that stores various information regarding tasks. For example, the task database DB2 stores a task ID, title, explanatory text, deadline, reward information, and grant information. When a new task is registered in the remuneration service, a record corresponding to the new task is created in the task database DB2. The task database DB2 may store any information regarding tasks. The information stored in the task database DB2 is not limited to the example shown in FIG.

タイトル及び説明文は、トップ画面SC1及び詳細画面SC2等の画面に表示させるタスクの内容である。期限は、タスクの締め切りの日時である。ユーザは、期限までにタスクを行う必要がある。報酬情報は、ユーザに付与される報酬に関する情報である。例えば、報酬情報は、報酬の獲得条件と、報酬の内容と、を示す。報酬の獲得条件は、タスクそのものといえる。付与情報は、報酬が付与されたユーザに関する情報である。例えば、付与情報は、報酬が付与されるユーザのユーザIDと、ユーザに付与される報酬の内容と、を含む。 The title and description are the contents of the task to be displayed on screens such as the top screen SC1 and the details screen SC2. The deadline is the deadline date and time of the task. A user needs to complete a task by a deadline. The remuneration information is information regarding remuneration given to the user. For example, the reward information indicates the conditions for acquiring the reward and the details of the reward. The condition for obtaining rewards can be said to be the task itself. The grant information is information regarding the user to whom the reward has been granted. For example, the grant information includes the user ID of the user to whom the reward is granted, and the details of the reward to be granted to the user.

[タスク設定部]
タスク設定部101は、報酬付与サービスにおけるタスクとして、3次元モデルの生成対象となるオブジェクトが示された撮影画像をアップロードすることを設定する。タスクを設定するとは、タスクデータベースDB2にタスクに関する情報を格納することである。別の言い方をすれば、新たなタスクを作成することが、タスクを設定することに相当する。例えば、タスクの設定は、判定者端末30からの要求に基づいて行われてもよいし、判定者以外の他の関係者の端末からの要求に基づいて行われてもよい。
[Task setting section]
The task setting unit 101 sets, as a task in the remuneration service, to upload a photographed image showing an object for which a three-dimensional model is to be generated. Setting a task means storing information regarding the task in the task database DB2. In other words, creating a new task corresponds to setting the task. For example, the task setting may be performed based on a request from the judge terminal 30, or based on a request from a terminal of a person involved other than the judge.

図2の例では、3次元モデルの生成対象となるオブジェクトがABC神殿といった建造物である場合を説明するが、3次元モデルの生成対象となるオブジェクトは、現実空間に存在する任意のオブジェクトであってよい。例えば、3次元モデルの生成対象となるオブジェクトは、先述した建造物、道路、動物、植物、乗物、電化製品、又は雑貨であってもよいし、本実施形態では例示していない他のオブジェクトであってもよい。オブジェクトは、何らかの目的で3次元モデルを生成するものであればよい。 In the example of FIG. 2, a case will be explained in which the object for which a 3D model is generated is a building such as the ABC temple, but the object for which a 3D model is generated can be any object that exists in real space. It's fine. For example, the objects for which the three-dimensional model is generated may be the aforementioned buildings, roads, animals, plants, vehicles, electrical appliances, or miscellaneous goods, or may be other objects not exemplified in this embodiment. There may be. The object may be anything that generates a three-dimensional model for some purpose.

例えば、タスク設定部101は、判定者端末30又は他の関係者の端末から、タスクを設定するための要求を受け付けると、他のタスクと重複しないようにタスクIDを発行する。この要求には、タスクのタイトル、説明文、期限、及び報酬情報も含まれているものとする。これらの情報は、判定者又は他の関係者により指定される。タスク設定部101は、タスクデータベースDB2に新たなレコードを作成し、上記発行されたタスクIDと、タスクのタイトル等の情報と、を新たなレコードに格納することによって、タスクを設定する。本実施形態では、付与情報は、判定者による審査が行われた後に、タスクデータベースDB2に格納されるものとする。 For example, when the task setting unit 101 receives a request for setting a task from the judge terminal 30 or another person's terminal, it issues a task ID so as not to overlap with other tasks. This request also includes the task title, description, deadline, and reward information. This information is specified by the judge or other party. The task setting unit 101 sets a task by creating a new record in the task database DB2 and storing the issued task ID and information such as the task title in the new record. In this embodiment, it is assumed that the assigned information is stored in the task database DB2 after being examined by a judge.

[画像収集部]
画像収集部102は、ユーザのユーザ端末20から、撮影部26により生成された撮影画像を収集する。撮影画像を収集するとは、撮影画像の画像データを受信することである。本実施形態では、報酬付与サービスのタスクが設定されるので、画像収集部102は、タスクが設定された場合に、ユーザ端末20から、撮影画像を収集する。図2の例では、画像収集部102は、ABC神殿の撮影画像をアップロードするタスクが設定された後に、ユーザ端末20から、ABC神殿が示された撮影画像を収集する。
[Image collection department]
The image collection unit 102 collects captured images generated by the imaging unit 26 from the user terminal 20 of the user. Collecting photographed images means receiving image data of the photographed images. In this embodiment, since a task for the reward granting service is set, the image collection unit 102 collects captured images from the user terminal 20 when the task is set. In the example of FIG. 2, the image collection unit 102 collects captured images showing ABC Temple from the user terminal 20 after the task of uploading captured images of ABC Temple is set.

例えば、本実施形態のように、ユーザがボタンB20を選択してタスクに参加する必要がある場合には、画像収集部102は、タスクに参加したユーザのユーザ端末20から、撮影画像を収集する。ユーザによる参加を特に必要としないタスクが設定される場合には、画像収集部102は、ボタンB20の選択のような操作をユーザに要求することなく、ユーザ端末20から撮影画像を収集すればよい。 For example, as in this embodiment, when the user needs to select the button B20 to participate in a task, the image collection unit 102 collects captured images from the user terminal 20 of the user who has participated in the task. . When a task that does not particularly require the user's participation is set, the image collection unit 102 may collect captured images from the user terminal 20 without requesting the user to perform an operation such as selecting the button B20. .

なお、画像収集部102は、ユーザ端末20から、少なくとも1つの撮影画像を収集すればよく、同じユーザ端末20から複数の撮影画像を収集してもよい。ユーザがアップロード可能な撮影画像には、上限数が定められていてもよい。逆に、ユーザがアップロードする必要がある撮影画像の最低数が定められていてもよい。例えば、ユーザが5枚以上の撮影画像をアップロードしなければ、タスクを遂行したことにはならないようにしてもよい。画像収集部102は、ユーザ端末20から取得した撮影画像を、タスクの進行状況としてユーザデータベースDB1に格納する。 Note that the image collection unit 102 only needs to collect at least one photographed image from the user terminal 20, and may collect a plurality of photographed images from the same user terminal 20. An upper limit may be set for the number of captured images that can be uploaded by the user. Conversely, a minimum number of captured images that the user must upload may be determined. For example, the task may not be considered to have been completed unless the user uploads five or more captured images. The image collection unit 102 stores the photographed images acquired from the user terminal 20 in the user database DB1 as the progress status of the task.

[判定結果取得部]
判定結果取得部103は、3次元モデルの生成対象となるオブジェクトが撮影画像に示されているか否かの判定結果を取得する。判定結果を取得するとは、撮影画像にオブジェクトが示されているか否かを示すデータを取得することである。この判定は、サーバ10、他のコンピュータ、又は人手により実行される。
[Judgment result acquisition unit]
The determination result acquisition unit 103 acquires a determination result as to whether or not an object for which a three-dimensional model is to be generated is shown in the photographed image. Obtaining the determination result means obtaining data indicating whether or not the object is shown in the captured image. This determination is performed by the server 10, another computer, or manually.

本実施形態では、判定者による目視の審査が発生するので、判定結果取得部103は、オブジェクトが撮影画像に示されているか否かを判定する判定者の判定者端末30から、判定結果を取得する。判定結果取得部103は、判定者端末30から、後述の判定結果送信部301により送信された判定結果を受信する。本実施形態では、タスクの期限が訪れた後に審査が行われる場合を説明するが、タスクの期限が訪れる前に審査が行われてもよい。 In this embodiment, a visual inspection by a judge is performed, so the judgment result acquisition unit 103 acquires the judgment result from the judge terminal 30 of the judge who judges whether the object is shown in the photographed image. do. The determination result acquisition unit 103 receives, from the judge terminal 30, a determination result transmitted by a determination result transmitting unit 301, which will be described later. In this embodiment, a case will be described in which the review is performed after the task deadline has arrived, but the review may be performed before the task deadline has arrived.

本実施形態では、単にオブジェクトが撮影画像に示されているか否かだけではなく、判定結果取得部103は、所定の撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。撮影条件は、オブジェクトが撮影された時の条件である。撮影条件は、オブジェクトがどのように撮影されたかを示す情報ということもできる。例えば、いわゆる外部パラメータ及び内部パラメータの少なくとも一方は、撮影条件に相当する。外部パラメータは、現実空間におけるカメラの位置及び向きである。内部パラメータは、カメラの光学的中心及び焦点距離などである。 In this embodiment, the determination result acquisition unit 103 not only determines whether an object is shown in a photographed image, but also determines whether an object photographed under predetermined photographing conditions is shown in a photographed image. get. The photographing conditions are the conditions under which the object was photographed. The photographing conditions can also be referred to as information indicating how the object was photographed. For example, at least one of the so-called external parameters and internal parameters corresponds to imaging conditions. The external parameters are the position and orientation of the camera in real space. Intrinsic parameters include the optical center and focal length of the camera.

なお、撮影条件は、撮影時の何らかの条件であればよく、これらの例に限られない。例えば、撮影条件は、撮影時の天候、明るさ、季節、又は撮影場所の混雑具合であってもよい。例えば、撮影条件は、カメラのISO感度、絞り値、又はシャッタースピードであってもよい。例えば、撮影条件は、一眼レフ若しくはスマートフォンといったカメラ自体の種類、カメラのメーカー、撮影画像のサイズ、又は解像度であってもよい。撮影条件は、3次元モデルの生成に有用な条件であれば、その他の条件であってもよい。 Note that the photographing conditions may be any conditions at the time of photographing, and are not limited to these examples. For example, the shooting conditions may be the weather, brightness, season, or crowding at the shooting location. For example, the photographing conditions may be the ISO sensitivity, aperture value, or shutter speed of the camera. For example, the photographing conditions may be the type of camera itself such as a single-lens reflex camera or a smartphone, the manufacturer of the camera, the size of the photographed image, or the resolution. The imaging conditions may be other conditions as long as they are useful for generating a three-dimensional model.

図7は、タスクに設定された撮影条件の一例である。例えば、タスクには、位置P1~P8及び向きV1~V8といった8個の撮影条件がタスクに設定されている。以降、位置P1~P8を区別しない時は、単に位置Pという。向きV1~V8を区別しない時は、単に向きVという。図7の例では、説明の簡略化のために、撮影条件の数を8個とするが、タスクには、3次元モデルの生成に必要な数の撮影条件が設定されるようにすればよい。例えば、互いに異なる位置P及び向きVから撮影された撮影画像が数十枚~数千枚程度必要なのであれば、数十個~数千個程度の撮影条件がタスクに設定されてもよい。 FIG. 7 is an example of photographing conditions set for a task. For example, eight photographing conditions such as positions P1 to P8 and orientations V1 to V8 are set for the task. Hereinafter, when positions P1 to P8 are not distinguished, they will simply be referred to as position P. When directions V1 to V8 are not distinguished, they are simply referred to as direction V. In the example of FIG. 7, the number of imaging conditions is set to eight to simplify the explanation, but the number of imaging conditions required for generating a three-dimensional model may be set in the task. . For example, if tens to thousands of images taken from different positions P and directions V are required, dozens to thousands of imaging conditions may be set for the task.

例えば、位置P及び向きVは、現実空間RSに存在するオブジェクトOBを取り囲むように設定される。ユーザは、少なくとも1つの位置P及び向きVからオブジェクトOBを撮影した撮影画像をアップロードする必要がある。実際の位置P及び向きVは、撮影条件として設定された位置P及び向きVから多少ずれていてもよい。本実施形態では、どの程度のずれを許容するかについては、判定者の裁量に依存する。判定者は、3次元モデルの生成に支障が出ない程度のずれを許容する。 For example, the position P and orientation V are set to surround the object OB existing in the real space RS. The user needs to upload a photographed image of the object OB taken from at least one position P and direction V. The actual position P and direction V may be slightly deviated from the position P and direction V set as the photographing conditions. In this embodiment, the degree of deviation to be allowed depends on the discretion of the judge. The judge allows the deviation to an extent that does not interfere with the generation of the three-dimensional model.

なお、図7の例では、位置Pの間隔を均等としているが、オブジェクトOBのうち、複雑な形状を有する部分については、より細かく撮影されるように、位置Pの間隔が短くなってもよい。同様に、オブジェクトOBのうち、複雑な形状を有する部分については、向きVの違いも小さくてもよい。同じ位置Pから異なる向きVで撮影することが、撮影条件として設定されてもよい。逆に、同じ向きVで異なる位置Pから撮影することが、撮影条件として設定されてもよい。以降、オブジェクトOBの符号を省略する。 Note that in the example of FIG. 7, the intervals between the positions P are equal, but for a part of the object OB that has a complex shape, the intervals between the positions P may be shortened so that a part of the object OB has a complex shape can be photographed more finely. . Similarly, for parts of the object OB that have complex shapes, the difference in orientation V may be small. Photographing from the same position P in different directions V may be set as the photographing condition. Conversely, photographing from different positions P in the same direction V may be set as the photographing condition. Hereinafter, the reference numerals for objects OB will be omitted.

例えば、判定結果取得部103は、収集済みの撮影画像では足りていない撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。収集済みとは、3次元モデルの生成のために利用する撮影画像として決定済みであることを意味する。本実施形態のように、審査画面SC5から撮影画像が選択される場合には、審査画面SC5で選択済みであることが収集済みであることに相当する。 For example, the determination result acquisition unit 103 acquires a determination result as to whether or not the captured image shows an object that was photographed under a photographing condition that is not sufficient in the collected photographed images. Collected means that the captured images have been determined to be used for generating a three-dimensional model. As in this embodiment, when a photographed image is selected from the examination screen SC5, being selected on the examination screen SC5 corresponds to being collected.

例えば、判定者は、審査画面SC5から、選択済みの撮影画像のうち、図7に示す8個の撮影条件の何れかを満たす撮影画像を目視で確認して選択する。判定者は、8個の撮影条件のうち、まだ選択していない撮影条件の撮影画像を目視で確認して選択する。判定者は、8個の撮影条件の全てが揃うように、次々と撮影画像を選択する。判定者は、同じ撮影条件を満たす複数の撮影画像を選択してもよい。判定結果取得部103は、当該選択された撮影画像を識別可能な情報(例えば、ファイル名)を取得することによって、判定結果を取得する。 For example, the judge visually checks and selects a captured image that satisfies any of the eight imaging conditions shown in FIG. 7 from among the selected captured images from the examination screen SC5. The judge visually checks and selects the photographed images of the photographing conditions that have not yet been selected from among the eight photographing conditions. The judge selects photographed images one after another so that all eight photographing conditions are met. The judge may select a plurality of captured images that satisfy the same imaging conditions. The determination result acquisition unit 103 acquires the determination result by acquiring information (for example, a file name) that can identify the selected captured image.

なお、図7の例では、位置P及び向きVといった外部パラメータが撮影条件に相当する場合を説明したが、判定結果取得部103は、外部パラメータ以外の他の撮影条件の判定結果を取得してもよい。例えば、内部パラメータが撮影条件に相当する場合、判定結果取得部103は、所定の内部パラメータであることを示す撮影条件を撮影画像が満たすか否かの判定結果を取得する。本実施形態では、この場合も、判定者による目視により撮影画像が所定の内部パラメータであるか否かが判定されるものとする。先述した撮影時の天候等の他の撮影条件についても同様である。 Note that in the example of FIG. 7, a case has been described in which external parameters such as position P and direction V correspond to the imaging conditions, but the determination result acquisition unit 103 may acquire determination results of other imaging conditions other than the external parameters. Good too. For example, when the internal parameter corresponds to a photographing condition, the determination result acquisition unit 103 acquires a determination result as to whether the photographed image satisfies the photographing condition indicating that the internal parameter is a predetermined internal parameter. In this embodiment, it is assumed that in this case as well, it is determined whether the photographed image meets the predetermined internal parameters by visual inspection by the judge. The same applies to other photographing conditions such as the weather at the time of photographing mentioned above.

[報酬付与部]
報酬付与部104は、判定結果取得部103により取得された判定結果に基づいて、ユーザに対し、報酬を付与する。報酬を付与するとは、ユーザデータベースDB1、タスクデータベースDB2、又は他のデータベースに、報酬に関する情報を格納することである。本実施形態では、ユーザデータベースDB1に格納された保有ポイントを増やすこと、又は、タスクデータベースDB2に付与情報を格納することが報酬を付与することに相当する。ポイント以外の他の報酬が付与される場合には、報酬付与部104は、ユーザデータベースDB1、タスクデータベースDB2、又は他のデータベースに、当該他の報酬を識別可能な情報を、ユーザIDに関連付けて格納すればよい。
[Remuneration Department]
The reward granting unit 104 grants a reward to the user based on the determination result acquired by the determination result acquisition unit 103. Giving a reward means storing information regarding the reward in the user database DB1, task database DB2, or other database. In this embodiment, increasing the number of held points stored in the user database DB1 or storing grant information in the task database DB2 corresponds to granting a reward. When a reward other than points is awarded, the reward granting unit 104 associates information that can identify the other reward with the user ID in the user database DB1, task database DB2, or other database. Just store it.

例えば、報酬付与部104は、判定結果取得部103により取得された判定結果を参照し、判定者により選択された撮影画像をアップロードしたユーザを特定する。報酬付与部104は、当該特定されたユーザのユーザIDに関連付けられた保有ポイントを増やす。報酬付与部104は、当該特定されたユーザが報酬を受け取ったことを示す付与情報をタスクデータベースDB2に格納する。報酬付与部104は、これらの一連の処理を実行することによって、ユーザに報酬を付与する。 For example, the reward granting unit 104 refers to the determination result acquired by the determination result acquisition unit 103 and identifies the user who uploaded the captured image selected by the judge. The reward granting unit 104 increases the number of points held associated with the user ID of the identified user. The reward granting unit 104 stores grant information indicating that the identified user has received a reward in the task database DB2. The reward giving unit 104 gives a reward to the user by executing a series of these processes.

なお、本実施形態では、全てのユーザで報酬が同じである場合を説明するが、ユーザに応じた報酬が付与されてもよい。例えば、報酬付与部104は、撮影画像をアップロードした数が多いほど、ユーザに付与される報酬が多くなるようにしてもよい。例えば、報酬付与部104は、過去に同様の3次元モデルを生成するために利用した撮影画像が多いほど、ユーザに付与される報酬が多くなるようにしてもよい。例えば、全ユーザのトータルの報酬が定められており、報酬付与部104は、トータルの報酬をユーザの数で割った報酬を、個々のユーザに付与してもよい。 In this embodiment, a case will be described in which all users receive the same remuneration, but remuneration may be provided depending on the user. For example, the reward granting unit 104 may increase the reward given to the user as the number of uploaded images increases. For example, the reward granting unit 104 may set the reward given to the user to increase as the number of captured images used to generate similar three-dimensional models in the past increases. For example, a total reward for all users is determined, and the reward giving unit 104 may give each user a reward obtained by dividing the total reward by the number of users.

[生成部]
生成部105は、オブジェクトが示されていると判定された撮影画像に基づいて、3次元モデルを生成する。本実施形態では、撮影条件が満たされるか否かについても判定されるので、生成部105は、撮影条件を満たすと判定された撮影画像に基づいて、3次元モデルを生成する。生成部105は、ユーザがアップロードした撮影画像だったとしても、撮影条件を満たさないと判定された撮影画像については、3次元モデルの生成で利用しない。本実施形態では、3次元モデルの生成で利用されなかった撮影画像をアップロードしたユーザについては、報酬が付与されないものとするが、このユーザに対し、ある程度の報酬が付与されてもよい。
[Generation part]
The generation unit 105 generates a three-dimensional model based on the captured image determined to show the object. In the present embodiment, it is also determined whether or not the photographing conditions are satisfied, so the generation unit 105 generates a three-dimensional model based on the photographed image determined to satisfy the photographing conditions. The generation unit 105 does not use a photographed image determined not to satisfy the photographing conditions to generate a three-dimensional model, even if the photographed image is uploaded by the user. In this embodiment, a user who uploads a photographed image that is not used in generating a three-dimensional model is not given a reward, but a certain amount of reward may be given to this user.

例えば、生成部105は、少なくとも1つの撮影画像に基づいて、3次元モデルを生成する。生成部105は、1つの撮影画像に基づいて、3次元モデルを生成してもよいし、複数の撮影画像に基づいて、3次元モデルを生成してもよい。本実施形態では、3次元モデルの生成方法として、ルールベースの方法と、機械学習手法と、の2つを説明するが、3次元モデルの生成方法自体は、種々の方法を利用可能である。3次元モデルの生成は、3次元形状の復元と呼ばれることもある。 For example, the generation unit 105 generates a three-dimensional model based on at least one captured image. The generation unit 105 may generate a three-dimensional model based on one captured image, or may generate a three-dimensional model based on a plurality of captured images. In this embodiment, two methods, a rule-based method and a machine learning method, will be described as three-dimensional model generation methods, but various methods can be used as the three-dimensional model generation methods themselves. Generation of a three-dimensional model is sometimes referred to as three-dimensional shape restoration.

例えば、生成部105は、ルールベースの方法として、SfM(Structure from Motion)又はSLAM(Simultaneous Localization And Mapping)を利用して、撮影画像から3次元モデルを生成する。SfMは、時系列画像又は動画を利用しない方法である。SLAMは、時系列画像又は動画を利用する方法である。生成部105は、撮影画像における前景と背景を分離したうえで、フォトグラメトリと呼ばれる手法を利用して、3次元モデルを生成してもよい。前景になりうるオブジェクトであれば、生成部105は、撮影画像の前景に基づいて、3次元モデルを生成する。背景になりうるオブジェクトであれば、生成部105は、撮影画像の背景に基づいて、3次元モデルを生成する。なお、前景と背景の分離は、背景差分法又はU2Netと呼ばれる手法を利用可能である。 For example, the generation unit 105 generates a three-dimensional model from the captured image using SfM (Structure from Motion) or SLAM (Simultaneous Localization And Mapping) as a rule-based method. SfM is a method that does not use time-series images or videos. SLAM is a method that uses time-series images or videos. The generation unit 105 may separate the foreground and background in the photographed image and then generate the three-dimensional model using a technique called photogrammetry. If the object can be the foreground, the generation unit 105 generates a three-dimensional model based on the foreground of the photographed image. If the object can be a background, the generation unit 105 generates a three-dimensional model based on the background of the photographed image. Note that a method called background subtraction method or U2Net can be used to separate the foreground and background.

例えば、生成部105は、Bundle Adjustmentの一例であるSfMに基づいて、撮影画像の低密度点群(簡易的な点群)を生成することによって、3次元モデルを生成してもよい。生成部105は、撮影部26のパラメータと、当該生成された低密度点群と、に基づいて、MVS(Multi-View-Stereo)処理を実行することによって、高密度点群を生成する。生成部105は、高密度点群に基づいて、3次元モデルを生成する。3次元モデルには、テクスチャがマッピングされてもよい。 For example, the generation unit 105 may generate a three-dimensional model by generating a low-density point group (simple point group) of the captured image based on SfM, which is an example of Bundle Adjustment. The generation unit 105 generates a high-density point group by executing MVS (Multi-View-Stereo) processing based on the parameters of the imaging unit 26 and the generated low-density point group. The generation unit 105 generates a three-dimensional model based on the high-density point group. A texture may be mapped to the three-dimensional model.

例えば、生成部105は、機械学習手法を利用した学習モデルに基づいて、3次元モデルを生成してもよい。学習モデルには、訓練用の撮影画像群が訓練データセットとして学習されている。学習モデルは、3次元モデルを任意の視点から見た画像を出力可能なモデルであってもよい。学習モデルは、NeRFベースのモデル、MLPベースのモデル、又はAttentionベースのモデルであってもよい。例えば、機械学習手法としては、非特許文献1の手法が利用されてもよい。1枚の撮影画像から3次元モデルを生成する機械学習手法が利用されてもよい。 For example, the generation unit 105 may generate a three-dimensional model based on a learning model using a machine learning technique. The learning model is trained with a group of captured images for training as a training data set. The learning model may be a model capable of outputting an image of a three-dimensional model viewed from an arbitrary viewpoint. The learning model may be a NeRF-based model, an MLP-based model, or an Attention-based model. For example, as the machine learning method, the method described in Non-Patent Document 1 may be used. A machine learning method that generates a three-dimensional model from a single photographed image may be used.

例えば、生成部105は、撮影画像から3次元モデルを生成すると、3次元モデルのデータをデータ記憶部100に記録する。3次元モデルのデータは、ユーザ端末20、判定者端末30、又は他の端末に送信されてもよい。仮想空間に設定された仮想カメラから3次元モデルを見た様子を示す仮想画像が、これらの端末に表示されてもよい。仮想カメラの位置及び向きは、ユーザ、判定者、又は他の者による操作によって変更可能であってもよい。生成部105は、撮影画像に基づいて3次元モデルのテクスチャ画像を生成し、当該生成されたテクスチャ画像を3次元モデルにマッピングしてもよい。 For example, when the generation unit 105 generates a three-dimensional model from a captured image, the generation unit 105 records data of the three-dimensional model in the data storage unit 100. The three-dimensional model data may be transmitted to the user terminal 20, the judge terminal 30, or another terminal. A virtual image showing how the three-dimensional model is viewed from a virtual camera set in the virtual space may be displayed on these terminals. The position and orientation of the virtual camera may be changeable by operation by a user, a judge, or another person. The generation unit 105 may generate a texture image of a three-dimensional model based on the captured image, and may map the generated texture image onto the three-dimensional model.

[3-2.ユーザ端末で実現される機能]
例えば、ユーザ端末20は、データ記憶部200及び撮影画像送信部201を含む。データ記憶部200は、記憶部22により実現される。撮影画像送信部201は、制御部21により実現される。
[3-2. Functions realized on user terminal]
For example, the user terminal 20 includes a data storage section 200 and a captured image transmission section 201. The data storage section 200 is realized by the storage section 22. The photographed image transmission section 201 is realized by the control section 21.

[データ記憶部]
データ記憶部200は、ユーザが報酬付与サービスを利用するために必要なデータを記憶する。例えば、データ記憶部200は、撮影部26により生成された撮影画像を記憶する。データ記憶部200は、撮影部26により生成された撮影画像ではなく、ウェブサイト等からダウンロードした撮影画像を記憶してもよい。
[Data storage unit]
The data storage unit 200 stores data necessary for the user to use the reward provision service. For example, the data storage section 200 stores photographed images generated by the photographing section 26. The data storage unit 200 may store captured images downloaded from a website or the like instead of the captured images generated by the imaging unit 26.

[撮影画像送信部]
撮影画像送信部201は、サーバ10に対し、撮影画像を送信する。例えば、撮影画像送信部201は、サーバ10に対し、一覧画面SC3で選択された撮影画像を送信する。撮影部26によりオブジェクトがその場で撮影される場合には、撮影画像送信部201は、サーバ10に対し、その場で生成された撮影画像を送信する。
[Photographed image transmission section]
The photographed image transmitting unit 201 transmits the photographed image to the server 10. For example, the photographed image transmitting unit 201 transmits the photographed image selected on the list screen SC3 to the server 10. When the object is photographed on the spot by the photographing section 26, the photographed image transmitting section 201 transmits the photographed image generated on the spot to the server 10.

[3-3.判定者端末で実現される機能]
例えば、判定者端末30は、データ記憶部300及び判定結果送信部301を含む。データ記憶部300は、記憶部32により実現される。判定結果送信部301は、制御部31により実現される。
[3-3. Functions realized on judge terminal]
For example, the judge terminal 30 includes a data storage section 300 and a judgment result transmitting section 301. The data storage section 300 is realized by the storage section 32. The determination result transmitter 301 is realized by the controller 31.

[データ記憶部]
データ記憶部300は、撮影画像の判定に必要なデータを記憶する。例えば、データ記憶部300は、審査画面SC5を表示させるためのブラウザ又は専用のアプリケーションを記憶する。
[Data storage unit]
The data storage unit 300 stores data necessary for determining captured images. For example, the data storage unit 300 stores a browser or a dedicated application for displaying the examination screen SC5.

[判定結果送信部]
判定結果送信部301は、サーバ10に対し、判定結果を送信する。本実施形態では、判定結果は、判定者による目視の判定結果である。判定結果を送信するとは、判定結果を示すデータを送信することである。例えば、判定結果送信部301は、サーバ10に対し、オブジェクトが撮影画像に示されているか否か判定結果を送信する。本実施形態では、単にオブジェクトが撮影画像に示されているか否かだけではなく、所定の撮影条件で撮影されているか否かも判定されるので、判定結果送信部301は、サーバ10に対し、所定の撮影条件で撮影されているか否かの判定結果を送信する。
[Judgment result transmitter]
The determination result transmitter 301 transmits the determination result to the server 10. In this embodiment, the determination result is a visual determination result by a judge. Transmitting the determination result means transmitting data indicating the determination result. For example, the determination result transmitting unit 301 transmits to the server 10 a determination result as to whether the object is shown in the photographed image. In this embodiment, it is determined not only whether the object is shown in the photographed image but also whether the object is photographed under predetermined photographing conditions. The determination result as to whether or not the photograph is taken under the photographing conditions is transmitted.

本実施形態では、判定者は、審査画面SC5から、撮影条件を満たす少なくとも1つの撮影画像を選択する。判定結果送信部301は、サーバ10に対し、判定者により選択された少なくとも1つの撮影画像を示す判定結果を送信する。サーバ10の判定結果取得部103は、判定者により選択された少なくとも1つの撮影画像を示す判定結果を受信することによって、当該少なくとも1つの撮影画像が撮影条件を満たすことを特定できる。 In this embodiment, the judge selects at least one photographed image that satisfies the photographing conditions from the examination screen SC5. The determination result transmitting unit 301 transmits to the server 10 a determination result indicating at least one captured image selected by the judge. The determination result acquisition unit 103 of the server 10 can specify that the at least one photographed image satisfies the photographing condition by receiving the determination result indicating the at least one photographed image selected by the judge.

なお、本実施形態とは逆に、判定者は、撮影条件を満たさない少なくとも1つの撮影画像を選択してもよい。この場合も、サーバ10の判定結果取得部103は、判定者により選択された少なくとも1つの撮影画像を示す判定結果を受信することによって、当該少なくとも1つの撮影画像以外の他の画像が撮影条件を満たすことを特定できる。 Note that, contrary to the present embodiment, the judge may select at least one photographed image that does not satisfy the photographing conditions. In this case as well, the determination result acquisition unit 103 of the server 10 receives the determination result indicating at least one photographed image selected by the judge, so that images other than the at least one photographed image meet the photographing conditions. You can specify what you want to meet.

[4.画像収集システムで実行される処理]
図8は、画像収集システム1で実行される処理の一例を示す図である。図8の処理は、制御部11,21,31が、それぞれ記憶部12,22,32に記憶されたプログラムに従って動作することによって実行される。
[4. Processing performed by the image acquisition system]
FIG. 8 is a diagram illustrating an example of processing executed by the image collection system 1. The processing in FIG. 8 is executed by the control units 11, 21, and 31 operating according to programs stored in the storage units 12, 22, and 32, respectively.

図8のように、サーバ10及びユーザ端末20の間で、ユーザを報酬付与サービスにログインさせるための処理が実行される(S1)。S1では、サーバ10は、ユーザが入力したユーザID及びパスワードがユーザデータベースDB1に存在するか否かを判定する。ログイン処理が成功すると、サーバ10及びユーザ端末20の間で、トップ画面SC1を表示部25に表示させるための処理を実行する(S2)。S2では、サーバ10は、タスクデータベースDB2に基づいて、期限内のタスクを特定し、当該特定されたタスクが並ぶトップ画面SC1を表示部25に表示させる。 As shown in FIG. 8, a process for logging the user into the reward granting service is executed between the server 10 and the user terminal 20 (S1). In S1, the server 10 determines whether the user ID and password input by the user exist in the user database DB1. If the login process is successful, a process for displaying the top screen SC1 on the display unit 25 is executed between the server 10 and the user terminal 20 (S2). In S2, the server 10 specifies tasks within the deadline based on the task database DB2, and causes the display unit 25 to display a top screen SC1 in which the specified tasks are lined up.

ユーザがトップ画面SC1のボタンB10を選択すると、サーバ10及びユーザ端末20の間で、詳細画面SC2を表示部25に表示させるための処理を実行する(S3)。S3では、サーバ10は、タスクデータベースDB2に基づいて、ユーザが選択したタスクの説明文等の情報を取得し、当該取得された情報を含む詳細画面SC2を表示部25に表示させる。ユーザが詳細画面SC2のボタンB20を選択すると、サーバ10及びユーザ端末20の間で、ユーザをタスクに参加させるための処理を実行する(S4)。S4では、サーバ10は、ユーザのユーザIDに関連付けて、ユーザが参加したタスクのタスクIDを含む参加タスク情報をユーザデータベースDB1に格納する。 When the user selects the button B10 on the top screen SC1, a process for displaying the detailed screen SC2 on the display unit 25 is executed between the server 10 and the user terminal 20 (S3). In S3, the server 10 acquires information such as a descriptive text of the task selected by the user based on the task database DB2, and causes the display unit 25 to display a detailed screen SC2 including the acquired information. When the user selects button B20 on the details screen SC2, a process for allowing the user to participate in the task is executed between the server 10 and the user terminal 20 (S4). In S4, the server 10 stores participating task information including the task ID of the task in which the user participated in the user database DB1 in association with the user ID of the user.

ユーザ端末20は、記憶部22に記憶された撮影画像に基づいて、一覧画面SC3を表示部25に表示させる(S5)。ユーザ端末20は、サーバ10に対し、一覧画面SC3から選択された撮影画像を送信する(S6)。サーバ10は、ユーザ端末20から撮影画像を受信すると(S7)、ユーザによるタスクの進行状況としてユーザデータベースDB1に撮影画像を格納する(S8)。以降、タスクの期限が訪れるまでの間、種々のユーザによりS1~S8の処理が実行され、ユーザデータベースDB1に撮影画像が蓄積される。 The user terminal 20 causes the display unit 25 to display a list screen SC3 based on the captured images stored in the storage unit 22 (S5). The user terminal 20 transmits the photographed image selected from the list screen SC3 to the server 10 (S6). When the server 10 receives the photographed image from the user terminal 20 (S7), the server 10 stores the photographed image in the user database DB1 as the progress status of the task by the user (S8). Thereafter, various users execute the processes S1 to S8 until the task deadline arrives, and captured images are accumulated in the user database DB1.

タスクの期限が訪れると、サーバ10及び判定者端末30の間で、審査画面SC5を表示部35に表示させるための処理を実行する(S9)。S9では、サーバ10は、ユーザデータベースDB1を参照し、種々のユーザがアップロードした撮影画像を取得する。サーバ10は、当該取得された撮影画像を含む審査画面SC5を表示部25に表示させる。判定者端末30は、操作部34の検出信号に基づいて、判定者による判定結果を受け付ける(S10)。S10では、判定者端末30は、判定者により選択された撮影画像を特定する。 When the deadline for the task arrives, a process for displaying the screening screen SC5 on the display unit 35 is executed between the server 10 and the judge terminal 30 (S9). In S9, the server 10 refers to the user database DB1 and acquires captured images uploaded by various users. The server 10 causes the display unit 25 to display the examination screen SC5 including the acquired photographic image. The judge terminal 30 receives the judgment result by the judge based on the detection signal from the operation unit 34 (S10). In S10, the judge terminal 30 identifies the captured image selected by the judge.

判定者端末30は、サーバ10に対し、S10で受け付けた判定結果を送信する(S11)。S11では、判定者端末30は、サーバ10に対し、判定者により選択された撮影画像を識別可能な情報を送信する。サーバ10は、判定者端末30から、判定者による判定結果を受信し(S12)、当該受信した判定結果に基づいて、ユーザに報酬を付与するための処理を実行し(S13)、本処理は、終了する。S13では、サーバ10は、判定者により選択された撮影画像をアップロードしたユーザのユーザIDと、所定のポイントと、を含む付与情報を、タスクデータベースDB2に格納する。ユーザに対するポイントの付与は、その後の任意のタイミングで実行される。 The judge terminal 30 transmits the judgment result received in S10 to the server 10 (S11). In S11, the judge terminal 30 transmits to the server 10 information that allows identification of the captured image selected by the judge. The server 10 receives the judgment result by the judge from the judge terminal 30 (S12), and executes a process for awarding a reward to the user based on the received judgment result (S13). ,finish. In S13, the server 10 stores grant information including the user ID of the user who uploaded the captured image selected by the judge and predetermined points in the task database DB2. Points are awarded to the user at any time thereafter.

本実施形態の画像収集システム1は、3次元モデルの生成対象となるオブジェクトが撮影画像に示されているか否かの判定結果に基づいて、撮影画像をアップロードしたユーザに対し、報酬を付与する。報酬によって、3次元モデルの生成対象となるオブジェクトが撮影画像に示された撮影画像をアップロードする動機付けをユーザに与えることができるので、3次元モデルを生成するために利用可能な撮影画像を効率よく収集できる。例えば、ユーザがアップロードした撮影画像にオブジェクトが示されてない場合に報酬が付与されると、ユーザは、3次元モデルの生成に貢献していないにもかかわらず、報酬を不当に獲得することになる。この点、オブジェクトが撮影砂像に示されているか否かの判定結果に基づいて報酬が付与されるので、ユーザが不当な報酬を獲得するといったことを防止できる。例えば、非特許文献2の技術では、視点が疎な領域や逆に集中している領域が存在する場合に3次元モデルの精度が落ちることが知られているが、種々のユーザから撮影画像を収集することによって、オブジェクトが全方位から撮影された撮影画像を収集しやすくなるので、3次元モデルの精度が高まる。例えば、オブジェクトに対する方向だけではなく、天候等の他の撮影条件もバラエティに富んだ撮影画像を収集できる。 The image collection system 1 of this embodiment provides a reward to the user who uploaded the photographed image based on the determination result of whether or not the object for which the three-dimensional model is to be generated is shown in the photographed image. The reward can motivate the user to upload the captured image in which the object for which the 3D model is to be generated is shown, so that the captured images that can be used to generate the 3D model can be efficiently used. Can be collected well. For example, if a reward is given when the object is not shown in the photographed image uploaded by the user, the user may end up receiving the reward unfairly even though he has not contributed to the generation of the 3D model. Become. In this regard, since the reward is given based on the determination result of whether the object is shown in the photographed sand image, it is possible to prevent the user from acquiring an unfair reward. For example, with the technology in Non-Patent Document 2, it is known that the accuracy of the 3D model decreases when there are areas where the viewpoints are sparse or concentrated. By collecting images, it becomes easier to collect images of the object taken from all directions, thereby increasing the accuracy of the three-dimensional model. For example, it is possible to collect a wide variety of photographed images not only in the direction of the object but also in other photographing conditions such as the weather.

また、画像収集システム1は、報酬付与サービスにおけるタスクとして、オブジェクトが示された撮影画像をアップロードすることが設定された場合に、ユーザ端末20から、撮影画像を収集する。これにより、種々のタスクが設定される報酬付与サービスにおけるタスクの1つとして、ユーザに撮影画像をアップロードさせることができるので、3次元モデルを生成するために利用可能な撮影画像を効率よく収集できる。例えば、普段から報酬付与サービスを利用して他のタスクを行っているユーザが、3次元モデルの生成対象となるオブジェクトが示された撮影画像を偶然保有していた場合に、ユーザに撮影画像をアップロードさせることができるので、撮影画像が集まりやすくなる。 Further, the image collection system 1 collects photographed images from the user terminal 20 when uploading a photographed image showing an object is set as a task in the reward provision service. This allows users to upload captured images as one of the tasks in a reward granting service where various tasks are set, so it is possible to efficiently collect captured images that can be used to generate a 3D model. . For example, if a user who normally uses a reward service to perform other tasks happens to have a photographed image showing an object for which a 3D model is to be generated, the user may be asked to send the photographed image to the user. Since you can upload images, it becomes easier to collect captured images.

また、画像収集システム1は、所定の撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。単にオブジェクトが示されているだけではなく、撮影条件も考慮した判定をすることによって、3次元モデルを生成するために利用可能な撮影画像を、より効率よく収集できる。 The image collection system 1 also obtains a determination result as to whether an object photographed under predetermined photographing conditions is shown in the photographed image. By making a determination that takes into account not only the object being shown but also the photographing conditions, photographed images that can be used to generate a three-dimensional model can be collected more efficiently.

また、画像収集システム1は、収集済みの撮影画像では足りていない撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。これにより、同じような撮影画像ばかりを収集するのではなく、3次元モデルを生成するために利用可能な撮影画像を満遍なく収集できる。例えば、オブジェクトが正面方向から撮影された撮影画像を収集済みである場合には、同じ方向からオブジェクトが撮影された撮影画像をそれ以上収集する必要性が低いが、他の方向から撮影された撮影画像であるか否かを判定することによって、オブジェクトが種々の方向から撮影された撮影画像を収集できる。 The image collection system 1 also obtains a determination result as to whether or not the captured image shows an object that was photographed under a photography condition that is not sufficient in the collected captured images. As a result, instead of collecting only similar captured images, it is possible to evenly collect captured images that can be used to generate a three-dimensional model. For example, if you have already collected images of an object taken from the front, there is little need to collect further images of the object taken from the same direction, but By determining whether the object is an image, images of the object taken from various directions can be collected.

また、画像収集システム1は、オブジェクトが示されていると判定された撮影画像に基づいて、3次元モデルを生成する。これにより、画像収集システム1が自ら3次元モデルを生成し、ユーザ等に提供できる。 Furthermore, the image collection system 1 generates a three-dimensional model based on the captured image determined to show the object. Thereby, the image collection system 1 can generate a three-dimensional model by itself and provide it to a user or the like.

また、画像収集システム1は、判定者端末30から、3次元モデルの生成対象となるオブジェクトが撮影画像に示されているか否かの判定結果を取得する。これにより、3次元モデルの生成に利用できないノイズとなる撮影画像を、判定者による判定によって除外できる。 Furthermore, the image collection system 1 acquires from the judge terminal 30 a determination result as to whether or not an object for which a three-dimensional model is to be generated is shown in the photographed image. This allows the judge to exclude captured images that constitute noise that cannot be used to generate a three-dimensional model.

[5.変形例]
なお、本開示は、以上に説明した実施形態に限定されるものではない。本開示の趣旨を逸脱しない範囲で、適宜変更可能である。
[5. Modified example]
Note that the present disclosure is not limited to the embodiments described above. Changes can be made as appropriate without departing from the spirit of the present disclosure.

図9は、変形例で実現される機能の一例を示す図である。図9のように、以降説明する変形例では、サーバ10は、表示制御部106、撮影条件設定部107、撮影判定部108、及び画像解析部109を含む。これらの機能は、制御部11により実現される。 FIG. 9 is a diagram illustrating an example of functions realized in a modified example. As shown in FIG. 9, in the modified example described below, the server 10 includes a display control section 106, an imaging condition setting section 107, an imaging determination section 108, and an image analysis section 109. These functions are realized by the control unit 11.

[変形例1]
例えば、実施形態では、予め定められた撮影条件を満たす撮影画像であるか否かを判定者が判定する場合を説明したが、判定結果取得部103は、収集済みの撮影画像に対応する収集済みの撮影条件との違いが閾値以上の撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得してもよい。変形例1では、実施形態と同様に、判定者による目視の判定が行われる場合を例に挙げる。
[Modification 1]
For example, in the embodiment, a case has been described in which the judge determines whether or not the photographed image satisfies predetermined photographing conditions. A determination result may be obtained as to whether or not an object photographed under a photographing condition with a difference from the photographing condition equal to or greater than a threshold value is shown in the photographed image. In Modification 1, as in the embodiment, a case where visual judgment is performed by a judge will be exemplified.

収集済みの撮影画像は、ある撮影画像の撮影条件を判定する時点で既に収集されている撮影画像である。変形例1では、判定者による目視の判定が行われて撮影画像が選択されるので、判定者により選択済みの撮影画像が収集済みの撮影画像に相当する。収集済みの撮影条件は、収集済みの撮影画像の撮影条件である。例えば、撮影条件の違いは、外部パラメータ及び内部パラメータの少なくとも一方の差である。変形例1では、外部パラメータである位置P及び向きVの違いが撮影条件の違いに相当する場合を説明するが、内部パラメータの違いに基づいて撮影画像が選択されてもよい。 The collected photographed images are photographed images that have already been collected at the time of determining the photographing conditions for a certain photographed image. In Modification 1, the photographed images are selected by the judge through visual judgment, so the photographed images selected by the judge correspond to the collected images. The collected photographing conditions are the photographing conditions of the collected photographed images. For example, the difference in imaging conditions is a difference in at least one of an external parameter and an internal parameter. In Modification 1, a case will be described in which a difference in the position P and direction V, which are external parameters, corresponds to a difference in imaging conditions, but a captured image may be selected based on a difference in internal parameters.

例えば、判定者は、審査画面SC5で選択済みの撮影画像の撮影条件との違いが閾値以上の撮影条件の撮影画像を選択する。判定者による目視の判定の場合、閾値は、判定者の感覚に依存する。判定者は、まだ選択していない撮影画像の中から、選択済みの撮影画像の位置P及び向きVとの違いが閾値以上の撮影画像を選択する。判定者は、3次元モデルの生成に十分な数の撮影画像を選択するまで、まだ選択していない撮影画像の中から、選択済みの撮影画像の位置P及び向きVとの違いが閾値以上の撮影画像を次々と選択する。判定者端末30は、実施形態と同様にして、サーバ10に対し、判定者により選択された撮影画像を示す判定結果を送信する。 For example, the judge selects a photographed image with a photographing condition that is different from the photographing condition of the selected photographic image on the examination screen SC5 by a threshold value or more. In the case of visual judgment by a judge, the threshold value depends on the sense of the judge. The judge selects a photographed image whose difference from the position P and orientation V of the selected photographed image is equal to or greater than a threshold value from among the photographed images that have not yet been selected. Until the judge has selected a sufficient number of captured images to generate a three-dimensional model, the judge selects from among the captured images that have not yet been selected, the difference between the position P and orientation V of the selected captured image that is greater than the threshold value. Select the captured images one after another. The judge terminal 30 transmits the judgment result indicating the photographed image selected by the judge to the server 10 in the same manner as in the embodiment.

判定結果取得部103は、実施形態と同様にして、判定者端末30から判定結果を取得する。報酬付与部104は、判定結果取得部103により取得された判定結果に基づいて、選択済みの撮影画像の撮影条件との違いが閾値以上の撮影条件の撮影画像をアップロードしたユーザに対し、報酬を付与する。報酬を付与する方法自体は、実施形態で説明した通りである。生成部105は、選択済みの撮影画像の撮影条件との違いが閾値以上の撮影条件の撮影画像に基づいて、3次元モデルを生成する。撮影画像から3次元モデルを生成する方法自体は、実施形態で説明した通りである。 The determination result acquisition unit 103 acquires the determination result from the judge terminal 30 in the same manner as in the embodiment. Based on the determination result acquired by the determination result acquisition unit 103, the reward granting unit 104 provides a reward to a user who uploads a photographed image under a photographing condition that differs from the photographing condition of the selected photographed image by a threshold value or more. Give. The method of giving rewards is the same as described in the embodiment. The generation unit 105 generates a three-dimensional model based on a photographed image under a photographing condition that is different from the photographing condition of the selected photographed image by a threshold value or more. The method itself for generating a three-dimensional model from a captured image is the same as described in the embodiment.

なお、後述の変形例12のように、判定者による目視の審査ではなく、画像解析によって判定結果が取得される場合には、後述の画像解析部109は、収集済みの撮影画像の撮影条件と、判定対象となる撮影画像の撮影条件と、を画像解析によって取得する。画像解析部109は、これらの撮影条件の違いが閾値以上であるか否かを判定する。例えば、撮影条件として位置P及び向きVが利用される場合には、画像解析部109は、収集済みの撮影画像に対して画像解析を実行することによって取得した位置P及び向きVと、判定対象となる撮影画像に対して画像解析を実行することによって取得した位置P及び向きVと、の違いが閾値以上であるか否かを判定すればよい。判定結果取得部103は、画像解析部109による判定結果を取得する。 Note that, as in Modification 12, which will be described later, when the determination result is obtained by image analysis rather than visual inspection by a judge, the image analysis unit 109, which will be described later, uses the shooting conditions of the collected captured images. , and the photographing conditions of the photographed image to be determined are acquired by image analysis. The image analysis unit 109 determines whether the difference in these imaging conditions is equal to or greater than a threshold value. For example, when the position P and direction V are used as the photographing conditions, the image analysis unit 109 uses the position P and direction V obtained by performing image analysis on the collected photographed images, and the determination target. What is necessary is to determine whether the difference between the position P and the direction V obtained by performing image analysis on the photographed image is equal to or greater than a threshold value. The determination result acquisition unit 103 acquires the determination result by the image analysis unit 109.

変形例1の画像収集システム1は、収集済みの撮影画像に対応する収集済みの撮影条件との違いが閾値以上の撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。これにより、同じような撮影画像ばかりを収集するのではなく、まだ収集できていない撮影画像を収集しやすくなるので、3次元モデルを生成するために利用可能な撮影画像を満遍なく収集できる The image collection system 1 of Modification 1 determines whether or not the captured image shows an object that was photographed under a photographing condition in which the difference from the collected photographic conditions corresponding to the collected photographed image is equal to or greater than a threshold value. get. This makes it easier to collect captured images that have not yet been collected, rather than collecting only similar captured images, making it possible to evenly collect captured images that can be used to generate a 3D model.

[変形例2]
例えば、実施形態では、予め定められた撮影条件を満たす撮影画像であるか否かを判定者が判定する場合を説明したが、判定結果取得部103は、3次元モデルを生成するために定められた制約を満たす撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得してもよい。制約とは、3次元モデルを生成するために利用可能な撮影画像になるための条件である。例えば、制約は、オブジェクトとの距離、焦点距離、角度、ぼやけ具合、又は明るさである。変形例2では、焦点距離が制約に相当する場合を説明する。制約となる焦点距離は予め定められているものとする。
[Modification 2]
For example, in the embodiment, a case has been described in which the judge judges whether or not the photographed image satisfies predetermined photographing conditions. A determination result may be obtained as to whether or not an object photographed under photographing conditions satisfying the constraints is shown in the photographed image. A constraint is a condition for a captured image to be usable for generating a three-dimensional model. For example, the constraints are distance to the object, focal length, angle, degree of blur, or brightness. In modification 2, a case where the focal length corresponds to the constraint will be described. It is assumed that the focal length serving as a constraint is determined in advance.

例えば、判定結果取得部103は、ある撮影画像の焦点距離が所定の範囲に収まるか否かの判定結果を、上記制約の判定結果として取得する。変形例2では、実施形態と同様に、判定者による目視の判定が行われる場合を例に挙げる。例えば、判定者は、審査画面SC5の中から、焦点距離が所定の範囲に収まる撮影画像を選択する。判定者端末30は、実施形態と同様にして、サーバ10に対し、判定者により選択された撮影画像を示す判定結果を送信する。 For example, the determination result acquisition unit 103 acquires the determination result of whether the focal length of a certain captured image falls within a predetermined range as the determination result of the above constraints. In Modification 2, as in the embodiment, a case where visual judgment is performed by a judge will be exemplified. For example, the judge selects a photographed image whose focal length falls within a predetermined range from the examination screen SC5. The judge terminal 30 transmits the judgment result indicating the photographed image selected by the judge to the server 10 in the same manner as in the embodiment.

判定結果取得部103は、実施形態と同様にして、判定者端末30から判定結果を取得する。報酬付与部104は、判定結果取得部103により取得された判定結果に基づいて、制約を満たす撮影条件で撮影されたオブジェクトが示されている撮影画像をアップロードしたユーザに対し、報酬を付与する。報酬を付与する方法自体は、実施形態で説明した通りである。生成部105は、制約を満たす撮影条件で撮影されたオブジェクトが示されている撮影画像に基づいて、3次元モデルを生成する。撮影画像から3次元モデルを生成する方法自体は、実施形態で説明した通りである。 The determination result acquisition unit 103 acquires the determination result from the judge terminal 30 in the same manner as in the embodiment. Based on the determination result acquired by the determination result acquisition unit 103, the reward granting unit 104 grants a reward to the user who uploads a photographed image showing an object photographed under photographing conditions that satisfy the constraints. The method of giving rewards is the same as described in the embodiment. The generation unit 105 generates a three-dimensional model based on a photographed image showing an object photographed under photographing conditions that satisfy the constraints. The method itself for generating a three-dimensional model from a captured image is the same as described in the embodiment.

なお、後述の変形例12のように、判定者による目視の審査ではなく、画像解析によって判定結果が取得される場合には、後述の画像解析部109は、撮影画像の撮影条件を画像解析によって取得する。例えば、画像解析部109は、複数の撮影画像の各々に対し、SIFT処理等を実行することによって、特徴点を抽出する。画像解析部109は、特徴点のパターンに基づいて、焦点距離等の撮影条件を特定する。 Note that, as in Modification 12, which will be described later, when the determination result is obtained by image analysis rather than visual examination by a judge, the image analysis unit 109, which will be described later, determines the photographing conditions of the photographed image by image analysis. get. For example, the image analysis unit 109 extracts feature points by performing SIFT processing or the like on each of the plurality of captured images. The image analysis unit 109 identifies photographing conditions such as focal length based on the pattern of feature points.

例えば、画像解析部109は、上記取得された撮影条件が制約を満たすか否かを判定する。例えば、制約として焦点距離が利用される場合には、画像解析部109は、撮影画像に対して画像解析を実行することによって取得した焦点距離が所定の範囲であるか否かを判定すればよい。なお、画像解析部109は、撮影画像間で特徴点をマッチングしてもよい。画像解析部109は、特徴点に基づいて、Bundle Adjustmentを実行し、再投影誤差を最小化することで、カメラの外部パラメータ又は内部パラメータといった撮影条件を特定してもよい。画像解析部109は、当該特定された撮影条件に基づいて、制約を満たすか否かを判定してもよい。 For example, the image analysis unit 109 determines whether the acquired imaging conditions satisfy the constraints. For example, when focal length is used as a constraint, the image analysis unit 109 may determine whether the acquired focal length is within a predetermined range by performing image analysis on the captured image. . Note that the image analysis unit 109 may match feature points between captured images. The image analysis unit 109 may specify imaging conditions such as external parameters or internal parameters of the camera by executing Bundle Adjustment based on the feature points and minimizing reprojection errors. The image analysis unit 109 may determine whether the constraints are satisfied based on the identified imaging conditions.

変形例2の画像収集システム1は、3次元モデルを生成するために定められた制約を満たす撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。3次元モデルを生成するために有用となる制約を予め定めておき、制約を満たすような撮影画像をアップロードしたユーザに報酬を付与することによって、3次元モデルを生成するために有用な撮影画像を効率よく収集できる。 The image collection system 1 of the second modification obtains a determination result as to whether or not an object photographed under photographing conditions that satisfy constraints set for generating a three-dimensional model is shown in a photographed image. By predetermining constraints that are useful for generating 3D models and giving rewards to users who upload captured images that satisfy the constraints, it is possible to generate captured images that are useful for generating 3D models. Can be collected efficiently.

[変形例3]
例えば、3次元モデルを生成するためには、ある撮影画像と、他の撮影画像と、がある程度は重複していなければ、これらの撮影画像をマッピングできないことがある。このため、互いにある程度の重複部分が含まれるように、3次元モデルを生成するために利用する複数の撮影画像の各々が取得されてもよい。
[Modification 3]
For example, in order to generate a three-dimensional model, it may not be possible to map a certain captured image and other captured images unless they overlap to some extent. For this reason, each of a plurality of captured images used to generate a three-dimensional model may be acquired so that they each include a certain amount of overlap.

図10は、互いに重複部分を含む複数の撮影画像の一例を示す図である。図10の例では、撮影画像I1は、オブジェクトの左端が切れている。撮影画像I2は、オブジェクトの右端が切れている。撮影画像I1,I2は、互いに60%程度の重複部分を有している。重複部分の割合は、3次元モデルの生成に有効な割合であればよく、60%に限られない。例えば、重複部分の割合は、50%~59%程度又は61%以上であってもよいし、50%未満であってもよい。以降、撮影画像I1,I2の符号を省略する。 FIG. 10 is a diagram illustrating an example of a plurality of captured images including mutually overlapping parts. In the example of FIG. 10, the left end of the object is cut off in the photographed image I1. In the photographed image I2, the right end of the object is cut off. The photographed images I1 and I2 have an overlapping portion of about 60% with each other. The ratio of the overlapping portion may be any ratio effective for generating a three-dimensional model, and is not limited to 60%. For example, the ratio of the overlapping portion may be approximately 50% to 59%, or 61% or more, or may be less than 50%. Hereinafter, the reference numerals of the photographed images I1 and I2 will be omitted.

変形例3の判定結果取得部103は、他の撮影画像と一部が重複するような撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。変形例3では、あるユーザが複数の撮影画像をアップロードする場合に、このユーザがアップロードした複数の撮影画像の中で重複部分が判定される場合を説明する。このため、画像収集部102は、ユーザ端末20から、複数の撮影画像を収集する。例えば、判定結果取得部103は、複数の撮影画像の中で一部が重複するような撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。変形例1では、実施形態と同様に、判定者による目視の判定が行われる場合を例に挙げる。 The determination result acquisition unit 103 of Modification 3 acquires a determination result as to whether or not a photographed image shows an object photographed under photographing conditions that partially overlap with other photographed images. In modification 3, a case will be described in which, when a certain user uploads a plurality of photographed images, overlapping portions are determined among the plurality of photographed images uploaded by this user. Therefore, the image collection unit 102 collects a plurality of captured images from the user terminal 20. For example, the determination result acquisition unit 103 acquires a determination result as to whether or not an object photographed under photographing conditions that partially overlap among a plurality of photographed images is shown in the photographed image. In Modification 1, as in the embodiment, a case where visual judgment is performed by a judge will be exemplified.

例えば、審査画面SC5には、ある特定のユーザがアップロードした複数の撮影画像の一覧が表示される。判定者は、審査画面SC5の中から、互いに所定以上の割合で重複する複数の撮影画像を選択する。判定者による目視の判定の場合、重複部分の割合の閾値は、判定者の感覚に依存する。判定者端末30は、実施形態と同様にして、サーバ10に対し、判定者により選択された撮影画像を示す判定結果を送信する。なお、重複部分が100%であり、全く同じ複数の撮影画像がアップロードされても3次元モデルの生成に有用ではないので、重複部分の上限となる閾値が存在してもよい。 For example, a list of a plurality of photographed images uploaded by a certain user is displayed on the examination screen SC5. The judge selects a plurality of photographed images that overlap each other at a predetermined ratio or more from the examination screen SC5. In the case of visual judgment by a judge, the threshold value for the ratio of overlapping portions depends on the sense of the judge. The judge terminal 30 transmits the judgment result indicating the photographed image selected by the judge to the server 10 in the same manner as in the embodiment. Note that even if the overlapped portion is 100% and a plurality of identical photographed images are uploaded, it is not useful for generating a three-dimensional model, so a threshold value may exist that is the upper limit of the overlapped portion.

判定結果取得部103は、実施形態と同様にして、判定者端末30から判定結果を取得する。報酬付与部104は、判定結果取得部103により取得された判定結果に基づいて、互いに重複するような撮影条件で撮影されたオブジェクトが示された複数の撮影画像をアップロードしたユーザに対し、報酬を付与する。報酬を付与する方法自体は、実施形態で説明した通りである。生成部105は、互いに重複するような撮影条件で撮影されたオブジェクトが示された複数の撮影画像に基づいて、3次元モデルを生成する。 The determination result acquisition unit 103 acquires the determination result from the judge terminal 30 in the same manner as in the embodiment. Based on the determination result acquired by the determination result acquisition unit 103, the reward granting unit 104 rewards a user who uploads a plurality of photographed images showing objects photographed under mutually overlapping photographing conditions. Give. The method of giving rewards is the same as described in the embodiment. The generation unit 105 generates a three-dimensional model based on a plurality of photographed images in which objects are photographed under mutually overlapping photographing conditions.

例えば、生成部105は、複数の撮影画像の各々の重複部分に基づいて互いのマッピングを実行し、3次元モデルを生成する。撮影画像の重複部分を互いにマッピングする方法自体は、公知の方法を利用可能である。生成部105は、互いに同じ特徴点の配置部分が重複部分だと判定し、撮影画像同士をマッピングする。生成部105は、互いにマッピングした撮影画像に基づいて、3次元モデルを生成する。撮影画像から3次元モデルを生成する方法自体は、実施形態で説明した種々の方法を利用可能である。例えば、生成部105は、互いにマッピングした撮影画像における特徴点のスクリーン座標(撮影画像上の次元座標)を、ジオメトリ処理によってワールド座標に変換することによって、3次元モデルを生成してもよい。 For example, the generation unit 105 performs mutual mapping based on the overlapping portions of each of the plurality of captured images, and generates a three-dimensional model. A known method can be used to map overlapping portions of photographed images to each other. The generation unit 105 determines that portions where the same feature points are arranged are overlapping portions, and maps the photographed images. The generation unit 105 generates a three-dimensional model based on the mutually mapped captured images. As a method for generating a three-dimensional model from a photographed image, various methods described in the embodiments can be used. For example, the generation unit 105 may generate a three-dimensional model by converting screen coordinates (dimensional coordinates on the photographed image) of feature points in the photographed images mapped to each other into world coordinates through geometry processing.

なお、後述の変形例12のように、判定者による目視の審査ではなく、画像解析によって判定結果が取得される場合には、後述の画像解析部109は、複数の撮影画像の各々の重複部分を、画像解析によって取得する。例えば、画像解析部109は、複数の撮影画像の各々から特徴点を抽出し、特徴点の配置が類似する部分を互いの重複部分として特定する。画像解析部109は、これらの重複部分が所定の割合であるか否かを判定する。割合は、撮影画像の横幅に対する割合であってもよいし、撮影画像の全画素のうち、重複部分の画素の割合であってもよい。 Note that, as in Modification 12, which will be described later, when the determination result is obtained by image analysis rather than visual inspection by a judge, the image analysis unit 109, which will be described later, analyzes the overlapping portions of each of the plurality of captured images. is obtained by image analysis. For example, the image analysis unit 109 extracts feature points from each of the plurality of captured images, and identifies portions where the arrangement of feature points is similar as mutually overlapping portions. The image analysis unit 109 determines whether these overlapping portions are at a predetermined ratio. The ratio may be a ratio to the width of the photographed image, or may be a ratio of pixels in the overlapping portion among all pixels of the photographed image.

変形例3の画像収集システム1は、他の撮影画像と一部が重複するような撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。3次元モデルを生成するためには、撮影画像同士である程度の重複部分が必要なことがあるが、他の撮影画像と重複した部分を含む撮影画像をアップロードしたユーザに報酬を付与することによって、3次元モデルを生成するために有用な撮影画像を効率よく収集できる。 The image collection system 1 of the third modification obtains a determination result as to whether or not a photographed image shows an object photographed under photographing conditions that partially overlap with other photographed images. In order to generate a 3D model, a certain amount of overlapping parts are sometimes required between photographed images, but by giving rewards to users who upload photographed images that include parts that overlap with other photographed images, Captured images useful for generating a three-dimensional model can be efficiently collected.

また、あるユーザ端末20から取得された複数の撮影画像の中で一部が重複するような撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。これにより、3次元モデルを生成するために有用な撮影画像を効率よく収集できる。例えば、重複部分の上限の閾値を設定する場合には、ある特定のユーザが同じ撮影画像ばかりをアップロードして不当に報酬を稼ぐといったことを防止できる。 Furthermore, a determination result is obtained as to whether or not an object photographed under photographing conditions such that some of the plurality of photographed images acquired from a certain user terminal 20 overlap is shown in the photographed image. Thereby, useful captured images for generating a three-dimensional model can be efficiently collected. For example, when setting a threshold for the upper limit of the overlapped portion, it is possible to prevent a certain user from uploading only the same captured images and earning unfair rewards.

[変形例4]
例えば、変形例3では、ある特定のユーザがアップロードした複数の撮影画像の中で重複部分が判定されたが、あるユーザがアップロードした撮影画像と、他のユーザがアップロードした撮影画像と、の間の重複部分が判定されてもよい。判定結果取得部103は、他のユーザ端末20から収集された他の撮影画像と一部が重複するような撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。重複部分の判定対象となるのが互いに異なるユーザがアップロードした撮影画像という点で変形例3とは異なるが、他の点については、変形例3と同様である。
[Modification 4]
For example, in Modification 3, overlapping parts are determined among multiple captured images uploaded by a certain user, but there is a difference between captured images uploaded by a certain user and captured images uploaded by another user. An overlapping portion of may be determined. The determination result acquisition unit 103 acquires a determination result as to whether or not the photographed image shows an object photographed under photographing conditions that partially overlap with other photographed images collected from other user terminals 20. do. This differs from Modification 3 in that images uploaded by different users are subject to overlapping portion determination, but is similar to Modification 3 in other respects.

変形例4の画像収集システム1は、他のユーザ端末から収集された他の撮影画像と一部が重複するような撮影条件で撮影されたオブジェクトが撮影画像に示されているか否かの判定結果を取得する。これにより、3次元モデルを生成するために有用な撮影画像を効率よく収集できる。 The image collection system 1 of modification 4 determines whether or not an object photographed under photographing conditions that partially overlaps with other photographed images collected from other user terminals is shown in the photographed image. get. Thereby, useful captured images for generating a three-dimensional model can be efficiently collected.

[変形例5]
例えば、ユーザは、撮影画像をアップロードする時に、どのような撮影条件の撮影画像であれば、3次元モデルの生成に有用であるか分からないことがある。このため、ユーザに撮影してほしい撮影条件を、詳細画面SC2等の画面に表示させるようにしてもよい。画像収集システム1は、表示制御部106を含む。表示制御部106は、ユーザ端末20に、撮影条件を表示させる。変形例5では、詳細画面SC2に撮影条件が表示される場合を例に挙げるが、トップ画面SC1等の他の画面に撮影条件が表示されてもよい。例えば、表示制御部106は、ユーザ端末20に対し、撮影条件を含む詳細画面SC2の表示データを送信することによって、撮影条件を表示させる。
[Modification 5]
For example, when uploading a photographed image, the user may not know under what photographing conditions the photographed image is useful for generating a three-dimensional model. For this reason, the shooting conditions that the user wants to shoot may be displayed on a screen such as the detailed screen SC2. The image collection system 1 includes a display control section 106. The display control unit 106 causes the user terminal 20 to display the shooting conditions. In the fifth modification, a case is exemplified in which the photographing conditions are displayed on the detailed screen SC2, but the photographing conditions may be displayed on other screens such as the top screen SC1. For example, the display control unit 106 causes the user terminal 20 to display the shooting conditions by transmitting display data of a detailed screen SC2 including the shooting conditions.

図11は、撮影条件が表示される様子の一例を示す図である。図11の例では、表示制御部106は、まだ収集できていない撮影条件を詳細画面SC2に表示させる。まだ収集できていない撮影条件は、判定者により判定されてデータ記憶部100に登録されてもよい。表示制御部106は、データ記憶部100に登録された撮影条件を、詳細画面SC2に表示させる。まだ収集できていない撮影条件は、判定者による判定ではなく、変形例1~4で説明した画像処理によって特定されてもよい。ユーザは、詳細画面SC2を確認し、まだ収集できていない撮影条件でオブジェクトが撮影された撮影画像をアップロードする。 FIG. 11 is a diagram illustrating an example of how photographing conditions are displayed. In the example of FIG. 11, the display control unit 106 displays the imaging conditions that have not yet been collected on the detailed screen SC2. The imaging conditions that have not yet been collected may be determined by a judge and registered in the data storage unit 100. The display control unit 106 causes the photographing conditions registered in the data storage unit 100 to be displayed on the detailed screen SC2. The imaging conditions that have not yet been collected may be specified by the image processing described in Modifications 1 to 4 instead of being determined by a judge. The user checks the details screen SC2 and uploads a photographed image in which the object is photographed under photographing conditions that have not yet been collected.

画像収集部102は、ユーザ端末20に撮影条件が表示された後に、ユーザ端末から、撮影画像を収集する。撮影条件が詳細画面SC2に表示される点で実施形態とは異なるが、他の点については、実施形態と同様である。ユーザは、詳細画面SC2に表示された撮影条件以外の他の撮影条件の撮影画像をアップロードしてはいけないわけではなく、任意の撮影条件の撮影画像をアップロード可能であるものとする。 The image collection unit 102 collects photographed images from the user terminal after the photographing conditions are displayed on the user terminal 20. This embodiment differs from the embodiment in that the photographing conditions are displayed on the detailed screen SC2, but is otherwise similar to the embodiment. The user is not prohibited from uploading images taken under shooting conditions other than those displayed on the detailed screen SC2, but is allowed to upload images taken under any shooting conditions.

変形例5の画像収集システム1は、ユーザ端末20に撮影条件が表示された後に、ユーザ端末20から、撮影画像を収集する。これにより、3次元モデルを生成するために収集したい撮影条件の撮影画像を効率よく収集できる。 The image collection system 1 of the fifth modification collects photographed images from the user terminal 20 after the photographing conditions are displayed on the user terminal 20. Thereby, it is possible to efficiently collect photographed images under the desired photographing conditions in order to generate a three-dimensional model.

[変形例6]
例えば、3次元モデルの生成に有用な撮影条件は、オブジェクトによって異なる。単純な構造のオブジェクトであれば、あまり細かく撮影条件が違わなくても精度の高い3次元モデルを生成できると思われる。複雑な構造のオブジェクトであれば、より細かく撮影条件が異なる撮影画像を収集しなければ精度の高い3次元モデルを生成できない可能性がある。このため、オブジェクトに応じて、どのような撮影条件の撮影画像を収集するかが設定されてもよい。
[Modification 6]
For example, imaging conditions useful for generating a three-dimensional model vary depending on the object. If the object has a simple structure, it seems possible to generate a highly accurate three-dimensional model even if the imaging conditions do not differ too much. If the object has a complex structure, it is possible that a highly accurate three-dimensional model cannot be generated unless captured images with different shooting conditions are collected. For this reason, the shooting conditions under which captured images are collected may be set depending on the object.

画像収集システム1は、撮影条件設定部107を含む。撮影条件設定部107は、オブジェクトに基づいて、撮影条件を設定する。オブジェクトと、撮影条件と、の関係は、予めデータ記憶部100に記憶されているものとする。この関係は、任意のデータ形式であってよく、例えば、テーブル形式、数式形式、機械学習手法のモデル、又はプログラムコードの一部であってもよい。撮影条件設定部107は、上記関係に基づいて、オブジェクトに関連付けられた撮影条件を設定する。 The image collection system 1 includes a shooting condition setting section 107. The photographing condition setting unit 107 sets photographing conditions based on the object. It is assumed that the relationship between objects and photographing conditions is stored in the data storage unit 100 in advance. This relationship may be in any data format, for example, a table format, a mathematical formula format, a model of a machine learning method, or a part of a program code. The photographing condition setting unit 107 sets photographing conditions associated with the object based on the above relationship.

例えば、撮影条件設定部107は、タスクデータベースDB2に撮影条件を格納することによって、オブジェクトに応じた撮影条件を設定する。撮影条件は、タスクデータベースDB2以外の場所に記録されてもよい。例えば、撮影条件設定部107は、オブジェクトの形状が複雑であるほど、より細かな撮影条件を設定する。撮影条件の設定方法が実施形態とは異なるが、他の点については、実施形態と同様である。 For example, the photographing condition setting unit 107 sets photographing conditions according to the object by storing the photographing conditions in the task database DB2. The photographing conditions may be recorded in a location other than the task database DB2. For example, the photographing condition setting unit 107 sets more detailed photographing conditions as the shape of the object becomes more complex. Although the method of setting photographing conditions is different from the embodiment, other points are similar to the embodiment.

変形例6の画像収集システム1は、オブジェクトに基づいて、撮影条件を設定する。これにより、オブジェクトに応じた撮影条件で撮影された撮影画像を収集できるので、3次元オブジェクトの生成に有用な撮影画像を収集しやすくなる。 The image collection system 1 of Modification 6 sets photographing conditions based on the object. This makes it possible to collect captured images that are captured under imaging conditions that match the object, making it easier to collect captured images that are useful for generating three-dimensional objects.

[変形例7]
例えば、実施形態のように撮影条件を予め定めておく場合には、まだ収集できていない撮影条件を特定できるが、現状収集できている撮影条件でひとまず3次元モデルを生成し、3次元モデルの精度が低い部分を補うような撮影条件が設定されてもよい。変形例7の撮影条件設定部107は、収集済みの撮影画像を利用して生成された3次元モデルに基づいて、撮影条件を設定する。
[Modification 7]
For example, if the shooting conditions are determined in advance as in the embodiment, it is possible to specify the shooting conditions that have not yet been collected, but first a 3D model is generated using the shooting conditions that have been collected at present, and then the 3D model is Photography conditions may be set to compensate for areas with low accuracy. The photographing condition setting unit 107 of Modification 7 sets photographing conditions based on a three-dimensional model generated using collected photographed images.

変形例7の生成部105は、タスクの期限が訪れる前の任意のタイミングで、現状収集できている撮影画像に基づいて、仮の3次元モデルを生成する。仮の3次元モデルの生成方法自体は、実施形態で説明した3次元モデルの生成方法と同様であってよい。仮の3次元モデルの生成で利用される撮影画像は、ユーザデータベースDB1に格納された全ての撮影画像であってもよいし、一部の撮影画像がランダムに選択されてもよい。判定者により、仮の3次元モデルの生成で利用される撮影画像が選択されてもよい。 The generation unit 105 of Modification 7 generates a temporary three-dimensional model based on the currently collected captured images at an arbitrary timing before the deadline of the task arrives. The method of generating the temporary three-dimensional model itself may be the same as the method of generating the three-dimensional model described in the embodiment. The photographed images used in the generation of the temporary three-dimensional model may be all the photographed images stored in the user database DB1, or some of the photographed images may be randomly selected. The judge may select a captured image to be used in generating the temporary three-dimensional model.

例えば、撮影条件設定部107は、仮の3次元モデルを2次元空間に複数視点から投影した上でSNR、PSNR、又はSSIMといった評価指標に基づき仮の3次元モデルの精度を評価する。撮影条件設定部107は、仮の3次元モデルのうち、精度が相対的に低い部分が撮影範囲に収まるような撮影条件を設定する。例えば、撮影条件設定部107は、仮の3次元モデルのうち、オブジェクトの後方の精度が相対的に低い場合には、オブジェクトを後方から撮影するような撮影条件(図7の例であれば、位置P5及び向きV5)を設定する。なお、仮の3次元モデルを判定者端末30に表示させ、判定者により足りない撮影条件が指定されてもよい。この場合、撮影条件設定部107は、判定者端末30から、判定者により指定された撮影条件を取得し、当該取得された撮影条件を設定してもよい。 For example, the imaging condition setting unit 107 projects the temporary three-dimensional model onto a two-dimensional space from a plurality of viewpoints, and then evaluates the accuracy of the temporary three-dimensional model based on an evaluation index such as SNR, PSNR, or SSIM. The photographing condition setting unit 107 sets photographing conditions such that a portion of the temporary three-dimensional model with relatively low accuracy falls within the photographing range. For example, if the accuracy of the rear part of the object is relatively low in the temporary three-dimensional model, the photographing condition setting unit 107 sets the photographing condition such that the object is photographed from the rear (in the example of FIG. 7, position P5 and direction V5). Note that the temporary three-dimensional model may be displayed on the judge terminal 30, and the missing imaging conditions may be specified by the judge. In this case, the imaging condition setting unit 107 may acquire the imaging conditions designated by the judge from the judge terminal 30 and set the acquired imaging conditions.

変形例7の画像収集システム1は、収集済みの撮影画像を利用して生成された3次元モデルに基づいて、撮影条件を設定する。これにより、3次元モデルの精度向上に有用な撮影画像を収集しやすくなる。例えば、オブジェクトのうち、仮の3次元モデルで相対的に精度が低い部分が撮影された撮影画像を収集しやすくなる。 The image collection system 1 of Modification 7 sets photographing conditions based on a three-dimensional model generated using collected photographed images. This makes it easier to collect captured images that are useful for improving the accuracy of the three-dimensional model. For example, it becomes easier to collect captured images in which parts of objects with relatively low accuracy are captured using a temporary three-dimensional model.

[変形例8]
例えば、表示制御部106は、ユーザ端末20に、収集済みの撮影画像を利用して生成された3次元モデルを表示させてもよい。この3次元モデルは、変形例7で説明した仮の3次元モデルである。変形例8では、表示制御部106が仮の3次元モデルを詳細画面SC2に表示させる場合を例に挙げるが、表示制御部106は、詳細画面SC2以外の他の画面に仮の3次元モデルを表示させてもよい。
[Modification 8]
For example, the display control unit 106 may cause the user terminal 20 to display a three-dimensional model generated using collected captured images. This three-dimensional model is the temporary three-dimensional model described in Modification Example 7. In Modified Example 8, an example is given in which the display control unit 106 displays a temporary 3D model on the detailed screen SC2, but the display control unit 106 displays the temporary 3D model on other screens other than the detailed screen SC2. It may be displayed.

画像収集部102は、ユーザ端末20に3次元モデルが表示された後に、ユーザ端末から、撮影画像を収集する。仮の3次元モデルが詳細画面SC2に表示される点で実施形態とは異なるが、他の点については、実施形態と同様である。ユーザは、詳細画面SC2に表示された仮の3次元モデルの精度が低い部分を補うような撮影条件以外の他の撮影条件の撮影画像をアップロードしてはいけないわけではなく、任意の撮影条件の撮影画像をアップロード可能であるものとする。 After the three-dimensional model is displayed on the user terminal 20, the image collection unit 102 collects captured images from the user terminal. This embodiment differs from the embodiment in that a temporary three-dimensional model is displayed on the detailed screen SC2, but is similar to the embodiment in other respects. The user is not prohibited from uploading images taken under shooting conditions other than those that compensate for the low accuracy of the temporary 3D model displayed on the details screen SC2, but the user may upload images under any shooting conditions. It is assumed that the photographed image can be uploaded.

変形例8の画像収集システム1は、ユーザ端末20に3次元モデルが表示された後に、ユーザ端末20から、撮影画像を収集する。これにより、ユーザは、3次元モデルの精度が低い箇所を理解したうえで撮影画像をアップロードできるようになる。その結果、3次元モデルの精度を高めるために有用な撮影画像を収集しやすくなる。また、ユーザが撮影画像をアップロードするたびに、ユーザ端末20に表示される3次元モデルの精度が徐々に高まるので、ユーザの興趣性が高まり、撮影画像をアップロードする動機付けをユーザに強く与えることができる。 The image collection system 1 of Modification 8 collects captured images from the user terminal 20 after the three-dimensional model is displayed on the user terminal 20. This allows the user to upload captured images after understanding the locations where the accuracy of the three-dimensional model is low. As a result, it becomes easier to collect useful captured images to improve the accuracy of the three-dimensional model. Furthermore, each time the user uploads a photographed image, the accuracy of the three-dimensional model displayed on the user terminal 20 gradually increases, which increases the user's interest and strongly motivates the user to upload the photographed image. Can be done.

[変形例9]
例えば、実施形態では、3次元モデルの生成対象になるオブジェクトが1つである場合を説明したが、複数のオブジェクトが、生成対象になってもよい。変形例9では、観光地に存在する寺の敷地内における複数の建造物の各々が3次元モデルの生成対象になる場合を例に挙げる。判定結果取得部103は、複数のオブジェクトのうちの少なくとも1つが撮影画像に示されているか否かの判定結果を取得する。
[Modification 9]
For example, in the embodiment, a case has been described in which there is one object to be generated for a three-dimensional model, but a plurality of objects may be to be generated. In modification 9, a case will be exemplified in which each of a plurality of buildings on the premises of a temple located in a tourist spot is a three-dimensional model generation target. The determination result acquisition unit 103 acquires a determination result as to whether at least one of the plurality of objects is shown in the photographed image.

なお、判定対象となるものが複数のオブジェクトのうちの少なくとも1つである点で実施形態とは異なるが、他の点については、実施形態と同様である。変形例9では、判定者による目視により、撮影画像に示されたオブジェクトが判定される場合を説明する。このため、判定結果取得部103は、判定者により判定されたオブジェクトの種類を取得することによって、上記判定結果を取得する。後述の変形例12のように、画像解析が実行される場合には、画像解析部109は、パターンマッチング又は機械学習手法等の公知の物体検出手法を利用して、撮影画像に示されたオブジェクトが何であるかを特定すればよい。 Note that this embodiment differs from the embodiment in that the object to be determined is at least one of a plurality of objects, but is similar to the embodiment in other respects. In modification 9, a case will be described in which an object shown in a photographed image is determined by visual inspection by a judge. Therefore, the determination result acquisition unit 103 acquires the determination result by acquiring the type of object determined by the judge. When image analysis is performed as in Modified Example 12 described below, the image analysis unit 109 uses a known object detection method such as pattern matching or machine learning method to detect the object shown in the captured image. All you have to do is specify what it is.

変形例9の報酬付与部104は、複数のオブジェクトのうち、撮影画像に示されたオブジェクトに基づいて、ユーザに対し、報酬を付与する。変形例9では、オブジェクトと、報酬と、の関係が報酬情報に定義されているものとする。例えば、オブジェクトごとに報酬が異なるように、この関係に定義されている。報酬付与部104は、撮影画像に示されたオブジェクトに関連付けられた報酬を、ユーザに付与する。例えば、寺の敷地に配置された複数の建造物のうち、特に人気が高い建造物の報酬が相対的に高くなるように、上記関係が定義されている。 The reward giving unit 104 of Modification 9 gives a reward to the user based on the object shown in the photographed image among the plurality of objects. In modification 9, it is assumed that the relationship between objects and rewards is defined in reward information. For example, this relationship is defined so that rewards are different for each object. The reward giving unit 104 gives the user a reward associated with the object shown in the photographed image. For example, the above relationship is defined such that, among a plurality of buildings placed on a temple site, a particularly popular building receives a relatively high reward.

変形例9の画像収集システム1は、複数のオブジェクトのうち、撮影画像に示されたオブジェクトに基づいて、ユーザに対し、報酬を付与する。これにより、複数のオブジェクトが3次元モデルの生成対象になる場合に、特に撮影画像を収集したいオブジェクトの報酬を高める等することによって、撮影画像を収集しやすくなる。 The image collection system 1 of modification 9 provides a reward to the user based on the object shown in the photographed image among the plurality of objects. As a result, when a plurality of objects are targets for three-dimensional model generation, it becomes easier to collect captured images by, for example, increasing the reward for objects whose captured images are particularly desired to be collected.

[変形例10]
例えば、撮影画像にオブジェクトが撮影されていたとしても、障害物によってオブジェクトの一部が隠れていることがある。3次元モデルの生成には、障害物はノイズにしかならないので、報酬付与部104は、判定結果と、撮影画像のうちオブジェクトが示された部分と、に基づいて、ユーザに対し、報酬を付与してもよい。例えば、報酬付与部104は、撮影画像におけるオブジェクトが示された部分が多いほど報酬が多くなるように、ユーザに対し、報酬を付与する。なお、障害物はオブジェクトの前景に相当するので、実施形態で説明した前景と背景を分離する手法を利用して、障害物が検出されるようにすればよい。報酬付与部104は、撮影画像の全画素のうち、オブジェクトが示された画素の割合を計算し、ユーザに対し、報酬を付与する。
[Modification 10]
For example, even if an object is photographed in a photographed image, a portion of the object may be hidden by an obstacle. Since obstacles are only noise when generating a three-dimensional model, the reward giving unit 104 gives a reward to the user based on the determination result and the portion of the photographed image in which the object is shown. You may. For example, the reward giving unit 104 gives a reward to the user such that the more objects are shown in the photographed image, the more the reward is. Note that since the obstacle corresponds to the foreground of the object, the obstacle may be detected using the method of separating the foreground and background described in the embodiment. The reward giving unit 104 calculates the proportion of pixels in which an object is shown among all the pixels of the photographed image, and gives a reward to the user.

変形例10の画像収集システム1は、判定結果取得部103により取得された判定結果と、撮影画像のうちオブジェクトが示された部分と、に基づいて、ユーザに対し、報酬を付与する。これにより、障害物ばかりでオブジェクトがほとんど撮影されていない撮影画像をアップロードしたユーザに報酬が付与されるといったことを防止できる。 The image collection system 1 of Modification 10 provides a reward to the user based on the determination result acquired by the determination result acquisition unit 103 and the portion of the photographed image in which the object is shown. This can prevent rewards from being given to a user who has uploaded a photographed image that is full of obstacles and almost no objects.

[変形例11]
例えば、ユーザが、他人のSNSから撮影画像を勝手にダウンロードし、自身が撮影した撮影画像と偽って勝手にアップロードする可能性がある。このような場合にユーザに報酬を付与するのは、報酬付与サービスの趣旨として好ましくない。このような不正を防止するために、ユーザがオブジェクトを自分で撮影したか否かを判定し、自分でオブジェクトを撮影したユーザに対し、報酬が付与されるようにしてもよい。
[Modification 11]
For example, a user may download a photographed image from another person's SNS without permission and upload the photographed image falsely as a photographed image taken by the user. It is not desirable for the purpose of the reward provision service to provide a reward to the user in such a case. In order to prevent such fraud, it may be determined whether the user has photographed the object himself or not, and a reward may be given to the user who has photographed the object himself.

変形例11の画像収集システム1は、撮影判定部108を含む。撮影判定部108は、ユーザがオブジェクトを自分で撮影することによって撮影画像が生成されたか否かを判定する。例えば、撮影判定部108は、アップロードされた撮影画像と、ユーザデータベースDB1に格納された撮影画像と、を比較し、これらが完全に一致していた場合には、ユーザがオブジェクトを自分で撮影することによって撮影画像が生成されたと判定せず、他人の撮影画像を勝手にアップロードしたと判定する。 The image collection system 1 of Modification 11 includes an imaging determination unit 108. The photographing determination unit 108 determines whether a photographed image is generated by the user photographing the object himself or not. For example, the photographing determination unit 108 compares the uploaded photographed image with the photographed image stored in the user database DB1, and if they completely match, the user photographs the object himself. Therefore, it is not determined that the photographed image has been generated, but that the photographed image of another person has been uploaded without permission.

例えば、撮影画像の付帯情報として撮影者の名前が撮影画像に関連付けられている場合には、撮影判定部108は、撮影画像の撮影者の名前と、ユーザデータベースDB1に格納されたユーザの名前と、が一致するか否かを判定し、これらが一致した場合に、ユーザがオブジェクトを自分で撮影することによって撮影画像が生成されたか否かを判定してもよい。例えば、撮影判定部108は、SNSから種々の撮影画像を収集し、アップロードされた撮影画像と、SNSから収集した撮影画像と、を比較し、これらが完全に一致していた場合には、ユーザがオブジェクトを自分で撮影することによって撮影画像が生成されたと判定せず、他人の撮影画像を勝手にアップロードしたと判定してもよい。 For example, if the name of the photographer is associated with the photographed image as incidental information of the photographed image, the photographing determination unit 108 may combine the name of the photographer of the photographed image with the name of the user stored in the user database DB1. , and if they match, it may be determined whether the captured image was generated by the user photographing the object himself or not. For example, the photographing determination unit 108 collects various photographed images from SNS, compares the uploaded photographed image and the photographed image collected from the SNS, and if they completely match, the user Instead of determining that the photographed image was generated by photographing the object by the person himself/herself, it may be determined that the photographed image was uploaded without permission by another person.

変形例11の報酬付与部104は、オブジェクトを自分で撮影したユーザに対し、報酬を付与する。例えば、報酬付与部104は、オブジェクトを自分で撮影しなかったユーザには報酬を付与しない。報酬付与部104は、オブジェクトを自分で撮影しなかったユーザに報酬は付与するが、オブジェクトを自分で撮影したユーザよりも低い報酬にしてもよい。報酬付与部104が、撮影判定部108の判定結果に基づいて、ユーザに報酬を付与する点で実施形態とは異なるが、報酬の付与方法自体は、実施形態で説明した通りである。 The reward giving unit 104 of Modification 11 gives a reward to the user who has photographed the object himself/herself. For example, the reward giving unit 104 does not give a reward to a user who does not photograph the object himself/herself. The reward granting unit 104 gives a reward to a user who did not photograph the object himself, but may give a lower reward than a user who photographed the object himself. This embodiment differs from the embodiment in that the reward granting unit 104 grants a reward to the user based on the determination result of the photographing determination unit 108, but the method of granting the reward itself is the same as described in the embodiment.

変形例11の画像収集システム1は、オブジェクトを自分で撮影したユーザに対し、報酬を付与する。これにより、他人のSNS等から入手した撮影画像を勝手にアップロードするといった不正を防止しやすくなる。 The image collection system 1 of Modification 11 provides a reward to a user who photographs an object by himself/herself. This makes it easier to prevent fraud such as uploading a captured image obtained from someone else's SNS without permission.

[変形例12]
例えば、先述したように、判定結果取得部103が取得する判定結果は、判定者による目視ではなく、撮影画像に対する画像解析によって取得されてもよい。画像収集システム1は、画像解析部109を含む。画像解析部109は、撮影画像を画像解析することによって、オブジェクトが撮影画像に示されているか否かを判定する。判定結果取得部103は、画像解析に基づく判定結果を取得する。画像解析部109の処理の一例は、変形例1~3で説明した通りである。
[Modification 12]
For example, as described above, the determination result acquired by the determination result acquisition unit 103 may be acquired by image analysis of a photographed image rather than by visual observation by a judge. The image collection system 1 includes an image analysis section 109. The image analysis unit 109 determines whether an object is shown in the captured image by analyzing the captured image. The determination result acquisition unit 103 acquires determination results based on image analysis. An example of the processing by the image analysis unit 109 is as described in Modifications 1 to 3.

例えば、画像解析部109は、パターンマッチング又は機械学習手法といった物体検出法に基づいて、3次元モデルの生成対象となるオブジェクトが撮影画像に示されているか否かを判定してもよい。画像解析部109は、変形例2で説明した手法に基づいて、カメラの外部パラメータ又は内部パラメータを撮影画像の撮影条件として取得し、実施形態で説明した撮影条件を満たすか否かを判定してもよい。画像解析部109は、その他の画像解析手法によって撮影条件を取得し、実施形態で説明した撮影条件を満たすか否かを判定してもよい。 For example, the image analysis unit 109 may determine whether or not an object for which a three-dimensional model is to be generated is shown in the photographed image based on an object detection method such as pattern matching or a machine learning method. The image analysis unit 109 acquires the external parameters or internal parameters of the camera as the imaging conditions of the captured image based on the method described in the second modification, and determines whether the imaging conditions described in the embodiment are satisfied. Good too. The image analysis unit 109 may obtain the imaging conditions using another image analysis method and determine whether the imaging conditions described in the embodiment are satisfied.

変形例12の画像収集システム1は、撮影画像に対する画像解析に基づく判定結果を取得する。これにより、判定者による判定をする必要がなくなる。また、判定者による判定がないため、報酬を付与するまでの処理の流れがスムーズになる。 The image collection system 1 of Modification 12 obtains a determination result based on image analysis of a photographed image. This eliminates the need for a judge to make a judgment. Furthermore, since there is no judgment by a judge, the flow of processing up to the awarding of rewards becomes smoother.

[その他の変形例]
例えば、上記説明した変形例を組み合わせてもよい。
[Other variations]
For example, the modifications described above may be combined.

例えば、旅行予約サービスで予約可能な宿泊施設又はその周辺に存在する観光名所がオブジェクトに相当してもよい。この場合、宿泊施設又は観光名所がランドマークタワーとして設定され、ランドマークタワーの撮影画像を提供したユーザに対し、より多くの報酬が付与されてもよい。宿泊施設又はその周辺で撮影された撮影画像を収集するにあたり、所定の範囲内のGPS位置情報を示す撮影画像のみ提供が受け付けられてもよい。基本的には、屋外の建築物又は道路といったパブリックスペースのオブジェクトが想定されるが、屋内等に配置されたオブジェクトであってもよい。 For example, the object may be an accommodation facility that can be booked through a travel reservation service or a tourist attraction that exists around the accommodation facility. In this case, an accommodation facility or a tourist attraction may be set as a landmark tower, and a larger reward may be given to a user who provides a photographed image of the landmark tower. When collecting images taken at the accommodation facility or its surroundings, only the images showing GPS position information within a predetermined range may be accepted. Basically, objects in public spaces such as outdoor buildings or roads are assumed, but objects placed indoors or the like may also be used.

例えば、実施形態では、種々のタスク(図2の例では、レシートを仕分けるタスクと電波強度を確認するタスク)が設定される報酬付与サービスのタスクとして、ユーザに撮影画像をアップロードさせる場合を説明したが、特に報酬付与サービスのタスクではなく、ユーザに撮影画像をアップロードさせてもよい。例えば、報酬付与サービスとは関係のないウェブサイトからユーザが撮影画像をアップロードしてもよい。 For example, in the embodiment, a case has been described in which a user is asked to upload a photographed image as a task of a reward service in which various tasks (in the example of FIG. 2, a task of sorting receipts and a task of checking radio field strength) are set. However, it is also possible to have the user upload a photographed image, rather than the task of the remuneration service. For example, a user may upload a photographed image from a website unrelated to the reward provision service.

例えば、サーバ10で実現されるものとして説明した機能は、ユーザ端末20、判定者端末30、又は他のコンピュータで実現されてもよい。例えば、1台のコンピュータで実現されるものとして説明した機能は、複数のコンピュータで分担されてもよい。各機能は、少なくとも1つのコンピュータで実現されるようにすればよい。 For example, the functions described as being implemented by the server 10 may be implemented by the user terminal 20, the judge terminal 30, or another computer. For example, functions described as being implemented by one computer may be shared among multiple computers. Each function may be realized by at least one computer.

[6.付記]
例えば、画像収集システムは、下記のような構成も可能である。
[6. Additional notes]
For example, the image acquisition system can also have the following configuration.

(1)
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集部と、
3次元モデルの生成対象となるオブジェクトが前記撮影画像に示されているか否かの判定結果を取得する判定結果取得部と、
前記判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与部と、
を含む画像収集システム。
(2)
前記画像収集システムは、所定のタスクを達成すると報酬を付与する報酬付与サービスにおける前記タスクとして、前記オブジェクトが示された前記撮影画像をアップロードすることを設定するタスク設定部を更に含み、
前記画像収集部は、前記タスクが設定された場合に、前記ユーザ端末から、前記撮影画像を収集する、
(1)に記載の画像収集システム。
(3)
前記判定結果取得部は、所定の撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かの前記判定結果を取得する、
(1)又は(2)に記載の画像収集システム。
(4)
前記3次元モデルの生成には、複数の前記撮影条件の各々で前記オブジェクトを撮影する必要があり、
前記判定結果取得部は、収集済みの撮影画像では足りていない前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かの前記判定結果を取得する、
(3)に記載の画像収集システム。
(5)
前記判定結果取得部は、前記収集済みの撮影画像に対応する収集済みの撮影条件との違いが閾値以上の前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かの前記判定結果を取得する、
(4)に記載の画像収集システム。
(6)
前記判定結果取得部は、前記3次元モデルを生成するために定められた制約を満たす前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かの前記判定結果を取得する、
(3)~(5)の何れかに記載の画像収集システム。
(7)
前記判定結果取得部は、他の撮影画像と一部が重複するような前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かの前記判定結果を取得する、
(3)~(5)の何れかに記載の画像収集システム。
(8)
前記画像収集部は、前記ユーザ端末から、複数の前記撮影画像を収集し、
前記判定結果取得部は、前記複数の撮影画像の中で前記一部が重複するような前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かの前記判定結果を取得する、
(7)に記載の画像収集システム。
(9)
前記判定結果取得部は、他のユーザ端末から収集された前記他の撮影画像と前記一部が重複するような前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かの前記判定結果を取得する、
(7)又は(8)に記載の画像収集システム。
(10)
前記画像収集システムは、前記ユーザ端末に、前記撮影条件を表示させる表示制御部を更に含み、
前記画像収集部は、前記ユーザ端末に前記撮影条件が表示された後に、前記ユーザ端末から、前記撮影画像を収集する、
(3)~(9)の何れかに記載の画像収集システム。
(11)
前記画像収集システムは、前記オブジェクトに基づいて、前記撮影条件を設定する撮影条件設定部を更に含む、
(3)~(10)の何れかに記載の画像収集システム。
(12)
前記画像収集システムは、前記オブジェクトが示されていると判定された前記撮影画像に基づいて、前記3次元モデルを生成する生成部を更に含む、
(1)~(11)の何れかに記載の画像収集システム。
(13)
前記画像収集システムは、収集済みの撮影画像を利用して生成された前記3次元モデルに基づいて、前記撮影条件を設定する撮影条件設定部を更に含む、
(1)~(12)の何れかに記載の画像収集システム。
(14)
前記画像収集システムは、前記ユーザ端末に、収集済みの撮影画像を利用して生成された前記3次元モデルを表示させる表示制御部を更に含み、
前記画像収集部は、前記ユーザ端末に前記3次元モデルが表示された後に、前記ユーザ端末から、前記撮影画像を収集する、
(1)~(13)の何れかに記載の画像収集システム。
(15)
複数のオブジェクトが、前記生成対象になり、
前記判定結果取得部は、前記複数のオブジェクトのうちの少なくとも1つが前記撮影画像に示されているか否かの判定結果を取得し、
前記報酬付与部は、前記複数のオブジェクトのうち、前記撮影画像に示された前記オブジェクトに基づいて、前記ユーザに対し、前記報酬を付与する、
(1)~(14)の何れかに記載の画像収集システム。
(16)
前記報酬付与部は、前記判定結果と、前記撮影画像のうち前記オブジェクトが示された部分と、に基づいて、前記ユーザに対し、前記報酬を付与する、
(1)~(15)の何れかに記載の画像収集システム。
(17)
前記画像収集システムは、前記ユーザが前記オブジェクトを自分で撮影することによって前記撮影画像が生成されたか否かを判定する撮影判定部を更に含み、
前記報酬付与部は、前記オブジェクトを自分で撮影した前記ユーザに対し、前記報酬を付与する、
(1)~(16)の何れかに記載の画像収集システム。
(18)
前記画像収集システムは、前記撮影画像を画像解析することによって、前記オブジェクトが前記撮影画像に示されているか否かを判定する画像解析部を更に含み、
前記判定結果取得部は、前記画像解析に基づく前記判定結果を取得する、
(1)~(17)の何れかに記載の画像収集システム。
(19)
前記判定結果取得部は、前記オブジェクトが前記撮影画像に示されているか否かを判定する判定者の判定者端末から、前記判定結果を取得する、
(1)~(18)の何れかに記載の画像収集システム。
(1)
an image collection unit that collects captured images generated by the imaging unit from the user terminal of the user;
a determination result acquisition unit that acquires a determination result as to whether or not an object for which a three-dimensional model is to be generated is shown in the photographed image;
a reward giving unit that gives a reward to the user based on the determination result;
Image acquisition system including.
(2)
The image collection system further includes a task setting unit that sets uploading the photographed image in which the object is shown as the task in a reward granting service that grants a reward when a predetermined task is accomplished,
The image collection unit collects the photographed images from the user terminal when the task is set.
The image collection system according to (1).
(3)
The determination result acquisition unit acquires the determination result as to whether or not the object photographed under predetermined photographing conditions is shown in the photographed image.
The image collection system according to (1) or (2).
(4)
In order to generate the three-dimensional model, it is necessary to photograph the object under each of the plurality of photographing conditions,
The determination result acquisition unit acquires the determination result as to whether or not the object photographed under the photographing conditions for which the collected photographic images are insufficient is shown in the photographed image.
The image collection system described in (3).
(5)
The determination result acquisition unit determines whether or not the object photographed under the photographing conditions in which a difference from the collected photographing conditions corresponding to the collected photographic images is equal to or more than a threshold value is shown in the photographed image. Obtain the judgment results,
The image collection system according to (4).
(6)
The determination result acquisition unit acquires the determination result as to whether or not the object photographed under the photographing conditions that satisfy constraints set for generating the three-dimensional model is shown in the photographed image.
The image collection system according to any one of (3) to (5).
(7)
The determination result acquisition unit acquires the determination result as to whether or not the object photographed under the photographing conditions that partially overlap with another photographed image is shown in the photographed image.
The image collection system according to any one of (3) to (5).
(8)
The image collection unit collects the plurality of captured images from the user terminal,
The determination result acquisition unit acquires the determination result as to whether or not the object photographed under the photographing conditions such that some of the plurality of photographed images overlap is shown in the photographed image. ,
The image collection system according to (7).
(9)
The determination result acquisition unit determines whether or not the object photographed under the photographing conditions that partially overlaps the other photographed image collected from another user terminal is shown in the photographed image. obtaining the determination result;
The image collection system according to (7) or (8).
(10)
The image collection system further includes a display control unit that causes the user terminal to display the imaging conditions,
The image collection unit collects the photographed images from the user terminal after the photographing conditions are displayed on the user terminal.
The image collection system according to any one of (3) to (9).
(11)
The image collection system further includes a photographing condition setting unit that sets the photographing conditions based on the object.
The image collection system according to any one of (3) to (10).
(12)
The image collection system further includes a generation unit that generates the three-dimensional model based on the captured image determined to show the object.
The image collection system according to any one of (1) to (11).
(13)
The image collection system further includes a photographing condition setting unit that sets the photographing conditions based on the three-dimensional model generated using the collected photographed images.
The image collection system according to any one of (1) to (12).
(14)
The image collection system further includes a display control unit that causes the user terminal to display the three-dimensional model generated using the collected captured images,
The image collection unit collects the photographed images from the user terminal after the three-dimensional model is displayed on the user terminal.
The image collection system according to any one of (1) to (13).
(15)
A plurality of objects are the generation targets,
The determination result acquisition unit acquires a determination result as to whether at least one of the plurality of objects is shown in the photographed image,
The reward giving unit gives the reward to the user based on the object shown in the captured image among the plurality of objects.
The image collection system according to any one of (1) to (14).
(16)
The reward giving unit gives the reward to the user based on the determination result and a portion of the photographed image in which the object is shown.
The image collection system according to any one of (1) to (15).
(17)
The image collection system further includes a photographing determination unit that determines whether the photographed image is generated by the user photographing the object himself/herself,
The reward giving unit gives the reward to the user who has photographed the object by himself.
The image collection system according to any one of (1) to (16).
(18)
The image collection system further includes an image analysis unit that determines whether the object is shown in the captured image by analyzing the captured image,
The determination result acquisition unit acquires the determination result based on the image analysis.
The image collection system according to any one of (1) to (17).
(19)
The determination result acquisition unit acquires the determination result from a judge terminal of a judge who determines whether the object is shown in the photographed image.
The image collection system according to any one of (1) to (18).

1 画像収集システム、10 サーバ、11,21,31 制御部、12,22,32 記憶部、13,23,33 通信部、20 ユーザ端末、24,34 操作部、25,35 表示部、26 撮影部、30 判定者端末、N ネットワーク、100 データ記憶部、101 タスク設定部、102 画像収集部、103 判定結果取得部、104 報酬付与部、105 生成部、106 表示制御部、107 撮影条件設定部、108 撮影判定部、109 画像解析部、200 データ記憶部、201 撮影画像送信部、300 データ記憶部、301 判定結果送信部、B10,B20 ボタン、DB1 ユーザデータベース、DB2 タスクデータベース、SC1 トップ画面、SC2 詳細画面、SC3 一覧画面、SC4 完了画面、SC5 審査画面。

1 image collection system, 10 server, 11, 21, 31 control unit, 12, 22, 32 storage unit, 13, 23, 33 communication unit, 20 user terminal, 24, 34 operation unit, 25, 35 display unit, 26 photography unit, 30 judge terminal, N network, 100 data storage unit, 101 task setting unit, 102 image collection unit, 103 judgment result acquisition unit, 104 reward giving unit, 105 generation unit, 106 display control unit, 107 photographing condition setting unit , 108 photography determination unit, 109 image analysis unit, 200 data storage unit, 201 photography image transmission unit, 300 data storage unit, 301 determination result transmission unit, B10, B20 button, DB1 user database, DB2 task database, SC1 top screen, SC2 details screen, SC3 list screen, SC4 completion screen, SC5 review screen.

Claims (22)

ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集部と、
3次元モデルの生成対象となるオブジェクトであって、前記3次元モデルの生成には、複数の撮影条件の各々で前記オブジェクトを撮影する必要がある前記オブジェクトが示された前記撮影画像を画像解析することによって、前記撮影画像の撮影条件を取得し、収集済みの撮影画像では足りていない前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを判定する画像解析部と、
前記画像解析部の判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与部と、
を含画像収集システム。
an image collection unit that collects captured images generated by the imaging unit from the user terminal of the user;
Image analysis of the photographed image showing the object that is a target for generation of a three-dimensional model, and for which it is necessary to photograph the object under each of a plurality of photographing conditions in order to generate the three-dimensional model. an image analysis unit that acquires the photographing conditions of the photographed image and determines whether or not the object photographed under the photographing conditions that are insufficient in the collected photographic images is shown in the photographed image;
a reward granting unit that grants a reward to the user based on the determination result of the image analysis unit ;
Image acquisition system including .
前記画像収集システムは、所定のタスクを達成すると報酬を付与する報酬付与サービスにおける前記タスクとして、前記オブジェクトが示された前記撮影画像をアップロードすることを設定するタスク設定部を更に含み、
前記画像収集部は、前記タスクが設定された場合に、前記ユーザ端末から、前記撮影画像を収集する、
請求項1に記載の画像収集システム。
The image collection system further includes a task setting unit that sets uploading the photographed image in which the object is shown as the task in a reward granting service that grants a reward when a predetermined task is accomplished,
The image collection unit collects the photographed images from the user terminal when the task is set.
The image acquisition system according to claim 1.
前記画像解析部は、前記収集済みの撮影画像に対応する収集済みの前記撮影条件との違いが閾値以上の前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを判定する、
請求項1又は2に記載の画像収集システム。
The image analysis unit determines whether or not the object photographed under the photographing condition in which a difference from the collected photographing condition corresponding to the collected photographic image is equal to or more than a threshold is shown in the photographed image. do,
The image acquisition system according to claim 1 or 2.
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集部と、
3次元モデルの生成対象となるオブジェクトであって、前記3次元モデルを生成するために定められた制約を満たす所定の撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを、前記撮影画像の画像解析によって判定する画像解析部と、
前記画像解析部の判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与部と、
を含む画像収集システム。
an image collection unit that collects captured images generated by the imaging unit from the user terminal of the user;
Determine whether or not the object for which a three-dimensional model is to be generated, which was photographed under predetermined photographing conditions that satisfy constraints set for generating the three-dimensional model, is shown in the photographed image. , an image analysis unit that makes a determination by image analysis of the photographed image ;
a reward granting unit that grants a reward to the user based on the determination result of the image analysis unit ;
Image acquisition system including.
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集部と、
3次元モデルの生成対象となるオブジェクトであって、他の撮影画像と一部が重複するような所定の撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを、前記撮影画像の画像解析によって判定する画像解析部と、
前記画像解析部の判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与部と、
を含む画像収集システム。
an image collection unit that collects captured images generated by the imaging unit from the user terminal of the user;
The photographed image determines whether or not the object for which a three-dimensional model is to be generated, which was photographed under predetermined photographing conditions that partially overlap with other photographed images, is shown in the photographed image. an image analysis unit that makes a determination by image analysis of the image ;
a reward granting unit that grants a reward to the user based on the determination result of the image analysis unit ;
Image acquisition system including.
前記画像収集部は、前記ユーザ端末から、複数の前記撮影画像を収集し、
前記画像解析部は、前記複数の撮影画像の中で前記一部が重複するような前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを判定する、
請求項5に記載の画像収集システム。
The image collection unit collects the plurality of captured images from the user terminal,
The image analysis unit determines whether or not the object photographed under the photographing conditions such that some of the plurality of photographed images overlap is shown in the photographed image.
The image acquisition system according to claim 5.
前記画像解析部は、他のユーザ端末から収集された前記他の撮影画像と前記一部が重複するような前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを判定する、
請求項5又は6に記載の画像収集システム。
The image analysis unit determines whether the object photographed under the photographing conditions that partially overlaps the other photographed image collected from another user terminal is shown in the photographed image. do,
The image acquisition system according to claim 5 or 6.
前記画像収集システムは、前記ユーザ端末に、前記撮影条件を表示させる表示制御部を更に含み、
前記画像収集部は、前記ユーザ端末に前記撮影条件が表示された後に、前記ユーザ端末から、前記撮影画像を収集する、
請求項1又は2又は4又は5又は6に記載の画像収集システム。
The image collection system further includes a display control unit that causes the user terminal to display the imaging conditions,
The image collection unit collects the photographed images from the user terminal after the photographing conditions are displayed on the user terminal.
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
前記画像収集システムは、前記オブジェクトに基づいて、前記撮影条件を設定する撮影条件設定部を更に含む、
請求項1又は2又は4又は5又は6に記載の画像収集システム。
The image collection system further includes a photographing condition setting unit that sets the photographing conditions based on the object.
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
前記画像収集システムは、前記オブジェクトが示されていると判定された前記撮影画像に基づいて、前記3次元モデルを生成する生成部を更に含む、
請求項1又は2又は4又は5又は6に記載の画像収集システム。
The image collection system further includes a generation unit that generates the three-dimensional model based on the captured image determined to show the object.
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
前記画像収集システムは、収集済みの撮影画像を利用して生成された仮の前記3次元モデルを2次元空間に複数視点から投影し、SNR、PSNR、又はSSIMの評価指標に基づき前記仮の3次元モデルの精度を評価し、前記仮の3次元モデルのうち、精度が相対的に低い部分が撮影範囲に収まるような前記撮影条件を設定する撮影条件設定部を更に含む、
請求項1又は2又は4又は5又は6に記載の画像収集システム。
The image collection system projects the temporary three-dimensional model generated using the collected captured images onto a two-dimensional space from multiple viewpoints, and calculates the temporary three-dimensional model based on the evaluation index of SNR, PSNR, or SSIM. further comprising a photographing condition setting unit that evaluates the accuracy of the dimensional model and sets the photographing conditions such that a portion of the temporary three-dimensional model with relatively low accuracy falls within the photographing range;
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
前記画像収集システムは、前記ユーザ端末に、収集済みの撮影画像を利用して生成された前記3次元モデルを表示させる表示制御部を更に含み、
前記画像収集部は、前記ユーザ端末に前記3次元モデルが表示された後に、前記ユーザ端末から、前記撮影画像を収集する、
請求項1又は2又は4又は5又は6に記載の画像収集システム。
The image collection system further includes a display control unit that causes the user terminal to display the three-dimensional model generated using the collected captured images,
The image collection unit collects the photographed images from the user terminal after the three-dimensional model is displayed on the user terminal.
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
複数のオブジェクトが、前記生成対象になり、
前記画像解析は、前記複数のオブジェクトのうちの少なくとも1つが前記撮影画像に示されているか否かを判定し、
前記報酬付与部は、前記複数のオブジェクトのうち、前記撮影画像に示された前記オブジェクトに基づいて、前記ユーザに対し、前記報酬を付与する、
請求項1又は2又は4又は5又は6に記載の画像収集システム。
A plurality of objects are the generation targets,
The image analysis determines whether at least one of the plurality of objects is shown in the captured image,
The reward giving unit gives the reward to the user based on the object shown in the captured image among the plurality of objects.
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
前記報酬付与部は、前記判定結果と、前記撮影画像のうち前記オブジェクトが示された部分と、に基づいて、前記ユーザに対し、前記報酬を付与する、
請求項1又は2又は4又は5又は6に記載の画像収集システム。
The reward giving unit gives the reward to the user based on the determination result and a portion of the photographed image in which the object is shown.
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
前記画像収集システムは、前記ユーザが前記オブジェクトを自分で撮影することによって前記撮影画像が生成されたか否かを判定する撮影判定部を更に含み、
前記報酬付与部は、前記オブジェクトを自分で撮影した前記ユーザに対し、前記報酬を付与する、
請求項1又は2又は4又は5又は6に記載の画像収集システム。
The image collection system further includes a photographing determination unit that determines whether the photographed image is generated by the user photographing the object himself/herself,
The reward granting unit grants the reward to the user who has photographed the object himself.
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
前記画像解析部は、前記撮影画像を画像解析することによって、前記オブジェクトが前記撮影画像に示されているか否かを判定する
請求項1又は2又は4又は5又は6に記載の画像収集システム。
The image analysis unit determines whether the object is shown in the captured image by performing image analysis on the captured image .
The image acquisition system according to claim 1 or 2 or 4 or 5 or 6.
コンピュータが、
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集ステップと、
3次元モデルの生成対象となるオブジェクトであって、前記3次元モデルの生成には、複数の撮影条件の各々で前記オブジェクトを撮影する必要がある前記オブジェクトが示された前記撮影画像を画像解析することによって、前記撮影画像の撮影条件を取得し、収集済みの撮影画像では足りていない前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを判定する画像解析ステップと、
前記画像解析ステップの判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与ステップと、
を実行する画像収集方法。
The computer is
an image collection step of collecting captured images generated by the imaging unit from the user's user terminal;
Image analysis of the photographed image showing the object that is a target for generation of a three-dimensional model, and for which it is necessary to photograph the object under each of a plurality of photographing conditions in order to generate the three-dimensional model. an image analysis step of acquiring the photographing conditions of the photographed image and determining whether or not the object photographed under the photographing conditions, which is insufficient in the collected photographic images, is shown in the photographed image;
a reward granting step of granting a reward to the user based on the determination result of the image analysis step ;
Image collection method to perform .
コンピュータが、
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集ステップと、
3次元モデルの生成対象となるオブジェクトであって、前記3次元モデルを生成するために定められた制約を満たす所定の撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを、前記撮影画像の画像解析によって判定する画像解析ステップと、
前記画像解析ステップの判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与ステップと、
を実行する画像収集方法。
The computer is
an image collection step of collecting captured images generated by the imaging unit from the user's user terminal;
Determine whether or not the object for which a three-dimensional model is to be generated, which was photographed under predetermined photographing conditions that satisfy constraints set for generating the three-dimensional model, is shown in the photographed image. , an image analysis step of determining by image analysis of the photographed image ;
a reward granting step of granting a reward to the user based on the determination result of the image analysis step ;
Image collection method to perform.
コンピュータが、
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集ステップと、
3次元モデルの生成対象となるオブジェクトであって、他の撮影画像と一部が重複するような所定の撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを、前記撮影画像の画像解析によって判定する画像解析ステップと、
前記画像解析ステップの判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与ステップと、
を実行する画像収集方法。
The computer is
an image collection step of collecting captured images generated by the imaging unit from the user's user terminal;
The photographed image determines whether or not the object for which a three-dimensional model is to be generated, which was photographed under predetermined photographing conditions that partially overlap with other photographed images, is shown in the photographed image. an image analysis step of determining by image analysis of the image ;
a reward granting step of granting a reward to the user based on the determination result of the image analysis step ;
Image collection method to perform.
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集部、
3次元モデルの生成対象となるオブジェクトであって、前記3次元モデルの生成には、複数の撮影条件の各々で前記オブジェクトを撮影する必要がある前記オブジェクトが示された前記撮影画像を画像解析することによって、前記撮影画像の撮影条件を取得し、収集済みの撮影画像では足りていない前記撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを判定する画像解析部、
前記画像解析部の判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与部、
としてコンピュータを機能させプログラム。
an image collection unit that collects captured images generated by the imaging unit from the user terminal of the user;
Image analysis of the photographed image showing the object that is a target for generation of a three-dimensional model, and for which it is necessary to photograph the object under each of a plurality of photographing conditions in order to generate the three-dimensional model. an image analysis unit that acquires the photographing conditions of the photographed image and determines whether or not the object photographed under the photographing conditions that are insufficient in the collected photographic images is shown in the photographed image;
a reward granting unit that grants a reward to the user based on the determination result of the image analysis unit ;
A program that makes a computer function as
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集部、
3次元モデルの生成対象となるオブジェクトであって、前記3次元モデルを生成するために定められた制約を満たす所定の撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを、前記撮影画像の画像解析によって判定する画像解析部、
前記画像解析部の判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与部、
としてコンピュータを機能させるためのプログラム。
an image collection unit that collects captured images generated by the imaging unit from the user terminal of the user;
Determine whether or not the object for which a three-dimensional model is to be generated, which was photographed under predetermined photographing conditions that satisfy constraints set for generating the three-dimensional model, is shown in the photographed image. , an image analysis unit that makes a determination by image analysis of the photographed image ;
a reward granting unit that grants a reward to the user based on the determination result of the image analysis unit ;
A program that allows a computer to function as a computer.
ユーザのユーザ端末から、撮影部により生成された撮影画像を収集する画像収集部、
3次元モデルの生成対象となるオブジェクトであって、他の撮影画像と一部が重複するような所定の撮影条件で撮影された前記オブジェクトが前記撮影画像に示されているか否かを、前記撮影画像の画像解析によって判定する画像解析部、
前記画像解析部の判定結果に基づいて、前記ユーザに対し、報酬を付与する報酬付与部、
としてコンピュータを機能させるためのプログラム。
an image collection unit that collects captured images generated by the imaging unit from the user terminal of the user;
The photographed image determines whether or not the object for which a three-dimensional model is to be generated, which was photographed under predetermined photographing conditions that partially overlap with other photographed images, is shown in the photographed image. an image analysis unit that makes a determination by image analysis of the image ;
a reward granting unit that grants a reward to the user based on the determination result of the image analysis unit ;
A program that allows a computer to function as a computer.
JP2022148982A 2022-09-20 2022-09-20 Image collection system, image collection method, and program Active JP7414918B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022148982A JP7414918B1 (en) 2022-09-20 2022-09-20 Image collection system, image collection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022148982A JP7414918B1 (en) 2022-09-20 2022-09-20 Image collection system, image collection method, and program

Publications (2)

Publication Number Publication Date
JP7414918B1 true JP7414918B1 (en) 2024-01-16
JP2024043792A JP2024043792A (en) 2024-04-02

Family

ID=89534369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022148982A Active JP7414918B1 (en) 2022-09-20 2022-09-20 Image collection system, image collection method, and program

Country Status (1)

Country Link
JP (1) JP7414918B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017171005A1 (en) 2016-04-01 2017-10-05 株式会社wise 3-d graphic generation, artificial intelligence verification and learning system, program, and method
JP2018195026A (en) 2017-05-16 2018-12-06 伸介 佐藤 Advertisement system
US20190019337A1 (en) 2017-05-11 2019-01-17 Monsarrat, Inc. Augmented reality social media platform
JP2019079166A (en) 2017-10-23 2019-05-23 株式会社豊田中央研究所 Road measurement device, road measurement method, and road measurement program
JP2021117822A (en) 2020-01-28 2021-08-10 野村ホールディングス株式会社 Information processing device, method, and program
JP2021177317A (en) 2020-05-08 2021-11-11 シンメトリー・ディメンションズ・インク Three-dimensional model construction system and three-dimensional model construction method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017171005A1 (en) 2016-04-01 2017-10-05 株式会社wise 3-d graphic generation, artificial intelligence verification and learning system, program, and method
US20190019337A1 (en) 2017-05-11 2019-01-17 Monsarrat, Inc. Augmented reality social media platform
JP2018195026A (en) 2017-05-16 2018-12-06 伸介 佐藤 Advertisement system
JP2019079166A (en) 2017-10-23 2019-05-23 株式会社豊田中央研究所 Road measurement device, road measurement method, and road measurement program
JP2021117822A (en) 2020-01-28 2021-08-10 野村ホールディングス株式会社 Information processing device, method, and program
JP2021177317A (en) 2020-05-08 2021-11-11 シンメトリー・ディメンションズ・インク Three-dimensional model construction system and three-dimensional model construction method

Also Published As

Publication number Publication date
JP2024043792A (en) 2024-04-02

Similar Documents

Publication Publication Date Title
US11941713B2 (en) Image analysis system
JP6452186B2 (en) Insurance compensation fraud prevention method, system, apparatus and readable recording medium based on coincidence of multiple photos
JP7152780B2 (en) REAL ESTATE VALUATION SYSTEM, METHOD AND PROGRAM
US9542417B2 (en) Preferred image retrieval
Davis et al. Pilbara rock art: laser scanning, photogrammetry and 3D photographic reconstruction as heritage management tools
CN104641399B (en) System and method for creating environment and for location-based experience in shared environment
Morgan et al. Standard methods for creating digital skeletal models using structure‐from‐motion photogrammetry
CN107683498B (en) The automatic connection of image is carried out using visual signature
JP4153761B2 (en) 3D model space generation device, 3D model space generation method, and 3D model space generation program
JP6849256B1 (en) 3D model construction system and 3D model construction method
Song et al. A handheld device for measuring the diameter at breast height of individual trees using laser ranging and deep-learning based image recognition
JP6600674B2 (en) Moving object virtual information remote management method and moving object virtual information remote management system
Elkhrachy Modeling and visualization of three dimensional objects using low-cost terrestrial photogrammetry
JP2002181536A (en) Photogrammetric service system
JP7414918B1 (en) Image collection system, image collection method, and program
Krasić et al. Comparative analysis of terrestrial semi-automatic and automatic photogrammetry in 3D modeling process
AU2018102253A4 (en) Improved insurance system
KR102310706B1 (en) Complex 3d area information database trade system
Caldera-Cordero et al. Analysis of free image-based modelling systems applied to support topographic measurements
Tang et al. Photo-based automatic 3D reconstruction of train accident scenes
KR102467862B1 (en) A computer program for real estate management stored in a recording medium and a real estate management system using a computer program and an unmanned aerial vehicle
JP7552167B2 (en) Setting device, communication system, setting method, and program
KR102642755B1 (en) System for providing 3dimension scan data of geographic features
Ulvi et al. A New Technology for Documentation Cultural Heritage with Fast, Practical, and Cost-Effective Methods IPAD Pro LiDAR and Data Fusion
Sümer et al. Automatic near-photorealistic 3-D modelling and texture mapping for rectilinear buildings

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R150 Certificate of patent or registration of utility model

Ref document number: 7414918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150