JP2017049977A - Information addition method and server apparatus - Google Patents

Information addition method and server apparatus Download PDF

Info

Publication number
JP2017049977A
JP2017049977A JP2016106557A JP2016106557A JP2017049977A JP 2017049977 A JP2017049977 A JP 2017049977A JP 2016106557 A JP2016106557 A JP 2016106557A JP 2016106557 A JP2016106557 A JP 2016106557A JP 2017049977 A JP2017049977 A JP 2017049977A
Authority
JP
Japan
Prior art keywords
image
information
probability
threshold
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016106557A
Other languages
Japanese (ja)
Other versions
JP6801985B2 (en
Inventor
令子 羽川
Reiko Hagawa
令子 羽川
育規 石井
Yasunori Ishii
育規 石井
宗太郎 築澤
Sotaro Tsukizawa
宗太郎 築澤
高橋 正樹
Masaki Takahashi
正樹 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US15/228,334 priority Critical patent/US9817471B2/en
Publication of JP2017049977A publication Critical patent/JP2017049977A/en
Application granted granted Critical
Publication of JP6801985B2 publication Critical patent/JP6801985B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To extract only an image about a specific object from a large amount of images not inclusive of an intention of a photographer, and to generate a set of large-scale image data.SOLUTION: An information addition method is configured to: acquire an image transmitted, via a network, from any of at least one or more terminals having a function of capturing an image or acquiring an image from another device via the network; calculate a probability that a prescribed capturing object is included in the acquired image; and when the probability is higher than a first threshold, add information indicative of the prescribed capturing object to the image, and when the probability is lower than a second threshold, not add the information indicative of the prescribed capturing object to the image, and when the probability is equal to or higher than the second threshold, and equal to or lower than the first threshold, transmit the image and request reception information for receiving addition of the information with respect to the image to any of the at least one or more terminals via the network.SELECTED DRAWING: Figure 4

Description

本開示は、画像などに情報を付与する方法に関する。   The present disclosure relates to a method for adding information to an image or the like.

近年、Deep Learningと呼ばれる画像認識技術の精度が急速に向上している。このDeep Learningは、従来とは違い認識に用いる特徴量を自動で学習するという特長を持つ。しかしその反面、Deep Learningによる認識システムを構築するためには大規模な学習用画像データセットが必要となる。   In recent years, the accuracy of image recognition technology called Deep Learning has been rapidly improved. This deep learning has a feature that it automatically learns a feature amount used for recognition unlike the conventional case. On the other hand, a large-scale learning image data set is required to construct a deep learning recognition system.

Deep Learningでは、画像中に含まれる何らかの特定の物体(例えば動物や階段など、あらゆる生物や構造物を含む)を認識したい場合、その特定の物体を映した画像を集めた大規模な画像データセットを作成し、学習に用いる。認識精度向上のためには、認識対象が映った多様な画像を網羅的かつ大量に収集することが効果的であるということが知られている。また、Deep Learningに用いることに限らなくとも、例えば研究用途や特定の画像を提供するサービスを運営する場合など、特定の撮影対象物が写っている多様な画像を収集したいというニーズは高まっている。   In Deep Learning, when you want to recognize any specific object included in an image (including any living organisms and structures such as animals and stairs), a large-scale image data set that collects images showing that specific object Is used for learning. In order to improve the recognition accuracy, it is known that it is effective to collect a wide variety of images showing the recognition target in a comprehensive manner. Even if it is not limited to using for deep learning, there is an increasing need to collect various images that show a specific object to be photographed, such as when operating a service that provides specific images for research purposes. .

特許文献1、特許文献2では、大量の画像を集める手法をそれぞれ開示している。   Patent Documents 1 and 2 each disclose a technique for collecting a large amount of images.

特許第4297193号公報Japanese Patent No. 4297193 特開平10−267671号公報Japanese Patent Laid-Open No. 10-267671

しかし、特許文献1または特許文献2では、撮影者の意図を含まない大量の画像から、特定の物体に関する画像のみを抽出し、大規模な画像データセットを生成する(または特定の物体に関する画像にタグ情報を付与する)方法に関しては、検討がされていなかった。   However, in Patent Document 1 or Patent Document 2, only an image related to a specific object is extracted from a large amount of images that do not include the photographer's intention, and a large-scale image data set is generated (or an image related to a specific object). The method of assigning tag information) has not been studied.

上記課題を解決すべく、本開示に係る情報付与方法は、サーバの情報付与方法であって、前記サーバのプロセッサが、ネットワークを介して、画像を撮像する機能もしくは他の機器から画像を取得する機能を有する1以上の端末のいずれかからネットワークを介して送信された画像を取得し、取得した前記画像に対して、所定の撮影対象物が含まれる確率を算出し、前記確率が第1の閾値より上である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与し、前記確率が第2の閾値より下である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与せず、前記確率が前記第2の閾値以上でありかつ前記第1の閾値以下である場合は、前記画像と、前記画像への情報付与を受付けるための依頼受付情報とを、前記1以上の端末のいずれかに前記ネットワークを介して送信する。   In order to solve the above-described problem, an information providing method according to the present disclosure is a server information providing method, in which a processor of the server acquires an image from a function of capturing an image or another device via a network. An image transmitted via a network from any one or more terminals having a function is acquired, and a probability that a predetermined photographing object is included is calculated with respect to the acquired image, and the probability is the first If it is above a threshold, information indicating the predetermined object to be photographed is given to the image, and if the probability is below a second threshold, the predetermined object to be photographed is given to the image. When the information indicating an object is not given and the probability is equal to or higher than the second threshold and equal to or lower than the first threshold, the image and request acceptance information for accepting information addition to the image; 1 or more Transmission via the network to one of the terminals.

なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。   These general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium, and are realized by any combination of the system, method, integrated circuit, computer program, and recording medium. May be.

本開示によれば、人の意図を反映しない多様な撮影画像に対して、システム全体の人的コストを抑えつつ網羅的かつ効率的に情報を付与できるという効果を発揮する。   According to the present disclosure, it is possible to provide information comprehensively and efficiently to various captured images that do not reflect a person's intention while suppressing the human cost of the entire system.

図1は、システムの概略の一例を示す図である。FIG. 1 is a diagram illustrating an example of an outline of a system. 図2は、撮影機器およびサーバの構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of the imaging device and the server. 図3は、算出部の機能構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional configuration of the calculation unit. 図4は、撮影機器およびサーバ間で行われる処理の一例を示す図である。FIG. 4 is a diagram illustrating an example of processing performed between the imaging device and the server. 図5は、確率導出、処理判別に関する処理の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of processing relating to probability derivation and processing discrimination. 図6は、確率導出、処理判別に関する処理の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of processing relating to probability derivation and processing discrimination. 図7は、判定入力を行う際に端末の表示例を示す図である。FIG. 7 is a diagram illustrating a display example of the terminal when performing determination input.

(発明の基礎となった知見)
特定の物体について大量の画像を集めるにあたり、特許文献1のように、撮影依頼主が撮影者に対して特定の物体を含んだ画像の取得を依頼し撮影させる方法がある。この技術では、撮影依頼主は撮影者に対し、どのような物体が写った画像が必要か、すなわち撮影対象物について具体的な指示を出す。しかし、この場合、特に撮影依頼主からの指定の無い限り、撮影者は、撮影対象物の手前に遮蔽物がない、対象物が中心に写っている、撮影対象物にブレがないなどの、綺麗な画像を撮ろうとする。つまり撮影者が撮影を行う時点で、撮影画像には撮影者側の意図が含まれてしまい、撮影対象物を綺麗に写した類似画像が多くなる。学習に用いる画像データセットは、同じ画像データセット内に類似した画像が少ない場合(すなわち非類似の画像・多様な画像が多い場合)に画像認識精度が向上する。これに対し特許文献1の手法により集められる画像データセットは似たような画像を多く含んでしまう可能性がある。
(Knowledge that became the basis of the invention)
In collecting a large amount of images of a specific object, there is a method as in Patent Document 1 in which a photographer requests a photographer to acquire an image including a specific object and causes the photographer to capture the image. In this technique, the photographing client issues a specific instruction to the photographer regarding what kind of object is necessary, that is, the object to be photographed. However, in this case, unless otherwise specified by the client, the photographer has no obstruction in front of the object to be photographed, the object is centered, the object to be photographed is not blurred, Try to take a beautiful image. That is, at the time when the photographer performs photographing, the photographed image includes the intention of the photographer, and there are many similar images in which the photographed object is clearly photographed. The image data set used for learning improves image recognition accuracy when there are few similar images in the same image data set (that is, when there are many dissimilar images and various images). On the other hand, there is a possibility that the image data set collected by the method of Patent Document 1 includes many similar images.

また、特許文献2では、車等の移動物体にカメラを設置し、画像を自動的に取得する方法を開示している。これにより人の意図を含まない画像を大量に取得することが可能となる。しかしこの場合、取得画像は常に撮影対象物を含んでいるわけではない。このため、撮影者は全ての取得画像に対して、撮影対象物を含むかどうかを判別する必要が生じる。また特許文献2では、取得画像内に含まれる物体の判別に位置情報を用いる。すなわち特許文献2の手法を用いると、「道路」や「ランドマーク」など常に場所の変わらないものであれば、自動的にその画像を「道路」や「ランドマーク」に関する画像データセットに含めるか否かの判断ができる可能性がある。しかし、例えば撮影対象物が「自動車」など位置情報が常に変化するものである場合、撮影位置に基づいて「自動車」の画像データセットに含めるか否かの判断をすることは不可能となる。また、位置情報に基づいて取得した画像に何が写っているかを自動で判断することには限界がある。例えば同じ位置でも上空を撮影すると、「道路」などの所望の撮影対象物が含まれない可能性がある。従って、結局は、特許文献2の手法を用いると取得した全ての画像に対して、人が撮影対象物を含むかどうかを判別する必要が生じる。   Patent Document 2 discloses a method of automatically acquiring an image by installing a camera on a moving object such as a car. This makes it possible to acquire a large amount of images that do not include human intentions. However, in this case, the acquired image does not always include the photographing object. For this reason, the photographer needs to determine whether or not the captured object is included in all acquired images. In Patent Document 2, position information is used for discrimination of an object included in an acquired image. In other words, if the method of Patent Document 2 is used, if the location always changes, such as “road” or “landmark”, the image is automatically included in the image data set related to “road” or “landmark”. There is a possibility that a judgment can be made. However, for example, when the object to be imaged is such that the position information is constantly changing, such as “car”, it is impossible to determine whether to include the image data set of “car” based on the imaged position. Moreover, there is a limit in automatically determining what is reflected in an image acquired based on position information. For example, if the sky is photographed even at the same position, there is a possibility that a desired photographing object such as “road” is not included. Therefore, in the end, when the method of Patent Document 2 is used, it is necessary to determine whether or not a person includes an object to be photographed for all acquired images.

これらの課題を解決すべく、本開示における情報付与方法は、サーバの情報付与方法であって、前記サーバのプロセッサが、画像を撮像する機能もしくは他の機器から画像を取得する機能を有する1以上の端末のいずれかからネットワークを介して送信された画像を取得し、取得した前記画像に対して、所定の撮影対象物が含まれる確率を算出し、前記確率が第1の閾値より上である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与し、前記確率が第2の閾値より下である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与せず、前記確率が前記第2の閾値以上でありかつ前記第1の閾値以下である場合は、前記画像と、前記画像への情報付与を受付けるための依頼受付情報とを、前記1以上の端末のいずれかに前記ネットワークを介して送信する。   In order to solve these problems, the information providing method according to the present disclosure is an information providing method of a server, and the processor of the server has one or more functions of capturing an image or acquiring an image from another device. An image transmitted from any of the terminals via a network is acquired, and a probability that a predetermined photographing object is included is calculated for the acquired image, and the probability is above a first threshold value In the case, information indicating the predetermined photographing object is given to the image, and when the probability is lower than a second threshold, information indicating the predetermined photographing object is given to the image. If the probability is not less than the second threshold and not more than the first threshold, the image and the request acceptance information for accepting information addition to the image are not less than the first threshold. Any of the devices Transmitting via the network.

これにより、大量の画像を取得し、撮影対象物が含まれるかどうかが簡単に判別できるものは機械により短時間で判別し、判別が難しいものは人がより高精度な判別を行う画像収集・タグ付けシステムが構築される。よって人の意図を反映しない多様な撮影画像に対して、システム全体の人的コストを抑えつつ網羅的かつ大量に、情報を付与できる。   This makes it possible to acquire a large amount of images, and those that can easily determine whether or not the object to be photographed are included in a short time by a machine, and those that are difficult to determine are image collection / A tagging system is built. Therefore, it is possible to give a comprehensive and large amount of information to various captured images that do not reflect the intention of the person while suppressing the human cost of the entire system.

また、前記依頼受付情報には、前記画像に前記撮影対象物が含まれるか否かの選択を前記端末から受け付ける指示画面を表示するコマンドが含まれてもよい。   Further, the request acceptance information may include a command for displaying an instruction screen for accepting selection from the terminal as to whether or not the photographing object is included in the image.

これにより、端末を保持するユーザが簡易に画像に対して情報を付与することが可能となる。   Thereby, the user holding the terminal can easily give information to the image.

また、前記指示画面に基づき受付けた前記画像に前記撮影対象物が含まれるか否かの選択結果を、前記端末から取得し、前記選択結果が、前記撮影対象物が含まれる旨の選択結果である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与し、前記選択結果が前記撮影対象物が含まれない旨の選択結果である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与しない、としてもよい。   Further, a selection result indicating whether or not the photographing object is included in the image received based on the instruction screen is acquired from the terminal, and the selection result is a selection result indicating that the photographing object is included. If there is, information indicating the predetermined photographing object is given to the image, and if the selection result is a selection result indicating that the photographing object is not included, the predetermined photographing object is included in the image. It is good also as not giving the information which shows the imaging | photography subject.

これにより、サーバにて判別が難しかった画像に対しても、適切に判別を行い、情報を付与(もしくは付与しない)する判断が出来る。   As a result, it is possible to determine whether or not information is added (or not added) appropriately even for an image that is difficult to be determined by the server.

また、前記確率の算出には、前記サーバが予め保持している所定の撮影対象物が含まれる確率を算出するための演算器を用いてもよい。   In addition, for the calculation of the probability, an arithmetic unit for calculating a probability that a predetermined photographing object held in advance by the server is included may be used.

また、前記演算器は、Deep Learning、Hog(Histogram of Oriented Gradient)、SVM(Support Vector Machine)、またはそれらの組み合わせによって構築された演算器であってもよい。   Further, the computing unit may be a computing unit constructed by deep learning, Hog (Histogram of Oriented Gradient), SVM (Support Vector Machine), or a combination thereof.

また、複数枚の画像に対して前記情報付与方法を用いた情報の付与を行うことで、情報が付与された複数枚の画像を蓄積し、前記情報が付与された複数枚の画像を用いて、前記演算器を更新してもよい。   Further, by applying information using the information providing method to a plurality of images, a plurality of images to which information is added is accumulated, and a plurality of images to which the information is added are used. The calculator may be updated.

これにより、本情報付与方法によって情報の付与された画像が増えていけば増えていくほど、本情報付与方法による情報付与に関する精度が向上する。   As a result, as the number of images to which information is added by the information providing method increases, the accuracy with respect to information providing by the information providing method is improved.

また、所定の枚数未満の前記情報が付与された画像を用いて構築された前記演算器を用いて、前記確率を算出する場合と、所定の枚数以上の前記情報が付与された画像を用いて構築された前記演算器を用いて、前記確率を算出する場合とで、前記第1の閾値および前記第2の閾値を、変更してもよい。   Further, when calculating the probability using the arithmetic unit constructed using an image to which the information of less than a predetermined number is given, and using an image to which the information of a predetermined number or more is given. The first threshold value and the second threshold value may be changed when the probability is calculated using the constructed arithmetic unit.

また、所定の枚数未満の前記情報が付与された画像を用いて構築された前記演算器を用いて、前記確率を算出する場合は、所定の枚数以上の前記情報が付与された画像を用いて構築された前記演算器を用いて、前記確率を算出する場合よりも、前記第1の閾値を高く設定し、前記第2の閾値を低く設定してもよい。   Further, when calculating the probability using the computing unit constructed using an image provided with less than a predetermined number of information, an image provided with more than a predetermined number of information is used. The first threshold may be set higher and the second threshold may be set lower than when the probability is calculated using the constructed arithmetic unit.

これにより、本情報付与方法によって情報の付与された画像が所定枚数より少ない場合は、演算器が構築されていないので、第1の閾値を高く、第2の閾値を低く設定することで、より端末のユーザ(撮影者)が情報付与する枚数を多くすることが出来る。   As a result, when the number of images to which information is added by this information providing method is less than the predetermined number, since the computing unit is not constructed, the first threshold value is set higher and the second threshold value is set lower. It is possible to increase the number of pieces of information added by the terminal user (photographer).

また、前記サーバは、前記取得では、前記端末から前記画像とともに前記端末の機器IDを取得し、前記送信では、前記画像とともに取得した前記機器IDを特定し、前記1以上の端末のうち、前記特定した機器IDの端末に前記画像および前記依頼受付情報を送信してもよい。   In the acquisition, the server acquires the device ID of the terminal from the terminal together with the image. In the transmission, the server specifies the device ID acquired together with the image. The image and the request acceptance information may be transmitted to the terminal having the specified device ID.

これにより、画像を取得した同一の者(撮影者)によって画像への情報付与を行うことが出来るので、各画像が所定の対象物に該当するか否かを効率的に判断できる。   Thereby, information can be given to the image by the same person (photographer) who acquired the image, so that it is possible to efficiently determine whether each image corresponds to a predetermined object.

また、前記取得では、前記端末から前記画像とともに前記端末の機器IDを取得し、前記画像および前記依頼受付情報の送信では、前記画像とともに取得し前記機器IDを特定し、前記1以上の端末のうち、前記特定した機器IDとは異なる機器IDの端末とは異なる端末に前記画像および前記依頼受付情報を送信してもよい。   In the acquisition, the device ID of the terminal is acquired from the terminal together with the image. In the transmission of the image and the request reception information, the device ID is acquired together with the image, and the device ID is specified. Of these, the image and the request acceptance information may be transmitted to a terminal different from a terminal having a device ID different from the specified device ID.

これにより、画像を取得した者とは別の者によって画像への情報付与を行うことが出来るので、情報付与に対して客観的な判断が出来る。   As a result, information can be assigned to the image by a person other than the person who acquired the image, so that an objective determination can be made with respect to the information addition.

さらに前記情報付与方法によって前記画像に対して情報を付与するか否かの処理をした後に、前記端末に対して報酬を提供する情報を送信し、前記報酬は、前記画像に関する前記確率が前記第2の閾値以上でありかつ前記第1の閾値以下である場合に、前記確率が第1の閾値より上である場合および前記確率が第2の閾値より下である場合よりも、高く設定してもよい。   Furthermore, after processing whether to give information to the image by the information giving method, information for providing a reward to the terminal is transmitted, and the reward is related to the probability that the image is related to the image. When the probability is greater than or equal to 2 and less than or equal to the first threshold, the probability is higher than the first threshold and the probability is lower than the second threshold. Also good.

これにより、画像に関する前記確率が前記第2の閾値以上でありかつ前記第1の閾値以下である画像が多いときは報酬が高くそうでないときは報酬が低いので、撮影者にとっては、撮影依頼者が要求する画像を把握することができる。   As a result, the reward is high when there are a large number of images in which the probability relating to the image is equal to or higher than the second threshold and equal to or lower than the first threshold. Can grasp the image requested by

また前記画像を取得する前に、前記所定の撮影対象物に関する選択を、前記端末から受付けてもよい。   In addition, before acquiring the image, a selection related to the predetermined photographing object may be received from the terminal.

以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。   Each of the embodiments described below shows a specific example of the present disclosure. Numerical values, shapes, components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements. In all the embodiments, the contents can be combined.

(実施の形態1)
(システムの全体像)
図1は、本実施の形態における画像収集システムの概略を示す図である。以下、図1を用いて本画像収集システムの概要について説明する。
(Embodiment 1)
(Overview of the system)
FIG. 1 is a diagram showing an outline of an image collection system in the present embodiment. Hereinafter, an outline of the image collection system will be described with reference to FIG.

本画像収集システムは、撮影者1が所有する撮影機器100と、撮影依頼者2が所有するサーバ装置200とを含む。   The image collection system includes a photographing device 100 owned by the photographer 1 and a server device 200 owned by the photograph requester 2.

撮影機器100は、例えばスマートグラスなどのような通信、入力、画像の撮影および表示が可能なモバイル端末である。サーバ装置200は、様々な撮影機器から大量の情報を収集し、それらの情報の処理を行うクラウドサーバである。   The imaging device 100 is a mobile terminal capable of communication, input, image capturing and display, such as smart glasses. The server device 200 is a cloud server that collects a large amount of information from various imaging devices and processes the information.

なお、撮影依頼者2はサーバ装置200を所有すると表現したが、サーバ装置200の置かれている場所や管理主体は特に限定しない。撮影依頼者2が直接的または間接的にサーバ装置200の管理をしていればよい。   In addition, although the imaging requester 2 is expressed as possessing the server apparatus 200, the place where the server apparatus 200 is placed and the management entity are not particularly limited. It suffices if the client 2 manages the server device 200 directly or indirectly.

撮影機器100とサーバ装置200はインターネットなどのネットワークを介して接続され、相互に情報の送受信を行うことが出来る。   The imaging device 100 and the server device 200 are connected via a network such as the Internet, and can exchange information with each other.

本開示によれば、まず撮影者1は、撮影機器100により画像を大量に取得し、ネットワークを介して撮影依頼者2所有するサーバ装置200へ送る。また撮影依頼者2は、サーバ装置200における処理により画像内に所望の被写体が含まれているか判定する。ここで、撮影依頼者2の所望の被写体を撮影対象物と呼ぶこととする。撮影対象物とは、物に限られず、人や生物も含む。また撮影依頼者2は、撮影対象物が含まれているかどうかがわからない画像を撮影者1の所有する撮影機器100に送る。また撮影者1は、画像内に撮影対象物が含まれているか否かを撮影依頼者の所有するサーバ装置200に送る。詳しい処理の流れについては後述する。   According to the present disclosure, first, the photographer 1 acquires a large amount of images by the photographing device 100 and sends the images to the server device 200 owned by the photographing client 2 via the network. Further, the client 2 determines whether or not a desired subject is included in the image by processing in the server device 200. Here, the desired subject of the client 2 is referred to as a subject to be photographed. The object to be photographed is not limited to an object, and includes people and living things. In addition, the photograph requester 2 sends an image that does not know whether or not the photographing target is included to the photographing device 100 owned by the photographer 1. Further, the photographer 1 sends to the server apparatus 200 owned by the photographing requester whether or not the photographing object is included in the image. A detailed processing flow will be described later.

なお、撮影者1は複数名いることが望ましい。すなわち、サーバ装置200は、複数の撮影機器100と接続されてもよい。   Note that it is desirable that there are a plurality of photographers 1. That is, the server device 200 may be connected to a plurality of imaging devices 100.

撮影依頼者2は、画像識別器の学習用または評価用などの目的で特定の撮影対象物を含む画像が大量に必要な個人または団体である。画像識別器の学習または評価用として画像を収集する場合、多種多様な画像が得られることが精度の向上に繋がる。   The imaging client 2 is an individual or group that needs a large amount of images including a specific imaging object for the purpose of learning or evaluating the image classifier. When collecting images for learning or evaluation of the image discriminator, obtaining a wide variety of images leads to an improvement in accuracy.

そこで撮影依頼者2は例えば、撮影者1により撮影された画像がレアな画像である場合、このレアな画像を取得した分、撮影者1に対して高い報酬を与えるといったサービスを提供する。   Therefore, for example, when the image photographed by the photographer 1 is a rare image, the photograph requester 2 provides a service that gives the photographer 1 a high reward for acquiring the rare image.

レアな画像とは、例えば、撮影依頼者2が既に所有している撮影対象物を含む画像と似ていないものの、撮影対象物を含むような画像である。画像がレアかどうかは、撮影依頼者2の所有するサーバ装置200にて画像内に撮影対象物が含まれる確率を導出することで、判断する。導出された確率が低く、かつ撮影対象が含まれる画像であると判断されれば、レアな画像であると判断される。また、モバイル端末において位置情報が取得できる場合は、その情報を用いて画像がレアかどうかを判別しても良い。これにより、撮影者1はより多くの報酬を得るために、より多様な場所やシーンでの撮影対象物を含む画像を積極的に収集するようになる。なお確率導出などの処理については詳細を後述する。   A rare image is, for example, an image that includes a shooting object, although it does not resemble an image that includes a shooting object already owned by the client 2. Whether or not the image is rare is determined by deriving the probability that the image capturing object is included in the image in the server apparatus 200 owned by the image capturing client 2. If it is determined that the derived probability is low and the image includes an imaging target, it is determined that the image is a rare image. In addition, when position information can be acquired in the mobile terminal, it may be determined whether or not the image is rare using the information. As a result, the photographer 1 actively collects images including photographing objects in more various places and scenes in order to obtain more rewards. Details of the processing such as probability derivation will be described later.

(各装置の構成)
図2の(a)、(b)を用いて、本実施の形態における撮影機器100およびサーバ装置200の構成について説明する。撮影機器100およびサーバ装置200の構成はさまざまな形式が考えられるが、今回は、一番単純な例を用いて説明する。
(Configuration of each device)
The configuration of the imaging device 100 and the server device 200 in the present embodiment will be described with reference to FIGS. Various configurations of the photographing apparatus 100 and the server apparatus 200 can be considered, but this time, description will be made using the simplest example.

撮影機器100は、たとえば、スマートグラスのような装着型のもの、デジタルカメラ・スマートフォンのような持ち歩き方のもの、車やバイクのような移動手段に設置されるカメラなど、あらゆる移動可能な撮影・通信端末を含む。   The photographing device 100 can be any movable photographing / photographing device such as a wearable device such as a smart glass, a portable device such as a digital camera / smartphone, or a camera installed in a moving means such as a car or a motorcycle. Includes communication terminals.

撮影機器100は、図2の(a)に示すように、撮影部110と、撮影機器通信部120と、表示部130と、入力部140とを備える。   The imaging device 100 includes an imaging unit 110, an imaging device communication unit 120, a display unit 130, and an input unit 140, as shown in FIG.

撮影部110は、自動または手動により周辺環境から画像を取得する。撮影部110は撮影機器100に搭載される、撮像機能を有するあらゆるデバイスを含む。例えば撮影機器100がスマートフォンである場合、スマートフォンに搭載される撮像デバイス(CCDイメージセンサやCMOSイメージセンサ)などである。   The imaging unit 110 acquires an image from the surrounding environment automatically or manually. The imaging unit 110 includes any device that is mounted on the imaging device 100 and has an imaging function. For example, when the photographing apparatus 100 is a smartphone, it is an imaging device (CCD image sensor or CMOS image sensor) mounted on the smartphone.

撮影機器通信部120は、撮影機器100とサーバ装置200との間の通信を行う。撮影機器通信部120は汎用の通信モジュールを採用すればよく、特に限定しない。サーバ装置200との間で通信を行う際の通信方式に関しても、例えば3G・LTE・WiFiなど、特に限定しない。   The imaging device communication unit 120 performs communication between the imaging device 100 and the server device 200. The imaging device communication unit 120 may adopt a general-purpose communication module, and is not particularly limited. The communication method used when communicating with the server device 200 is not particularly limited, for example, 3G / LTE / WiFi.

表示部130は、撮影画像および操作画面を表示する。表示部130も汎用の表示デバイスを採用すればよく、特に限定しない。   The display unit 130 displays a captured image and an operation screen. The display unit 130 may be a general-purpose display device, and is not particularly limited.

入力部140は、表示部130において表示される撮影画像が撮影対象物を含むかどうかの撮影者による判別結果を受け付ける。入力部140はボタンの他、タッチパネル、音声入力など、あらゆるインタフェースを含む。   The input unit 140 receives a determination result by the photographer as to whether or not the photographed image displayed on the display unit 130 includes a photographing object. The input unit 140 includes all interfaces such as a touch panel and voice input in addition to buttons.

この撮影機器100が上記した全ての構成(撮影部110、撮影機器通信部120、表示部130、入力部140)を含まなくてもよい。一部の構成が別の装置に含まれていてもよい。例えば、撮影部110はカメラ単体、撮影機器通信部120はスマートフォンなどの通信機器で行うという構成も可能である。撮影部110には、通常のカメラの他、ウェアラブルカメラ、車載カメラなど、撮影機器通信部との通信が可能な全てのカメラを採用可能である。スマートグラスやウェアラブルカメラなど、撮影部110が常時撮影可能な機器の場合、自動で画像を取得することにより、恣意的ではない大量の画像が取得可能となる。カメラにより取得される画像は高画質である必要性はない。   The photographing apparatus 100 may not include all the above-described configurations (the photographing unit 110, the photographing device communication unit 120, the display unit 130, and the input unit 140). Some configurations may be included in another device. For example, a configuration in which the photographing unit 110 is performed by a single camera and the photographing device communication unit 120 is performed by a communication device such as a smartphone is possible. As the photographing unit 110, any camera that can communicate with the photographing device communication unit, such as a wearable camera and an in-vehicle camera, can be adopted in addition to a normal camera. In the case where the photographing unit 110 is capable of always photographing, such as a smart glass or a wearable camera, a large amount of images that are not arbitrary can be obtained by automatically obtaining images. The image acquired by the camera does not need to have high image quality.

またサーバ装置200は、図2の(b)に示すように、制御処理部210とサーバ装置通信部220とを備える。   The server device 200 includes a control processing unit 210 and a server device communication unit 220 as shown in FIG.

制御処理部210について、図3を用いて詳細に説明する。制御処理部210は、確率導出手段211と処理判別手段212と画像管理手段213とを含む。   The control processing unit 210 will be described in detail with reference to FIG. The control processing unit 210 includes a probability derivation unit 211, a process determination unit 212, and an image management unit 213.

確率導出手段211は撮影機器100において撮影されたある画像1枚に撮影対象物が含まれる確率を算出する。   The probability deriving unit 211 calculates a probability that a certain image captured by the imaging device 100 includes the object to be imaged.

処理判別手段212は確率導出手段211において求められた画像に撮影対象物が含まれる確率に応じて、画像のその後の処理を判別する。   The process determining unit 212 determines subsequent processing of the image according to the probability that the image obtained by the probability deriving unit 211 includes the shooting target.

画像管理手段213は、撮影部110において取得され、入力部140または処理判別手段212において撮影対象物を含むと判別された画像を保存する。また画像管理手段213は、撮影部110において取得され、入力部140または処理判別手段212において撮影対象物を含まないと判別された画像を破棄する。   The image management unit 213 stores the image acquired by the imaging unit 110 and determined to include the imaging target by the input unit 140 or the processing determination unit 212. The image management unit 213 discards the image acquired by the imaging unit 110 and determined not to include the imaging target by the input unit 140 or the processing determination unit 212.

報酬導出手段214は、撮影対象物が含まれる画像について、確率導出手段211において求められた画像に撮影対象物が含まれる確率を用いて撮影者1が得られる報酬を導出する。なお、報酬導出手段214にて、もし画像に位置情報も付属していれば、その位置情報も一緒に用いて報酬を導出しても良い。   The reward deriving unit 214 derives a reward obtained by the photographer 1 using the probability that the image obtained by the probability deriving unit 211 includes the photographing object for the image including the photographing object. Note that the reward deriving unit 214 may derive the reward by using the position information together with the position information if it is attached to the image.

サーバ装置通信部220は、サーバ装置200の内部間および撮影機器100とサーバ装置200との間の通信を行う。撮影機器通信部120と同様の通信モジュールであってもよい。   The server device communication unit 220 performs communication between the inside of the server device 200 and between the imaging device 100 and the server device 200. A communication module similar to that of the imaging device communication unit 120 may be used.

サーバ装置200が上記した全ての構成(制御処理部210、サーバ装置通信部220)を含まなくてもよい。また、制御処理部210が上記した全ての機能(確率導出手段211、処理判別手段212、画像管理手段213、報酬導出手段214)を含まなくてもよい。一部の構成および機能が別の装置に含まれていてもよい。一部の構成および機能を含む装置を撮影依頼者2以外の第三者が所有していてもよい。   The server device 200 may not include all the above-described configurations (the control processing unit 210 and the server device communication unit 220). The control processing unit 210 may not include all the functions described above (probability derivation means 211, process determination means 212, image management means 213, and reward derivation means 214). Some configurations and functions may be included in another device. A device including a part of the configuration and functions may be owned by a third party other than the client 2.

(処理の流れ)
次に図4を用いて、本実施の形態における処理の流れを説明する。
(Process flow)
Next, the flow of processing in the present embodiment will be described with reference to FIG.

図4は、撮影機器およびサーバ間で行われる処理の一例を示す図である。   FIG. 4 is a diagram illustrating an example of processing performed between the imaging device and the server.

撮影機器100は、画像の撮影および画像に撮影対象物が含まれているかどうかの手動判別を行い、依頼情報の選択を受け付けるステップS304と、撮影処理を行うステップS306と、後述するステップ312にて送信された画像を表示するステップS313と、表示された画像が撮影対象物を含むどうかの判定入力を受け付けるステップS314とが行われる。   The photographing apparatus 100 performs photographing of an image and manual determination of whether or not a photographing object is included in the image, accepts selection of request information, step S304 that performs photographing processing, step S306 that performs photographing processing, and step 312 described later. Step S313 for displaying the transmitted image, and step S314 for receiving a determination input as to whether or not the displayed image includes the object to be photographed are performed.

サーバ装置200は、画像に対象物が含まれているかどうかの確率の導出および画像の処理判別を行い、撮影者IDを割り振るステップS302と、画像に対象物が含まれているかどうかの確率を導出するステップS308と、ステップS308で導出された確率に基づいてその後の処理を判別するステップS309と、後述するステップS307で取得した画像(第一画像)を保存するステップS310と、第一画像を破棄するステップS311と、ステップS314にて撮影対象物を含むと判別された画像(第二画像)保存するステップS316と、第二画像を破棄するステップS317と、画像に対する報酬を計算ステップS318が行われる。   The server device 200 derives the probability of whether an object is included in the image and determines the processing of the image, assigns a photographer ID, and derives the probability of whether the object is included in the image. Step S308, step S309 for determining subsequent processing based on the probability derived in step S308, step S310 for saving the image (first image) acquired in step S307, which will be described later, and discarding the first image Step S311 to perform, Step S316 for storing the image (second image) determined to include the object to be photographed in Step S314, Step S317 for discarding the second image, and Step S318 for calculating the reward for the image are performed. .

撮影機器100とサーバ装置200との間ではデータの通信を行い、ユーザ登録をおこなうステップS301と、依頼情報を送信するステップS303と、選択された依頼情報を送信するステップS305と、取得した画像を送信するステップS307と、判別画像を送信するステップS312と、判別画像の判別結果を送信するステップS315と、ステップS318による計算に基づいた報酬を送信するステップS319とが行われる。   Data communication is performed between the photographing apparatus 100 and the server device 200, and step S301 for performing user registration, step S303 for transmitting request information, step S305 for transmitting selected request information, and an acquired image Step S307 for sending, step S312 for sending the discrimination image, step S315 for sending the discrimination result of the discrimination image, and step S319 for sending the reward based on the calculation in step S318 are performed.

上述のステップの詳細に関し、以下に説明を行う。   The details of the above steps will be described below.

ステップS301にて撮影者1は撮影機器100を用いてサーバ装置200に対しユーザ登録を行う。すなわちステップS301では、撮影機器100は撮影者1から受け付けた登録情報を、サーバ装置200に送信する。この際の登録情報は例えば、名前の他、使用端末情報、居住地、知識の範囲、年齢、性別などの情報を含んでもよい。   In step S <b> 301, the photographer 1 performs user registration with the server apparatus 200 using the photographing apparatus 100. That is, in step S <b> 301, the photographing apparatus 100 transmits registration information received from the photographer 1 to the server device 200. The registration information at this time may include, for example, information such as used terminal information, residence, knowledge range, age, and gender in addition to the name.

次に、ステップS302にて、サーバ装置200は撮影機器100に対して登録をおこなったユーザ(撮影者1)のIDである撮影者IDを割り振る。   Next, in step S <b> 302, the server apparatus 200 allocates a photographer ID that is an ID of a user (photographer 1) who has registered with the photographing apparatus 100.

または、ステップS302にて、サーバ装置200は撮影機器100に対して登録をおこなったユーザが利用する撮影機器100のIDである機器IDを割り振ってもよい。   Alternatively, in step S <b> 302, the server apparatus 200 may allocate a device ID that is an ID of the photographing device 100 used by a user who has registered with the photographing device 100.

または、例えば、ユーザが撮影機器100と、サーバ装置200と通信を行う端末装置(図示せず)とを用いる場合、端末装置は、撮影機器100で撮影した画像を取得し、取得した画像をサーバ装置200へ送信する場合、ステップS302では、撮影者IDとこのIDの撮影者が利用する複数の機器(この例では、撮影機器100と端末装置)の機器IDを関連付けて割り振ってもよい。   Alternatively, for example, when the user uses the imaging device 100 and a terminal device (not shown) that communicates with the server device 200, the terminal device acquires an image captured by the imaging device 100, and the acquired image is stored in the server. In the case of transmission to the device 200, in step S302, the photographer ID and device IDs of a plurality of devices (in this example, the photographing device 100 and the terminal device) used by the photographer of this ID may be associated and allocated.

次に、ステップS303にてサーバ装置200は、撮影機器100に対して依頼情報の送信(紹介)を行う。サーバ装置200は、ステップS302の後に、ステップS302にて登録された情報を用いて、撮影機器100に紹介する依頼の取捨選択を行っても良い。また、ステップS303にて送信する依頼情報には、複数の依頼情報が含まれていてもよい。この複数の依頼情報には、撮影依頼者2からの依頼や、その他の事業者からの依頼が含まれていてもよい。依頼情報とは具体的に例えば「犬の画像」や「車の画像」といったように撮影対象物を指定する情報が含まれる。   Next, in step S <b> 303, the server apparatus 200 transmits (introduces) request information to the imaging device 100. After step S302, the server apparatus 200 may perform selection of a request to introduce to the imaging device 100 using the information registered in step S302. The request information transmitted in step S303 may include a plurality of request information. The plurality of pieces of request information may include a request from the photographing client 2 and a request from other business operators. The request information specifically includes information for designating an object to be photographed, such as “dog image” or “car image”.

次に、ステップS304にて、撮影機器100は、撮影者1から依頼情報の選択を受け付ける。撮影者1は、ステップS303にて撮影機器100が受信した依頼情報のうち所望の依頼情報の選択をすることで、実行する依頼情報を決定する。依頼情報の選択は撮影機器100の入力部(例えばボタン・タッチパネルや音声入力)によって行う。すなわちステップS304の処理により、撮影対象物が決定されることになる。   Next, in step S <b> 304, the photographing apparatus 100 accepts selection of request information from the photographer 1. The photographer 1 determines request information to be executed by selecting desired request information from the request information received by the photographing apparatus 100 in step S303. The request information is selected by an input unit (for example, a button / touch panel or voice input) of the photographing apparatus 100. That is, the object to be photographed is determined by the processing in step S304.

次に、ステップS305にて、撮影機器100はステップS304にて選択された依頼情報および撮影機器100の持つ撮影者IDを、サーバ装置200に送信する。   Next, in step S <b> 305, the imaging device 100 transmits the request information selected in step S <b> 304 and the photographer ID of the imaging device 100 to the server device 200.

次に、ステップS306にて、撮影機器100の撮影部110は撮影者の周囲環境より画像を取得する。撮影部110における画像の取得は自動または撮影者1による手動で実施される。自動の場合は予め指示されたクラウドソーシングの会社からの指示を受けて数十秒または数分に1回程度、その時点で撮影部110に映っている画像を取得する。また、自動の場合は撮影機器100の位置情報に応じて撮影部110に映っている画像を取得してもよい。例えば、ある2つの地点X、Yがあり、X地点における写真がY地点における写真より少ない場合、X地点における画像の取得頻度をY地点における画像の取得頻度より高くすることで、より類似部分の少ない画像を多く取得することができる。取得した画像は、撮影機器100の記録部(図示せず)に保存する。なおこの際の保存は一時的なものであって、次に説明するステップS307で送信をした後に削除をしてもよい。   Next, in step S306, the imaging unit 110 of the imaging device 100 acquires an image from the surrounding environment of the photographer. Acquisition of images in the imaging unit 110 is performed automatically or manually by the photographer 1. In the case of automatic, in response to an instruction from a crowdsourcing company designated in advance, an image shown in the photographing unit 110 at that time is acquired about once every several tens of seconds or several minutes. In the case of automatic, an image shown in the photographing unit 110 may be acquired according to the position information of the photographing device 100. For example, if there are two points X and Y, and the number of photos at point X is less than that at point Y, the image acquisition frequency at point X is set higher than the image acquisition frequency at point Y. Many images can be acquired with a small number. The acquired image is stored in a recording unit (not shown) of the photographing apparatus 100. The storage at this time is temporary, and may be deleted after transmission in step S307 to be described next.

次に、ステップS307にて撮影機器100の撮影機器通信部120は、撮影部110にて取得された画像をサーバ装置通信部220へ送信する。すなわちステップS307にてサーバ装置通信部220は、撮影機器通信部120にてサーバ装置200に送られる画像を受信する。なおこの際、画像と共に撮影者IDまたは機器ID、撮影時の位置情報、使用端末情報などを一緒に送受信しても良い。この際、撮影機器通信部120がサーバ装置200に画像を送信するタイミングは特に限定しない。ステップS306にて撮像する度に、1枚ずつ送信してもよいし、所定の枚数の画像を取得した時点で送信してもよいし、撮影者1が入力部140を介して指定する所望のタイミングで送信してもよい。   Next, in step S307, the imaging device communication unit 120 of the imaging device 100 transmits the image acquired by the imaging unit 110 to the server device communication unit 220. That is, in step S307, the server device communication unit 220 receives an image transmitted to the server device 200 by the photographing device communication unit 120. At this time, the photographer ID or device ID, position information at the time of photographing, terminal information used, etc. may be transmitted and received together with the image. At this time, the timing at which the imaging device communication unit 120 transmits an image to the server device 200 is not particularly limited. Each time an image is captured in step S306, the images may be transmitted one by one, or may be transmitted when a predetermined number of images have been acquired, or may be specified by the photographer 1 via the input unit 140. You may transmit at a timing.

次に、ステップS308にて確率導出手段211は、ステップS307にて受信した画像が、ステップS304にて決定された撮影対象物を含む確率を導出する。確率の導出は、例えば、制御処理部210に含まれるDeep Learningによって予め構築された当該撮影対象物を識別するための演算器に、ステップS307にて受信した画像を入力することで導出する。ここで当該演算器はDeep LearningのみならずHog、SVM、またはそれらの組み合わせなどを用いた画像認識手法によって構築された演算器を用いてもよい。   Next, in step S308, the probability deriving unit 211 derives the probability that the image received in step S307 includes the photographing object determined in step S304. The probability is derived, for example, by inputting the image received in step S307 to a computing unit for identifying the subject to be photographed that has been constructed in advance by deep learning included in the control processing unit 210. Here, the arithmetic unit may be an arithmetic unit constructed by an image recognition method using not only deep learning but also Hog, SVM, or a combination thereof.

ステップS309にて処理判別手段212は、確率導出手段211において導出された確率に基づきその後の処理を判別する。図5を用いてステップS309における処理の詳細を説明する。ステップS309を実行する前に判別に必要な閾値に対応する確率A、Bが設定されているものとする。確率A、BはA>Bとする。ステップS309にて処理判別手段212は、確率導出手段211において導出された確率を入力とする。入力された確率がAより高いどうかを判断する(ステップS3901)。確率導出手段211において導出された確率がAより高ければ(ステップS3901でYes)、入力された確率の導出に用いた画像が撮影対象物を含むと判断しステップS310を実行する。確率導出手段211において導出された確率がA以下(ステップS3901でNo)であれば、ステップS3902を実行する。ステップS3902では、確率導出手段211において導出された確率がBより低いかどうかを判断する。確率導出手段211において導出された確率がBより低い(ステップS3902でYes)のであれば、入力された確率の導出に用いた画像が、撮影対象物を含まないと判断しステップS311を実行する。   In step S309, the process determining unit 212 determines subsequent processes based on the probability derived by the probability deriving unit 211. Details of the processing in step S309 will be described with reference to FIG. It is assumed that probabilities A and B corresponding to threshold values necessary for determination are set before executing step S309. Probabilities A and B are A> B. In step S309, the process determination unit 212 receives the probability derived by the probability deriving unit 211 as an input. It is determined whether the input probability is higher than A (step S3901). If the probability derived by the probability deriving unit 211 is higher than A (Yes in step S3901), it is determined that the image used for deriving the input probability includes a photographing object, and step S310 is executed. If the probability derived by the probability deriving means 211 is equal to or less than A (No in step S3901), step S3902 is executed. In step S3902, it is determined whether the probability derived by the probability deriving unit 211 is lower than B. If the probability derived by the probability deriving unit 211 is lower than B (Yes in step S3902), it is determined that the image used for deriving the input probability does not include the imaging target, and step S311 is executed.

確率導出手段211において導出された確率がB以上(ステップS3902でNo)であれば、ステップS312を実行する。   If the probability derived by the probability deriving means 211 is B or higher (No in step S3902), step S312 is executed.

ステップS309は、図5に示す処理が行われるので、確率導出手段211において導出された確率がAより大きいのであれば、入力された確率の導出に用いた画像が撮影対象物を含むと判断しステップS310を実行する。また、確率導出手段211において導出された確率がA以下で、かつBより小さいのであれば、この確率の導出に用いた画像が撮影対象物を含まないと判断しステップS311を実行する。また、確率導出手段211において導出された確率がA以下で、かつB以上であれば、ステップS312を実行する。なお、判別に必要な確率A、Bは撮影者の負担や必要な画像のレベルに応じて適宜変更しても良い。また、確率導出手段211にて用いられる撮影対象物を含む確率の計算機(演算器とも言う)は、収集された画像(例えば、撮影対象物のタグが付与された画像)を用いて新たに作成し(又は再構築し)、更新してもよい。確率導出手段211における計算機の更新にあわせて確率A、Bの値をそれぞれ変更してもよい。確率導出手段211における計算機は、新たに取得した画像を用いて更新することで、より精度が高くなる。より高い精度で確率を導出できる場合、確率A、Bを適切に設定することで、人手でタグ付けを行う画像を減らすことが可能となる。図6を用いて処理判別ステップS309の具体例を示す。図6は、撮影対象物が犬である場合のステップS309の具体例である。撮影機器100にて取得した3枚の画像を画像X、画像Y、画像Zとする。この場合、ステップS308にて確率導出手段211は、画像に犬の含まれる確率を導出する。画像に犬の含まれる確率が、画像Xは95%、画像Yは50%、画像Zは5%とステップS308において求められているものとする。また判別のための確率A、Bはそれぞれ85%、20%と設定されているとする。この場合、ステップS309において処理判別手段212は、確率導出手段211において導出された確率を入力とする。この時、まず画像Xに犬が含まれる確率は85%より高いため、犬であると判断され、サーバ装置200に保存するためステップS310へ進む。次に画像Yに犬が含まれる確率は85%以下かつ20%以上であるため、機械では犬かどうか分からないものと判断され、手動判別を行うためステップS312へ進む。最後に画像Zに犬が含まれる確率は20%より低いため、犬ではないと判断され、破棄するためステップS311へ進む。   In step S309, since the process shown in FIG. 5 is performed, if the probability derived by the probability deriving unit 211 is larger than A, it is determined that the image used for deriving the input probability includes the imaging target. Step S310 is executed. If the probability derived by the probability deriving unit 211 is equal to or lower than A and smaller than B, it is determined that the image used for deriving this probability does not include the photographing object, and step S311 is executed. If the probability derived by the probability deriving means 211 is A or less and B or more, step S312 is executed. The probabilities A and B necessary for the determination may be changed as appropriate according to the burden on the photographer and the required image level. In addition, a probability calculator (also referred to as a computing unit) including a photographing object used in the probability deriving unit 211 is newly created using a collected image (for example, an image to which a tag of the photographing object is attached). (Or rebuilt) and updated. The values of the probabilities A and B may be changed in accordance with the update of the computer in the probability deriving means 211. The computer in the probability deriving unit 211 becomes more accurate by updating it using a newly acquired image. When the probability can be derived with higher accuracy, it is possible to reduce the number of images to be manually tagged by setting the probabilities A and B appropriately. A specific example of the process determination step S309 will be described with reference to FIG. FIG. 6 is a specific example of step S309 when the photographing object is a dog. Three images acquired by the photographing apparatus 100 are referred to as an image X, an image Y, and an image Z. In this case, in step S308, the probability deriving unit 211 derives the probability that the image includes a dog. Assume that the probability that an image includes a dog is 95% for image X, 50% for image Y, and 5% for image Z in step S308. The probabilities A and B for discrimination are set to 85% and 20%, respectively. In this case, in step S309, the process determination unit 212 receives the probability derived by the probability deriving unit 211 as an input. At this time, since the probability that the dog is included in the image X is higher than 85%, it is determined that the dog is a dog, and the process proceeds to step S310 to be stored in the server device 200. Next, since the probability that a dog is included in image Y is 85% or less and 20% or more, it is determined that the machine does not know whether it is a dog or not, and the flow proceeds to step S312 to perform manual determination. Finally, since the probability that a dog is included in the image Z is lower than 20%, it is determined that the dog is not a dog, and the process proceeds to step S311 to discard it.

図4に戻って処理の流れを説明する。ステップS310にて画像管理手段213は、ステップS309にて撮影対象物を含むと判別された(確率Aより高いと判別された)画像を、撮影対象物のタグを付与して、サーバ装置200が備える図示しないメモリに保存する。メモリとは、例えば、ハードディスク、書き込み可能な半導体メモリなどの書き込み可能な記録媒体である。   Returning to FIG. 4, the process flow will be described. In step S310, the image management unit 213 adds a tag of the shooting target to the image determined to include the shooting target (determined to be higher than the probability A) in step S309, and the server apparatus 200 It is stored in a memory (not shown) provided. The memory is a writable recording medium such as a hard disk or a writable semiconductor memory.

ステップS311にて画像管理手段213は、ステップS309にて撮影対象物を含まないと判別された(確率Bより低いと判別された)画像を、撮影対象物のタグを付与せずに破棄する。   In step S <b> 311, the image management unit 213 discards the image determined not to include the imaging target (determined to be lower than the probability B) in step S <b> 309 without adding the tag of the imaging target.

ステップS312にてサーバ装置通信部220は、ステップS309にて確率A以下であり確率B以上と判別された画像および、この画像への情報付与に対応するタグ付けを受付けるための依頼受付情報を撮影機器100へ送信する。すなわちステップS312にて撮影機器通信部120は、サーバ装置通信部220にて撮影機器100へ送られる画像を受信する。   In step S312, the server apparatus communication unit 220 captures the request acceptance information for accepting an image determined to be equal to or less than the probability A and the probability B or more in step S309 and tagging corresponding to the information addition to the image. Transmit to device 100. That is, in step S312, the imaging device communication unit 120 receives an image transmitted to the imaging device 100 by the server device communication unit 220.

例えば、ステップS309にて確率A以下であり確率B以上と判別された画像は、ステップS307において、撮影機器100からネットワークを介して受信された画像である。   For example, the image determined in step S309 to be less than or equal to the probability A and greater than or equal to the probability B is an image received from the imaging device 100 via the network in step S307.

例えば、ステップS307において、画像とともに撮影者IDまたは機器IDを受信した場合、であって、かつこの画像がステップS309にて確率A以下であり確率B以上と判別された場合、ステップS312では、ステップS307において、この画像とともに受信した撮影者IDまたは機器IDを特定する。そして特定した撮影者IDに対応する機器または機器IDに対応する機器へこの画像と依頼受付情報を送信する。例えば、ステップS302のユーザ(この例では、撮影者1)の登録において、撮影者1の撮影者IDに複数の機器を関連付けて登録した場合を考える。この場合、ステップS312では、撮影者IDと対応付けたタグ付けの作業が行いやすい機器(例えば、スマートフォン、タブレット型の携帯端末)へ画像と依頼受付情報を送信するのでもよい。このようにすれば、タグ付けの作業を行うものは、タグ付けの作業がより行いやすくなる。   For example, if the photographer ID or device ID is received together with the image in step S307, and if this image is determined to be less than probability A and greater than probability B in step S309, In S307, the photographer ID or device ID received together with this image is specified. Then, this image and request acceptance information are transmitted to the device corresponding to the specified photographer ID or the device corresponding to the device ID. For example, consider a case where a plurality of devices are registered in association with the photographer ID of the photographer 1 in the registration of the user (in this example, the photographer 1) in step S302. In this case, in step S312, the image and the request reception information may be transmitted to a device (for example, a smartphone or a tablet-type mobile terminal) that can easily perform tagging work associated with the photographer ID. In this way, those that perform the tagging work can more easily perform the tagging work.

なお、ステップS312では、ステップS307において、この画像とともに受信した撮影者IDとは異なる撮影者IDの機器へ、画像および依頼受付情報を送ってもよい。このようにすれば、この画像をサーバ装置200へ送信した者(画像取得者)とは別の者(撮影者)へ送っても良い。画像を画像取得者とは別の、より手の空いた撮影者へ送ることで、タグ付けがよりスピーディーになる。また、画像を複数の撮影者へ送ることで、より精度の高いタグ付けを行うことが可能となる。画像をその画像の取得者へ送り戻す場合、ステップS307にて撮影者IDを画像と一緒に送ることで、同じ画像取得者へと送ることが可能となる。   In step S312, the image and request acceptance information may be sent to a device having a photographer ID different from the photographer ID received together with this image in step S307. In this way, this image may be sent to a person (photographer) different from the person who sent the image to the server device 200 (image acquirer). Sending an image to a more handy photographer, separate from the image acquirer, makes tagging faster. Further, by sending an image to a plurality of photographers, it becomes possible to perform tagging with higher accuracy. When the image is sent back to the acquirer of the image, it is possible to send the photographer ID together with the image in step S307 to the same image acquirer.

なお、ステップS312では、ステップS307において、この画像とともに受信した機器IDを特定し、特定した機器IDとは異なる機器IDの機器へ、画像および依頼受付情報送ってもよい。   In step S312, the device ID received together with this image in step S307 may be specified, and the image and request acceptance information may be sent to a device having a device ID different from the specified device ID.

ステップS313にて表示部130は、撮影機器通信部120にて受信した依頼受付情報を受け付け、受信した画像を含み、画像に撮影対象物が含まれるか否かの選択を端末から受け付ける指示画面を表示する。指示画面は、例えば、撮影対象物が含まれるか否かの選択を行うアイコン画像(例えば、「Yes」および「No」に対応するアイコン画像)を含む。   In step S313, the display unit 130 receives the request reception information received by the imaging device communication unit 120, and includes an instruction screen that includes the received image and receives a selection as to whether or not the imaging target is included in the image from the terminal. indicate. The instruction screen includes, for example, an icon image (for example, an icon image corresponding to “Yes” and “No”) for selecting whether or not a shooting target is included.

ステップS314にて入力部140は、表示部130にて表示された画像が撮影対象物を含むどうかの撮影者による判別結果を受け付ける。   In step S <b> 314, the input unit 140 receives a determination result by the photographer as to whether or not the image displayed on the display unit 130 includes a photographing object.

図7は、ステップS313にて画像を表示する際のインタフェース例である。処理判別ステップS309にて、撮影対象物が含まれるかどうかを機械によって判別できないと判断された画像(ステップS312にて送信される、確率A以下であり確率B以上と判別された画像)は、ステップS313にて図7の例のように表示部130に表示される。撮影者1はステップS313にて表示された画像について、ステップS314にて撮影対象物が含まれるかどうかを判断し、入力部140より判断結果を入力する。   FIG. 7 shows an example of an interface when displaying an image in step S313. In the process determination step S309, an image determined to be unable to be determined by the machine whether or not an object to be photographed is included (an image transmitted in step S312 and determined to be less than or equal to probability A and greater than or equal to probability B) is: In step S313, the image is displayed on the display unit 130 as in the example of FIG. The photographer 1 determines whether or not the object to be imaged is included in the image displayed in step S313 in step S314, and inputs the determination result from the input unit 140.

ステップS315にて撮影機器通信部120は、入力部140にて入力された画像が撮影対象物を含むどうかの撮影者による判別結果を、サーバ装置200へ送信する。すなわちステップS315にてサーバ装置通信部220は、入力部140にて入力された画像が撮影対象物を含むどうかの撮影者による判別結果を受信する。画像が撮影対象物を含むという判別結果を受信した場合、ステップS316を実施する。また画像が撮影対象物を含まないという判別結果を受信した場合、ステップS317を実施する。   In step S <b> 315, the imaging device communication unit 120 transmits the determination result by the photographer to the server apparatus 200 as to whether or not the image input by the input unit 140 includes the imaging target. That is, in step S315, the server apparatus communication unit 220 receives a determination result by the photographer as to whether or not the image input by the input unit 140 includes a shooting target. When the determination result that the image includes the photographing target is received, step S316 is performed. If the determination result that the image does not include the object to be photographed is received, step S317 is performed.

ステップS316にて画像管理手段213は、ステップS314にて撮影対象物を含むと判別された画像に撮影対象物のタグを付与し、サーバ装置200が備える図示しないメモリに保存する。なお、画像が撮影対象物を含むという判別結果として、撮影対象物のタグが付された画像をステップS315において受信した場合、ステップS316にて画像管理手段213は、この画像をメモリに保存すればよい。   In step S316, the image management unit 213 adds a tag of the shooting target to the image determined to include the shooting target in step S314, and stores it in a memory (not shown) provided in the server device 200. As a result of the determination that the image includes the object to be photographed, if an image tagged with the object to be photographed is received in step S315, the image management unit 213 stores the image in the memory in step S316. Good.

ステップS317にて画像管理手段213は、ステップS314にて撮影対象物を含まないと判別された画像を破棄する。   In step S317, the image management unit 213 discards the image determined not to include the shooting target object in step S314.

ステップS318にて報酬導出手段214は、ステップS310にて求められた、画像に撮影対象物が含まれる確率を用いて報酬の導出を行う。ここでは例えば、ステップS312にて送信する画像が多いほど(すなわち、ステップS309にて確率A以下であり確率B以上と判別された画像が多いほど)、報酬を高く導出する。   In step S318, the reward deriving unit 214 derives a reward using the probability obtained in step S310 that the imaged object is included. Here, for example, the reward is derived higher as the number of images transmitted in step S312 increases (that is, as the number of images determined to be lower than probability A and higher than probability B in step S309).

ステップS319にてサーバ装置200は、撮影機器100に対して撮影者への報酬の送付を行う。報酬は、お金、ネットマネー、ゲームポイント、割引券、抽選券など、撮影者の利益となるあらゆるものを含む。   In step S319, the server device 200 sends a reward to the photographer to the photographing apparatus 100. The reward includes everything that benefits the photographer, such as money, net money, game points, discount tickets, lottery tickets, and the like.

なお、ステップS308における確率の導出は、例えば、制御処理部210に含まれるDeep Learningによって予め構築された撮影対象物を識別するための演算器を用いることは前述したとおりである。より具体的には例えば、撮影対象物の認識のために予め用意された複数の学習用画像のデータセットを用いてDeep Learningによる学習が行われ、撮影対象物を識別するための演算器が予め構築される。   Note that the derivation of the probability in step S308 is, for example, as described above using an arithmetic unit for identifying an imaging target that is built in advance by deep learning included in the control processing unit 210. More specifically, for example, learning by deep learning is performed using a data set of a plurality of learning images prepared in advance for recognition of a photographing object, and an arithmetic unit for identifying the photographing object is provided in advance. Built.

例えば、ステップS310、ステップS316により保存された複数枚の画像を学習用画像のデータセットに加えて学習を行い、撮影対象物を識別するための演算器を更新(又は再構築)してもよい。このような更新を行うことで、演算器を用いて導出される確率の精度(または信頼度)がより高くなる。   For example, a plurality of images stored in step S310 and step S316 may be added to the learning image data set to perform learning, and an arithmetic unit for identifying a photographing object may be updated (or reconstructed). . By performing such an update, the accuracy (or reliability) of the probability derived using the computing unit becomes higher.

演算器を更新するタイミングは、例えば、ステップS310、ステップS316により画像を保存するタイミングで行ってもよいし、ステップS308を実行する前に行ってもよい。   The timing at which the computing unit is updated may be, for example, the timing at which the image is stored in step S310 and step S316, or may be performed before executing step S308.

例えば、所定の枚数未満の画像を用いて構築した演算器を用いて確率を導出する場合と、所定の枚数以上の画像を用いて構築した演算器を用いて確率を導出する場合とで、ステップ309において、判別に必要な確率A、Bの値を変更するのでもよい。   For example, in the case of deriving the probability using an arithmetic unit constructed using less than a predetermined number of images and the case of deriving the probability using an arithmetic unit constructed using a predetermined number of images or more, the steps In 309, the values of probabilities A and B necessary for discrimination may be changed.

例えば、所定の枚数未満の画像を用いて構築した演算器を用いて確率を導出する場合において、設定する確率Aの値は、所定の枚数以上の画像を用いて構築した演算器を用いて確率を導出する場合において、設定する確率Aの値よりも高い値に設定してもよい。   For example, when the probability is derived using an arithmetic unit constructed using less than a predetermined number of images, the value of the probability A to be set is a probability obtained using an arithmetic unit constructed using a predetermined number of images or more. May be set to a value higher than the value of the probability A to be set.

また、例えば、所定の枚数未満の画像を用いて構築した演算器を用いて確率を導出する場合において、設定する確率Bの値は、所定の枚数以上の画像を用いて構築した演算器を用いて確率を導出する場合において、設定する確率Bの値よりも低い値に設定してもよい。   In addition, for example, when the probability is derived using an arithmetic unit constructed using less than a predetermined number of images, the probability B to be set is set using an arithmetic unit constructed using a predetermined number of images or more. When the probability is derived, it may be set to a value lower than the value of the probability B to be set.

所定の枚数というのは、例えば、認識すべき撮影対象物に応じて決めてもよいし、サーバ装置200を管理する管理者が適宜決めてもよい。   For example, the predetermined number of sheets may be determined according to an imaging target to be recognized, or may be determined as appropriate by an administrator who manages the server device 200.

以上により、大量の画像を取得し、撮影対象物が含まれるかどうかが簡単に判別できるものは認識器により短時間で判別し、判別が難しいものは人がより高精度な判別を行う画像収集・タグ付けシステムが構築される。従来特許では、撮影対象物が含まれる大量の画像を収集する場合、撮影者の意図が含まれる画像が多く集まってしまい、画像に偏りが生じていた。また、撮影者の意図が含まれない大量の画像を収集した場合、その大量の画像に対して撮影対象物が含まれるか否かの情報を付与する具体的な手法が検討されていなかった。よって、収集した全ての画像に対して人手で撮影対象物が含まれるか否かの情報を付与する作業が必要となり、大きな手間が必要であった。しかし本開示により、所望の撮影対象物が含まれる画像であって、人の意図が含まれない多様な撮影画像を網羅的かつ大量に収集し、それら大量の画像に対して意図する情報(撮影対象物であるか否かに関する情報など)を、システム全体の人的コスト・負荷を抑えつつ効率的に付与することができる。これにより、所望の撮影対象物であるという情報が付与された大量の多様な画像データセット(似たような画像に偏らない画像データセット)を学習用画像として用いることで、より認識性能の高い画像認識器を構築することが可能となる。よって、例えばDeep Learningなどの手法を用いた画像認識システムを、従来よりも効率的かつ精度よく構築することが出来る。   As described above, a large amount of images can be acquired, and those that can be easily determined whether or not the object to be photographed are included in a short time with a recognizer. -A tagging system is established. In the conventional patent, when collecting a large amount of images including an object to be photographed, a large number of images including the photographer's intention are collected, and the image is biased. In addition, when a large amount of images that do not include the photographer's intention are collected, a specific method for giving information as to whether or not a subject to be photographed is included in the large amount of images has not been studied. Therefore, it is necessary to manually add information on whether or not the object to be photographed is included in all the collected images, which requires a lot of labor. However, according to the present disclosure, a comprehensive and large amount of various captured images that include a desired object to be captured and do not include a person's intention are collected and intended information (shooting It is possible to efficiently give information on whether or not it is an object while suppressing the human cost and load of the entire system. As a result, a large amount of various image data sets (image data sets that are not biased to similar images) to which information indicating that the object is a desired object to be photographed are used as learning images, resulting in higher recognition performance. An image recognizer can be constructed. Therefore, for example, an image recognition system using a technique such as Deep Learning can be constructed more efficiently and accurately than in the past.

以上、実施の形態にて本開示の処理について説明したが、各処理が実施される主体や装置に関しては特に限定しない。ローカルに配置された特定の装置内に組み込まれたプロセッサなど(以下に説明)によって処理されてもよい。またローカルの装置と異なる場所に配置されているクラウドサーバなどによって処理されてもよい。また、ローカルの装置とクラウドサーバ間で情報の連携を行うことで、本開示にて説明した各処理を分担してもよい。以下本開示の実施態様を説明する。   As above, the processing of the present disclosure has been described in the embodiment, but there is no particular limitation on the subject or apparatus in which each processing is performed. It may be processed by a processor or the like (described below) incorporated in a specific device located locally. Further, it may be processed by a cloud server or the like arranged at a location different from the local device. Moreover, you may share each process demonstrated by this indication by coordinating information between a local apparatus and a cloud server. Embodiments of the present disclosure will be described below.

(1)上記の装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。   (1) Specifically, the above apparatus is a computer system including a microprocessor, ROM, RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like. A computer program is stored in the RAM or hard disk unit. Each device achieves its functions by the microprocessor operating according to the computer program. Here, the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.

(2)上記の装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。   (2) A part or all of the constituent elements constituting the above-described apparatus may be constituted by one system LSI (Large Scale Integration). The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.

(3)上記の装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。   (3) A part or all of the constituent elements constituting the above-described device may be constituted by an IC card that can be attached to and detached from each device or a single module. The IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.

(4)本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。   (4) The present disclosure may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.

(5)また、本開示は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。   (5) In addition, the present disclosure provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD ( It may be recorded on a Blu-ray (registered trademark) disc, a semiconductor memory, or the like. The digital signal may be recorded on these recording media.

また、本開示は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。   In addition, the present disclosure may transmit the computer program or the digital signal via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.

また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。   The present disclosure may be a computer system including a microprocessor and a memory, the memory storing the computer program, and the microprocessor operating according to the computer program.

また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。   In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like and executed by another independent computer system. You may do that.

(6)上記実施の形態及びその変形例をそれぞれ組み合わせるとしてもよい。   (6) The above embodiment and its modifications may be combined.

本開示は、画像から、画像中に含まれる物体が何であるかを精度良く認識することができる物体認識方法及びシステムに関連し、デジタルカメラ、ムービー、監視カメラ、車載カメラ、ウェアラブルカメラなどの撮像装置として有用である。   The present disclosure relates to an object recognition method and system capable of accurately recognizing what an object included in an image is from an image, and imaging of a digital camera, a movie, a surveillance camera, an in-vehicle camera, a wearable camera, and the like. Useful as a device.

100 撮影機器
110 撮影部
120 撮影機器通信部
130 表示部
140 入力部
200 サーバ装置
210 制御処理部
211 確率導出手段
212 処理判別手段
213 画像管理手段
214 報酬導出手段
DESCRIPTION OF SYMBOLS 100 Image pick-up apparatus 110 Image pick-up part 120 Image pick-up apparatus communication part 130 Display part 140 Input part 200 Server apparatus 210 Control processing part 211 Probability deriving means 212 Process determination means 213 Image management means 214 Reward deriving means

Claims (15)

サーバの情報付与方法であって、前記サーバのプロセッサが、
画像を撮像する機能もしくは他の機器から画像を取得する機能を有する1以上の端末のいずれかからネットワークを介して送信された画像を取得し、
取得した前記画像に対して、所定の撮影対象物が含まれる確率を算出し、
前記確率が第1の閾値より上である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与し、
前記確率が第2の閾値より下である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与せず、
前記確率が前記第2の閾値以上でありかつ前記第1の閾値以下である場合は、前記画像と、前記画像への情報付与を受付けるための依頼受付情報とを、前記1以上の端末のいずれかに前記ネットワークを介して送信する、
情報付与方法。
A server information providing method, wherein the server processor includes:
Obtaining an image transmitted via a network from one or more terminals having a function of capturing an image or a function of obtaining an image from another device;
For the acquired image, calculate the probability that a predetermined shooting object is included,
If the probability is above a first threshold, give the image information indicating the predetermined object to be photographed,
When the probability is lower than the second threshold, information indicating the predetermined photographing object is not given to the image,
If the probability is greater than or equal to the second threshold and less than or equal to the first threshold, the image and request acceptance information for accepting information assignment to the image may be any of the one or more terminals. Send over the network,
Information grant method.
前記依頼受付情報には、前記画像に前記撮影対象物が含まれるか否かの選択を前記端末から受け付ける指示画面を表示するコマンドが含まれる、
請求項1に記載の情報付与方法。
The request acceptance information includes a command for displaying an instruction screen for accepting selection from the terminal as to whether or not the photographing object is included in the image.
The information providing method according to claim 1.
さらに、前記指示画面に基づき受付けた前記画像に前記撮影対象物が含まれるか否かの選択結果を、前記端末から取得し、
前記選択結果が、前記撮影対象物が含まれる旨の選択結果である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与し、
前記選択結果が、前記撮影対象物が含まれない旨の選択結果である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与しない、
請求項2に記載の情報付与方法。
Further, a selection result as to whether or not the photographing object is included in the image received based on the instruction screen is acquired from the terminal,
When the selection result is a selection result indicating that the photographing object is included, information indicating the predetermined photographing object is given to the image,
When the selection result is a selection result indicating that the shooting object is not included, information indicating the predetermined shooting object is not given to the image.
The information providing method according to claim 2.
前記確率の算出には、前記サーバが予め保持している所定の撮影対象物が含まれる確率を算出するための演算器を用いる、
請求項1に記載の情報付与方法。
For the calculation of the probability, an arithmetic unit for calculating the probability that the server includes a predetermined photographing object held in advance is used.
The information providing method according to claim 1.
前記演算器は、Deep Learning、Hog(Histogram of Oriented Gradient)、SVM(Support Vector Machine)、またはそれらの組み合わせによって構築された演算器である、
請求項4に記載の情報付与方法。
The computing unit is a computing unit constructed by Deep Learning, Hog (Histogram of Oriented Gradient), SVM (Support Vector Machine), or a combination thereof.
The information providing method according to claim 4.
複数枚の画像に対して前記情報付与方法を用いた情報の付与を行うことで、情報が付与された複数枚の画像を蓄積し、
前記情報が付与された複数枚の画像を用いて、前記演算器を更新する、
請求項4または請求項5に記載の情報付与方法。
By giving information using the information giving method to a plurality of images, a plurality of images with information added are accumulated,
Update the computing unit using a plurality of images to which the information is attached,
The information provision method according to claim 4 or 5.
所定の枚数未満の前記情報が付与された画像を用いて構築された前記演算器を用いて、前記確率を算出する場合と、所定の枚数以上の前記情報が付与された画像を用いて構築された前記演算器を用いて、前記確率を算出する場合とで、
前記第1の閾値および前記第2の閾値を、変更する、
請求項4または請求項5に記載の情報付与方法。
When calculating the probability using the computing unit constructed using an image to which the information of less than a predetermined number is assigned, and using an image to which the information of a predetermined number or more is provided. In the case of calculating the probability using the computing unit,
Changing the first threshold and the second threshold;
The information provision method according to claim 4 or 5.
所定の枚数未満の前記情報が付与された画像を用いて構築された前記演算器を用いて、前記確率を算出する場合は、
所定の枚数以上の前記情報が付与された画像を用いて構築された前記演算器を用いて、前記確率を算出する場合よりも、前記第1の閾値を高く設定し、前記第2の閾値を低く設定する、
請求項7に記載の情報付与方法。
When calculating the probability using the computing unit constructed using an image to which the information of less than a predetermined number is given,
The first threshold value is set higher than the case where the probability is calculated using the computing unit constructed using an image to which a predetermined number or more of the information is added, and the second threshold value is set. Set it low,
The information providing method according to claim 7.
前記取得では、前記端末から前記画像とともに前記端末の機器IDを取得し、
前記送信では、前記画像とともに取得した前記機器IDを特定し、前記1以上の端末のうち、前記特定した機器IDの端末に前記画像および前記依頼受付情報を送信する、
請求項1に記載の情報付与方法。
In the acquisition, the device ID of the terminal is acquired from the terminal together with the image,
In the transmission, the device ID acquired together with the image is specified, and the image and the request reception information are transmitted to the terminal of the specified device ID among the one or more terminals.
The information providing method according to claim 1.
前記画像の取得では、前記端末から前記画像とともに前記端末の機器IDを取得し、
前記送信では、前記画像とともに取得した前記機器IDを特定し、前記1以上の端末のうち、前記特定した機器IDの端末とは異なる端末に前記画像および前記依頼受付情報を送信する、
請求項1に記載の情報付与方法。
In the acquisition of the image, the device ID of the terminal is acquired from the terminal together with the image,
In the transmission, the device ID acquired together with the image is specified, and the image and the request reception information are transmitted to a terminal different from the terminal of the specified device ID among the one or more terminals.
The information providing method according to claim 1.
さらに前記情報付与方法によって前記画像に対して情報を付与するか否かの処理をした後に、前記端末に対して報酬を提供する情報を送信し、
前記報酬は、前記画像に関する前記確率が前記第2の閾値以上でありかつ前記第1の閾値以下である場合に、前記確率が第1の閾値より上である場合および前記確率が第2の閾値より下である場合よりも、高く設定する、
請求項1に記載の情報付与方法。
Furthermore, after processing whether to give information to the image by the information giving method, send information providing reward to the terminal,
The reward is when the probability for the image is greater than or equal to the second threshold and less than or equal to the first threshold, the probability is greater than the first threshold, and the probability is greater than the second threshold. Set higher than if it is below,
The information providing method according to claim 1.
前記画像を取得する前に、前記所定の撮影対象物に関する選択を、前記端末から受付ける、
請求項1に記載の情報付与方法。
Before acquiring the image, accept a selection regarding the predetermined object to be photographed from the terminal;
The information providing method according to claim 1.
前記取得、前記算出、および前記付与の少なくとも1つは、プロセッサにより行われる請求項1に記載の情報付与方法。   The information provision method according to claim 1, wherein at least one of the acquisition, the calculation, and the provision is performed by a processor. プロセッサを備え、
前記プロセッサは、
画像を撮像する機能もしくは他の機器から画像を取得する機能を有する1以上の端末のいずれかからネットワークを介して画像を取得し、
取得した前記画像に対して、所定の撮影対象物が含まれる確率を算出し、
前記確率が第1の閾値より上である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与し、
前記確率が第2の閾値より下である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与せず、
前記確率が前記第2の閾値以上でありかつ前記第1の閾値以下である場合は、前記画像と、前記画像への情報付与を受付けるための依頼受付情報とを、前記1以上の端末のいずれかに送信する、
サーバ装置。
With a processor,
The processor is
Acquiring an image via a network from one or more terminals having a function of capturing an image or acquiring an image from another device;
For the acquired image, calculate the probability that a predetermined shooting object is included,
If the probability is above a first threshold, give the image information indicating the predetermined object to be photographed,
When the probability is lower than the second threshold, information indicating the predetermined photographing object is not given to the image,
If the probability is greater than or equal to the second threshold and less than or equal to the first threshold, the image and request acceptance information for accepting information assignment to the image may be any of the one or more terminals. Send to
Server device.
プログラムを記録した記録媒体であって、
前記プログラムは、コンピュータに、
画像を撮像する機能もしくは他の機器から画像を取得する機能を有する1以上の端末のいずれかからネットワークを介して取得した画像に対して、所定の撮影対象物が含まれる確率を算出し、
前記確率が第1の閾値より上である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与し、
前記確率が第2の閾値より下である場合は、前記画像に対して前記所定の撮影対象物を示す情報を付与せず、
前記確率が前記第2の閾値以上でありかつ前記第1の閾値以下である場合は、前記画像と、前記画像への情報付与を受付けるための依頼受付情報とを、前記1以上の端末のいずれかに送信する、処理を実行させる、
記録媒体。
A recording medium on which a program is recorded,
The program is stored in a computer.
Calculating a probability that a predetermined object to be captured is included in an image acquired via a network from one or more terminals having a function of capturing an image or a function of acquiring an image from another device;
If the probability is above a first threshold, give the image information indicating the predetermined object to be photographed,
When the probability is lower than the second threshold, information indicating the predetermined photographing object is not given to the image,
If the probability is greater than or equal to the second threshold and less than or equal to the first threshold, the image and request acceptance information for accepting information assignment to the image may be any of the one or more terminals. Send it to, execute the process,
recoding media.
JP2016106557A 2015-09-04 2016-05-27 Information giving method and server device Active JP6801985B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/228,334 US9817471B2 (en) 2015-09-04 2016-08-04 Method for adding information and server apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562214303P 2015-09-04 2015-09-04
US62/214,303 2015-09-04

Publications (2)

Publication Number Publication Date
JP2017049977A true JP2017049977A (en) 2017-03-09
JP6801985B2 JP6801985B2 (en) 2020-12-16

Family

ID=58279443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016106557A Active JP6801985B2 (en) 2015-09-04 2016-05-27 Information giving method and server device

Country Status (1)

Country Link
JP (1) JP6801985B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005172A (en) * 2013-06-21 2015-01-08 ソニー株式会社 Information processing device, information processing system, and storage medium storing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005172A (en) * 2013-06-21 2015-01-08 ソニー株式会社 Information processing device, information processing system, and storage medium storing program

Also Published As

Publication number Publication date
JP6801985B2 (en) 2020-12-16

Similar Documents

Publication Publication Date Title
CN103797493B (en) For sharing the smart camera of picture automatically
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
JP5527423B2 (en) Image processing system, image processing method, and storage medium storing image processing program
JP6098318B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP2013145481A (en) Camera device, communication system and camera system
JP2010267030A (en) Apparatus and method for processing information
JP2019192082A (en) Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning
JP2015046069A (en) Information processor, specification method, and specification program
US9817471B2 (en) Method for adding information and server apparatus
JP2015233204A (en) Image recording device and image recording method
JPWO2021225085A5 (en)
JP2015139001A (en) Information processing device, information processing method and program
JP2014215747A (en) Tracking device, tracking system, and tracking method
JP6801985B2 (en) Information giving method and server device
JP6023577B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2016208096A (en) Information processing device, information processing method, and image transfer system
CN111586295B (en) Image generation method and device and electronic equipment
JP2014042170A (en) Photographing system, photographing support method, photographing device and control method of the same, management device and control method of the same, and program
CN107016351A (en) Shoot the acquisition methods and device of tutorial message
JP2022012290A (en) Information processor, information processing method, and system
JP2008217334A (en) Image sorting device, method, and program
WO2019130437A1 (en) Regional smile degree display system, regional smile degree display method, and program
JP2021033489A (en) Image recognition application construction support system
JP2020101696A (en) Map generation device, map generation system, map generation method, and map generation program
JP2018005611A (en) Information processing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201126

R150 Certificate of patent or registration of utility model

Ref document number: 6801985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150