JP6474946B1 - Image analysis result providing system, image analysis result providing method, and program - Google Patents

Image analysis result providing system, image analysis result providing method, and program Download PDF

Info

Publication number
JP6474946B1
JP6474946B1 JP2018545247A JP2018545247A JP6474946B1 JP 6474946 B1 JP6474946 B1 JP 6474946B1 JP 2018545247 A JP2018545247 A JP 2018545247A JP 2018545247 A JP2018545247 A JP 2018545247A JP 6474946 B1 JP6474946 B1 JP 6474946B1
Authority
JP
Japan
Prior art keywords
image
image analysis
learned model
learned
unknown
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018545247A
Other languages
Japanese (ja)
Other versions
JPWO2019003355A1 (en
Inventor
俊二 菅谷
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Application granted granted Critical
Publication of JP6474946B1 publication Critical patent/JP6474946B1/en
Publication of JPWO2019003355A1 publication Critical patent/JPWO2019003355A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract


【課題】 新たに画像解析させたい未知画像に対して、学習時間をかけずに、精度の良い画像解析結果を出力することが可能な画像解析結果提供システム、画像解析結果提供方法、およびプログラムを提供する。
【解決手段】 既知画像を画像解析した機械学習済みの学習済みモデルを記憶する記憶モジュール231と、未だ学習済みモデルが作成されていない未知画像を取得する取得モジュール211と、記憶した学習済みモデルの中から、取得した未知画像と撮像条件が似ている既知画像の学習済みモデルを選択する選択モジュール212と、選択した学習済みモデルを利用して、前記未知画像を画像解析させる画像解析モジュール213と、画像解析の結果を提供する提供モジュール241を備える。
【選択図】図1

PROBLEM TO BE SOLVED: To provide an image analysis result providing system, an image analysis result providing method, and a program capable of outputting an accurate image analysis result without taking learning time for an unknown image to be newly analyzed. provide.
A storage module 231 for storing a machine-learned learned model obtained by image analysis of a known image, an acquisition module 211 for acquiring an unknown image for which a learned model has not yet been created, and a stored learned model A selection module 212 that selects a learned model of a known image similar in imaging condition to the acquired unknown image, and an image analysis module 213 that performs image analysis of the unknown image using the selected learned model The providing module 241 for providing the result of the image analysis is provided.
[Selection] Figure 1

Description

本発明は、人工知能が既知画像を画像解析した機械学習済みの学習済みモデルの複数パターンの中から、新たに画像解析させたい未知画像と撮像条件が似ている既知画像の学習済みモデルを選択して利用することで、学習時間をかけずに、精度の良い画像解析結果を出力することが可能な画像解析結果提供システム、画像解析結果提供方法、およびプログラムに関する。   The present invention selects a learned model of a known image whose imaging condition is similar to an unknown image to be newly analyzed from among a plurality of patterns of machine-learned learned models obtained by image analysis of known images by artificial intelligence The present invention relates to an image analysis result providing system, an image analysis result providing method, and a program that can output an accurate image analysis result without taking a learning time.

人物画像に対して画像解析処理を行うことで、誰が写っているかを判別し、自動的に人物画像をカテゴライズする仕組みを提供する方法が提案されている(特許文献1)。   There has been proposed a method of providing a mechanism for discriminating who is captured by performing image analysis processing on a person image and automatically categorizing the person image (Patent Document 1).

特開2015−69580JP2015-69580

また、人工知能が画像解析を行うための機械学習の手法として、教師あり学習(Supervised Learning)はよく知られる手法である。   Supervised learning is a well-known technique as a machine learning technique for artificial intelligence to perform image analysis.

しかしながら、この教師あり学習のためには、一般的に数万枚〜数百万枚以上の大量の画像を用意して、画像に対して正しい教師データを付加してから学習させる必要があり、教師あり学習で画像解析の精度を上げるためには、学習のための画像を準備する手間がかかるとともに、学習のための時間も長期間必要となるという点が問題となる。   However, for this supervised learning, it is generally necessary to prepare a large number of images of tens of thousands to millions of images and add the correct teacher data to the images before learning. In order to improve the accuracy of image analysis by supervised learning, it takes time to prepare an image for learning and also requires a long time for learning.

例えば、踏切に人が進入したかどうかを判定する、進入検知を画像解析で行う場合、通常、監視カメラの位置は固定であるため、踏切A・踏切B・踏切C等、踏切毎に教師ありの機械学習を行うことで、踏切A・踏切B・踏切Cそれぞれに対する進入検知の精度を高めることが可能であり、その後の画像解析処理には、踏切Aの学習済みモデル・踏切Bの学習済みモデル・踏切Cの学習済みモデルをそれぞれ使用する。しかし、新たに踏切Dでの進入検知を行おうとした場合には、踏切Dのための教師あり学習の教師データとなるタグ付きの画像を大量に用意し、それを基に一から機械学習させるという手順が必要であるため、進入検知導入までの手間と時間がかかる。   For example, when image detection is used to determine whether a person has entered a railroad crossing or not, since the position of the surveillance camera is usually fixed, there is a teacher at each railroad crossing such as railroad crossing A, railroad crossing B, and railroad crossing C. It is possible to improve the accuracy of approach detection for each of the crossing A, crossing B, and crossing C by performing machine learning, and in the subsequent image analysis processing, the learned model of the crossing A and the learned level of the crossing B have been learned. Use the trained model of the model and level crossing C, respectively. However, when a new approach detection is to be made at the level crossing D, a large number of tagged images serving as supervised learning teacher data for the level crossing D are prepared, and machine learning is performed from the beginning based on the images. Therefore, it takes time and effort to introduce approach detection.

この課題に対して、本発明者は、すでに機械学習済みの、踏切A・踏切B・踏切Cのなかから、踏切Dと撮像条件の似た踏切の学習済みモデルを選択して、利用することで、踏切Dにおいても、はじめからある程度以上の進入検知の画像解析精度を得られることに着目した。   In response to this problem, the present inventor selects and uses a trained model of a level crossing similar to that of the level crossing D from the level crossing A, level crossing B, and level crossing C already machine-learned. Therefore, attention was paid to the fact that the image analysis accuracy of approach detection of a certain degree or more can be obtained from the beginning even at the crossing D.

本発明は、人工知能が既知画像を画像解析した機械学習済みの学習済みモデルの複数パターンの中から、新たに画像解析させたい未知画像と撮像条件が似ている既知画像の学習済みモデルを選択して利用することで、学習時間をかけずに、精度の良い画像解析結果を出力することが可能な画像解析結果提供システム、画像解析結果提供方法、およびプログラムを提供することを目的とする。   The present invention selects a learned model of a known image whose imaging condition is similar to an unknown image to be newly analyzed from among a plurality of patterns of machine-learned learned models obtained by image analysis of known images by artificial intelligence It is an object of the present invention to provide an image analysis result providing system, an image analysis result providing method, and a program capable of outputting an accurate image analysis result without taking a learning time.

本発明では、以下のような解決手段を提供する。   The present invention provides the following solutions.

第1の特徴に係る発明は、
既知画像を画像解析した機械学習済みの学習済みモデルを記憶する記憶手段と、
未だ学習済みモデルが作成されていない未知画像を取得する取得手段と、
前記記憶した学習済みモデルの中から、前記取得した未知画像と撮像条件が似ている前記既知画像の学習済みモデルを選択する選択手段と、
前記選択した学習済みモデルを利用して、前記未知画像を画像解析させる画像解析手段と、
前記画像解析の結果を提供する提供手段と、
を備えることを特徴とする画像解析結果提供システムを提供する。
The invention according to the first feature is
Storage means for storing a machine-learned learned model obtained by image analysis of a known image;
An acquisition means for acquiring an unknown image for which a trained model has not yet been created;
Selecting means for selecting a learned model of the known image that has a similar imaging condition to the acquired unknown image from the stored learned model;
Image analysis means for image analysis of the unknown image using the selected learned model;
Providing means for providing a result of the image analysis;
An image analysis result providing system is provided.

第1の特徴に係る発明によれば、既知画像を画像解析した機械学習済みの学習済みモデルを記憶する記憶手段と、未だ学習済みモデルが作成されていない未知画像を取得する取得手段と、前記記憶した学習済みモデルの中から、前記取得した未知画像と撮像条件が似ている前記既知画像の学習済みモデルを選択する選択手段と、前記選択した学習済みモデルを利用して、前記未知画像を画像解析させる画像解析手段と、前記画像解析の結果を提供する提供手段と、を備える。   According to the first aspect of the invention, a storage unit that stores a machine-learned learned model obtained by image analysis of a known image, an acquisition unit that acquires an unknown image for which a learned model has not yet been created, A selection unit that selects a learned model of the known image that has an imaging condition similar to that of the acquired unknown image from the stored learned model, and uses the selected learned model to convert the unknown image Image analysis means for image analysis, and providing means for providing a result of the image analysis.

第1の特徴に係る発明は、画像解析結果提供システムのカテゴリであるが、画像解析結果提供方法、およびプログラムであっても同様の作用、効果を奏する。   The invention according to the first feature is a category of the image analysis result providing system, but the image analysis result providing method and the program have the same operations and effects.

第2の特徴に係る発明は、第1の特徴に係る発明である画像解析結果提供システムであって、
前記撮像条件が、撮像対象に対する撮像位置および撮像角度、であることを特徴とする画像解析結果提供システムを提供する。
The invention according to the second feature is an image analysis result providing system which is the invention according to the first feature,
An image analysis result providing system is provided in which the imaging conditions are an imaging position and an imaging angle with respect to an imaging target.

第2の特徴に係る発明によれば、第1の特徴に係る発明である画像解析結果提供システムにおいて、前記撮像条件は、撮像対象に対する撮像位置および撮像角度、である。   According to the second aspect of the invention, in the image analysis result providing system according to the first aspect of the invention, the imaging conditions are an imaging position and an imaging angle with respect to an imaging target.

第3の特徴に係る発明は、第1の特徴又は第2の特徴に係る発明である画像解析結果提供システムであって、
前記学習済みモデルが、前記機械学習により算出した前記画像解析に使用する数式およびパラメータと前記機械学習に使用した画像であることを特徴とする画像解析結果提供システムを提供する。
The invention according to the third feature is an image analysis result providing system which is the invention according to the first feature or the second feature,
There is provided an image analysis result providing system, wherein the learned model is a mathematical expression and parameters used for the image analysis calculated by the machine learning and an image used for the machine learning.

第3の特徴に係る発明によれば、第1の特徴又は第2の特徴に係る発明である画像解析結果提供システムにおいて、前記学習済みモデルは、前記機械学習により算出した前記画像解析に使用する数式およびパラメータと前記機械学習に使用した画像である。   According to the third aspect of the invention, in the image analysis result providing system according to the first or second aspect of the invention, the learned model is used for the image analysis calculated by the machine learning. It is a picture used for a mathematical formula and a parameter, and the machine learning.

第4の特徴に係る発明は、第1の特徴から第3の特徴のいずれかに係る発明である画像解析結果提供システムであって、
前記未知画像に対して、画像解析した新しい機械学習済みの学習済みモデルを作成する作成手段を備えることを特徴とする画像解析結果提供システムを提供する。
The invention according to the fourth feature is an image analysis result providing system which is the invention according to any one of the first feature to the third feature,
Provided is an image analysis result providing system comprising a creation unit that creates a new machine-learned model that has undergone image analysis for the unknown image.

第4の特徴に係る発明によれば、第1の特徴から第3の特徴のいずれかに係る発明である画像解析結果提供システムにおいて、前記未知画像に対して、画像解析した新しい機械学習済みの学習済みモデルを作成する作成手段を備える。   According to the invention related to the fourth feature, in the image analysis result providing system according to any one of the first feature to the third feature, a new machine-learned image analyzed for the unknown image A creation means for creating a learned model is provided.

第5の特徴に係る発明は、第4の特徴に係る発明である画像解析結果提供システムであって、
前記画像解析手段は、前記新しい機械学習済みの学習済みモデルを作成するまでの期間に、前記選択された学習済みモデルを利用して、前記未知画像を画像解析させることを特徴とする画像解析結果提供システムを提供する。
The invention according to the fifth feature is an image analysis result providing system which is the invention according to the fourth feature,
The image analysis means performs image analysis of the unknown image using the selected learned model during a period until the new machine-learned learned model is created. Providing a provision system.

第5の特徴に係る発明によれば、第4の特徴に係る発明である画像解析結果提供システムにおいて、前記画像解析手段は、前記新しい機械学習済みの学習済みモデルを作成するまでの期間に、前記選択された学習済みモデルを利用して、前記未知画像を画像解析させる。   According to the fifth aspect of the invention, in the image analysis result providing system according to the fourth aspect of the invention, the image analysis unit is configured to create a new machine-learned learned model, The unknown image is subjected to image analysis using the selected learned model.

第6の特徴に係る発明は、第1の特徴から第5の特徴のいずれかに係る発明である画像解析結果提供システムであって、
前記未知画像に対して、前記選択した学習済みモデルを利用して、前記未知画像を画像解析した解析結果を教師データとして、前記未知画像を画像解析した新しい機械学習済みの学習済みモデルを作成する作成手段を備えることを特徴とする画像解析結果提供システムを提供する。
An invention according to a sixth feature is an image analysis result providing system that is an invention according to any one of the first feature to the fifth feature,
Using the selected learned model for the unknown image, a new machine-learned learned model is generated by analyzing the unknown image using the analysis result obtained by image analysis of the unknown image as teacher data. Provided is an image analysis result providing system characterized by comprising creation means.

第6の特徴に係る発明によれば、第1の特徴から第5の特徴のいずれかに係る発明である画像解析結果提供システムにおいて、前記未知画像に対して、前記選択した学習済みモデルを利用して、前記未知画像を画像解析した解析結果を教師データとして、前記未知画像を画像解析した新しい機械学習済みの学習済みモデルを作成する作成手段を備える。   According to the sixth aspect of the invention, in the image analysis result providing system according to any one of the first to fifth aspects, the selected learned model is used for the unknown image. And creating means for creating a new machine-learned model obtained by image-analyzing the unknown image using the analysis result obtained by image-analyzing the unknown image as teacher data.

第7の特徴に係る発明は、
既知画像を画像解析した機械学習済みの学習済みモデルを記憶するステップと、
未だ学習済みモデルが作成されていない未知画像を取得するステップと、
前記記憶した学習済みモデルの中から、前記取得した未知画像と撮像条件が似ている前記既知画像の学習済みモデルを選択するステップと、
前記選択した学習済みモデルを利用して、前記未知画像を画像解析させるステップと、
前記画像解析の結果を提供するステップと、
を備える画像解析結果提供方法を提供する。
The invention according to the seventh feature is
Storing a machine-learned learned model obtained by image analysis of a known image;
Obtaining an unknown image for which a trained model has not yet been created;
Selecting the learned model of the known image that is similar in imaging condition to the acquired unknown image from the stored learned model;
Using the selected learned model to image-analyze the unknown image;
Providing a result of the image analysis;
An image analysis result providing method is provided.

第8の特徴に係る発明は、
画像解析結果提供システムに、
既知画像を画像解析した機械学習済みの学習済みモデルを記憶するステップ、
未だ学習済みモデルが作成されていない未知画像を取得するステップ、
前記記憶した学習済みモデルの中から、前記取得した未知画像と撮像条件が似ている前記既知画像の学習済みモデルを選択するステップ、
前記選択した学習済みモデルを利用して、前記未知画像を画像解析させるステップ、
前記画像解析の結果を提供するステップ、
を実行させるためのプログラムを提供する。
The invention according to the eighth feature is
In the image analysis result providing system,
Storing a machine-learned learned model obtained by image analysis of a known image;
Obtaining an unknown image for which a trained model has not yet been created,
Selecting from the stored learned models a learned model of the known image whose imaging conditions are similar to the acquired unknown image;
Image analysis of the unknown image using the selected learned model;
Providing a result of the image analysis;
Provide a program to execute.

本発明によれば、人工知能が既知画像を画像解析した機械学習済みの学習済みモデルの複数パターンの中から、新たに画像解析させたい未知画像と撮像条件が似ている既知画像の学習済みモデルを選択して利用することで、学習時間をかけずに、精度の良い画像解析結果を出力することが可能な画像解析結果提供システム、画像解析結果提供方法、およびプログラムを提供することが可能となる。   According to the present invention, a learned model of a known image whose imaging condition is similar to an unknown image to be newly analyzed from a plurality of patterns of a machine-learned learned model obtained by image analysis of a known image by artificial intelligence By selecting and using, it is possible to provide an image analysis result providing system, an image analysis result providing method, and a program capable of outputting an accurate image analysis result without taking a learning time. Become.

図1は、本発明の好適な実施形態の概要図である。FIG. 1 is a schematic diagram of a preferred embodiment of the present invention. 図2は、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。FIG. 2 is a diagram illustrating the functional blocks of the camera 100 and the computer 200 and the relationship between the functions. 図3は、カメラ100から未知画像を取得し、コンピュータ200で画像解析処理を行い、画像解析結果を提供する場合のフローチャート図である。FIG. 3 is a flowchart when an unknown image is acquired from the camera 100, image analysis processing is performed by the computer 200, and an image analysis result is provided. 図4は、未知画像の学習済みモデル作成処理を行う場合の、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。FIG. 4 is a diagram illustrating the relationship between the functional blocks of the camera 100 and the computer 200 and the functions when the learned image creation process of the unknown image is performed. 図5は、未知画像の学習済みモデル作成処理を行う場合の、カメラ100とコンピュータ200のフローチャート図である。FIG. 5 is a flowchart of the camera 100 and the computer 200 when the unknown image learned model creation process is performed. 図6は、未知画像の学習済みモデル作成処理が終わっているかに応じて、画像解析処理を切り替える場合の、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。FIG. 6 is a diagram illustrating the relationship between the functional blocks of the camera 100 and the computer 200 and the respective functions when the image analysis processing is switched depending on whether the learned image creation processing for the unknown image is completed. 図7は、図6のフローチャートのAに当たる処理で、未知画像の学習済みモデル作成処理が終わっていない場合に、未知画像の機械学習が可能である場合にコンピュータ200で行う未知画像の学習済みモデル作成処理のフローチャート図である。FIG. 7 is a process corresponding to A in the flowchart of FIG. 6, and an unknown image learned model performed by the computer 200 when machine learning of an unknown image is possible when an unknown image learned model creation process is not completed. It is a flowchart figure of a creation process. 図8は、図6のフローチャートのBに当たる処理で、未知画像の学習済みモデル作成処理が終わっていない場合に、未知画像の機械学習が不可能である場合にコンピュータ200で行う学習済みモデル選択処理のフローチャート図である。FIG. 8 is a process corresponding to B in the flowchart of FIG. 6 and a learned model selection process performed by the computer 200 when machine learning of an unknown image is impossible when the learned image learning model creation process is not completed. FIG. 図9は、未知画像の学習済みモデル作成処理を行う場合に、未知画像の画像解析結果を教師データとして付与して、未知画像の機械学習を行う場合の、コンピュータ200のフローチャート図である。FIG. 9 is a flowchart of the computer 200 when the unknown image learning model creation process is performed and the image analysis result of the unknown image is assigned as teacher data to perform machine learning of the unknown image. 図10は、踏切A・踏切B・踏切Cの学習済みモデルとして、機械学習により算出した数式およびパラメータの例と、機械学習に使用した画像の例と、未知画像である踏切Dの画像の一例を示す図である。FIG. 10 shows examples of mathematical formulas and parameters calculated by machine learning, examples of images used for machine learning, and images of level crossings D, which are unknown images, as learned models of level crossings A, B, and C. FIG. 図11は、カメラ100とコンピュータ200、被写体400との関係を、模式的に説明するための図である。FIG. 11 is a diagram for schematically explaining the relationship between the camera 100, the computer 200, and the subject 400. 図12は、カメラ毎の学習済みモデルのデータ構造を示す表の一例である。FIG. 12 is an example of a table showing the data structure of the learned model for each camera. 図13は、カメラDで撮像した未知画像の学習済みモデルが無い場合の、カメラ毎に画像解析に使用する学習済みモデルを示す表の一例である。FIG. 13 is an example of a table showing a learned model used for image analysis for each camera when there is no learned model of an unknown image captured by the camera D. 図14は、カメラDで撮像した未知画像の学習済みモデルが作成された場合の、カメラ毎に画像解析に使用する学習済みモデルを示す表の一例である。FIG. 14 is an example of a table showing learned models used for image analysis for each camera when a learned model of an unknown image captured by the camera D is created.

以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.

[画像解析結果提供システムの概要]
図1は、本発明の好適な実施形態の概要図である。この図1に基づいて、本発明の概要を説明する。画像解析結果提供システムは、カメラ100、コンピュータ200、通信網300から構成される。
[Outline of image analysis result providing system]
FIG. 1 is a schematic diagram of a preferred embodiment of the present invention. The outline of the present invention will be described with reference to FIG. The image analysis result providing system includes a camera 100, a computer 200, and a communication network 300.

なお、図1において、カメラ100の数は1つに限らず複数であってもよい。また、コンピュータ200は、実在する装置に限らず、仮想的な装置であってもよい。   In FIG. 1, the number of cameras 100 is not limited to one and may be plural. Further, the computer 200 is not limited to a real device, and may be a virtual device.

カメラ100は、図2に示すように、撮像部10、制御部110、通信部120、記憶部130から構成される。また、コンピュータ200は、同じく図2に示すように、制御部210、通信部220、記憶部230、入出力部240、から構成される。制御部210は通信部220、記憶部230と協働して取得モジュール211を実現する。また、制御部210は記憶部230と協働して選択モジュール212、画像解析モジュール213、を実現する。記憶部230は、制御部210と協働して記憶モジュール231を実現する。入出力部240は、制御部210、記憶部230と協働して、提供モジュール241を実現する。通信網300は、インターネット等の公衆通信網でも専用通信網でもよく、カメラ100とコンピュータ200間の通信を可能とする。   As illustrated in FIG. 2, the camera 100 includes an imaging unit 10, a control unit 110, a communication unit 120, and a storage unit 130. As shown in FIG. 2, the computer 200 includes a control unit 210, a communication unit 220, a storage unit 230, and an input / output unit 240. The control unit 210 implements the acquisition module 211 in cooperation with the communication unit 220 and the storage unit 230. Further, the control unit 210 implements a selection module 212 and an image analysis module 213 in cooperation with the storage unit 230. The storage unit 230 implements the storage module 231 in cooperation with the control unit 210. The input / output unit 240 implements the providing module 241 in cooperation with the control unit 210 and the storage unit 230. The communication network 300 may be a public communication network such as the Internet or a dedicated communication network, and enables communication between the camera 100 and the computer 200.

カメラ100は、コンピュータ200とデータ通信可能な、撮像素子やレンズ等の撮像デバイスを備え、被写体400までの距離を測定可能な撮像装置である。ここでは、例としてWEBカメラを図示しているが、デジタルカメラ、デジタルビデオ、無人航空機に搭載したカメラ、ウェアラブルデバイスのカメラ、防犯カメラ、車載カメラ、360度カメラ等の必要な機能を備える撮像装置であってよい。また、記憶部130に撮像画像を保存可能としても良い。   The camera 100 is an imaging device that includes an imaging device such as an imaging element and a lens that can perform data communication with the computer 200 and can measure the distance to the subject 400. Here, a WEB camera is illustrated as an example, but an imaging apparatus having necessary functions such as a digital camera, a digital video, a camera mounted on an unmanned aircraft, a wearable device camera, a security camera, an in-vehicle camera, and a 360-degree camera It may be. The captured image may be stored in the storage unit 130.

コンピュータ200は、カメラ100とデータ通信可能な計算装置である。ここでは、例としてデスクトップ型のコンピュータを図示しているが、携帯電話、携帯情報端末、タブレット端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の電化製品や、スマートグラス、ヘッドマウントディスプレイ等のウェアラブル端末等であってよい。   The computer 200 is a computing device capable of data communication with the camera 100. Here, a desktop computer is illustrated as an example, but in addition to a mobile phone, a portable information terminal, a tablet terminal, a personal computer, electrical appliances such as a netbook terminal, a slate terminal, an electronic book terminal, and a portable music player Or a wearable terminal such as a smart glass or a head-mounted display.

図1の画像解析結果提供システムにおいて、まず、コンピュータ200の記憶モジュール231は、記憶部230に複数の学習済みモデルを記憶する(ステップS01)。学習済みモデルは、他のコンピュータや記憶媒体から取得しても良いし、コンピュータ200で作成しても良い。また、記憶部230に専用のデータベースを設けても良い。   In the image analysis result providing system of FIG. 1, first, the storage module 231 of the computer 200 stores a plurality of learned models in the storage unit 230 (step S01). The learned model may be acquired from another computer or a storage medium, or may be created by the computer 200. Further, a dedicated database may be provided in the storage unit 230.

図10は、踏切A・踏切B・踏切Cの学習済みモデルとして、機械学習により算出した数式およびパラメータの例と、機械学習に使用した画像の例と、を示す図である。また、まだ学習済みモデルの作成されていない踏切Dの未知画像の一例を示す図である。   FIG. 10 is a diagram illustrating examples of mathematical formulas and parameters calculated by machine learning as trained models of level crossings A, level crossings B, and level crossings C, and examples of images used for machine learning. Moreover, it is a figure which shows an example of the unknown image of the level crossing D in which the learned model is not created yet.

図12は、カメラ毎の学習済みモデルのデータ構造を示す表の一例である。本発明において、学習済みモデルとは、カメラ毎に、被写体を画像解析するための数式とパラメータとを対応付けたものである。あわせて、学習済みモデルを算出するための機械学習に使用した、教師データ付きの画像ファイルを関連づけても良い。また、カメラ毎の撮像条件として、撮像角度と撮像位置を関連づけて記憶させても良い。図10の踏切Aを撮像したカメラAによる教師ありデータを使用して作成した学習済みモデルが学習済みモデルA、踏切Bを撮像したカメラBによる教師ありデータを使用して作成した学習済みモデルが学習済みモデルB、踏切Cを撮像したカメラCによる教師ありデータを使用して作成した学習済みモデルが学習済みモデルCである。また、カメラDで踏切Dを撮像した画像に対しては、学習済みモデルは未作成である。   FIG. 12 is an example of a table showing the data structure of the learned model for each camera. In the present invention, the learned model is obtained by associating mathematical formulas and parameters for image analysis of a subject for each camera. In addition, an image file with teacher data used for machine learning for calculating a learned model may be associated. Further, as an imaging condition for each camera, an imaging angle and an imaging position may be stored in association with each other. The learned model created using the supervised data from the camera A that images the railroad crossing A in FIG. 10 is the learned model A, and the learned model created using the supervised data from the camera B that images the railroad crossing B. A learned model C created by using supervised data from a camera C that captures a learned model B and a railroad crossing C is a learned model C. In addition, a learned model has not been created for an image obtained by capturing the railroad crossing D with the camera D.

図11は、カメラ100とコンピュータ200、被写体400との関係を、模式的に説明するための図である。カメラ100とコンピュータ200とは、通信網300を介して通信可能であるものとする。本発明でのカメラ100は、被写体までの距離を測定可能な撮像装置である。被写体までの距離を測定する方法については、カメラ100のセンサ等から取得する他に、被写体を複数の異なる方向から同時に撮像可能である場合には、その複数のカメラそれぞれで撮像した画像のズレの長さと、実際の距離を学習させて、距離を測定することも可能である。また、その測定した距離を用いて、撮像角度を算出することも可能である。更に、カメラ100の場所が固定である場合には、撮像場所までの距離を、明示的に指定できるようにしてもよい。また、撮像角度については、水平方向から、何度カメラ100が傾いているかを撮像角度とする。図11の例では、被写体400について、カメラ100の撮像角度は30度、撮像位置つまり撮像距離は5−6mである。ここでは、撮像条件として、撮像角度と撮像位置を例として挙げたが、このほかに、踏切への進入検知であれば、警報器の有無、遮断機の有無や形状、線路が単線か複線か、等の、未知画像と学習済みモデルの類似度の判定に役立つ情報を、含めて良いものとする。   FIG. 11 is a diagram for schematically explaining the relationship between the camera 100, the computer 200, and the subject 400. Assume that the camera 100 and the computer 200 can communicate with each other via the communication network 300. The camera 100 according to the present invention is an imaging device capable of measuring a distance to a subject. Regarding the method of measuring the distance to the subject, in addition to obtaining from the sensor of the camera 100 or the like, if the subject can be imaged simultaneously from a plurality of different directions, the difference between the images captured by each of the plurality of cameras is determined. It is also possible to measure the distance by learning the length and the actual distance. Also, it is possible to calculate the imaging angle using the measured distance. Furthermore, when the location of the camera 100 is fixed, the distance to the imaging location may be explicitly specified. As for the imaging angle, the imaging angle is how many times the camera 100 is tilted from the horizontal direction. In the example of FIG. 11, for the subject 400, the imaging angle of the camera 100 is 30 degrees, and the imaging position, that is, the imaging distance is 5-6 m. In this example, the imaging angle and the imaging position are given as examples of imaging conditions. However, in addition to this, if an approach to a railroad crossing is detected, the presence / absence of an alarm, the presence / absence and shape of a breaker, whether the track is a single line or multiple lines Information useful for determining the similarity between an unknown image and a learned model, such as, etc., may be included.

記憶部230に複数の学習済みモデルを記憶する前段階として、教師あり学習による機械学習のためには、適切なラベルをつけた大量の画像を教師データとして用意して機械学習させる必要があり、また、学習のための時間も長期間必要となる。そのため、のちに新たな未知画像の解析を行う場合を想定して、カメラ毎の撮像条件に、幅を持たせた学習済みモデルを用意しておくことが好ましい。また、前記教師あり学習のためのラベルについても、実際にどの程度詳細な画像解析結果を提供する必要があるのかを想定して、踏切の進入検知であれば、「進入あり・進入なし」のみで良いのか、「進入なし・進入あり(大人)・進入あり(子ども)・進入あり(老人)・進入あり(車両)・進入あり(自転車)・進入あり(動物)・進入の可能性あり」等、詳しい区分が必要なのかを考慮して、システムの目的にあわせて付加する必要がある。   As a pre-stage for storing a plurality of learned models in the storage unit 230, for machine learning by supervised learning, it is necessary to prepare a large number of images with appropriate labels as teacher data and perform machine learning. Also, a long time is required for learning. For this reason, it is preferable to prepare a learned model with a wide range of imaging conditions for each camera, assuming that a new unknown image is analyzed later. In addition, with regard to the label for supervised learning, assuming that it is actually necessary to provide a detailed image analysis result, if there is a crossing entry detection, only “with / without entry” is detected. "No entry, entry (adult), entry (child), entry (old man), entry (vehicle), entry (bicycle), entry (animal), possibility of entry" Considering whether detailed classification is necessary, it is necessary to add according to the purpose of the system.

図1に戻り、カメラ100は未知画像である撮像データを、コンピュータ200に送信し(ステップS02)、コンピュータ200の取得モジュール211は、未知画像を取得する(ステップS03)。未知画像とあわせて、取得モジュール211は、撮像角度や撮像位置等の撮像条件を、あわせてカメラ100から取得するものとする。ここでは、カメラ100から未知画像である撮像データを送信するフローを記載したが、取得モジュール211がカメラ100に対して、撮像データの送信指示を行い、それを受けてカメラ100が撮像データの送信を行っても良い。また、取得モジュール211は、カメラ100がリアルタイムに撮像を行っている画像の取得を行うだけでなく、カメラ100が過去に撮像して記憶部130に保存しておいた画像を取得しても良い。   Returning to FIG. 1, the camera 100 transmits imaging data that is an unknown image to the computer 200 (step S02), and the acquisition module 211 of the computer 200 acquires the unknown image (step S03). Together with the unknown image, the acquisition module 211 acquires the imaging conditions such as the imaging angle and the imaging position from the camera 100 together. Here, the flow of transmitting imaging data that is an unknown image from the camera 100 is described. However, the acquisition module 211 instructs the camera 100 to transmit imaging data, and the camera 100 transmits imaging data in response to the instruction. May be performed. Further, the acquisition module 211 may acquire not only an image captured by the camera 100 in real time but also an image captured by the camera 100 in the past and stored in the storage unit 130. .

次に、コンピュータ200の選択モジュール212は、ステップS01で記憶した学習済みモデルの中から、ステップS03で取得した未知画像と撮像条件が似ている学習済みモデルを選択する(ステップS04)。ここで、例えば、撮像された未知画像が、図10の踏切Dであった場合には、学習済みモデルが存在する踏切A、踏切B、踏切Cのいずれからの学習済みモデルから、撮像条件が似ているものを選択する。踏切Dを撮像したカメラDの撮像角度が20度、撮像距離が4−5mであるとし、更に踏切Dを撮像した画像の構図等を分析した結果、ここでは、学習済みモデルBを選択するものとする。   Next, the selection module 212 of the computer 200 selects a learned model whose imaging condition is similar to that of the unknown image acquired in step S03 from the learned models stored in step S01 (step S04). Here, for example, when the imaged unknown image is the crossing D in FIG. 10, the imaging condition is determined from the learned model from any of the crossings A, B, and C where the learned model exists. Choose something similar. Assuming that the imaging angle of the camera D capturing the level crossing D is 20 degrees and the imaging distance is 4-5 m, and further analyzing the composition of the image capturing the level crossing D, the learned model B is selected here. And

次に、コンピュータ200の画像解析モジュール213は、学習済みモデルBを使用して、カメラDで撮像された未知画像の画像解析を行う(ステップS05)。   Next, the image analysis module 213 of the computer 200 performs image analysis of an unknown image captured by the camera D using the learned model B (step S05).

図13は、カメラDで撮像した未知画像の学習済みモデルが無い場合の、カメラ毎に画像解析に使用する学習済みモデルを示す表の一例である。ステップS04で、カメラDで撮像した踏切Dと撮像条件が似ている学習済みモデルとして、学習済みモデルBを選択したので、図13のカメラDの欄には、使用モデルとして学習済みモデルB、数式としてyyyyyy、パラメータとしてBBB、b、βを使用するものとして、表を埋めている。ここで、撮像条件である撮像角度と撮像位置には、実際のカメラDでの撮像条件を埋めておくことが望ましい。また、カメラDでの撮像画像に対しては、教師あり学習を行っていないので、教師データの欄は空欄としておいてよいものとする。以降、カメラDの学習済みモデルが作成されるか、又は、他の学習済みモデルの増加により、選択モジュール212で再度カメラDに最も適した学習済みモデルの選択を行うまでは、この図13の表を利用して、カメラDの画像解析を行うことが可能である。   FIG. 13 is an example of a table showing a learned model used for image analysis for each camera when there is no learned model of an unknown image captured by the camera D. In step S04, the learned model B is selected as the learned model whose imaging conditions are similar to those of the railroad crossing D imaged by the camera D. Therefore, in the camera D column of FIG. The table is filled in using yyyyyy as a mathematical expression and BBB, b, and β as parameters. Here, it is desirable that the imaging conditions of the actual camera D are filled in the imaging angle and the imaging position, which are imaging conditions. In addition, since supervised learning is not performed on the image captured by the camera D, the teacher data column may be left blank. Thereafter, until the learned model of the camera D is created, or until the selection of the learned model most suitable for the camera D is performed again by the selection module 212 due to the increase of other learned models, the process of FIG. It is possible to perform image analysis of the camera D using the table.

最後に、コンピュータ200の提供モジュール241は、コンピュータ200の入出力部240に、画像解析結果の提供を行う(ステップS06)。踏切Dへの進入検知であれば、「進入あり・進入なし」のみか、「進入なし・進入あり(大人)・進入あり(子ども)・進入あり(老人)・進入あり(車両)・進入あり(自転車)・進入あり(動物)・進入の可能性あり」等詳しく表示するのか、又は、画像に対して表示を行うだけでなく、警告音や光で結果を提示するのか等、画像解析結果提供システムの目的にあわせた出力を行うものとする。また、ここでは、踏切への進入検知を例として説明してきたが、画像解析は、例えば、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等、システムの目的に応じた適切なものに応用可能であるとする。   Finally, the providing module 241 of the computer 200 provides the image analysis result to the input / output unit 240 of the computer 200 (step S06). If it is an entry detection to level crossing D, it will only be “with / without entry” or “no entry / with entry (adult) / with entry (child) / with entry (old) / with entry (vehicle) / with entry Image analysis results, such as whether to display in detail (such as (bicycle), entry (animal), entry possibility), or whether to display the result in warning sound or light Output according to the purpose of the providing system shall be performed. In addition, here, the example of detecting entry to a railroad crossing has been described as an example, but image analysis includes, for example, face recognition for individual determination, determination of the state of pest damage on crops, inventory check in a warehouse, and affected part for medical diagnosis It is assumed that the present invention can be applied to an appropriate one according to the purpose of the system, such as image recognition.

本発明によれば、人工知能が既知画像を画像解析した機械学習済みの学習済みモデルの複数パターンの中から、新たに画像解析させたい未知画像と撮像条件が似ている既知画像の学習済みモデルを選択して利用することで、学習時間をかけずに、精度の良い画像解析結果を出力することが可能な画像解析結果提供システム、画像解析結果提供方法、およびプログラムを提供することが可能となる。   According to the present invention, a learned model of a known image whose imaging condition is similar to an unknown image to be newly analyzed from a plurality of patterns of a machine-learned learned model obtained by image analysis of a known image by artificial intelligence By selecting and using, it is possible to provide an image analysis result providing system, an image analysis result providing method, and a program capable of outputting an accurate image analysis result without taking a learning time. Become.

[各機能の説明]
図2は、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。カメラ100は、撮像部10、制御部110、通信部120、記憶部130から構成される。また、コンピュータ200は、制御部210、通信部220、記憶部230、入出力部240、から構成される。制御部210は通信部220、記憶部230と協働して取得モジュール211を実現する。また、制御部210は記憶部230と協働して選択モジュール212、画像解析モジュール213、を実現する。記憶部230は、制御部210と協働して記憶モジュール231を実現する。入出力部240は、制御部210、記憶部230と協働して、提供モジュール241を実現する。通信網300は、インターネット等の公衆通信網でも専用通信網でもよく、カメラ100とコンピュータ200間の通信を可能とする。
[Description of each function]
FIG. 2 is a diagram illustrating the functional blocks of the camera 100 and the computer 200 and the relationship between the functions. The camera 100 includes an imaging unit 10, a control unit 110, a communication unit 120, and a storage unit 130. The computer 200 includes a control unit 210, a communication unit 220, a storage unit 230, and an input / output unit 240. The control unit 210 implements the acquisition module 211 in cooperation with the communication unit 220 and the storage unit 230. Further, the control unit 210 implements a selection module 212 and an image analysis module 213 in cooperation with the storage unit 230. The storage unit 230 implements the storage module 231 in cooperation with the control unit 210. The input / output unit 240 implements the providing module 241 in cooperation with the control unit 210 and the storage unit 230. The communication network 300 may be a public communication network such as the Internet or a dedicated communication network, and enables communication between the camera 100 and the computer 200.

カメラ100は、コンピュータ200とデータ通信可能な、撮像素子やレンズ等の撮像デバイスを備え、被写体400までの距離を測定可能な撮像装置である。ここでは、例としてWEBカメラを図示しているが、デジタルカメラ、デジタルビデオ、無人航空機に搭載したカメラ、ウェアラブルデバイスのカメラ、防犯カメラ、車載カメラ、360度カメラ等の必要な機能を備える撮像装置であってよい。また、記憶部130に撮像画像を保存可能としても良い。   The camera 100 is an imaging device that includes an imaging device such as an imaging element and a lens that can perform data communication with the computer 200 and can measure the distance to the subject 400. Here, a WEB camera is illustrated as an example, but an imaging apparatus having necessary functions such as a digital camera, a digital video, a camera mounted on an unmanned aircraft, a wearable device camera, a security camera, an in-vehicle camera, and a 360-degree camera It may be. The captured image may be stored in the storage unit 130.

カメラ100は、撮像部10として、レンズ、撮像素子、各種ボタン、フラッシュ等の撮像デバイス等を備え、動画や静止画等の撮像画像として撮像する。また、撮像して得られる画像は、画像解析に必要なだけの情報量を持った精密な画像であるものする。また、撮像時の解像度、カメラ角度、カメラ倍率、等を指定可能であるものとしてもよい。   The camera 100 includes a lens, an imaging device, various buttons, an imaging device such as a flash, and the like as the imaging unit 10 and captures images as captured images such as moving images and still images. An image obtained by imaging is a precise image having an amount of information necessary for image analysis. Further, it may be possible to specify the resolution at the time of imaging, the camera angle, the camera magnification, and the like.

制御部110として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。   The control unit 110 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.

通信部120として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイス又は第3世代、第4世代移動通信システム等のIMT−2000規格に準拠した無線デバイス等を備える。有線によるLAN接続であってもよい。   As the communication unit 120, a device for enabling communication with other devices, for example, a device compatible with IEEE 802.11 (WiFi (Wireless Fidelity)) or a third generation, fourth generation mobile communication system, etc. Compliant wireless device etc. It may be a wired LAN connection.

記憶部130として、ハードディスクや半導体メモリによる、データのストレージ部を備え、撮像画像や、撮像条件等の必要なデータ等を記憶する。   The storage unit 130 includes a data storage unit such as a hard disk or a semiconductor memory, and stores captured images, necessary data such as imaging conditions, and the like.

コンピュータ200は、カメラ100とデータ通信可能な計算装置である。ここでは、例としてデスクトップ型のコンピュータを図示しているが、携帯電話、携帯情報端末、タブレット端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の電化製品や、スマートグラス、ヘッドマウントディスプレイ等のウェアラブル端末等であってよい。   The computer 200 is a computing device capable of data communication with the camera 100. Here, a desktop computer is illustrated as an example, but in addition to a mobile phone, a portable information terminal, a tablet terminal, a personal computer, electrical appliances such as a netbook terminal, a slate terminal, an electronic book terminal, and a portable music player Or a wearable terminal such as a smart glass or a head-mounted display.

制御部210として、CPU、RAM、ROM等を備える。制御部210は通信部220、記憶部230と協働して取得モジュール211を実現する。また、制御部210は記憶部230と協働して選択モジュール212、画像解析モジュール213、を実現する。   The control unit 210 includes a CPU, RAM, ROM, and the like. The control unit 210 implements the acquisition module 211 in cooperation with the communication unit 220 and the storage unit 230. Further, the control unit 210 implements a selection module 212 and an image analysis module 213 in cooperation with the storage unit 230.

通信部220として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi対応デバイス又は第3世代、第4世代移動通信システム等のIMT−2000規格に準拠した無線デバイス等を備える。有線によるLAN接続であってもよい。   As the communication unit 220, a device for enabling communication with other devices, for example, a WiFi compatible device compliant with IEEE802.11 or a wireless device compliant with the IMT-2000 standard such as a third generation or fourth generation mobile communication system. Etc. It may be a wired LAN connection.

記憶部230として、ハードディスクや半導体メモリによる、データのストレージ部を備え、撮像画像や、教師データ、画像解析結果、等の処理に必要なデータ等を記憶する。記憶部230は、制御部210と協働して記憶モジュール231を実現する。また、記憶部230に、学習済みモデルのデータベースを備えても良い。   The storage unit 230 includes a data storage unit such as a hard disk or a semiconductor memory, and stores data necessary for processing such as captured images, teacher data, and image analysis results. The storage unit 230 implements the storage module 231 in cooperation with the control unit 210. Further, the storage unit 230 may include a database of learned models.

入出力部240は、画像解析結果提供システムを利用するために必要な機能を備えるものとする。入出力部240は、制御部210、記憶部230と協働して、提供モジュール241を実現する。入力を実現するための例として、タッチパネル機能を実現する液晶ディスプレイ、キーボード、マウス、ペンタブレット、装置上のハードウェアボタン、音声認識を行うためのマイク等を備えることが可能である。また、出力を実現するための例として、液晶ディスプレイ、PCのディスプレイ、プロジェクターへの投影等の表示と音声出力等の形態が考えられる。入出力方法により、本発明は特に機能を限定されるものではない。   The input / output unit 240 has functions necessary for using the image analysis result providing system. The input / output unit 240 implements the providing module 241 in cooperation with the control unit 210 and the storage unit 230. As an example for realizing the input, a liquid crystal display that realizes a touch panel function, a keyboard, a mouse, a pen tablet, a hardware button on the apparatus, a microphone for performing voice recognition, and the like can be provided. Further, as an example for realizing the output, forms such as a liquid crystal display, a PC display, a projection on a projector, and an audio output can be considered. The function of the present invention is not particularly limited by the input / output method.

[画像解析結果提供処理]
図3は、カメラ100から未知画像を取得し、コンピュータ200で画像解析処理を行い、画像解析結果を提供する場合のフローチャート図である。上述した各モジュールが実行する処理について、本処理にあわせて説明する。
[Image analysis result provision processing]
FIG. 3 is a flowchart when an unknown image is acquired from the camera 100, image analysis processing is performed by the computer 200, and an image analysis result is provided. Processing executed by each module described above will be described in accordance with this processing.

まず、コンピュータ200の記憶モジュール231は、記憶部230に複数の学習済みモデルを記憶する(ステップS301)。学習済みモデルは、他のコンピュータや記憶媒体から取得しても良いし、コンピュータ200で作成しても良い。また、記憶部230に学習済みモデルを記憶するための専用のデータベースを設けても良い。ステップS301の処理は、既に複数の学習済みモデルが記憶されている場合、新しい学習済みモデルが存在しない場合にはスキップしてよいものとする。   First, the storage module 231 of the computer 200 stores a plurality of learned models in the storage unit 230 (step S301). The learned model may be acquired from another computer or a storage medium, or may be created by the computer 200. Further, a dedicated database for storing the learned model may be provided in the storage unit 230. The process of step S301 may be skipped when a plurality of learned models are already stored or when a new learned model does not exist.

図10は、踏切A・踏切B・踏切Cの学習済みモデルとして、機械学習により算出した数式およびパラメータと、機械学習に使用した画像の一例を示す図である。また、まだ学習済みモデルの作成されていない踏切Dの未知画像の一例を示す図である。   FIG. 10 is a diagram illustrating an example of mathematical formulas and parameters calculated by machine learning as an already learned model of railroad crossing A, railroad crossing B, and railroad crossing C, and an image used for machine learning. Moreover, it is a figure which shows an example of the unknown image of the level crossing D in which the learned model is not created yet.

図12は、カメラ毎の学習済みモデルのデータ構造を示す表の一例である。本発明において、学習済みモデルとは、カメラ毎に、被写体を画像解析するための数式とパラメータとを対応付けたものである。あわせて、学習済みモデルを算出するための機械学習に使用した、教師データ付きの画像ファイルを関連づけても良い。また、カメラ毎の撮像条件として、撮像角度と撮像位置を関連づけて記憶させても良い。図10の踏切Aを撮像したカメラAによる教師ありデータを使用して作成した学習済みモデルが学習済みモデルA、踏切Bを撮像したカメラBによる教師ありデータを使用して作成した学習済みモデルが学習済みモデルB、踏切Cを撮像したカメラCによる教師ありデータを使用して作成した学習済みモデルが学習済みモデルCである。また、カメラDで踏切Dを撮像した画像に対しては、学習済みモデルは未作成である。   FIG. 12 is an example of a table showing the data structure of the learned model for each camera. In the present invention, the learned model is obtained by associating mathematical formulas and parameters for image analysis of a subject for each camera. In addition, an image file with teacher data used for machine learning for calculating a learned model may be associated. Further, as an imaging condition for each camera, an imaging angle and an imaging position may be stored in association with each other. The learned model created using the supervised data from the camera A that images the railroad crossing A in FIG. 10 is the learned model A, and the learned model created using the supervised data from the camera B that images the railroad crossing B. A learned model C created by using supervised data from a camera C that captures a learned model B and a railroad crossing C is a learned model C. In addition, a learned model has not been created for an image obtained by capturing the railroad crossing D with the camera D.

図11は、カメラ100とコンピュータ200、被写体400との関係を、模式的に説明するための図である。カメラ100とコンピュータ200とは、通信網300を介して通信可能であるものとする。本発明でのカメラ100は、被写体までの距離を測定可能な撮像装置である。被写体までの距離を測定する方法については、カメラ100のセンサ等から取得する他に、被写体を複数の異なる方向から同時に撮像可能である場合には、その複数のカメラそれぞれで撮像した画像のズレの長さと、実際の距離を学習させて、距離を測定することも可能である。また、その測定した距離を用いて、撮像角度を算出することも可能である。更に、カメラ100の場所が固定である場合には、撮像場所までの距離を、明示的に指定できるようにしてもよい。また、撮像角度については、水平方向から、何度カメラ100が傾いているかを撮像角度とする。図11の例では、被写体400について、カメラ100の撮像角度は30度、撮像位置つまり撮像距離は5−6mである。ここでは、撮像条件として、撮像角度と撮像距離を例として挙げたが、このほかに、踏切への進入検知であれば、警報器の有無、遮断機の有無や形状、線路が単線か複線か、等の、未知画像と学習済みモデルの類似度の判定に役立つ情報を、含めて良いものとする。   FIG. 11 is a diagram for schematically explaining the relationship between the camera 100, the computer 200, and the subject 400. Assume that the camera 100 and the computer 200 can communicate with each other via the communication network 300. The camera 100 according to the present invention is an imaging device capable of measuring a distance to a subject. Regarding the method of measuring the distance to the subject, in addition to obtaining from the sensor of the camera 100 or the like, if the subject can be imaged simultaneously from a plurality of different directions, the difference between the images captured by each of the plurality of cameras is determined. It is also possible to measure the distance by learning the length and the actual distance. Also, it is possible to calculate the imaging angle using the measured distance. Furthermore, when the location of the camera 100 is fixed, the distance to the imaging location may be explicitly specified. As for the imaging angle, the imaging angle is how many times the camera 100 is tilted from the horizontal direction. In the example of FIG. 11, for the subject 400, the imaging angle of the camera 100 is 30 degrees, and the imaging position, that is, the imaging distance is 5-6 m. In this example, the imaging angle and imaging distance are given as examples of imaging conditions, but in addition to this, if an approach to a railroad crossing is detected, the presence / absence of an alarm device, the presence / absence and shape of a breaker, whether the track is a single wire or a double track Information useful for determining the similarity between an unknown image and a learned model, such as, etc., may be included.

記憶部230に複数の学習済みモデルを記憶する前段階として、教師あり学習による機械学習のためには、適切なラベルをつけた大量の画像を教師データとして用意して機械学習させる必要があり、また、学習のための時間も長期間必要となる。そのため、のちに新たな未知画像の解析を行う場合を想定して、カメラ毎の撮像条件に、幅を持たせた学習済みモデルを用意しておくことが好ましい。また、前記教師あり学習のためのラベルについても、実際にどの程度詳細な画像解析結果を提供する必要があるのかを想定して、踏切の進入検知であれば、「進入あり・進入なし」のみで良いのか、「進入なし・進入あり(大人)・進入あり(子ども)・進入あり(老人)・進入あり(車両)・進入あり(自転車)・進入あり(動物)・進入の可能性あり」等、詳しい区分が必要なのかを考慮して、システムの目的にあわせて付加する必要がある。   As a pre-stage for storing a plurality of learned models in the storage unit 230, for machine learning by supervised learning, it is necessary to prepare a large number of images with appropriate labels as teacher data and perform machine learning. Also, a long time is required for learning. For this reason, it is preferable to prepare a learned model with a wide range of imaging conditions for each camera, assuming that a new unknown image is analyzed later. In addition, with regard to the label for supervised learning, assuming that it is actually necessary to provide a detailed image analysis result, if there is a crossing entry detection, only “with / without entry” is detected. "No entry, entry (adult), entry (child), entry (old man), entry (vehicle), entry (bicycle), entry (animal), possibility of entry" Considering whether detailed classification is necessary, it is necessary to add according to the purpose of the system.

図3に戻り、コンピュータ200の取得モジュール211は、カメラ100に対して、画像の送信を要求する(ステップ302)。この送信要求の時点で、カメラ100の画像に対する学習済みモデルが存在しない場合には、カメラ100から取得する画像は、未知画像であるということになる。   Returning to FIG. 3, the acquisition module 211 of the computer 200 requests the camera 100 to transmit an image (step 302). If there is no learned model for the image of the camera 100 at the time of this transmission request, the image acquired from the camera 100 is an unknown image.

カメラ100は、コンピュータ200からの画像送信要求を受けて、撮像部10で撮像を行う(ステップS303)。   Upon receiving an image transmission request from the computer 200, the camera 100 captures an image with the imaging unit 10 (step S303).

そして、カメラ100は通信部120を介して、未知画像である撮像データを、コンピュータ200に送信する(ステップS304)。   Then, the camera 100 transmits imaging data that is an unknown image to the computer 200 via the communication unit 120 (step S304).

コンピュータ200の取得モジュール211は、未知画像を取得する(ステップS305)。ここで未知画像とあわせて、撮像角度や撮像位置等の撮像条件を、カメラ100から取得するものとする。取得モジュール211は、カメラ100がリアルタイムに撮像を行っている画像の取得を行うだけでなく、カメラ100が過去に撮像して記憶部130に保存しておいた画像を取得しても良い。   The acquisition module 211 of the computer 200 acquires an unknown image (step S305). Here, it is assumed that imaging conditions such as an imaging angle and an imaging position are acquired from the camera 100 together with the unknown image. The acquisition module 211 may acquire not only an image captured by the camera 100 in real time but also an image captured by the camera 100 in the past and stored in the storage unit 130.

次に、コンピュータ200の選択モジュール212は、ステップS301で記憶した学習済みモデルの中から、ステップS305で取得した未知画像と撮像条件が似ている学習済みモデルを選択する(ステップS306)。ここで、例えば、撮像された未知画像が、図10の踏切Dであった場合には、学習済みモデルが存在する踏切A、踏切B、踏切Cのいずれからの学習済みモデルから、撮像条件が似ているものを選択する。踏切Dを撮像したカメラDの撮像角度が20度、撮像距離が4−5mであるとし、更に踏切Dを撮像した画像の構図等を分析した結果、ここでは、学習済みモデルBを選択するものとする。   Next, the selection module 212 of the computer 200 selects a learned model whose imaging condition is similar to the unknown image acquired in step S305 from the learned models stored in step S301 (step S306). Here, for example, when the imaged unknown image is the crossing D in FIG. 10, the imaging condition is determined from the learned model from any of the crossings A, B, and C where the learned model exists. Choose something similar. Assuming that the imaging angle of the camera D capturing the level crossing D is 20 degrees and the imaging distance is 4-5 m, and further analyzing the composition of the image capturing the level crossing D, the learned model B is selected here. And

次に、コンピュータ200の画像解析モジュール213は、学習済みモデルBを使用して、カメラDで撮像された未知画像の画像解析を行う(ステップS307)。   Next, the image analysis module 213 of the computer 200 performs image analysis of the unknown image captured by the camera D using the learned model B (step S307).

図13は、カメラDで撮像した未知画像の学習済みモデルが無い場合の、カメラ毎に画像解析に使用する学習済みモデルを示す表の一例である。ステップS306で、カメラDで撮像した踏切Dと撮像条件が似ている学習済みモデルとして、学習済みモデルBを選択したので、図13のカメラDの欄には、使用モデルとして学習済みモデルB、数式としてyyyyyy、パラメータとしてBBB、b、βを使用するものとして、表を埋めている。ここで、撮像条件である撮像角度と撮像位置には、実際のカメラDでの撮像条件を埋めておくことが望ましい。また、カメラDでの撮像画像に対しては、教師あり学習を行っていないので、教師データの欄は空欄としておいてよいものとする。以降、カメラDの学習済みモデルが作成されるか、又は、他の学習済みモデルの増加により、選択モジュール212で再度カメラDに最も適した学習済みモデルの選択を行うまでは、この図13の表を利用して、カメラDの画像解析を行うことが可能である。   FIG. 13 is an example of a table showing a learned model used for image analysis for each camera when there is no learned model of an unknown image captured by the camera D. In step S306, the learned model B is selected as the learned model whose imaging conditions are similar to those of the railroad crossing D imaged by the camera D. Therefore, in the column of the camera D in FIG. The table is filled in using yyyyyy as a mathematical expression and BBB, b, and β as parameters. Here, it is desirable that the imaging conditions of the actual camera D are filled in the imaging angle and the imaging position, which are imaging conditions. In addition, since supervised learning is not performed on the image captured by the camera D, the teacher data column may be left blank. Thereafter, until the learned model of the camera D is created, or until the selection of the learned model most suitable for the camera D is performed again by the selection module 212 due to the increase of other learned models, the process of FIG. It is possible to perform image analysis of the camera D using the table.

最後に、コンピュータ200の提供モジュール241は、コンピュータ200の入出力部240に、画像解析結果の提供を行う(ステップS308)。踏切Dへの進入検知であれば、「進入あり・進入なし」のみか、「進入なし・進入あり(大人)・進入あり(子ども)・進入あり(老人)・進入あり(車両)・進入あり(自転車)・進入あり(動物)・進入の可能性あり」等詳しく表示するのか、又は、画像に対して表示を行うだけでなく、警告音や光で結果を提示するのか等、画像解析結果提供システムの目的にあわせた出力を行うものとする。また、ここでは、踏切への進入検知を例として説明してきたが、画像解析は、例えば、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等、システムの目的に応じた適切なものに応用可能であるとする。また、画像解析結果の提供は、コンピュータ200の入出力部240への出力に限る必要はなく、通信部220を介して、他のデバイスへの出力を行う等、システムにあわせた出力を行うものとする。   Finally, the providing module 241 of the computer 200 provides the image analysis result to the input / output unit 240 of the computer 200 (step S308). If it is an entry detection to level crossing D, it will only be “with / without entry” or “no entry / with entry (adult) / with entry (child) / with entry (old) / with entry (vehicle) / with entry Image analysis results, such as whether to display in detail (such as (bicycle), entry (animal), entry possibility), or whether to display the result in warning sound or light Output according to the purpose of the providing system shall be performed. In addition, here, the example of detecting entry to a railroad crossing has been described as an example, but image analysis includes, for example, face recognition for individual determination, determination of the state of pest damage on crops, inventory check in a warehouse, and affected part for medical diagnosis It is assumed that the present invention can be applied to an appropriate one according to the purpose of the system, such as image recognition. Further, the provision of the image analysis result is not limited to the output to the input / output unit 240 of the computer 200, and the output according to the system is performed, for example, output to another device via the communication unit 220. And

このように、本発明によれば、人工知能が既知画像を画像解析した機械学習済みの学習済みモデルの複数パターンの中から、新たに画像解析させたい未知画像と撮像条件が似ている既知画像の学習済みモデルを選択して利用することで、学習時間をかけずに、精度の良い画像解析結果を出力することが可能な画像解析結果提供システム、画像解析結果提供方法、およびプログラムを提供することが可能となる。   As described above, according to the present invention, a known image whose imaging condition is similar to an unknown image to be newly subjected to image analysis from among a plurality of patterns of machine-learned learned models obtained by image analysis of known images by artificial intelligence. An image analysis result providing system, an image analysis result providing method, and a program capable of outputting an accurate image analysis result without spending learning time by selecting and using a learned model of It becomes possible.

[学習済みモデル作成処理]
図4は、未知画像の学習済みモデル作成処理を行う場合の、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。図2の構成に加え、コンピュータ200の制御部210は記憶部230と協働して作成モジュール214を実現する。図5は、未知画像の学習済みモデル作成処理を行う場合の、カメラ100とコンピュータ200のフローチャート図である。上述した各モジュールが実行する処理について、本処理にあわせて説明する。図5のステップS501からステップS503の処理は、図3のステップS301からステップS303の処理に相当するため、ステップS504以降について説明する。ステップS501の処理は、ステップS301と同じく、既に複数の学習済みモデルが記憶されている場合、新しい学習済みモデルが存在しない場合にはスキップしてよいものとする。
[Learned model creation process]
FIG. 4 is a diagram illustrating the relationship between the functional blocks of the camera 100 and the computer 200 and the functions when the learned image creation process of the unknown image is performed. In addition to the configuration of FIG. 2, the control unit 210 of the computer 200 implements the creation module 214 in cooperation with the storage unit 230. FIG. 5 is a flowchart of the camera 100 and the computer 200 when the unknown image learned model creation process is performed. Processing executed by each module described above will be described in accordance with this processing. Since the processing from step S501 to step S503 in FIG. 5 corresponds to the processing from step S301 to step S303 in FIG. 3, step S504 and subsequent steps will be described. As in step S301, the process of step S501 may be skipped when a plurality of learned models are already stored or when a new learned model does not exist.

カメラ100は、コンピュータ200からの画像送信要求を受けて、撮像部10で撮像した未知画像を、通信部120を介して、コンピュータ200に送信する(ステップS504)。ここでは、未知画像の学習済みモデル作成処理を行うため、カメラ100で撮像したできるだけ多くの未知画像を取得することが望ましい。そこで、カメラ100がリアルタイムに撮像を行っている画像だけでなく、カメラ100が過去に撮像して記憶部130に保存しておいた画像を送信しても良い。   Upon receiving the image transmission request from the computer 200, the camera 100 transmits the unknown image captured by the imaging unit 10 to the computer 200 via the communication unit 120 (step S504). Here, it is desirable to acquire as many unknown images as possible captured by the camera 100 in order to perform a learned model creation process for unknown images. Therefore, not only images captured by the camera 100 in real time but also images previously captured by the camera 100 and stored in the storage unit 130 may be transmitted.

コンピュータ200の取得モジュール211は、複数の未知画像を取得する(ステップS505)。ここでそれぞれの未知画像とあわせて、撮像角度や撮像位置等の撮像条件を、カメラ100から取得するものとする。   The acquisition module 211 of the computer 200 acquires a plurality of unknown images (step S505). Here, it is assumed that imaging conditions such as an imaging angle and an imaging position are acquired from the camera 100 together with each unknown image.

次に、コンピュータ200の作成モジュール214は、ステップS505で取得した未知画像に、教師データを付与する(ステップS506)。ここでは、取得した複数の未知画像に対して、画像解析結果の正解となるラベルを付加する作業を教師データの付与とする。前述した通り、教師あり学習のためのラベルについては、実際にどの程度詳細な画像解析結果を提供する必要があるのかを想定して、踏切の進入検知であれば、「進入あり・進入なし」のみで良いのか、「進入なし・進入あり(大人)・進入あり(子ども)・進入あり(老人)・進入あり(車両)・進入あり(自転車)・進入あり(動物)・進入の可能性あり」等、詳しい区分が必要なのかを考慮して、システムの目的にあわせて付加する必要がある。   Next, the creation module 214 of the computer 200 adds teacher data to the unknown image acquired in step S505 (step S506). Here, an operation of adding a label that is a correct answer of the image analysis result to a plurality of acquired unknown images is assigned teacher data. As described above, with regard to the label for supervised learning, assuming that it is actually necessary to provide a detailed image analysis result, if it is a crossing entry detection, “with / without entry” "There is no entry, there is entry (adult), there is entry (child), there is entry (old man), there is entry (vehicle), there is entry (bicycle), there is entry (animal), and there is a possibility of entry. It is necessary to add according to the purpose of the system in consideration of whether detailed classification is necessary.

コンピュータ200の作成モジュール214は、教師データを付与した未知画像を使用して、教師あり学習による機械学習を行う(ステップS507)。   The creation module 214 of the computer 200 performs machine learning by supervised learning using an unknown image to which teacher data is added (step S507).

次に、作成モジュール214は、ステップS507の機械学習の結果を基に、未知画像の学習済みモデルを作成する(ステップS508)。   Next, the creation module 214 creates a learned model of an unknown image based on the result of machine learning in step S507 (step S508).

最後に、記憶モジュール231により、未知画像の学習済みモデルを記憶部230に記憶する(ステップS509)。   Finally, the learned module of the unknown image is stored in the storage unit 230 by the storage module 231 (step S509).

図14は、カメラDで撮像した未知画像の学習済みモデルが作成された場合の、カメラ毎に画像解析に使用する学習済みモデルを示す表の一例である。ステップS508で作成した、カメラDの学習済みモデルDを、図14のカメラDの欄に記載したものである。カメラDの使用モデルとして学習済みモデルD、数式としてvvvvvvvv、パラメータとしてDDD、d、dDを使用するものとして、表を埋めている。また、教師あり学習を行ったため、教師データの欄も教師データを記載している。以降、カメラDで、再度教師データを増やして学習済みモデルを作成するまでは、この図14の表を利用して、カメラDの画像解析を行うことが可能である。   FIG. 14 is an example of a table showing learned models used for image analysis for each camera when a learned model of an unknown image captured by the camera D is created. The learned model D of the camera D created in step S508 is described in the column of the camera D in FIG. The table is filled in using learned model D as a usage model of camera D, vvvvvvvv as a mathematical expression, and DDD, d, and dD as parameters. In addition, since supervised learning is performed, the teacher data column also includes teacher data. Thereafter, until the teacher D increases the teacher data again and creates the learned model, the image analysis of the camera D can be performed using the table of FIG.

この、学習済みモデル作成処理は、新しい未知画像に対して、画像解析の精度を上げるために、適切なラベルをつけた大量の画像を用意し、時間をかけて学習を行う必要があるので、画像解析結果提供システムの運用を開始してから、新たな未知画像を受け入れる場合には大きな負担となる。そのため、新たな学習済みモデル作成処理を行えない場合に、図2、図3で説明した方法で、学習時間をかけずに、ある程度精度のよい画像解析結果を提供することを可能とする方法を提案している。しかしながら、より良い精度を求めるためには、未知画像にあわせた機械学習を行い、より適した数式やパラメータの学習済みモデルを作成することが望ましい。そのため、機械学習に必要な大量の未知画像が蓄積できたタイミングや、適切な正解ラベルを付加できたタイミングに応じて、他の画像解析作業に影響のでないよう、システムに負荷をかけないように実行する等、画像解析結果提供システムの運用にあわせた適切な実施が必要である。   In this learned model creation process, it is necessary to prepare a large number of images with appropriate labels in order to increase the accuracy of image analysis for new unknown images, and to learn over time. When a new unknown image is accepted after the operation of the image analysis result providing system is started, it becomes a heavy burden. Therefore, when a new learned model creation process cannot be performed, the method described with reference to FIGS. 2 and 3 can provide a somewhat accurate image analysis result without taking a learning time. is suggesting. However, in order to obtain better accuracy, it is desirable to perform machine learning according to an unknown image and create a learned model of a more appropriate mathematical formula or parameter. Therefore, depending on the timing at which a large amount of unknown images necessary for machine learning can be accumulated and the timing at which appropriate correct labels can be added, the system should not be overloaded so as not to affect other image analysis tasks. It is necessary to implement it appropriately in accordance with the operation of the image analysis result providing system.

このように、本発明によれば、人工知能が既知画像を画像解析した機械学習済みの学習済みモデルの複数パターンの中から、新たに画像解析させたい未知画像と撮像条件が似ている既知画像の学習済みモデルを選択して利用することで、学習時間をかけずに、精度の良い画像解析結果を出力しつつ、更に、学習済みモデル作成処理により新たな未知画像にあわせた機械学習を行い、学習済みモデルを作成することにより、更に画像解析結果を向上させることが可能な画像解析結果提供システム、画像解析結果提供方法、およびプログラムを提供することが可能となる。   As described above, according to the present invention, a known image whose imaging condition is similar to an unknown image to be newly subjected to image analysis from among a plurality of patterns of machine-learned learned models obtained by image analysis of known images by artificial intelligence. By selecting and using the learned model, it is possible to output accurate image analysis results without spending learning time, and to perform machine learning according to the new unknown image by the learned model creation process. By creating a learned model, it is possible to provide an image analysis result providing system, an image analysis result providing method, and a program that can further improve the image analysis result.

[画像解析切り替え処理]
図6は、未知画像の学習済みモデル作成処理が終わっているかに応じて、画像解析処理を切り替える場合の、カメラ100とコンピュータ200の機能ブロックと各機能の関係を示す図である。図7は、図6のフローチャートのAに当たる処理で、未知画像の学習済みモデル作成処理が終わっていない場合に、未知画像の機械学習が可能である場合にコンピュータ200で行う未知画像の学習済みモデル作成処理のフローチャート図である。図8は、図6のフローチャートのBに当たる処理で、未知画像の学習済みモデル作成処理が終わっていない場合に、未知画像の機械学習が不可能である場合にコンピュータ200で行う学習済みモデル選択処理のフローチャート図である。カメラ100とコンピュータ200の構成は、図4と同様である。また、図6のステップS601からステップS605の処理は、図3のステップS301からステップS305の処理に相当するため、ステップS606以降について説明する。
[Image analysis switching process]
FIG. 6 is a diagram illustrating the relationship between the functional blocks of the camera 100 and the computer 200 and the respective functions when the image analysis processing is switched depending on whether the learned image creation processing for the unknown image is completed. FIG. 7 is a process corresponding to A in the flowchart of FIG. 6, and an unknown image learned model performed by the computer 200 when machine learning of an unknown image is possible when an unknown image learned model creation process is not completed. It is a flowchart figure of a creation process. FIG. 8 is a process corresponding to B in the flowchart of FIG. 6 and a learned model selection process performed by the computer 200 when machine learning of an unknown image is impossible when the learned image learning model creation process is not completed. FIG. The configurations of the camera 100 and the computer 200 are the same as those in FIG. Further, the processing from step S601 to step S605 in FIG. 6 corresponds to the processing from step S301 to step S305 in FIG.

コンピュータ200の作成モジュール214は、ステップS605で取得した撮像データについて、未知画像の学習済みモデル作成済みかの確認を行う(ステップS606)。ここで、ステップS605で取得した撮像データが、初めてのカメラ100からの取得データであれば、未知画像であるため、未知画像の学習済みモデルは作成されていないと考えられる。   The creation module 214 of the computer 200 confirms whether the learned image learned model has been created for the imaging data acquired in step S605 (step S606). Here, if the imaging data acquired in step S605 is acquired data from the camera 100 for the first time, it is an unknown image, so it is considered that a learned model of the unknown image has not been created.

未知画像の学習済みモデルは作成されていない場合、作成モジュール214は、ステップS605で取得した未知画像やそれ以前に記憶した未知画像を使用して、機械学習が可能であるかどうかを判断する(ステップS607)。ここでは、機械学習に必要な適切なラベルをつけた教師データとなる大量の画像が準備されているかどうか、システムに負荷をかけ、かつ、機械学習のための時間をかけて問題ないかどうか、等を基準として判断することが可能である。また、画像解析結果提供システムの運用状況にあわせて判断してもよく、システムに応じた判定を行うものとする。   When the learned model of the unknown image has not been created, the creation module 214 determines whether machine learning is possible using the unknown image acquired in step S605 or the previously stored unknown image ( Step S607). Here, whether there is a large amount of images that will be teacher data with the appropriate labels necessary for machine learning, whether the system is loaded and there is no problem over time for machine learning, It is possible to judge based on the above. Further, the determination may be made according to the operation status of the image analysis result providing system, and the determination corresponding to the system is performed.

ここで、未知画像の機械学習が可能であると判断した場合、図7の処理Aのフローチャートに進む(ステップS608)。   If it is determined that machine learning of an unknown image is possible, the process proceeds to the flowchart of process A in FIG. 7 (step S608).

図7の処理Aにおいて、コンピュータ200の作成モジュール214は、ステップS605で取得した未知画像やそれ以前に記憶した未知画像に、教師データを付与する(ステップS701)。ここでは、取得した複数の未知画像に対して、画像解析結果の正解となるラベルを付加する作業を教師データの付与とする。前述した通り、教師あり学習のためのラベルについては、実際にどの程度詳細な画像解析結果を提供する必要があるのかを想定して、踏切の進入検知であれば、「進入あり・進入なし」のみで良いのか、「進入なし・進入あり(大人)・進入あり(子ども)・進入あり(老人)・進入あり(車両)・進入あり(自転車)・進入あり(動物)・進入の可能性あり」等、詳しい区分が必要なのかを考慮して、システムの目的にあわせて付加する必要がある。   In process A of FIG. 7, the creation module 214 of the computer 200 adds teacher data to the unknown image acquired in step S605 and the previously stored unknown image (step S701). Here, an operation of adding a label that is a correct answer of the image analysis result to a plurality of acquired unknown images is assigned teacher data. As described above, with regard to the label for supervised learning, assuming that it is actually necessary to provide a detailed image analysis result, if it is a crossing entry detection, “with / without entry” "There is no entry, there is entry (adult), there is entry (child), there is entry (old man), there is entry (vehicle), there is entry (bicycle), there is entry (animal), and there is a possibility of entry. It is necessary to add according to the purpose of the system in consideration of whether detailed classification is necessary.

コンピュータ200の作成モジュール214は、教師データを付与した未知画像を使用して、教師あり学習による機械学習を行う(ステップS702)。   The creation module 214 of the computer 200 performs machine learning by supervised learning using an unknown image to which teacher data is added (step S702).

次に、作成モジュール214は、ステップS702の機械学習の結果を基に、未知画像の学習済みモデルを作成する(ステップS703)。   Next, the creation module 214 creates a learned model of an unknown image based on the result of machine learning in step S702 (step S703).

次に、記憶モジュール231により、未知画像の学習済みモデルを記憶部230に記憶する(ステップS704)。   Next, the learned module of the unknown image is stored in the storage unit 230 by the storage module 231 (step S704).

図14は、カメラDで撮像した未知画像の学習済みモデルが作成された場合の、カメラ毎に画像解析に使用する学習済みモデルを示す表の一例である。ステップS703で作成した、カメラDの学習済みモデルDを、図14のカメラDの欄に記載したものである。カメラDの使用モデルとして学習済みモデルD、数式としてvvvvvvvv、パラメータとしてDDD、d、dDを使用するものとして、表を埋めている。また、教師あり学習を行ったため、教師データの欄も教師データを記載している。以降、カメラDで、再度教師データを増やして学習済みモデルを作成するまでは、この図14の表を利用して、カメラDの画像解析を行うことが可能である。   FIG. 14 is an example of a table showing learned models used for image analysis for each camera when a learned model of an unknown image captured by the camera D is created. The learned model D of the camera D created in step S703 is described in the column of the camera D in FIG. The table is filled in using learned model D as a usage model of camera D, vvvvvvvv as a mathematical expression, and DDD, d, and dD as parameters. In addition, since supervised learning is performed, the teacher data column also includes teacher data. Thereafter, until the teacher D increases the teacher data again and creates the learned model, the image analysis of the camera D can be performed using the table of FIG.

次に、コンピュータ200の画像解析モジュール213は、作成した学習済みモデルDを使用して、カメラDで撮像された未知画像の画像解析を行う(ステップS705)。   Next, the image analysis module 213 of the computer 200 performs image analysis of an unknown image captured by the camera D using the created learned model D (step S705).

次に、コンピュータ200の提供モジュール241は、コンピュータ200の入出力部240に、画像解析結果の提供を行う(ステップS706)。この後、図6のフローチャートに戻り、ステップS614に進む。   Next, the providing module 241 of the computer 200 provides the image analysis result to the input / output unit 240 of the computer 200 (step S706). Thereafter, returning to the flowchart of FIG. 6, the process proceeds to step S614.

ステップS607で、未知画像の機械学習が可能でないと判断した場合、作成モジュール214は、ステップS605で取得した未知画像を、記憶部230に記憶する(ステップS609)。これは、後に未知画像に対する学習済みモデル作成処理のための機械学習を行う場合に、教師データとして利用するためである。   If it is determined in step S607 that machine learning of an unknown image is not possible, the creation module 214 stores the unknown image acquired in step S605 in the storage unit 230 (step S609). This is because it is used as teacher data when machine learning for learned model creation processing for an unknown image is performed later.

ステップS609の記憶処理後、図8の処理Bのフローチャートに進む(ステップS610)。   After the storage process in step S609, the process proceeds to the flowchart of process B in FIG. 8 (step S610).

コンピュータ200の選択モジュール212は、ステップS601で記憶した学習済みモデルの中から、ステップS605で取得した未知画像と撮像条件が似ている学習済みモデルを選択する(ステップS801)。ここで、例えば、撮像された未知画像が、図10の踏切Dであった場合には、学習済みモデルが存在する踏切A、踏切B、踏切Cのいずれからの学習済みモデルから、撮像条件が似ているものを選択する。踏切Dを撮像したカメラDの撮像角度が20度、撮像距離が4−5mであるとし、更に踏切Dを撮像した画像の構図等を分析した結果、ここでは、学習済みモデルBを選択するものとする。   The selection module 212 of the computer 200 selects a learned model whose imaging condition is similar to the unknown image acquired in step S605 from the learned models stored in step S601 (step S801). Here, for example, when the imaged unknown image is the crossing D in FIG. 10, the imaging condition is determined from the learned model from any of the crossings A, B, and C where the learned model exists. Choose something similar. Assuming that the imaging angle of the camera D capturing the level crossing D is 20 degrees and the imaging distance is 4-5 m, and further analyzing the composition of the image capturing the level crossing D, the learned model B is selected here. And

次に、画像解析モジュール213は、学習済みモデルBを使用して、カメラDで撮像された未知画像の画像解析を行う(ステップS802)。   Next, the image analysis module 213 performs image analysis of an unknown image captured by the camera D using the learned model B (step S802).

図13は、カメラDで撮像した未知画像の学習済みモデルが無い場合の、カメラ毎に画像解析に使用する学習済みモデルを示す表の一例である。ステップS801で、カメラDで撮像した踏切Dと撮像条件が似ている学習済みモデルとして、学習済みモデルBを選択したので、図13のカメラDの欄には、使用モデルとして学習済みモデルB、数式としてyyyyyy、パラメータとしてBBB、b、βを使用するものとして、表を埋めている。ここで、撮像条件である撮像角度と撮像位置には、実際のカメラDでの撮像条件を埋めておくことが望ましい。また、カメラDでの撮像画像に対しては、教師あり学習を行っていないので、教師データの欄は空欄としておいてよいものとする。以降、カメラDの学習済みモデルが作成されるか、又は、他の学習済みモデルの増加により、選択モジュール212で再度カメラDに最も適した学習済みモデルの選択を行うまでは、この図13の表を利用して、カメラDの画像解析を行うことが可能である。   FIG. 13 is an example of a table showing a learned model used for image analysis for each camera when there is no learned model of an unknown image captured by the camera D. In step S801, the learned model B is selected as the learned model whose imaging conditions are similar to those of the railroad crossing D imaged by the camera D. Therefore, in the column of the camera D in FIG. The table is filled in using yyyyyy as a mathematical expression and BBB, b, and β as parameters. Here, it is desirable that the imaging conditions of the actual camera D are filled in the imaging angle and the imaging position, which are imaging conditions. In addition, since supervised learning is not performed on the image captured by the camera D, the teacher data column may be left blank. Thereafter, until the learned model of the camera D is created, or until the selection of the learned model most suitable for the camera D is performed again by the selection module 212 due to the increase of other learned models, the process of FIG. It is possible to perform image analysis of the camera D using the table.

次に、提供モジュール241は、コンピュータ200の入出力部240に、画像解析結果の提供を行う(ステップS803)。この後、図6のフローチャートに戻り、ステップS614に進む。   Next, the providing module 241 provides the image analysis result to the input / output unit 240 of the computer 200 (step S803). Thereafter, returning to the flowchart of FIG. 6, the process proceeds to step S614.

図6のステップS606で、未知画像の学習済みモデルが作成されている場合、既に処理Aのフローを通り、未知画像の学習済みモデルが作成されたものと考えられる。この場合、選択モジュール212は、処理AのステップS703で作成した学習済みモデルDを選択して適用する(ステップS611)。   If a learned model of an unknown image has been created in step S606 of FIG. 6, it is considered that a learned model of an unknown image has already been created through the flow of process A. In this case, the selection module 212 selects and applies the learned model D created in step S703 of process A (step S611).

次に、コンピュータ200の画像解析モジュール213は、学習済みモデルDを使用して、カメラDで撮像された未知画像の画像解析を行う(ステップS612)。   Next, the image analysis module 213 of the computer 200 performs image analysis of an unknown image captured by the camera D using the learned model D (step S612).

次に、コンピュータ200の提供モジュール241は、コンピュータ200の入出力部240に、画像解析結果の提供を行う(ステップS613)。   Next, the providing module 241 of the computer 200 provides the image analysis result to the input / output unit 240 of the computer 200 (step S613).

ステップS706、ステップS803、ステップS613で、それぞれ提供モジュール241は、コンピュータ200の入出力部240に、画像解析結果の提供を行うが、踏切Dへの進入検知であれば、「進入あり・進入なし」のみか、「進入なし・進入あり(大人)・進入あり(子ども)・進入あり(老人)・進入あり(車両)・進入あり(自転車)・進入あり(動物)・進入の可能性あり」等詳しく表示するのか、又は、画像に対して表示を行うだけでなく、警告音や光で結果を提示するのか等、画像解析結果提供システムの目的にあわせた出力を行うものとする。また、ここでは、踏切への進入検知を例として説明してきたが、画像解析は、例えば、個人判定用の顔認識、農作物の害虫被害状況の判別、倉庫内の在庫確認、医療診断用の患部画像認識、等、システムの目的に応じた適切なものに応用可能であるとする。また、画像解析結果の提供は、コンピュータ200の入出力部240への出力に限る必要はなく、通信部220を介して、他のデバイスへの出力を行う等、システムにあわせた出力を行うものとする。   In step S706, step S803, and step S613, the providing module 241 provides the image analysis result to the input / output unit 240 of the computer 200. If the entry to the railroad crossing D is detected, “provided / not entered”. Or "No entry / Entering (adult) / Entering (child) / Entering (old man) / Entering (vehicle) / Entering (bicycle) / Entering (animal) / possible entry" In addition to displaying the image in detail, whether to display the image as well as whether to present the result with a warning sound or light, output corresponding to the purpose of the image analysis result providing system is performed. In addition, here, the example of detecting entry to a railroad crossing has been described as an example, but image analysis includes, for example, face recognition for individual determination, determination of the state of pest damage on crops, inventory check in a warehouse, and affected part for medical diagnosis It is assumed that the present invention can be applied to an appropriate one according to the purpose of the system, such as image recognition. Further, the provision of the image analysis result is not limited to the output to the input / output unit 240 of the computer 200, and the output according to the system is performed, for example, output to another device via the communication unit 220. And

最後に、画像解析結果提供処理を終了してよいか確認し(ステップS614)、終了しない場合には、ステップS602に戻って処理を継続し、終了する場合には、画像解析結果提供処理を終了する。   Finally, it is confirmed whether or not the image analysis result providing process can be ended (step S614). If not, the process returns to step S602 to continue the process. If the process ends, the image analysis result providing process is ended. To do.

このように、本発明によれば、人工知能が既知画像を画像解析した機械学習済みの学習済みモデルの複数パターンの中から、新たに画像解析させたい未知画像と撮像条件が似ている既知画像の学習済みモデルを選択して利用することで、学習時間をかけずに、精度の良い画像解析結果を出力しつつ、更に、学習済みモデル作成処理により新たな未知画像にあわせた機械学習を行い、学習済みモデルを作成することが可能である。また、新たな学習済みモデルが作成されるまでの間は、既知画像の学習済みモデルを選択して利用し、新たな学習済みモデルが作成された後には、より精度の良い専用の学習済みモデルを利用することで、システムの引用開始時点から、精度が高く、なおかつその精度をより高めることのできる画像解析結果提供システム、画像解析結果提供方法、およびプログラムを提供することが可能となる。   As described above, according to the present invention, a known image whose imaging condition is similar to an unknown image to be newly subjected to image analysis from among a plurality of patterns of machine-learned learned models obtained by image analysis of known images by artificial intelligence. By selecting and using the learned model, it is possible to output accurate image analysis results without spending learning time, and to perform machine learning according to the new unknown image by the learned model creation process. It is possible to create a learned model. Also, until a new trained model is created, select and use a trained model of a known image, and after creating a new trained model, a dedicated trained model with higher accuracy is created. By using, it is possible to provide an image analysis result providing system, an image analysis result providing method, and a program that have high accuracy and can further improve the accuracy from the citation start point of the system.

[未知画像の画像解析結果を利用した学習済みモデル作成処理]
図9は、未知画像の学習済みモデル作成処理を行う場合に、未知画像の画像解析結果を教師データとして付与して、未知画像の機械学習を行う場合の、コンピュータ200のフローチャート図である。カメラ100とコンピュータ200の構成は、図4と同様である。図9では、ステップS901から記載しているが、この前に、図3のステップS301からステップS308に相当する処理が行われており、選択した学習済みモデルによる未知画像の画像解析が行われ、画像解析結果を入手済みであるものとする。
[Learned model creation process using image analysis result of unknown image]
FIG. 9 is a flowchart of the computer 200 when the unknown image learning model creation process is performed and the image analysis result of the unknown image is assigned as teacher data to perform machine learning of the unknown image. The configurations of the camera 100 and the computer 200 are the same as those in FIG. In FIG. 9, the process is described from step S901, but before this, processing corresponding to step S301 to step S308 of FIG. 3 is performed, and image analysis of the unknown image by the selected learned model is performed. Assume that image analysis results have been obtained.

コンピュータ200の作成モジュール214は、ステップS305で取得した未知画像に対して、ステップS307の画像解析結果を、教師データとして付与する(ステップS901)。ここで、選択した学習済みモデルによる未知画像の画像解析結果を、そのまま教師データとして付与することで、機械学習に必要な大量の画像に手動で正解データとなる教師データを付加するというコストを、大幅に削減することが可能となる。   The creation module 214 of the computer 200 assigns the image analysis result of step S307 as teacher data to the unknown image acquired in step S305 (step S901). Here, by adding the image analysis result of the unknown image based on the selected learned model as teacher data as it is, the cost of manually adding teacher data that becomes correct data to a large amount of images necessary for machine learning, It becomes possible to reduce significantly.

作成モジュール214は、教師データを付与した未知画像を使用して、教師あり学習による機械学習を行う(ステップS902)。   The creation module 214 performs machine learning by supervised learning using the unknown image to which the teacher data is added (step S902).

次に、作成モジュール214は、ステップS902の機械学習の結果を基に、未知画像の学習済みモデルを作成する(ステップS903)。   Next, the creation module 214 creates a learned model of an unknown image based on the result of machine learning in step S902 (step S903).

最後に、記憶モジュール231により、未知画像の学習済みモデルを記憶部230に記憶する(ステップS904)。   Finally, the learned module of the unknown image is stored in the storage unit 230 by the storage module 231 (step S904).

このように、本発明によれば、人工知能が既知画像を画像解析した機械学習済みの学習済みモデルの複数パターンの中から、新たに画像解析させたい未知画像と撮像条件が似ている既知画像の学習済みモデルを選択して利用することで、学習時間をかけずに、精度の良い画像解析結果を出力しつつ、更に、選択した学習済みモデルによる未知画像の画像解析結果を、そのまま教師データとして付与することで、機械学習に必要な大量の画像に手動で正解データとなる教師データを付加するというコストを、大幅に削減することが可能となり、最終的に、画像解析結果を向上させることが可能な画像解析結果提供システム、画像解析結果提供方法、およびプログラムを提供することが可能となる。   As described above, according to the present invention, a known image whose imaging condition is similar to an unknown image to be newly subjected to image analysis from among a plurality of patterns of machine-learned learned models obtained by image analysis of known images by artificial intelligence. By selecting and using the learned models, it is possible to output accurate image analysis results without spending learning time. Can be used to significantly reduce the cost of manually adding correct teacher data to a large amount of images required for machine learning, and ultimately improve image analysis results. It is possible to provide an image analysis result providing system, an image analysis result providing method, and a program.

上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態であってもよいし、フレキシブルディスク、CD(CD−ROM等)、DVD(DVD−ROM、DVD−RAM等)、コンパクトメモリ等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。   The means and functions described above are realized by a computer (including a CPU, an information processing apparatus, and various terminals) reading and executing a predetermined program. For example, the program may be in the form (SaaS: Software as a Service) provided from a computer via a network, or a flexible disk, CD (CD-ROM, etc.), DVD (DVD-ROM, DVD). -RAM etc.) and a computer-readable recording medium such as a compact memory. In this case, the computer reads the program from the recording medium, transfers it to the internal storage device or the external storage device, stores it, and executes it. The program may be recorded in advance in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided from the storage device to a computer via a communication line.

以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。   As mentioned above, although embodiment of this invention was described, this invention is not limited to these embodiment mentioned above. The effects described in the embodiments of the present invention are only the most preferable effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. is not.

100 カメラ、200 コンピュータ、300 通信網、400 被写体 100 cameras, 200 computers, 300 communication networks, 400 subjects

Claims (6)

既知画像を画像解析した機械学習済みの学習済みモデルを記憶する記憶手段と、
未だ学習済みモデルが作成されていない未知画像を取得する取得手段と、
前記記憶した学習済みモデルの中から、前記取得した未知画像と撮像対象に対する撮像位置および撮像角度からなる撮像条件が似ている前記既知画像の学習済みモデルを選択する選択手段と、
前記選択した学習済みモデルを利用して、前記未知画像を画像解析させる画像解析手段と、
前記画像解析の結果を提供する提供手段と、
を備え、
前記学習済みモデルが前記画像解析に使用する数式及びパラメータで少なくとも構成されることを特徴とする画像解析結果提供システム。
Storage means for storing a machine-learned learned model obtained by image analysis of a known image;
An acquisition means for acquiring an unknown image for which a trained model has not yet been created;
A selection unit that selects, from the stored learned models, a learned model of the known image that has a similar imaging condition including an imaging position and an imaging angle with respect to the acquired unknown image and an imaging target;
Image analysis means for image analysis of the unknown image using the selected learned model;
Providing means for providing a result of the image analysis;
With
The system for providing an image analysis result , wherein the learned model includes at least a mathematical expression and parameters used for the image analysis.
前記未知画像に対して、画像解析した新しい機械学習済みの学習済みモデルを作成する作成手段を備えることを特徴とする請求項1に記載の画像解析結果提供システム。   2. The image analysis result providing system according to claim 1, further comprising a creation unit that creates a new machine-learned model that has undergone image analysis for the unknown image. 前記画像解析手段は、前記新しい機械学習済みの学習済みモデルを作成するまでの期間に、前記選択された学習済みモデルを利用して、前記未知画像を画像解析させることを特徴とする請求項2に記載の画像解析結果提供システム。   3. The image analysis unit performs image analysis of the unknown image using the selected learned model during a period until the new machine-learned learned model is created. The image analysis result providing system described in 1. 前記未知画像に対して、前記選択した学習済みモデルを利用して、前記未知画像を画像解析した解析結果を教師データとして、前記未知画像を画像解析した新しい機械学習済みの学習済みモデルを作成する作成手段を備えることを特徴とする請求項1又は請求項2のいずれか一項に記載の画像解析結果提供システム。   Using the selected learned model for the unknown image, a new machine-learned learned model is generated by analyzing the unknown image using the analysis result obtained by image analysis of the unknown image as teacher data. The image analysis result providing system according to claim 1, further comprising a creation unit. 画像解析結果提供システムが実行する画像解析結果提供方法であって、
既知画像を画像解析した機械学習済みの学習済みモデルを記憶するステップと、
未だ学習済みモデルが作成されていない未知画像を取得するステップと、
前記記憶した学習済みモデルの中から、前記取得した未知画像と撮像対象に対する撮像位置および撮像角度からなる撮像条件が似ている前記既知画像の学習済みモデルを選択するステップと、
前記選択した学習済みモデルを利用して、前記未知画像を画像解析させるステップと、
前記画像解析の結果を提供するステップと、
を備え、
前記学習済みモデルが前記画像解析に使用する数式及びパラメータで少なくとも構成される画像解析結果提供方法。
An image analysis result providing method executed by an image analysis result providing system,
Storing a machine-learned learned model obtained by image analysis of a known image;
Obtaining an unknown image for which a trained model has not yet been created;
Selecting from the stored learned models a learned model of the known image having a similar imaging condition including an imaging position and an imaging angle with respect to the acquired unknown image and an imaging target;
Using the selected learned model to image-analyze the unknown image;
Providing a result of the image analysis;
With
The trained model is at least composed of image analysis results providing method in a formula and parameters used for the image analysis.
学習済みモデルが、機械学習により算出した画像解析に使用する数式及びパラメータとで少なくとも構成されることを特徴とする画像解析結果提供システムに、
既知画像を画像解析した機械学習済みの学習済みモデルを記憶するステップ、
未だ学習済みモデルが作成されていない未知画像を取得するステップ、
前記記憶した学習済みモデルの中から、前記取得した未知画像と撮像対象に対する撮像位置および撮像角度からなる撮像条件が似ている前記既知画像の学習済みモデルを選択するステップ、
前記選択した学習済みモデルを利用して、前記未知画像を画像解析させるステップ、
前記画像解析の結果を提供するステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。
In the image analysis result providing system, the learned model is configured with at least a mathematical expression and parameters used for image analysis calculated by machine learning.
Storing a machine-learned learned model obtained by image analysis of a known image;
Obtaining an unknown image for which a trained model has not yet been created,
A step of selecting a learned model of the known image having similar imaging conditions including an imaging position and an imaging angle with respect to the acquired unknown image and an imaging target from the stored learned model;
Image analysis of the unknown image using the selected learned model;
Providing a result of the image analysis;
A computer-readable program for executing the program.
JP2018545247A 2017-06-28 2017-06-28 Image analysis result providing system, image analysis result providing method, and program Active JP6474946B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/023807 WO2019003355A1 (en) 2017-06-28 2017-06-28 System for providing image analysis result, method for providing image analysis result, and program

Publications (2)

Publication Number Publication Date
JP6474946B1 true JP6474946B1 (en) 2019-02-27
JPWO2019003355A1 JPWO2019003355A1 (en) 2019-06-27

Family

ID=64741244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018545247A Active JP6474946B1 (en) 2017-06-28 2017-06-28 Image analysis result providing system, image analysis result providing method, and program

Country Status (2)

Country Link
JP (1) JP6474946B1 (en)
WO (1) WO2019003355A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021095693A1 (en) 2019-11-14 2021-05-20 キヤノン株式会社 Information processing device, information processing method, and program
WO2022209169A1 (en) * 2021-04-02 2022-10-06 日立造船株式会社 Information processing device, determination method, and determination program
JP7561477B2 (en) 2022-06-16 2024-10-04 緯創資通股▲ふん▼有限公司 Data prediction method and apparatus

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580390B2 (en) 2020-01-22 2023-02-14 Canon Medical Systems Corporation Data processing apparatus and method
JP7525220B2 (en) 2020-04-08 2024-07-30 日本電気通信システム株式会社 Estimation device, learning device, estimation method, and program
JP7521588B2 (en) * 2020-09-29 2024-07-24 株式会社島津製作所 Image Analysis Equipment
CN112203059A (en) * 2020-10-15 2021-01-08 石家庄粮保科技有限公司 Insect detection method based on AI image recognition technology
JP2022085357A (en) 2020-11-27 2022-06-08 株式会社Jvcケンウッド Image recognition apparatus, image recognition method, and object recognition model
WO2023135621A1 (en) * 2022-01-11 2023-07-20 三菱電機株式会社 Surveillance camera image analysis system
JP7360115B1 (en) 2022-04-13 2023-10-12 株式会社Ridge-i Information processing device, information processing method, and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011060221A (en) * 2009-09-14 2011-03-24 Sumitomo Electric Ind Ltd Discriminator generation method, computer program, discriminator generating device and predetermined object detecting device
JP2012068965A (en) * 2010-09-24 2012-04-05 Denso Corp Image recognition device
JP2016015045A (en) * 2014-07-02 2016-01-28 キヤノン株式会社 Image recognition device, image recognition method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011060221A (en) * 2009-09-14 2011-03-24 Sumitomo Electric Ind Ltd Discriminator generation method, computer program, discriminator generating device and predetermined object detecting device
JP2012068965A (en) * 2010-09-24 2012-04-05 Denso Corp Image recognition device
JP2016015045A (en) * 2014-07-02 2016-01-28 キヤノン株式会社 Image recognition device, image recognition method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021095693A1 (en) 2019-11-14 2021-05-20 キヤノン株式会社 Information processing device, information processing method, and program
WO2022209169A1 (en) * 2021-04-02 2022-10-06 日立造船株式会社 Information processing device, determination method, and determination program
JP7561477B2 (en) 2022-06-16 2024-10-04 緯創資通股▲ふん▼有限公司 Data prediction method and apparatus

Also Published As

Publication number Publication date
WO2019003355A1 (en) 2019-01-03
JPWO2019003355A1 (en) 2019-06-27

Similar Documents

Publication Publication Date Title
JP6474946B1 (en) Image analysis result providing system, image analysis result providing method, and program
BR112021005620A2 (en) method and system for generating media content, and readable media.
JP6404527B1 (en) Camera control system, camera control method, and program
CN104252712A (en) Image generating apparatus and image generating method
CN109271929B (en) Detection method and device
US20180048860A1 (en) Method and system for measuring quality of video call
US10997239B2 (en) Image search system, image search method and storage medium
JP6246441B1 (en) Image analysis system, image analysis method, and program
JP6970641B2 (en) Emotion Guessing Method, Emotion Guessing Device and Program
US20240045992A1 (en) Method and electronic device for removing sensitive information from image data
JP6800671B2 (en) Grant device, grant method and grant program
US10057321B2 (en) Image management apparatus and control method capable of automatically creating comment data relevant to an image
KR20210044116A (en) Electronic Device and the Method for Classifying Development Condition of Infant thereof
US20230126712A1 (en) Image processing device, image processing method, program, and recording medium
WO2019215924A1 (en) Operation data classification system, operation data classification method, and program
JP2020052505A (en) Health condition determination system, health condition determination device, server, health condition determination method and program
KR20210025175A (en) Electronic apparatus and control method thereof
JP7224315B2 (en) Information processing device, information processing method, and information processing program
JP2019086473A (en) Learning program, detection program, learning method, detection method, learning device, and detection device
KR102297010B1 (en) Method and server for displaying detailed information of exhibit using augmented reality
JP2020064568A (en) Video analysis system, learning device, and method thereof
US20170068848A1 (en) Display control apparatus, display control method, and computer program product
JP6246440B1 (en) Image analysis system, image analysis method, and program
KR102595012B1 (en) Apparatus and method for tracking hyoid bone
WO2023029289A1 (en) Model evaluation method and apparatus, storage medium, and electronic device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180827

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180827

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190130

R150 Certificate of patent or registration of utility model

Ref document number: 6474946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250