JP7436801B2 - Information output program, information output device, and information output method - Google Patents
Information output program, information output device, and information output method Download PDFInfo
- Publication number
- JP7436801B2 JP7436801B2 JP2020000996A JP2020000996A JP7436801B2 JP 7436801 B2 JP7436801 B2 JP 7436801B2 JP 2020000996 A JP2020000996 A JP 2020000996A JP 2020000996 A JP2020000996 A JP 2020000996A JP 7436801 B2 JP7436801 B2 JP 7436801B2
- Authority
- JP
- Japan
- Prior art keywords
- accuracy
- information
- condition
- images
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 86
- 238000012545 processing Methods 0.000 claims description 49
- 238000012544 monitoring process Methods 0.000 claims description 22
- 230000010365 information processing Effects 0.000 description 57
- 210000004205 output neuron Anatomy 0.000 description 40
- 238000010586 diagram Methods 0.000 description 26
- 238000001514 detection method Methods 0.000 description 19
- 238000007726 management method Methods 0.000 description 13
- 238000013500 data storage Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 210000002364 input neuron Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Description
本発明は、情報出力プログラム、情報出力装置及び情報出力方法に関する。 The present invention relates to an information output program, an information output device, and an information output method.
例えば、海上哨戒や沿岸監視等の分野では、監視領域において撮影された動画像の内容を作業者が確認することにより、動画像に映る対象物(例えば、不審船等)の検出や種類の特定等を行う。具体的に、作業者は、例えば、撮影された動画像において複数の対象物を検出した場合、それぞれの対象物についての種類の特定等を目視によって行う(例えば、特許文献1参照)。 For example, in fields such as maritime patrol and coastal monitoring, workers can detect objects (e.g., suspicious ships, etc.) and identify the type of objects shown in the video by checking the content of video captured in the surveillance area. etc. Specifically, for example, when a plurality of objects are detected in a captured moving image, the operator visually identifies the type of each object (see, for example, Patent Document 1).
しかしながら、検出された対象物の全てを監視対象として出力してしまうと、動画像に映る対象物の監視を効率的に行うことができないといった問題がある。 However, if all detected objects are output as monitoring objects, there is a problem that objects appearing in moving images cannot be efficiently monitored.
そこで、一つの側面では、本発明は、動画像に映る対象物の監視を効率的に行うことを可能とする情報出力プログラム、情報出力装置及び情報出力方法を提供することを目的とする。 Therefore, in one aspect, an object of the present invention is to provide an information output program, an information output device, and an information output method that make it possible to efficiently monitor objects shown in moving images.
実施の形態の一態様では、動画像を取得し、画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。 In one aspect of the embodiment, by using a first learning model that acquires a moving image and learns a candidate type of an object included in the image and a probability that the type of the object is the candidate type, A classification result for each type of object included in a plurality of images constituting a moving image and a first accuracy indicating the accuracy of the classification result are obtained, and for each object included in the plurality of images, Based on the classification result and the first accuracy corresponding to each object, it is determined whether each object satisfies a predetermined condition, and among the objects included in the plurality of images, the predetermined Outputs information indicating that the object determined to satisfy the condition is to be monitored.
一つの側面によれば、動画に映る対象物の監視を効率的に行うことを可能とする。 According to one aspect, it is possible to efficiently monitor objects shown in videos.
[情報処理システムの構成]
初めに、情報処理システム10の構成について説明を行う。図1は、情報処理システム10の構成について説明する図である。
[Information processing system configuration]
First, the configuration of the
図1に示す情報処理システム10は、情報処理装置1と、操作端末3とを有する。操作端末3は、例えば、作業者が必要な情報の入力等を行うPC(Personal Computer)であって、インターネット等のネットワークNWを介して情報処理装置1とアクセスが可能である。
The
情報処理装置1は、例えば、監視領域において撮影された動画像(以下、動画データとも呼ぶ)を構成する各画像(以下、画像データとも呼ぶ)に含まれる対象物の種類の候補(以下、種類候補とも呼ぶ)と、その種類候補が対象物の種類として正解である確度(例えば、確率)とを学習した学習モデル(以下、第1学習モデルとも呼ぶ)を用いることにより、各画像データに含まれる対象物のうち、作業者が目視で確認を行う必要がある対象物の特定を行う。
For example, the
具体的に、情報処理装置1は、例えば、第1学習モデルを用いることによって、複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。
Specifically, the
すなわち、従来では、例えば、対象物の検出等を行う必要がある動画像が頻繁に発生する場合、対象物の検出等に伴う作業者の負担が増大する可能性があった。また、例えば、確認を行う必要がある対象物の数が今後さらに増大する場合、必要な数の作業者の確保が将来的に困難になる可能性がある。 That is, conventionally, for example, when moving images that require detection of a target object are frequently generated, there is a possibility that the burden on the operator due to the detection of the target object increases. Further, for example, if the number of objects that need to be checked further increases in the future, it may become difficult to secure the necessary number of workers in the future.
そこで、本実施の形態における情報処理装置1は、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも高い対象物が存在する場合、存在した対象物についての監視を行う必要がないと判断する。また、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。
Therefore, the
そして、情報処理装置1は、例えば、監視を行う必要があると判断した対象物についての情報のみを操作端末3に出力する。その後、作業者は、例えば、操作端末3に情報が出力された対象物についての種類の特定等を目視によって行う。
Then, the
これにより、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
Thereby, the
[情報処理システムのハードウエア構成]
次に、情報処理システム10のハードウエア構成について説明する。図2は、情報処理装置1のハードウエア構成を説明する図である。
[Hardware configuration of information processing system]
Next, the hardware configuration of the
情報処理装置1は、図2に示すように、プロセッサであるCPU101と、メモリ102と、通信装置103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
As shown in FIG. 2, the
記憶媒体104は、例えば、作業者が監視を行う必要がある対象物を示す情報を出力する処理(以下、情報出力処理とも呼ぶ)を行うためのプログラム110を記憶するプログラム格納領域(図示しない)を有する。また、記憶媒体104は、例えば、情報出力処理を行う際に用いられる情報を記憶する記憶部130(以下、情報格納領域130とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
The
CPU101は、記憶媒体104からメモリ102にロードされたプログラム110を実行して情報出力処理を行う。
The
また、通信装置103は、例えば、ネットワークNWを介して操作端末3との通信を行う。
Furthermore, the
[情報処理システムの機能]
次に、情報処理システム10の機能について説明を行う。図3は、情報処理装置1の機能のブロック図である。
[Functions of information processing system]
Next, the functions of the
情報処理装置1は、図3に示すように、例えば、CPU101やメモリ102等のハードウエアとプログラム110とが有機的に協働することにより、情報受信部111(以下、情報取得部111とも呼ぶ)と、情報管理部112と、第1モデル生成部113と、第2モデル生成部114と、結果取得部115と、第1条件判定部116と、第2条件判定部117と、結果出力部118と、を含む各種機能を実現する。
As shown in FIG. 3, the
また、情報処理装置1は、例えば、図3に示すように、第1学習データ131と、第2学習データ132と、動画データ133と、類別結果情報134と、検出結果情報135とを情報格納領域130に記憶する。
Further, the
情報受信部111は、例えば、作業者が操作端末3を介して入力した各種情報を受信する。具体的に、情報受信部111は、例えば、第1学習モデルの生成に用いられる第1学習データ131を受信する。第1学習データ131は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の種類を示す情報とをそれぞれ含む学習データである。
The
また、情報受信部111は、例えば、第2学習モデルの生成に用いられる第2学習データ132を受信する。第2学習データ132は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の位置情報とをそれぞれ含む学習データである。
Further, the
さらに、情報受信部111は、例えば、海上における対象物の撮影を行うカメラ等の撮影装置(図示しない)によって取得された動画データ133を受信する。そして、情報管理部112は、例えば、情報受信部111が受信した第1学習データ131、第2学習データ132及び動画データ133を情報格納領域130に記憶する。
Further, the
なお、情報受信部111は、例えば、操作端末3に対して自発的にアクセスを行うことによって、操作端末3の情報格納領域(図示しない)に記憶された各種情報を取得するものであってもよい。また、情報受信部111は、例えば、撮像装置に対して自発的にアクセスを行うことにより、撮像装置の情報格納領域(図示しない)に記憶された動画データ133を取得するものであってもよい。
Note that the
第1モデル生成部113は、情報格納領域130に記憶された第1学習データ131の学習を行うことによって、第1学習モデルを生成する。
The first
第2モデル生成部114は、情報格納領域130に記憶された第2学習データ132の学習を行うことによって、第2学習モデルを生成する。
The second
結果取得部115は、情報格納領域130に記憶された動画データ133を取得する。そして、結果取得部115は、第2モデル生成部114が生成した第2学習モデルを用いることによって、動画データ133を構成する複数の画像データのそれぞれに対象物が存在する確度を示す確度(以下、第2確度とも呼ぶ)を取得する。具体的に、結果取得部115は、第2学習モデルに対する複数の画像データの入力に伴って出力される第2確度を取得する。その後、情報管理部112は、例えば、結果取得部115が取得した第2確度を示す検出結果情報135を生成して情報格納領域130に記憶する。
The
また、結果取得部115は、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれについての複数の部分画像データを取得する。具体的に、結果取得部115は、例えば、情報格納領域130に記憶された検出結果情報135を参照することにより、動画データ133を構成する複数の画像データから複数の部分画像データを取得(抽出)する。そして、結果取得部115は、第1モデル生成部113が生成した第1学習モデルを用いることによって、複数の部分画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度(以下、第1確度とも呼ぶ)とを取得する。具体的に、結果取得部115は、第1学習モデルに対する複数の画像データの入力に伴って出力される類別結果と第1確度とを取得する。その後、情報管理部112は、例えば、結果取得部115が取得した類別結果と第1確度とを示す類別結果情報134を生成して情報格納領域130に記憶する。
Furthermore, the
第1条件判定部116は、例えば、情報格納領域130に記憶された類別結果情報134を参照し、複数の部分画像データごとに、各対象物に対応する類別結果が第1条件を満たすか否か、及び、各対象物に対応する第1確度が第2条件を満たすか否かを判定する。具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が閾値(以下、第1閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。
For example, the first
第2条件判定部117は、例えば、情報格納領域130に記憶された類別結果情報134及び検出結果情報135を参照し、複数の部分画像データごとに、各対象物に対応する第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する第2確度が第3条件を満たすか否かを判定する。具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が閾値(以下、第2閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。
For example, the second
結果出力部118は、複数の部分画像データに含まれる各対象物のうち、類別結果が第1条件を満たすと判定した対象物と、第1確度が第2条件を満たすと判定した対象物とを示す情報(例えば、アラート)を出力する。
The
また、結果出力部118は、複数の部分画像データに含まれる各対象物のうち、第1確度が第2条件を満たし、かつ、第2確度が第3条件を満たす対象物が未学習であることを示す情報を出力する。
In addition, the
[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明する。図4は、第1の実施の形態における情報出力処理の概略を説明するフローチャート図である。
[Outline of first embodiment]
Next, an outline of the first embodiment will be described. FIG. 4 is a flowchart illustrating an outline of information output processing in the first embodiment.
情報処理装置1は、図4に示すように、情報出力タイミングになるまで待機する(S1のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。
As shown in FIG. 4, the
そして、情報出力タイミングになった場合(S1のYES)、情報処理装置1は、動画データ133を取得する(S2)。具体的に、情報処理装置1は、例えば、情報格納領域130に記憶された動画データ133を取得する。また、情報処理装置1は、例えば、外部の記憶装置(図示しない)に記憶された動画データ133を取得する。
Then, when the information output timing has come (YES in S1), the
続いて、情報処理装置1は、画像データに含まれる対象物の種類候補と、その種類候補が対象物の種類として正解である確度とを学習した第1学習モデルを用いることによって、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度を示す第1確度とを取得する(S3)。
Next, the
次に、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物ごとに、S3の処理で取得した類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う(S4)。
Next, the
その後、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のうち、S4の処理において所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する(S5)。
After that, the
これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による確認を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
Thereby, by using the first learning model, the
[第1の実施の形態の詳細]
次に、第1の実施の形態の詳細について説明する。図5から図11は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。また、図12から図21は、第1の実施の形態における情報出力処理の詳細を説明する図である。
[Details of the first embodiment]
Next, details of the first embodiment will be described. 5 to 11 are flowcharts illustrating details of information output processing in the first embodiment. Further, FIGS. 12 to 21 are diagrams illustrating details of the information output processing in the first embodiment.
[第1学習データ記憶処理]
初めに、情報出力処理のうち、第1学習データ131の記憶を行う処理(以下、第1学習データ記憶処理とも呼ぶ)について説明を行う。図5は、第1学習データ記憶処理を説明するフローチャート図である。
[First learning data storage process]
First, among the information output processing, the processing for storing the first learning data 131 (hereinafter also referred to as the first learning data storage processing) will be explained. FIG. 5 is a flowchart illustrating the first learning data storage process.
情報処理装置1の情報受信部111は、図5に示すように、例えば、操作端末3から送信された複数の第1学習データ131を受信するまで待機する(S11のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第1学習データ131が操作端末3を介して送信されるまで待機する。
As shown in FIG. 5, the
そして、複数の第1学習データ131を受信した場合(S11のYES)、情報処理装置1の情報管理部112は、S11の処理で受信した複数の第1学習データ131を情報格納領域130に記憶する(S12)。以下、第1学習データ131の具体例について説明を行う。
Then, when the plurality of
[第1学習データの具体例]
図12は、第1学習データ131の具体例について説明する図である。
[Specific example of first learning data]
FIG. 12 is a diagram illustrating a specific example of the
図12に示す第1学習データ131は、第1学習データ131のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物の種類(正解の種類)を示す「種類」とを含む。なお、以下、「種類」には、「AAA」、「BBB」及び「CCC」のうちのいずれかが設定されるものとして説明を行う。
The
具体的に、図12における「項番」が「1」である第1学習データ131は、名称が「IMAGEa1」である学習用画像データを含み、かつ、「種類」が「AAA」である学習データである。
Specifically, the
また、図12における「項番」が「2」である第1学習データ131は、名称が「IMAGEa2」である学習用画像データを含み、かつ、「種類」が「BBB」である学習データである。図12に含まれる他の第1学習データ131については説明を省略する。
In addition, the
[第1モデル生成処理]
次に、情報出力処理のうち、第1モデルの生成を行う処理(以下、第1モデル生成処理とも呼ぶ)について説明を行う。図6は、第1モデル生成処理を説明するフローチャート図である。
[First model generation process]
Next, of the information output processing, the processing for generating the first model (hereinafter also referred to as the first model generation processing) will be explained. FIG. 6 is a flowchart diagram illustrating the first model generation process.
情報処理装置1の第1モデル生成部113は、図6に示すように、例えば、第1モデル生成タイミングになるまで待機する(S21のNO)。第1モデル生成タイミングは、例えば、作業者が第1モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。
As shown in FIG. 6, the first
そして、第1モデル生成タイミングになった場合(S21のYES)、第1モデル生成部113は、情報格納領域130に記憶された複数の第1学習データ131の学習を行うことにより、第1学習モデルを生成する(S22)。以下、S22の処理の具体例について説明を行う。
Then, when the first model generation timing has come (YES in S21), the first
[S22の処理の具体例]
図13は、S22の処理の具体例について説明を行う。
[Specific example of processing in S22]
FIG. 13 describes a specific example of the process of S22.
第1モデル生成部113は、図13に示すように、例えば、対象物の種類候補のそれぞれに対応する複数の出力ニューロン(以下、第1出力ニューロンとも呼ぶ)NE11と、第1確度に対応する1の出力ニューロン(以下、第2出力ニューロンとも呼ぶ)NE12とを有する第1モデルMD01を生成する。図13に示す例において、第1出力ニューロンNE11には、種類候補である「AAA」、「BBB」及び「CCC」のそれぞれに対応する第1出力ニューロンNE11a、NE11b及びNE11cが含まれている。
As shown in FIG. 13, the first
そして、例えば、図12で説明した第1学習データ131における「項番」が「1」である情報には、「画像データ」として「IMAGEa1」が設定され、「種類」として「AAA」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa1」である画像データの特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「AAA」に対応する正解値(「1」、「0」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「1」との差、第1出力ニューロンNE11bから出力される値と「0」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
For example, for the information whose "item number" is "1" in the
また、例えば、図12で説明した第1学習データ131における「項番」が「2」である情報には、「画像データ」として「IMAGEa2」が設定され、「種類」として「BBB」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa2」である画像データまたはその特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「BBB」に対応する正解値(「0」、「1」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「0」との差、第1出力ニューロンNE11bから出力される値と「1」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
For example, for the information whose "item number" is "2" in the
なお、第1モデル生成部113は、第1出力ニューロンNE11からの出力値と正解値との比較を行う前に、第1出力ニューロンNE11からの出力値を第2出力ニューロンNE12からの出力値によって補正を行うものであってもよい。
Note that, before comparing the output value from the first output neuron NE11 with the correct value, the first
具体的に、第1モデル生成部113は、この場合、第2出力ニューロンNE12からの出力値が「0」に近いほど、第1出力ニューロンNE11からの出力値が正解値に近づくように補正を行う。一方、第1モデル生成部113は、第2出力ニューロンNE12からの出力値が「1」に近いほど、第1出力ニューロンNE11からの出力値の補正幅を小さくする。また、第1モデル生成部113は、この場合、第1出力ニューロンNE11からの出力値の補正幅が大きいほど大きい値のペナルティ値を設定する。そして、第1モデル生成部113は、第1出力ニューロンNE11からの出力値(補正後の値)と正解値との差及びペナルティ値の両方が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
Specifically, in this case, the first
[第2学習データ記憶処理]
次に、情報出力処理のうち、第2学習データ132の記憶を行う処理(以下、第2学習データ記憶処理とも呼ぶ)について説明を行う。図7は、第2学習データ記憶処理を説明するフローチャート図である。
[Second learning data storage process]
Next, of the information output processing, the processing for storing the second learning data 132 (hereinafter also referred to as the second learning data storage processing) will be explained. FIG. 7 is a flowchart illustrating the second learning data storage process.
情報受信部111は、図7に示すように、例えば、操作端末3から送信された複数の第2学習データ132を受信するまで待機する(S31のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第2学習データ132が操作端末3を介して送信されるまで待機する。
As shown in FIG. 7, the
そして、複数の第1学習データ131を受信した場合(S31のYES)、情報管理部112は、S31の処理で受信した複数の第2学習データ132を情報格納領域130に記憶する(S32)。以下、第2学習データ132の具体例について説明を行う。
When the plurality of
[第2学習データの具体例]
図14は、第2学習データ132の具体例について説明する図である。
[Specific example of second learning data]
FIG. 14 is a diagram illustrating a specific example of the
図14に示す第2学習データ132は、第2学習データ132のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物(対象物を含む枠)の左上の位置を示す「位置」と、各学習用画像データに含まれる対象物(対象物を含む枠)の幅を示す「幅」と、各学習用画像データに含まれる対象物(対象物を含む枠)の高さを示す「高さ」とを項目として有する。
The
具体的に、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データを含み、さらに、「位置」が「10,32」であって「幅」が「10」であって「高さ」が「8」である対象物についての情報と、「位置」が「24,30」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「28,20」であって「幅」が「8」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データに含まれる3つの対象物についての情報を含んでいる。
Specifically, the
また、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データを含み、さらに、「位置」が「34,36」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「10,12」であって「幅」が「12」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データに含まれる2つの対象物についての情報を含んでいる。図14に含まれる他の第2学習データ132についての説明は省略する。
Further, the
[第2モデル生成処理]
次に、情報出力処理のうち、第2モデルの生成を行う処理(以下、第2モデル生成処理とも呼ぶ)について説明を行う。図8は、第2モデル生成処理を説明するフローチャート図である。
[Second model generation process]
Next, of the information output processing, the processing for generating the second model (hereinafter also referred to as the second model generation processing) will be explained. FIG. 8 is a flowchart illustrating the second model generation process.
情報処理装置1の第1モデル生成部113は、図8に示すように、例えば、第2モデル生成タイミングになるまで待機する(S41のNO)。第2モデル生成タイミングは、例えば、作業者が第2モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。また、第2モデル生成タイミングは、例えば、第1モデルが生成された直後のタイミングであってよい。
As shown in FIG. 8, the first
そして、第2モデル生成タイミングになった場合(S41のYES)、第2モデル生成部114は、情報格納領域130に記憶された複数の第2学習データ132の学習を行うことにより、第2学習モデルを生成する(S42)。以下、S42の処理の具体例について説明を行う。
Then, when the second model generation timing has come (YES in S41), the second
[S42の処理の具体例]
図15は、S42の処理の具体例について説明する図である。
[Specific example of processing in S42]
FIG. 15 is a diagram illustrating a specific example of the process of S42.
第2モデル生成部114は、図15に示すように、例えば、学習用画像データを分割した複数の分割画像データのそれぞれに対応する複数の出力ニューロンNE21を有する第2モデルMD02を生成する。図15に示す例において、出力ニューロンNE21には、学習用画像データを分割した16個の分割画像データのそれぞれに対応する出力ニューロンNE21a、NE21b、NE21c、NE21d、NE21e、NE21f、NE21g、NE21h、NE21i、NE21j、NE21k、NE21l、NE21m、NE21n、NE21о及びNE21pのそれぞれが含まれている。
As shown in FIG. 15, the second
そして、例えば、図14で説明した第2学習データ132における「項番」が「3」である情報には、「画像データ」として「IMAGEb3」が設定され、「位置」、「幅」及び「高さ」として1つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb3」である画像データの分割画像データのうち、出力ニューロンNE21dに対応する分割画像データに対象物が含まれている場合において、名称が「IMAGEb3」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21dからの出力値と「1」との差、及び、出力ニューロンNE21d以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。
For example, for the information whose "item number" is "3" in the
また、例えば、図14で説明した第2学習データ132における「項番」が「2」である情報には、「画像データ」として「IMAGEb2」が設定され、「位置」、「幅」及び「高さ」として2つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb2」である画像データの分割画像データのうち、出力ニューロンNE21f及びNE21mに対応する分割画像データのそれぞれに対象物が含まれている場合において、名称が「IMAGEb2」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21f及びNE21mのそれぞれからの出力値と「1」との差、及び、これら以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。
Further, for example, for the information whose "item number" is "2" in the
[情報出力処理のメイン処理]
次に、情報出力処理のメイン処理について説明を行う。図9から図11は、情報出力処理のメイン処理を説明するフローチャート図である。
[Main processing of information output processing]
Next, the main processing of the information output processing will be explained. 9 to 11 are flowcharts illustrating the main processing of the information output processing.
情報処理装置1の結果取得部115は、図9に示すように、例えば、情報出力タイミングになるまで待機する(S51のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。
As shown in FIG. 9, the
そして、情報出力タイミングになった場合(S51のYES)、結果取得部115は、動画データ133を取得する(S52)。
Then, when the information output timing has come (S51: YES), the
続いて、結果取得部115は、S42の処理で生成した第2学習モデルを用いることによって、S52の処理で取得した動画データ133に含まれる複数の画像データごとに、各画像データに対象物が存在する確度を示す第2確度を取得する(S53)。以下、S53の処理の具体例について説明を行う。
Subsequently, by using the second learning model generated in the process of S42, the
[S53の処理の具体例]
図16は、S53の処理の具体例について説明する図である。
[Specific example of processing in S53]
FIG. 16 is a diagram illustrating a specific example of the process of S53.
結果取得部115は、図16に示すように、例えば、動画データ133に含まれる画像データIMAGEc1を第2学習モデルMD02に入力する。そして、結果取得部115は、例えば、画像データIMAGEc1の入力に伴って第2学習モデルMD02の出力ニューロンNE21のそれぞれから出力された値を取得する。
As shown in FIG. 16, the
その後、結果取得部115は、例えば、第2学習モデルMD02から取得された値のそれぞれから、画像データIMAGEc1に含まれる対象物の位置の特定を行う。具体的に、結果取得部115は、図16に示すように、例えば、画像データIMAGEc1に含まれる対象物を含む部分画像データとして、部分画像データIMAGEd1、部分画像データIMAGEd2及び部分画像データIMAGEd3のそれぞれの位置の特定を行う。
After that, the
また、結果取得部115は、例えば、特定した対象物ごとに、第2学習モデルMD02の出力ニューロンNE2のそれぞれから出力された値のうち、各対象物の位置に対応する値の最大値を第2確度として取得する。
Further, the
なお、画像データIMAGEc1に含まれる対象物の位置及び第2確度は、第2モデルMD02から出力されるものであってもよい。そして、結果取得部115は、この場合、第2モデルMD02から出力された各情報を取得するものであってもよい。
Note that the position of the object and the second accuracy included in the image data IMAGEc1 may be output from the second model MD02. In this case, the
図9に戻り、情報管理部112は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S53の処理で取得した第2確度を含む検出結果情報135を生成する(S54)。そして、情報管理部112は、生成した検出結果情報135を情報格納領域130に記憶する。以下、検出結果情報135の具体例について説明を行う。
Returning to FIG. 9, the
[検出結果情報の具体例]
図17は、検出結果情報135の具体例について説明する図である。
[Specific example of detection result information]
FIG. 17 is a diagram illustrating a specific example of the
図17に示す検出結果情報135は、検出結果情報135に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物に対応する第2確度を示す「第2確度」とを項目として有する。
The detection result
具体的に、図17に示す検出結果情報135において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定され、「第2確度」として「0.9」が設定されている。
Specifically, in the
また、図17に示す検出結果情報135において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定され、「第2確度」として「0.7」が設定されている。図17に含まれる他の情報についての説明は省略する。
In addition, in the
なお、検出結果情報135は、S53の処理で特定した部分画像データの位置を示す情報を含むものであってもよい。
Note that the
図9に戻り、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データから、各画像データに含まれる対象物を含む部分画像データを取得する(S55)。
Returning to FIG. 9, the
具体的に、情報管理部112は、例えば、S53の処理で特定した部分画像データの位置を参照することによって、S52の処理で取得した動画データ133に含まれる各画像データから部分画像データの取得を行う。
Specifically, the
なお、S53の処理で特定した部分画像データの位置を示す情報が検出結果情報135に含まれる場合、情報管理部112は、情報格納領域130に記憶された検出結果情報135を参照することによって、部分画像データの取得を行うものであってもよい。
Note that when the
そして、結果取得部115は、図10に示すように、S22の処理で生成した第1学習モデルを用いることによって、S55の処理で取得した部分画像データごとに、各部分画像データに含まれる対象物の種類の類別結果と、その類別結果の確度を示す第1確度とを取得する(S61)。以下、S61の処理の具体例について説明を行う。
Then, as shown in FIG. 10, by using the first learning model generated in the process of S22, the
[S61の処理の具体例]
図18は、S61の処理の具体例について説明する図である。
[Specific example of processing in S61]
FIG. 18 is a diagram illustrating a specific example of the process of S61.
結果取得部115は、図18に示すように、例えば、S55の処理で取得した部分画像データIMAGEd1を第1学習モデルMD01に入力する。そして、結果取得部115は、例えば、部分画像データIMAGEd1の入力に伴って第1学習モデルMD01の出力ニューロンNE11及び出力ニューロンNE12のそれぞれから出力された値と取得する。
As shown in FIG. 18, the
具体的に、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」である確度が「0.6」であり、「BBB」である確度が「0.3」であり、「CCC」である確度が「0.1」であることを示す情報を類別結果として取得する。
Specifically, as shown in FIG. 18, the
また、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類についての類別結果の第1確度として「0.9」を取得する。
Further, as shown in FIG. 18, the
図10に戻り、情報管理部112は、例えば、S55の処理で取得した部分画像データごとに、S61の処理で取得した類別結果と第1確度を含む類別結果情報134を生成する(S62)。そして、情報管理部112は、生成した類別結果情報134を情報格納領域130に記憶する。以下、類別結果情報134の具体例について説明を行う。
Returning to FIG. 10, the
[類別結果情報の具体例]
図19は、類別結果情報134の具体例について説明する図である。
[Specific example of classification result information]
FIG. 19 is a diagram illustrating a specific example of the
図19に示す類別結果情報134は、類別結果情報134に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物の種類の類別結果を示す「類別結果」と、各対象物の種類についての類別結果の第1確度を示す「第1確度」とを項目として有する。
The classification result
具体的に、図19に示す類別結果情報134において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定されている。また、図19に示す類別結果情報134において、「項番」が「1」である情報には、「類別結果」として、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.6」、「0.3」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「1」である情報には、「第1確度」として「0.8」が設定されている。
Specifically, in the
また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定されている。また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「類別結果」として、部分画像データIMAGEd2に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.2」、「0.7」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「2」である情報には、「第1確度」として「0.9」が設定されている。図19に含まれる他の情報についての説明は省略する。
Further, in the
図10に戻り、情報処理装置1の第2条件判定部117は、S55の処理で取得した部分画像データごとに、各部分画像データに対応する類別結果が第1条件を満たすか否か、及び、各部分画像データに対応する第1確度が第2条件を満たすか否かを判定する(S63)。
Returning to FIG. 10, the second
具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が第1閾値よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。
Specifically, for example, if the classification result indicates that each object has a predetermined attribute (for example, a warship), the first
そして、情報処理装置1の結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した類別結果が第1条件を満たすと判定した部分画像データのそれぞれに含まれる対象物と、S61の処理で取得した第1確度が第2条件を満たすと判定した部分画像データのそれぞれに含まれる対象物とについてのアラートを操作端末3に出力する(S64)。以下、S64の処理の具体例について説明を行う。
Then, the
[S64の処理の具体例]
図20は、S64の処理の具体例について説明する図である。
[Specific example of processing in S64]
FIG. 20 is a diagram illustrating a specific example of the process of S64.
図20に示す情報のうちの「項番」が「1」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。また、図20に示す情報のうちの「項番」が「3」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。さらに、図20に示す情報のうちの「項番」が「4」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われることを示している。 Among the information shown in FIG. 20, for the information whose "item number" is "1", if the first accuracy is higher than the first threshold and the object requires monitoring, an alert is output. It is shown that. In addition, for the information whose "item number" is "3" among the information shown in FIG. 20, if the first accuracy is lower than the first threshold and the object requires monitoring, the alert output is indicates that it will be done. Furthermore, among the information shown in FIG. 20, the information whose "item number" is "4" does not output an alert if the first accuracy is lower than the first threshold and the object does not require monitoring. This indicates that the
一方、図20に示す情報のうちの「項番」が「2」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われないことを示している。 On the other hand, for the information whose "item number" is "2" among the information shown in FIG. 20, if the first accuracy is higher than the first threshold and the object does not require monitoring, an alert will not be output. It shows that it will not happen.
すなわち、第1確度が高く、かつ、監視を要しない種類の対象物は、作業者が検知を行う必要がない対象物(作業者が対処を行う必要がない対象物)である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が高く、かつ、監視を要しない種類の対象物を検出した場合、作業者に対する通知(アラートの出力)を行わない。
In other words, there is a strong possibility that a type of object that has a high first accuracy and does not require monitoring is an object that does not require a worker to detect (an object that does not require a worker to take action). It can be judged that it is high. Therefore, when the
これにより、情報処理装置1は、例えば、海上における対象物の監視に伴う作業の作業負担を軽減させることが可能になる。
This makes it possible for the
また、情報処理装置1の第1条件判定部116は、図11に示すように、S55の処理で取得した部分画像データごとに、各部分画像データに対応する第1確度が第2条件を満たすか否か、及び、各部分画像データに対応する第2確度が第3条件を満たすか否かを判定する(S71)。
Further, as shown in FIG. 11, the first
具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が第2閾値よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。
Specifically, the second
そして、結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した第1確度が第2条件を満たさず、かつ、S53の処理で取得した第2確度が第3条件を満たす部分画像データに含まれる対象物が未学習であることを示す情報を出力する(S72)。以下、S72の処理の具体例について説明を行う。
Then, the
[S72の処理の具体例]
図21は、S72の処理の具体例について説明する図である。図21に示すグラフでは、横軸が第1確度に対応し、縦軸が第2確度に対応する。
[Specific example of processing in S72]
FIG. 21 is a diagram illustrating a specific example of the process of S72. In the graph shown in FIG. 21, the horizontal axis corresponds to the first accuracy, and the vertical axis corresponds to the second accuracy.
図21に示すグラフは、例えば、第1確度が第1閾値を上回る対象物が第1学習モデル及び第2学習モデルにおいて既に学習済の対象物であると判定されることを示している。 The graph shown in FIG. 21 shows that, for example, an object whose first accuracy exceeds the first threshold is determined to be an object that has already been learned in the first learning model and the second learning model.
また、図21に示すグラフは、例えば、第1確度が第1閾値を下回る対象物が第1学習モデル及び第2学習モデルにおいて未学習である可能性がある対象物であると判定されることを示している。 Further, the graph shown in FIG. 21 shows that, for example, an object whose first accuracy is less than the first threshold is determined to be an object that may not have been learned in the first learning model and the second learning model. It shows.
さらに、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を下回る対象物が、学習済の対象物であるが動画データ133に含まれるノイズ等の影響によって種類の判断が困難な対象物であると判定されることを示している。また、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を上回る対象物が、未学習の対象物であると判定されることを示している。
Furthermore, the graph shown in FIG. 21 shows that an object whose first accuracy is less than the first threshold and whose second threshold is less than the second threshold is a learned object, but noise contained in the
すなわち、第1確度が低く、かつ、第2確度が高い対象物は、第1学習モデル及び第2学習モデルにおいてまで学習されていない対象物である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が低く、かつ、第2確度が高い対象物が存在する場合、その対象物を未学習の対象物として特定する。
In other words, it can be determined that an object for which the first accuracy is low and the second accuracy is high is extremely likely to be an object that has not been learned in the first learning model and the second learning model. Therefore, when there is an object for which the first accuracy is low and the second accuracy is high, the
これにより、情報処理装置1は、第1確度が低い対象物のそれぞれを、学習済の対象物と未学習の対象物とのいずれかに分類することが可能になる。そして、作業者は、例えば、未学習の対象物として特定した対象物のみを第1学習モデル及び第2学習モデルに学習させることで、各学習モデルの精度を高めることが可能になる。
This makes it possible for the
このように、本実施の形態における情報処理装置1は、第1学習モデルを用いることによって、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の第1確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。
In this way, the
すなわち、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類(例えば、予め定められた監視対象の種類)に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値(例えば、予め定められた閾値)よりも高い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要がないと判断する。一方、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。
That is, for example, if the type corresponding to the classification result output by the first learning model is not included in the types of monitoring targets (for example, a predetermined type of monitoring target), the first learning model If there is an object for which the accuracy of the classification result outputted by is higher than a predetermined threshold (for example, a predetermined threshold), the
これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による監視を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
As a result, the
以上の実施の形態をまとめると、以下の付記のとおりである。 The above embodiments can be summarized as follows.
(付記1)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Additional note 1)
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
For each object included in the plurality of images, it is determined whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object,
Outputting information indicating that the object that is determined to satisfy the predetermined condition among the objects included in the plurality of images is a monitoring target;
An information output program characterized by causing a computer to execute processing.
(付記2)
付記1において、さらに、
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Additional note 2)
In
Before the process of acquiring the classification result and the first accuracy, a plurality of first learning images each including a learning image including a target object and information indicating a candidate type of the target object included in the learning image are performed. generating the first learning model by performing data learning;
An information output program characterized by causing a computer to execute processing.
(付記3)
付記1において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。
(Additional note 3)
In
In the process of performing the determination, for each target object included in the plurality of images, it is determined whether the classification result corresponding to each target object satisfies a first condition, and the first accuracy corresponding to each target object. Determine whether or not satisfies the second condition,
In the outputting process, among the objects included in the plurality of images, the classification result determines that the classification result satisfies the first condition, and the first accuracy determines that the object satisfies the second condition. Output alerts about and,
An information output program characterized by:
(付記4)
付記3において、
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Additional note 4)
In
In the determination process, if the classification result indicates that each object has a predetermined attribute, the classification result corresponding to each object satisfies the first condition. judge,
An information output program characterized by:
(付記5)
付記3において、
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 5)
In
In the process of performing the determination, if the first accuracy corresponding to each target object is larger than a first threshold value, it is determined that the first accuracy corresponding to each target object satisfies the second condition.
An information output program characterized by:
(付記6)
付記3において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力プログラム。
(Appendix 6)
In
obtaining a second accuracy indicating the probability that the object exists in each of the plurality of images by using a second learning model that has learned position information of the object in the image;
Let the computer carry out the process,
In the process of performing the determination, it is determined for each target object included in the plurality of images whether the first accuracy corresponding to each target object satisfies the second condition, and determining whether the second accuracy satisfies a third condition;
In the outputting process, among the objects included in the plurality of images, an object whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition is unlearned. Output information indicating that there is a
An information output program characterized by:
(付記7)
付記6において、さらに、
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 7)
In
Before the process of acquiring the second accuracy, learning a plurality of second learning data each including a learning image including a target object and position information of the target in the learning image, thereby obtaining the second accuracy. 2 Generate a learning model,
An information output program characterized by causing a computer to execute processing.
(付記8)
付記6において、
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 8)
In
In the process of performing the determination, if the second accuracy corresponding to each target object is larger than a second threshold, it is determined that the second accuracy corresponding to each target object satisfies the third condition.
An information output program characterized by:
(付記9)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 9)
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
By using a second learning model that has learned position information of the target object in the image, a second accuracy indicating the probability that the target object exists in each of the plurality of images is obtained;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies the other conditions. Determine whether it satisfies or not,
Among the objects included in the plurality of images, information indicating that an object for which the first accuracy does not satisfy the condition and whose second accuracy satisfies the other condition is unlearned. ,
An information output program characterized by causing a computer to execute processing.
(付記10)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う第1条件判定部と、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する結果出力部と、を有する、
ことを特徴とする情報出力装置。
(Appendix 10)
an information acquisition unit that acquires moving images;
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. a result acquisition unit that acquires a classification result for each type and a first accuracy indicating the accuracy of the classification result;
a first condition for determining whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object for each object included in the plurality of images; A determination section;
a result output unit that outputs information indicating that an object that is determined to satisfy the predetermined condition among the objects included in the plurality of images is a monitoring target;
An information output device characterized by:
(付記11)
付記10において、
前記第1条件判定部は、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力装置。
(Appendix 11)
In
The first condition determining unit determines, for each object included in the plurality of images, whether or not the classification result corresponding to each object satisfies a first condition, and whether or not the classification result corresponding to each object satisfies the first condition. Determine whether the accuracy satisfies the second condition,
The result output unit selects, among the objects included in the plurality of images, an object for which the classification result has determined to satisfy the first condition and an object for which the first accuracy has determined to satisfy the second condition. Output alerts about and,
An information output device characterized by:
(付記12)
付記11において、
前記結果取得部は、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、さらに、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定する第2条件判定部を有し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力装置。
(Appendix 12)
In Appendix 11,
The result acquisition unit acquires a second probability indicating the probability that the target object exists in each of the plurality of images by using a second learning model that has learned position information of the target object in the image, and further,
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies the second condition, and the second accuracy corresponding to each object is determined to be a second condition determination unit that determines whether the three conditions are satisfied;
The result output unit determines that, among the objects included in the plurality of images, an object for which the first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition is unlearned. Output information indicating that there is a
An information output device characterized by:
(付記13)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。
(Appendix 13)
an information acquisition unit that acquires moving images;
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, By obtaining the classification results for each type and the first accuracy indicating the accuracy of the classification results, and further using a second learning model that has learned the position information of the object in the images, a result acquisition unit that acquires a second accuracy indicating the accuracy that the target object exists in each case;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies the other conditions. a second condition determination unit that determines whether or not the condition is satisfied;
Among the objects included in the plurality of images, information indicating that an object for which the first accuracy does not satisfy the condition and whose second accuracy satisfies the other condition is unlearned. having a result acquisition section;
An information output device characterized by:
(付記14)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
(Appendix 14)
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
For each object included in the plurality of images, it is determined whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object,
Outputting information indicating that the object that is determined to satisfy the predetermined condition among the objects included in the plurality of images is a monitoring target;
An information output method characterized by causing a computer to perform processing.
(付記15)
付記14において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力方法。
(Appendix 15)
In Appendix 14,
In the process of performing the determination, for each target object included in the plurality of images, it is determined whether the classification result corresponding to each target object satisfies a first condition, and the first accuracy corresponding to each target object. Determine whether or not satisfies the second condition,
In the outputting process, among the objects included in the plurality of images, the classification result determines that the classification result satisfies the first condition, and the first accuracy determines that the object satisfies the second condition. Output alerts about and,
An information output method characterized by:
(付記16)
付記15において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力方法。
(Appendix 16)
In addition 15, further,
obtaining a second accuracy indicating the probability that the object exists in each of the plurality of images by using a second learning model that has learned position information of the object in the image;
Let the computer carry out the process,
In the process of performing the determination, it is determined for each target object included in the plurality of images whether the first accuracy corresponding to each target object satisfies the second condition, and determining whether the second accuracy satisfies a third condition;
In the outputting process, among the objects included in the plurality of images, objects for which the first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that there is a
An information output method characterized by:
(付記17)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
(Appendix 17)
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
By using a second learning model that has learned position information of the target object in the image, a second accuracy indicating the probability that the target object exists in each of the plurality of images is obtained;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies the other conditions. Determine whether it satisfies or not,
Outputting information indicating that, among the objects included in the plurality of images, an object whose first accuracy does not satisfy the condition and whose second accuracy satisfies the other condition has not been learned. ,
An information output method characterized by causing a computer to perform processing.
1:情報処理装置 3:操作端末
10:情報処理システム NW:ネットワーク
1: Information processing device 3: Operation terminal 10: Information processing system NW: Network
Claims (10)
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、By using a second learning model that has learned position information of the target object in the image, a second accuracy indicating the probability that the target object exists in each of the plurality of images is obtained;
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies a second condition, and the second accuracy corresponding to each object satisfies a third condition. Determine whether the conditions are met,
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、Information indicating that among the objects included in the plurality of images, an object for which the first accuracy does not satisfy the second condition and for which the second accuracy satisfies the third condition has not been learned. Output,
処理をコンピュータに実行させることを特徴とする情報出力プログラム。An information output program characterized by causing a computer to execute processing.
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。 In claim 1,
For each object included in the plurality of images, it is determined whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object,
Outputting information indicating that the object that is determined to satisfy the predetermined condition among the objects included in the plurality of images is a monitoring target;
An information output program characterized by causing a computer to execute processing.
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。 In claim 2 , further:
Before the process of acquiring the classification result and the first accuracy, a plurality of first learning images each including a learning image including a target object and information indicating a candidate type of the target object included in the learning image are performed. generating the first learning model by performing data learning;
An information output program characterized by causing a computer to execute processing.
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。 In claim 2 ,
In the process of performing the determination, for each target object included in the plurality of images, it is determined whether the classification result corresponding to each target object satisfies a first condition, and the first accuracy corresponding to each target object. Determine whether or not satisfies the second condition,
In the outputting process, among the objects included in the plurality of images, the classification result determines that the classification result satisfies the first condition, and the first accuracy determines that the object satisfies the second condition. Output alerts about and,
An information output program characterized by:
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。 In claim 4 ,
In the determination process, if the classification result indicates that each object has a predetermined attribute, the classification result corresponding to each object satisfies the first condition. judge,
An information output program characterized by:
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。 In claim 4 ,
In the process of performing the determination, if the first accuracy corresponding to each target object is larger than a first threshold value, it is determined that the first accuracy corresponding to each target object satisfies the second condition.
An information output program characterized by:
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。 In claim 1 , further:
Before the process of acquiring the second accuracy, learning a plurality of second learning data each including a learning image including a target object and position information of the target in the learning image, thereby obtaining the second accuracy. 2 Generate a learning model,
An information output program characterized by causing a computer to execute processing.
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。 In claim 1 ,
In the process of performing the determination, if the second accuracy corresponding to each target object is larger than a second threshold, it is determined that the second accuracy corresponding to each target object satisfies the third condition.
An information output program characterized by:
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。 an information acquisition unit that acquires moving images;
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. By acquiring the classification results for each type and the first accuracy indicating the accuracy of the classification results, and further using a second learning model that has learned the position information of the object in the images, a result acquisition unit that acquires a second accuracy indicating the accuracy that the target object exists in each case;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies a second condition, and the second accuracy corresponding to each object satisfies a third condition. a second condition determination unit that determines whether the condition is satisfied;
Information indicating that among the objects included in the plurality of images, an object for which the first accuracy does not satisfy the second condition and for which the second accuracy satisfies the third condition has not been learned. It has a result acquisition unit that outputs.
An information output device characterized by:
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。 Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
By using a second learning model that has learned position information of the target object in the image, a second accuracy indicating the probability that the target object exists in each of the plurality of images is obtained;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies a second condition, and the second accuracy corresponding to each object satisfies a third condition. Determine whether the conditions are met,
Information indicating that among the objects included in the plurality of images, an object for which the first accuracy does not satisfy the second condition and for which the second accuracy satisfies the third condition has not been learned. Output,
An information output method characterized by causing a computer to perform processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020000996A JP7436801B2 (en) | 2020-01-07 | 2020-01-07 | Information output program, information output device, and information output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020000996A JP7436801B2 (en) | 2020-01-07 | 2020-01-07 | Information output program, information output device, and information output method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111027A JP2021111027A (en) | 2021-08-02 |
JP7436801B2 true JP7436801B2 (en) | 2024-02-22 |
Family
ID=77059894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020000996A Active JP7436801B2 (en) | 2020-01-07 | 2020-01-07 | Information output program, information output device, and information output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7436801B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016076073A (en) | 2014-10-06 | 2016-05-12 | 日本電気株式会社 | Data processing device, data processing method, and computer program |
JP2018152106A (en) | 2018-05-02 | 2018-09-27 | 株式会社日立国際電気 | System for detecting invasion on water and method for the same |
JP2019021313A (en) | 2017-07-14 | 2019-02-07 | シナプス テクノロジー コーポレイション | Detection of items |
-
2020
- 2020-01-07 JP JP2020000996A patent/JP7436801B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016076073A (en) | 2014-10-06 | 2016-05-12 | 日本電気株式会社 | Data processing device, data processing method, and computer program |
JP2019021313A (en) | 2017-07-14 | 2019-02-07 | シナプス テクノロジー コーポレイション | Detection of items |
JP2018152106A (en) | 2018-05-02 | 2018-09-27 | 株式会社日立国際電気 | System for detecting invasion on water and method for the same |
Also Published As
Publication number | Publication date |
---|---|
JP2021111027A (en) | 2021-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101910542B1 (en) | Image Analysis Method and Server Apparatus for Detecting Object | |
JP6036824B2 (en) | Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program | |
JP5701005B2 (en) | Object detection apparatus, object detection method, surveillance camera system, and program | |
US20150310297A1 (en) | Systems and methods for computer vision background estimation using foreground-aware statistical models | |
KR102002812B1 (en) | Image Analysis Method and Server Apparatus for Detecting Object | |
JP2008234551A (en) | Abnormality detection apparatus and abnormality detection program | |
KR100982347B1 (en) | smoke sensing method and system | |
EP3151160B1 (en) | Visual attention detector and visual attention detection method | |
JP2016085487A (en) | Information processing device, information processing method and computer program | |
WO2013005815A1 (en) | Object detection device, object detection method, and program | |
US20220245405A1 (en) | Deterioration suppression program, deterioration suppression method, and non-transitory computer-readable storage medium | |
US20200250471A1 (en) | Information processing apparatus, information processing method, and medium | |
US8923552B2 (en) | Object detection apparatus and object detection method | |
JP2018205900A (en) | Monitoring system and monitoring method | |
JP2018026115A (en) | Flame detection method, flame detector, and electronic apparatus | |
KR101454644B1 (en) | Loitering Detection Using a Pedestrian Tracker | |
JP5155110B2 (en) | Monitoring device | |
JP7436801B2 (en) | Information output program, information output device, and information output method | |
JP2020160804A (en) | Information processing device, program, and information processing method | |
US11521392B2 (en) | Image processing apparatus and image processing method for image analysis process | |
JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program | |
US11887331B2 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
CN111784750A (en) | Method, device and equipment for tracking moving object in video image and storage medium | |
JP7243372B2 (en) | Object tracking device and object tracking method | |
JP2019028577A (en) | Device, method and program for determining animal species |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7436801 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |