JP2021111027A - Information output program, information output device and information output method - Google Patents
Information output program, information output device and information output method Download PDFInfo
- Publication number
- JP2021111027A JP2021111027A JP2020000996A JP2020000996A JP2021111027A JP 2021111027 A JP2021111027 A JP 2021111027A JP 2020000996 A JP2020000996 A JP 2020000996A JP 2020000996 A JP2020000996 A JP 2020000996A JP 2021111027 A JP2021111027 A JP 2021111027A
- Authority
- JP
- Japan
- Prior art keywords
- accuracy
- information
- images
- condition
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 230000013016 learning Effects 0.000 claims abstract description 166
- 238000012544 monitoring process Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims description 47
- 238000012549 training Methods 0.000 claims description 5
- 230000010365 information processing Effects 0.000 description 56
- 210000004205 output neuron Anatomy 0.000 description 37
- 238000010586 diagram Methods 0.000 description 25
- 238000001514 detection method Methods 0.000 description 19
- 238000007726 management method Methods 0.000 description 13
- 238000013500 data storage Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 210000002364 input neuron Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報出力プログラム、情報出力装置及び情報出力方法に関する。 The present invention relates to an information output program, an information output device, and an information output method.
例えば、海上哨戒や沿岸監視等の分野では、監視領域において撮影された動画像の内容を作業者が確認することにより、動画像に映る対象物(例えば、不審船等)の検出や種類の特定等を行う。具体的に、作業者は、例えば、撮影された動画像において複数の対象物を検出した場合、それぞれの対象物についての種類の特定等を目視によって行う(例えば、特許文献1参照)。 For example, in fields such as maritime patrols and coastal surveillance, workers can check the contents of moving images taken in the monitoring area to detect objects (for example, suspicious ships) and identify the types of objects reflected in the moving images. And so on. Specifically, for example, when a plurality of objects are detected in a captured moving image, the operator visually identifies the type of each object (see, for example, Patent Document 1).
しかしながら、検出された対象物の全てを監視対象として出力してしまうと、動画像に映る対象物の監視を効率的に行うことができないといった問題がある。 However, if all the detected objects are output as monitoring targets, there is a problem that the objects displayed in the moving image cannot be efficiently monitored.
そこで、一つの側面では、本発明は、動画像に映る対象物の監視を効率的に行うことを可能とする情報出力プログラム、情報出力装置及び情報出力方法を提供することを目的とする。 Therefore, in one aspect, it is an object of the present invention to provide an information output program, an information output device, and an information output method that enable efficient monitoring of an object displayed in a moving image.
実施の形態の一態様では、動画像を取得し、画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。 In one aspect of the embodiment, the first learning model is used by acquiring a moving image and learning the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate. The categorization result for each type of the object included in the plurality of images constituting the moving image and the first accuracy indicating the accuracy of the categorization result are acquired, and for each object included in the plurality of images, Based on the categorization result corresponding to each object and the first accuracy, it is determined whether or not each object satisfies a predetermined condition, and among the objects included in the plurality of images, the predetermined object is determined. Outputs information indicating that the object determined to satisfy the condition of is the monitoring target.
一つの側面によれば、動画に映る対象物の監視を効率的に行うことを可能とする。 According to one aspect, it is possible to efficiently monitor the object shown in the moving image.
[情報処理システムの構成]
初めに、情報処理システム10の構成について説明を行う。図1は、情報処理システム10の構成について説明する図である。
[Information processing system configuration]
First, the configuration of the
図1に示す情報処理システム10は、情報処理装置1と、操作端末3とを有する。操作端末3は、例えば、作業者が必要な情報の入力等を行うPC(Personal Computer)であって、インターネット等のネットワークNWを介して情報処理装置1とアクセスが可能である。
The
情報処理装置1は、例えば、監視領域において撮影された動画像(以下、動画データとも呼ぶ)を構成する各画像(以下、画像データとも呼ぶ)に含まれる対象物の種類の候補(以下、種類候補とも呼ぶ)と、その種類候補が対象物の種類として正解である確度(例えば、確率)とを学習した学習モデル(以下、第1学習モデルとも呼ぶ)を用いることにより、各画像データに含まれる対象物のうち、作業者が目視で確認を行う必要がある対象物の特定を行う。
The
具体的に、情報処理装置1は、例えば、第1学習モデルを用いることによって、複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。
Specifically, the
すなわち、従来では、例えば、対象物の検出等を行う必要がある動画像が頻繁に発生する場合、対象物の検出等に伴う作業者の負担が増大する可能性があった。また、例えば、確認を行う必要がある対象物の数が今後さらに増大する場合、必要な数の作業者の確保が将来的に困難になる可能性がある。 That is, in the past, for example, when moving images that require detection of an object or the like frequently occur, there is a possibility that the burden on the operator due to the detection of the object or the like will increase. Further, for example, if the number of objects that need to be confirmed increases further in the future, it may become difficult to secure the required number of workers in the future.
そこで、本実施の形態における情報処理装置1は、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも高い対象物が存在する場合、存在した対象物についての監視を行う必要がないと判断する。また、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。
Therefore, the
そして、情報処理装置1は、例えば、監視を行う必要があると判断した対象物についての情報のみを操作端末3に出力する。その後、作業者は、例えば、操作端末3に情報が出力された対象物についての種類の特定等を目視によって行う。
Then, the
これにより、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
As a result, the
[情報処理システムのハードウエア構成]
次に、情報処理システム10のハードウエア構成について説明する。図2は、情報処理装置1のハードウエア構成を説明する図である。
[Hardware configuration of information processing system]
Next, the hardware configuration of the
情報処理装置1は、図2に示すように、プロセッサであるCPU101と、メモリ102と、通信装置103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
As shown in FIG. 2, the
記憶媒体104は、例えば、作業者が監視を行う必要がある対象物を示す情報を出力する処理(以下、情報出力処理とも呼ぶ)を行うためのプログラム110を記憶するプログラム格納領域(図示しない)を有する。また、記憶媒体104は、例えば、情報出力処理を行う際に用いられる情報を記憶する記憶部130(以下、情報格納領域130とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
The
CPU101は、記憶媒体104からメモリ102にロードされたプログラム110を実行して情報出力処理を行う。
The
また、通信装置103は、例えば、ネットワークNWを介して操作端末3との通信を行う。
Further, the
[情報処理システムの機能]
次に、情報処理システム10の機能について説明を行う。図3は、情報処理装置1の機能のブロック図である。
[Information processing system functions]
Next, the function of the
情報処理装置1は、図3に示すように、例えば、CPU101やメモリ102等のハードウエアとプログラム110とが有機的に協働することにより、情報受信部111(以下、情報取得部111とも呼ぶ)と、情報管理部112と、第1モデル生成部113と、第2モデル生成部114と、結果取得部115と、第1条件判定部116と、第2条件判定部117と、結果出力部118と、を含む各種機能を実現する。
As shown in FIG. 3, the
また、情報処理装置1は、例えば、図3に示すように、第1学習データ131と、第2学習データ132と、動画データ133と、類別結果情報134と、検出結果情報135とを情報格納領域130に記憶する。
Further, as shown in FIG. 3, the
情報受信部111は、例えば、作業者が操作端末3を介して入力した各種情報を受信する。具体的に、情報受信部111は、例えば、第1学習モデルの生成に用いられる第1学習データ131を受信する。第1学習データ131は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の種類を示す情報とをそれぞれ含む学習データである。
The
また、情報受信部111は、例えば、第2学習モデルの生成に用いられる第2学習データ132を受信する。第2学習データ132は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の位置情報とをそれぞれ含む学習データである。
Further, the
さらに、情報受信部111は、例えば、海上における対象物の撮影を行うカメラ等の撮影装置(図示しない)によって取得された動画データ133を受信する。そして、情報管理部112は、例えば、情報受信部111が受信した第1学習データ131、第2学習データ132及び動画データ133を情報格納領域130に記憶する。
Further, the
なお、情報受信部111は、例えば、操作端末3に対して自発的にアクセスを行うことによって、操作端末3の情報格納領域(図示しない)に記憶された各種情報を取得するものであってもよい。また、情報受信部111は、例えば、撮像装置に対して自発的にアクセスを行うことにより、撮像装置の情報格納領域(図示しない)に記憶された動画データ133を取得するものであってもよい。
The
第1モデル生成部113は、情報格納領域130に記憶された第1学習データ131の学習を行うことによって、第1学習モデルを生成する。
The first
第2モデル生成部114は、情報格納領域130に記憶された第2学習データ132の学習を行うことによって、第2学習モデルを生成する。
The second
結果取得部115は、情報格納領域130に記憶された動画データ133を取得する。そして、結果取得部115は、第2モデル生成部114が生成した第2学習モデルを用いることによって、動画データ133を構成する複数の画像データのそれぞれに対象物が存在する確度を示す確度(以下、第2確度とも呼ぶ)を取得する。具体的に、結果取得部115は、第2学習モデルに対する複数の画像データの入力に伴って出力される第2確度を取得する。その後、情報管理部112は、例えば、結果取得部115が取得した第2確度を示す検出結果情報135を生成して情報格納領域130に記憶する。
The
また、結果取得部115は、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれについての複数の部分画像データを取得する。具体的に、結果取得部115は、例えば、情報格納領域130に記憶された検出結果情報135を参照することにより、動画データ133を構成する複数の画像データから複数の部分画像データを取得(抽出)する。そして、結果取得部115は、第1モデル生成部113が生成した第1学習モデルを用いることによって、複数の部分画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度(以下、第1確度とも呼ぶ)とを取得する。具体的に、結果取得部115は、第1学習モデルに対する複数の画像データの入力に伴って出力される類別結果と第1確度とを取得する。その後、情報管理部112は、例えば、結果取得部115が取得した類別結果と第1確度とを示す類別結果情報134を生成して情報格納領域130に記憶する。
In addition, the
第1条件判定部116は、例えば、情報格納領域130に記憶された類別結果情報134を参照し、複数の部分画像データごとに、各対象物に対応する類別結果が第1条件を満たすか否か、及び、各対象物に対応する第1確度が第2条件を満たすか否かを判定する。具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が閾値(以下、第1閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。
The first
第2条件判定部117は、例えば、情報格納領域130に記憶された類別結果情報134及び検出結果情報135を参照し、複数の部分画像データごとに、各対象物に対応する第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する第2確度が第3条件を満たすか否かを判定する。具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が閾値(以下、第2閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。
The second
結果出力部118は、複数の部分画像データに含まれる各対象物のうち、類別結果が第1条件を満たすと判定した対象物と、第1確度が第2条件を満たすと判定した対象物とを示す情報(例えば、アラート)を出力する。
The
また、結果出力部118は、複数の部分画像データに含まれる各対象物のうち、第1確度が第2条件を満たし、かつ、第2確度が第3条件を満たす対象物が未学習であることを示す情報を出力する。
Further, in the
[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明する。図4は、第1の実施の形態における情報出力処理の概略を説明するフローチャート図である。
[Outline of the first embodiment]
Next, the outline of the first embodiment will be described. FIG. 4 is a flowchart illustrating an outline of the information output process according to the first embodiment.
情報処理装置1は、図4に示すように、情報出力タイミングになるまで待機する(S1のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。
As shown in FIG. 4, the
そして、情報出力タイミングになった場合(S1のYES)、情報処理装置1は、動画データ133を取得する(S2)。具体的に、情報処理装置1は、例えば、情報格納領域130に記憶された動画データ133を取得する。また、情報処理装置1は、例えば、外部の記憶装置(図示しない)に記憶された動画データ133を取得する。
Then, when the information output timing is reached (YES in S1), the
続いて、情報処理装置1は、画像データに含まれる対象物の種類候補と、その種類候補が対象物の種類として正解である確度とを学習した第1学習モデルを用いることによって、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度を示す第1確度とを取得する(S3)。
Subsequently, the
次に、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物ごとに、S3の処理で取得した類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う(S4)。
Next, the
その後、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のうち、S4の処理において所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する(S5)。
After that, the
これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による確認を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
As a result, the
[第1の実施の形態の詳細]
次に、第1の実施の形態の詳細について説明する。図5から図11は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。また、図12から図21は、第1の実施の形態における情報出力処理の詳細を説明する図である。
[Details of the first embodiment]
Next, the details of the first embodiment will be described. 5 to 11 are flowcharts illustrating the details of the information output processing according to the first embodiment. Further, FIGS. 12 to 21 are diagrams for explaining the details of the information output processing in the first embodiment.
[第1学習データ記憶処理]
初めに、情報出力処理のうち、第1学習データ131の記憶を行う処理(以下、第1学習データ記憶処理とも呼ぶ)について説明を行う。図5は、第1学習データ記憶処理を説明するフローチャート図である。
[1st learning data storage processing]
First, among the information output processes, a process of storing the first learning data 131 (hereinafter, also referred to as a first learning data storage process) will be described. FIG. 5 is a flowchart illustrating the first learning data storage process.
情報処理装置1の情報受信部111は、図5に示すように、例えば、操作端末3から送信された複数の第1学習データ131を受信するまで待機する(S11のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第1学習データ131が操作端末3を介して送信されるまで待機する。
As shown in FIG. 5, the
そして、複数の第1学習データ131を受信した場合(S11のYES)、情報処理装置1の情報管理部112は、S11の処理で受信した複数の第1学習データ131を情報格納領域130に記憶する(S12)。以下、第1学習データ131の具体例について説明を行う。
When a plurality of first learning data 131s are received (YES in S11), the
[第1学習データの具体例]
図12は、第1学習データ131の具体例について説明する図である。
[Specific example of the first training data]
FIG. 12 is a diagram illustrating a specific example of the
図12に示す第1学習データ131は、第1学習データ131のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物の種類(正解の種類)を示す「種類」とを含む。なお、以下、「種類」には、「AAA」、「BBB」及び「CCC」のうちのいずれかが設定されるものとして説明を行う。
The
具体的に、図12における「項番」が「1」である第1学習データ131は、名称が「IMAGEa1」である学習用画像データを含み、かつ、「種類」が「AAA」である学習データである。
Specifically, the
また、図12における「項番」が「2」である第1学習データ131は、名称が「IMAGEa2」である学習用画像データを含み、かつ、「種類」が「BBB」である学習データである。図12に含まれる他の第1学習データ131については説明を省略する。
Further, the
[第1モデル生成処理]
次に、情報出力処理のうち、第1モデルの生成を行う処理(以下、第1モデル生成処理とも呼ぶ)について説明を行う。図6は、第1モデル生成処理を説明するフローチャート図である。
[First model generation process]
Next, among the information output processes, a process for generating the first model (hereinafter, also referred to as a first model generation process) will be described. FIG. 6 is a flowchart illustrating the first model generation process.
情報処理装置1の第1モデル生成部113は、図6に示すように、例えば、第1モデル生成タイミングになるまで待機する(S21のNO)。第1モデル生成タイミングは、例えば、作業者が第1モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。
As shown in FIG. 6, the first
そして、第1モデル生成タイミングになった場合(S21のYES)、第1モデル生成部113は、情報格納領域130に記憶された複数の第1学習データ131の学習を行うことにより、第1学習モデルを生成する(S22)。以下、S22の処理の具体例について説明を行う。
Then, when the first model generation timing is reached (YES in S21), the first
[S22の処理の具体例]
図13は、S22の処理の具体例について説明を行う。
[Specific example of processing of S22]
FIG. 13 describes a specific example of the process of S22.
第1モデル生成部113は、図13に示すように、例えば、対象物の種類候補のそれぞれに対応する複数の出力ニューロン(以下、第1出力ニューロンとも呼ぶ)NE11と、第1確度に対応する1の出力ニューロン(以下、第2出力ニューロンとも呼ぶ)NE12とを有する第1モデルMD01を生成する。図13に示す例において、第1出力ニューロンNE11には、種類候補である「AAA」、「BBB」及び「CCC」のそれぞれに対応する第1出力ニューロンNE11a、NE11b及びNE11cが含まれている。
As shown in FIG. 13, the first
そして、例えば、図12で説明した第1学習データ131における「項番」が「1」である情報には、「画像データ」として「IMAGEa1」が設定され、「種類」として「AAA」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa1」である画像データの特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「AAA」に対応する正解値(「1」、「0」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「1」との差、第1出力ニューロンNE11bから出力される値と「0」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
Then, for example, "IMAGEa1" is set as the "image data" and "AAA" is set as the "type" for the information in which the "item number" is "1" in the
また、例えば、図12で説明した第1学習データ131における「項番」が「2」である情報には、「画像データ」として「IMAGEa2」が設定され、「種類」として「BBB」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa2」である画像データまたはその特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「BBB」に対応する正解値(「0」、「1」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「0」との差、第1出力ニューロンNE11bから出力される値と「1」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
Further, for example, in the information in which the "item number" is "2" in the
なお、第1モデル生成部113は、第1出力ニューロンNE11からの出力値と正解値との比較を行う前に、第1出力ニューロンNE11からの出力値を第2出力ニューロンNE12からの出力値によって補正を行うものであってもよい。
The first
具体的に、第1モデル生成部113は、この場合、第2出力ニューロンNE12からの出力値が「0」に近いほど、第1出力ニューロンNE11からの出力値が正解値に近づくように補正を行う。一方、第1モデル生成部113は、第2出力ニューロンNE12からの出力値が「1」に近いほど、第1出力ニューロンNE11からの出力値の補正幅を小さくする。また、第1モデル生成部113は、この場合、第1出力ニューロンNE11からの出力値の補正幅が大きいほど大きい値のペナルティ値を設定する。そして、第1モデル生成部113は、第1出力ニューロンNE11からの出力値(補正後の値)と正解値との差及びペナルティ値の両方が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。
Specifically, in this case, the first
[第2学習データ記憶処理]
次に、情報出力処理のうち、第2学習データ132の記憶を行う処理(以下、第2学習データ記憶処理とも呼ぶ)について説明を行う。図7は、第2学習データ記憶処理を説明するフローチャート図である。
[Second learning data storage processing]
Next, among the information output processes, a process of storing the second learning data 132 (hereinafter, also referred to as a second learning data storage process) will be described. FIG. 7 is a flowchart illustrating the second learning data storage process.
情報受信部111は、図7に示すように、例えば、操作端末3から送信された複数の第2学習データ132を受信するまで待機する(S31のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第2学習データ132が操作端末3を介して送信されるまで待機する。
As shown in FIG. 7, the
そして、複数の第1学習データ131を受信した場合(S31のYES)、情報管理部112は、S31の処理で受信した複数の第2学習データ132を情報格納領域130に記憶する(S32)。以下、第2学習データ132の具体例について説明を行う。
Then, when a plurality of first learning data 131s are received (YES in S31), the
[第2学習データの具体例]
図14は、第2学習データ132の具体例について説明する図である。
[Specific example of the second learning data]
FIG. 14 is a diagram illustrating a specific example of the
図14に示す第2学習データ132は、第2学習データ132のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物(対象物を含む枠)の左上の位置を示す「位置」と、各学習用画像データに含まれる対象物(対象物を含む枠)の幅を示す「幅」と、各学習用画像データに含まれる対象物(対象物を含む枠)の高さを示す「高さ」とを項目として有する。
The
具体的に、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データを含み、さらに、「位置」が「10,32」であって「幅」が「10」であって「高さ」が「8」である対象物についての情報と、「位置」が「24,30」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「28,20」であって「幅」が「8」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データに含まれる3つの対象物についての情報を含んでいる。
Specifically, the
また、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データを含み、さらに、「位置」が「34,36」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「10,12」であって「幅」が「12」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データに含まれる2つの対象物についての情報を含んでいる。図14に含まれる他の第2学習データ132についての説明は省略する。
Further, the
[第2モデル生成処理]
次に、情報出力処理のうち、第2モデルの生成を行う処理(以下、第2モデル生成処理とも呼ぶ)について説明を行う。図8は、第2モデル生成処理を説明するフローチャート図である。
[Second model generation process]
Next, among the information output processes, a process for generating the second model (hereinafter, also referred to as a second model generation process) will be described. FIG. 8 is a flowchart illustrating the second model generation process.
情報処理装置1の第1モデル生成部113は、図8に示すように、例えば、第2モデル生成タイミングになるまで待機する(S41のNO)。第2モデル生成タイミングは、例えば、作業者が第2モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。また、第2モデル生成タイミングは、例えば、第1モデルが生成された直後のタイミングであってよい。
As shown in FIG. 8, the first
そして、第2モデル生成タイミングになった場合(S41のYES)、第2モデル生成部114は、情報格納領域130に記憶された複数の第2学習データ132の学習を行うことにより、第2学習モデルを生成する(S42)。以下、S42の処理の具体例について説明を行う。
Then, when the second model generation timing is reached (YES in S41), the second
[S42の処理の具体例]
図15は、S42の処理の具体例について説明する図である。
[Specific example of processing of S42]
FIG. 15 is a diagram illustrating a specific example of the process of S42.
第2モデル生成部114は、図15に示すように、例えば、学習用画像データを分割した複数の分割画像データのそれぞれに対応する複数の出力ニューロンNE21を有する第2モデルMD02を生成する。図15に示す例において、出力ニューロンNE21には、学習用画像データを分割した16個の分割画像データのそれぞれに対応する出力ニューロンNE21a、NE21b、NE21c、NE21d、NE21e、NE21f、NE21g、NE21h、NE21i、NE21j、NE21k、NE21l、NE21m、NE21n、NE21о及びNE21pのそれぞれが含まれている。
As shown in FIG. 15, the second
そして、例えば、図14で説明した第2学習データ132における「項番」が「3」である情報には、「画像データ」として「IMAGEb3」が設定され、「位置」、「幅」及び「高さ」として1つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb3」である画像データの分割画像データのうち、出力ニューロンNE21dに対応する分割画像データに対象物が含まれている場合において、名称が「IMAGEb3」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21dからの出力値と「1」との差、及び、出力ニューロンNE21d以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。
Then, for example, "IMAGEb3" is set as "image data" for the information in which the "item number" is "3" in the
また、例えば、図14で説明した第2学習データ132における「項番」が「2」である情報には、「画像データ」として「IMAGEb2」が設定され、「位置」、「幅」及び「高さ」として2つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb2」である画像データの分割画像データのうち、出力ニューロンNE21f及びNE21mに対応する分割画像データのそれぞれに対象物が含まれている場合において、名称が「IMAGEb2」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21f及びNE21mのそれぞれからの出力値と「1」との差、及び、これら以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。
Further, for example, "IMAGEb2" is set as "image data" for the information in which the "item number" is "2" in the
[情報出力処理のメイン処理]
次に、情報出力処理のメイン処理について説明を行う。図9から図11は、情報出力処理のメイン処理を説明するフローチャート図である。
[Main processing of information output processing]
Next, the main process of the information output process will be described. 9 to 11 are flowcharts illustrating the main process of the information output process.
情報処理装置1の結果取得部115は、図9に示すように、例えば、情報出力タイミングになるまで待機する(S51のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。
As shown in FIG. 9, the
そして、情報出力タイミングになった場合(S51のYES)、結果取得部115は、動画データ133を取得する(S52)。
Then, when the information output timing is reached (YES in S51), the
続いて、結果取得部115は、S42の処理で生成した第2学習モデルを用いることによって、S52の処理で取得した動画データ133に含まれる複数の画像データごとに、各画像データに対象物が存在する確度を示す第2確度を取得する(S53)。以下、S53の処理の具体例について説明を行う。
Subsequently, the
[S53の処理の具体例]
図16は、S53の処理の具体例について説明する図である。
[Specific example of processing of S53]
FIG. 16 is a diagram illustrating a specific example of the processing of S53.
結果取得部115は、図16に示すように、例えば、動画データ133に含まれる画像データIMAGEc1を第2学習モデルMD02に入力する。そして、結果取得部115は、例えば、画像データIMAGEc1の入力に伴って第2学習モデルMD02の出力ニューロンNE21のそれぞれから出力された値を取得する。
As shown in FIG. 16, the
その後、結果取得部115は、例えば、第2学習モデルMD02から取得された値のそれぞれから、画像データIMAGEc1に含まれる対象物の位置の特定を行う。具体的に、結果取得部115は、図16に示すように、例えば、画像データIMAGEc1に含まれる対象物を含む部分画像データとして、部分画像データIMAGEd1、部分画像データIMAGEd2及び部分画像データIMAGEd3のそれぞれの位置の特定を行う。
After that, the
また、結果取得部115は、例えば、特定した対象物ごとに、第2学習モデルMD02の出力ニューロンNE2のそれぞれから出力された値のうち、各対象物の位置に対応する値の最大値を第2確度として取得する。
Further, for example, the
なお、画像データIMAGEc1に含まれる対象物の位置及び第2確度は、第2モデルMD02から出力されるものであってもよい。そして、結果取得部115は、この場合、第2モデルMD02から出力された各情報を取得するものであってもよい。
The position and the second accuracy of the object included in the image data IMAGEc1 may be output from the second model MD02. Then, in this case, the
図9に戻り、情報管理部112は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S53の処理で取得した第2確度を含む検出結果情報135を生成する(S54)。そして、情報管理部112は、生成した検出結果情報135を情報格納領域130に記憶する。以下、検出結果情報135の具体例について説明を行う。
Returning to FIG. 9, the
[検出結果情報の具体例]
図17は、検出結果情報135の具体例について説明する図である。
[Specific example of detection result information]
FIG. 17 is a diagram illustrating a specific example of the
図17に示す検出結果情報135は、検出結果情報135に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物に対応する第2確度を示す「第2確度」とを項目として有する。
The detection result
具体的に、図17に示す検出結果情報135において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定され、「第2確度」として「0.9」が設定されている。
Specifically, in the
また、図17に示す検出結果情報135において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定され、「第2確度」として「0.7」が設定されている。図17に含まれる他の情報についての説明は省略する。
Further, in the
なお、検出結果情報135は、S53の処理で特定した部分画像データの位置を示す情報を含むものであってもよい。
The detection result
図9に戻り、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データから、各画像データに含まれる対象物を含む部分画像データを取得する(S55)。
Returning to FIG. 9, the
具体的に、情報管理部112は、例えば、S53の処理で特定した部分画像データの位置を参照することによって、S52の処理で取得した動画データ133に含まれる各画像データから部分画像データの取得を行う。
Specifically, the
なお、S53の処理で特定した部分画像データの位置を示す情報が検出結果情報135に含まれる場合、情報管理部112は、情報格納領域130に記憶された検出結果情報135を参照することによって、部分画像データの取得を行うものであってもよい。
When the
そして、結果取得部115は、図10に示すように、S22の処理で生成した第1学習モデルを用いることによって、S55の処理で取得した部分画像データごとに、各部分画像データに含まれる対象物の種類の類別結果と、その類別結果の確度を示す第1確度とを取得する(S61)。以下、S61の処理の具体例について説明を行う。
Then, as shown in FIG. 10, the
[S61の処理の具体例]
図18は、S61の処理の具体例について説明する図である。
[Specific example of processing of S61]
FIG. 18 is a diagram illustrating a specific example of the processing of S61.
結果取得部115は、図18に示すように、例えば、S55の処理で取得した部分画像データIMAGEd1を第1学習モデルMD01に入力する。そして、結果取得部115は、例えば、部分画像データIMAGEd1の入力に伴って第1学習モデルMD01の出力ニューロンNE11及び出力ニューロンNE12のそれぞれから出力された値と取得する。
As shown in FIG. 18, the
具体的に、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」である確度が「0.6」であり、「BBB」である確度が「0.3」であり、「CCC」である確度が「0.1」であることを示す情報を類別結果として取得する。
Specifically, as shown in FIG. 18, the
また、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類についての類別結果の第1確度として「0.9」を取得する。
Further, as shown in FIG. 18, the
図10に戻り、情報管理部112は、例えば、S55の処理で取得した部分画像データごとに、S61の処理で取得した類別結果と第1確度を含む類別結果情報134を生成する(S62)。そして、情報管理部112は、生成した類別結果情報134を情報格納領域130に記憶する。以下、類別結果情報134の具体例について説明を行う。
Returning to FIG. 10, the
[類別結果情報の具体例]
図19は、類別結果情報134の具体例について説明する図である。
[Specific examples of categorized result information]
FIG. 19 is a diagram illustrating a specific example of the
図19に示す類別結果情報134は、類別結果情報134に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物の種類の類別結果を示す「類別結果」と、各対象物の種類についての類別結果の第1確度を示す「第1確度」とを項目として有する。
The classification result
具体的に、図19に示す類別結果情報134において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定されている。また、図19に示す類別結果情報134において、「項番」が「1」である情報には、「類別結果」として、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.6」、「0.3」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「1」である情報には、「第1確度」として「0.8」が設定されている。
Specifically, in the
また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定されている。また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「類別結果」として、部分画像データIMAGEd2に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.2」、「0.7」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「2」である情報には、「第1確度」として「0.9」が設定されている。図19に含まれる他の情報についての説明は省略する。
Further, in the
図10に戻り、情報処理装置1の第2条件判定部117は、S55の処理で取得した部分画像データごとに、各部分画像データに対応する類別結果が第1条件を満たすか否か、及び、各部分画像データに対応する第1確度が第2条件を満たすか否かを判定する(S63)。
Returning to FIG. 10, the second
具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が第1閾値よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。
Specifically, the first
そして、情報処理装置1の結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した類別結果が第1条件を満たすと判定した部分画像データのそれぞれに含まれる対象物と、S61の処理で取得した第1確度が第2条件を満たすと判定した部分画像データのそれぞれに含まれる対象物とについてのアラートを操作端末3に出力する(S64)。以下、S64の処理の具体例について説明を行う。
Then, the
[S64の処理の具体例]
図20は、S64の処理の具体例について説明する図である。
[Specific example of S64 processing]
FIG. 20 is a diagram illustrating a specific example of the processing of S64.
図20に示す情報のうちの「項番」が「1」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。また、図20に示す情報のうちの「項番」が「3」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。さらに、図20に示す情報のうちの「項番」が「4」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われることを示している。 Of the information shown in FIG. 20, the information whose "item number" is "1" is alerted when the first accuracy is higher than the first threshold value and the object needs to be monitored. It is shown that. Further, in the information shown in FIG. 20 in which the "item number" is "3", if the first accuracy is lower than the first threshold value and the object needs to be monitored, an alert output is output. Indicates that it will be done. Further, in the information shown in FIG. 20 in which the "item number" is "4", if the first accuracy is lower than the first threshold value and the object does not require monitoring, an alert is output. It shows that it will be done.
一方、図20に示す情報のうちの「項番」が「2」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われないことを示している。 On the other hand, in the information shown in FIG. 20 in which the "item number" is "2", if the first accuracy is higher than the first threshold value and the object does not require monitoring, an alert is output. It shows that it will not be broken.
すなわち、第1確度が高く、かつ、監視を要しない種類の対象物は、作業者が検知を行う必要がない対象物(作業者が対処を行う必要がない対象物)である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が高く、かつ、監視を要しない種類の対象物を検出した場合、作業者に対する通知(アラートの出力)を行わない。
That is, it is highly possible that an object having a high first accuracy and does not require monitoring is an object that the worker does not need to detect (an object that the worker does not need to deal with). It can be judged that it is expensive. Therefore, when the
これにより、情報処理装置1は、例えば、海上における対象物の監視に伴う作業の作業負担を軽減させることが可能になる。
This makes it possible for the
また、情報処理装置1の第1条件判定部116は、図11に示すように、S55の処理で取得した部分画像データごとに、各部分画像データに対応する第1確度が第2条件を満たすか否か、及び、各部分画像データに対応する第2確度が第3条件を満たすか否かを判定する(S71)。
Further, as shown in FIG. 11, the first
具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が第2閾値よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。
Specifically, the second
そして、結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した第1確度が第2条件を満たさず、かつ、S53の処理で取得した第2確度が第3条件を満たす部分画像データに含まれる対象物が未学習であることを示す情報を出力する(S72)。以下、S72の処理の具体例について説明を行う。
Then, in the
[S72の処理の具体例]
図21は、S72の処理の具体例について説明する図である。図21に示すグラフでは、横軸が第1確度に対応し、縦軸が第2確度に対応する。
[Specific example of processing of S72]
FIG. 21 is a diagram illustrating a specific example of the process of S72. In the graph shown in FIG. 21, the horizontal axis corresponds to the first accuracy and the vertical axis corresponds to the second accuracy.
図21に示すグラフは、例えば、第1確度が第1閾値を上回る対象物が第1学習モデル及び第2学習モデルにおいて既に学習済の対象物であると判定されることを示している。 The graph shown in FIG. 21 shows, for example, that an object whose first accuracy exceeds the first threshold value is determined to be an object that has already been learned in the first learning model and the second learning model.
また、図21に示すグラフは、例えば、第1確度が第1閾値を下回る対象物が第1学習モデル及び第2学習モデルにおいて未学習である可能性がある対象物であると判定されることを示している。 Further, in the graph shown in FIG. 21, for example, it is determined that an object having a first accuracy lower than the first threshold value is an object that may not be learned in the first learning model and the second learning model. Is shown.
さらに、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を下回る対象物が、学習済の対象物であるが動画データ133に含まれるノイズ等の影響によって種類の判断が困難な対象物であると判定されることを示している。また、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を上回る対象物が、未学習の対象物であると判定されることを示している。
Further, in the graph shown in FIG. 21, an object whose first accuracy is lower than the first threshold value and whose second threshold value is lower than the second threshold value is a learned object, but noise and the like included in the moving
すなわち、第1確度が低く、かつ、第2確度が高い対象物は、第1学習モデル及び第2学習モデルにおいてまで学習されていない対象物である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が低く、かつ、第2確度が高い対象物が存在する場合、その対象物を未学習の対象物として特定する。
That is, it can be determined that an object having a low first accuracy and a high second accuracy is extremely likely to be an object that has not been learned even in the first learning model and the second learning model. Therefore, when the
これにより、情報処理装置1は、第1確度が低い対象物のそれぞれを、学習済の対象物と未学習の対象物とのいずれかに分類することが可能になる。そして、作業者は、例えば、未学習の対象物として特定した対象物のみを第1学習モデル及び第2学習モデルに学習させることで、各学習モデルの精度を高めることが可能になる。
As a result, the
このように、本実施の形態における情報処理装置1は、第1学習モデルを用いることによって、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の第1確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。
As described above, the
すなわち、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類(例えば、予め定められた監視対象の種類)に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値(例えば、予め定められた閾値)よりも高い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要がないと判断する。一方、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。
That is, for example, the type corresponding to the classification result output by the first learning model is an object that is not included in the type of the monitoring target (for example, the predetermined type of the monitoring target), and the first learning model. When there is an object whose accuracy of the classification result output by is higher than a predetermined threshold value (for example, a predetermined threshold value), the
これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による監視を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。
As a result, the
以上の実施の形態をまとめると、以下の付記のとおりである。 The above embodiments can be summarized as follows.
(付記1)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 1)
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
For each object included in the plurality of images, it is determined whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy.
Among the objects included in the plurality of images, information indicating that the object determined to satisfy the predetermined condition is the monitoring target is output.
An information output program characterized by having a computer execute processing.
(付記2)
付記1において、さらに、
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 2)
In
Prior to the process of acquiring the classification result and the first accuracy, a plurality of first learnings including a learning image including an object and information indicating a type candidate of the object included in the learning image. By training the data, the first training model is generated.
An information output program characterized by having a computer execute processing.
(付記3)
付記1において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。
(Appendix 3)
In
In the process of performing the determination, for each object included in the plurality of images, whether or not the classification result corresponding to each object satisfies the first condition, and the first accuracy corresponding to each object. Determines if the second condition is met,
In the output process, among the objects included in the plurality of images, the object for which the classification result is determined to satisfy the first condition and the object for which the first accuracy is determined to satisfy the second condition are satisfied. Output an alert about and
An information output program characterized by this.
(付記4)
付記3において、
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 4)
In
In the process of performing the determination, when the classification result indicates that each object is an object having a predetermined attribute, the classification result corresponding to each object satisfies the first condition. judge,
An information output program characterized by this.
(付記5)
付記3において、
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 5)
In
In the process of performing the determination, when the first accuracy corresponding to each object is larger than the first threshold value, it is determined that the first accuracy corresponding to each object satisfies the second condition.
An information output program characterized by this.
(付記6)
付記3において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力プログラム。
(Appendix 6)
In
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
Let the computer perform the process
In the process of performing the determination, for each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition, and the object corresponds to each object. It is determined whether or not the second accuracy is satisfied with the third condition.
In the output process, among the objects included in the plurality of images, the objects whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that there is,
An information output program characterized by this.
(付記7)
付記6において、さらに、
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 7)
In
Prior to the process of acquiring the second accuracy, a plurality of second learning data including the learning image including the object and the position information of the object in the learning image are learned, thereby performing the second learning. 2 Generate a learning model,
An information output program characterized by having a computer execute processing.
(付記8)
付記6において、
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 8)
In
In the process of performing the determination, when the second accuracy corresponding to each object is larger than the second threshold value, it is determined that the second accuracy corresponding to each object satisfies the third condition.
An information output program characterized by this.
(付記9)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 9)
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. Determine if it meets or not,
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. ,
An information output program characterized by having a computer execute processing.
(付記10)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う第1条件判定部と、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する結果出力部と、を有する、
ことを特徴とする情報出力装置。
(Appendix 10)
The information acquisition unit that acquires moving images and
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. A result acquisition unit that acquires the categorized results for each type and the first accuracy indicating the accuracy of the categorized results.
A first condition for determining whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy for each object included in the plurality of images. Judgment unit and
Among the objects included in the plurality of images, the result output unit that outputs information indicating that the object determined to satisfy the predetermined condition is the monitoring target is provided.
An information output device characterized by the fact that.
(付記11)
付記10において、
前記第1条件判定部は、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力装置。
(Appendix 11)
In
The first condition determination unit determines whether or not the classification result corresponding to each object satisfies the first condition for each object included in the plurality of images, and the first condition corresponding to each object. Determine if the accuracy meets the second condition,
Among the objects included in the plurality of images, the result output unit is an object for which the classification result is determined to satisfy the first condition and an object for which the first accuracy is determined to satisfy the second condition. Output an alert about and
An information output device characterized by the fact that.
(付記12)
付記11において、
前記結果取得部は、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、さらに、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定する第2条件判定部を有し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力装置。
(Appendix 12)
In Appendix 11,
By using the second learning model in which the position information of the object in the image is learned, the result acquisition unit acquires the second accuracy indicating the probability that the object exists in each of the plurality of images, and further,
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition, and the second accuracy corresponding to each object is the second. It has a second condition determination unit that determines whether or not the three conditions are satisfied.
Among the objects included in the plurality of images, the result output unit has not learned the objects whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition. Output information indicating that there is,
An information output device characterized by the fact that.
(付記13)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。
(Appendix 13)
The information acquisition unit that acquires moving images and
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. By acquiring the categorization result for each type and the first accuracy indicating the accuracy of the categorization result, and further using the second learning model in which the position information of the object in the image is learned, the plurality of images are described. The result acquisition unit that acquires the second accuracy, which indicates the probability that the object exists in each,
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. A second condition determination unit that determines whether or not the condition is satisfied, and
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. Has a result acquisition unit,
An information output device characterized by the fact that.
(付記14)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
(Appendix 14)
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
For each object included in the plurality of images, it is determined whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy.
Among the objects included in the plurality of images, information indicating that the object determined to satisfy the predetermined condition is the monitoring target is output.
An information output method characterized by having a computer execute processing.
(付記15)
付記14において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力方法。
(Appendix 15)
In Appendix 14,
In the process of performing the determination, for each object included in the plurality of images, whether or not the classification result corresponding to each object satisfies the first condition, and the first accuracy corresponding to each object. Determines if the second condition is met,
In the output process, among the objects included in the plurality of images, the object for which the classification result is determined to satisfy the first condition and the object for which the first accuracy is determined to satisfy the second condition are satisfied. Output an alert about and
An information output method characterized by the fact that.
(付記16)
付記15において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力方法。
(Appendix 16)
In Appendix 15, further
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
Let the computer perform the process
In the process of performing the determination, for each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition, and the object corresponds to each object. It is determined whether or not the second accuracy is satisfied with the third condition.
In the output process, among the objects included in the plurality of images, the objects whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that there is,
An information output method characterized by the fact that.
(付記17)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
(Appendix 17)
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. Determine if it meets or not,
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. ,
An information output method characterized by having a computer execute processing.
1:情報処理装置 3:操作端末
10:情報処理システム NW:ネットワーク
1: Information processing device 3: Operation terminal 10: Information processing system NW: Network
Claims (13)
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。 Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
For each object included in the plurality of images, it is determined whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy.
Among the objects included in the plurality of images, information indicating that the object determined to satisfy the predetermined condition is the monitoring target is output.
An information output program characterized by having a computer execute processing.
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。 In claim 1, further
Prior to the process of acquiring the classification result and the first accuracy, a plurality of first learnings including a learning image including an object and information indicating a type candidate of the object included in the learning image. By training the data, the first training model is generated.
An information output program characterized by having a computer execute processing.
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。 In claim 1,
In the process of performing the determination, for each object included in the plurality of images, whether or not the classification result corresponding to each object satisfies the first condition, and the first accuracy corresponding to each object. Determines if the second condition is met,
In the output process, among the objects included in the plurality of images, the object for which the classification result is determined to satisfy the first condition and the object for which the first accuracy is determined to satisfy the second condition are satisfied. Output an alert about and
An information output program characterized by this.
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。 In claim 3,
In the process of performing the determination, when the classification result indicates that each object is an object having a predetermined attribute, the classification result corresponding to each object satisfies the first condition. judge,
An information output program characterized by this.
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。 In claim 3,
In the process of performing the determination, when the first accuracy corresponding to each object is larger than the first threshold value, it is determined that the first accuracy corresponding to each object satisfies the second condition.
An information output program characterized by this.
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力プログラム。 In claim 3, further
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
Let the computer perform the process
In the process of performing the determination, for each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition, and the object corresponds to each object. It is determined whether or not the second accuracy is satisfied with the third condition.
In the output process, among the objects included in the plurality of images, the objects whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that there is,
An information output program characterized by this.
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。 In claim 6, further
Prior to the process of acquiring the second accuracy, a plurality of second learning data including the learning image including the object and the position information of the object in the learning image are learned, thereby performing the second learning. 2 Generate a learning model,
An information output program characterized by having a computer execute processing.
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。 In claim 6,
In the process of performing the determination, when the second accuracy corresponding to each object is larger than the second threshold value, it is determined that the second accuracy corresponding to each object satisfies the third condition.
An information output program characterized by this.
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。 Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. Determine if it meets or not,
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. ,
An information output program characterized by having a computer execute processing.
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う第1条件判定部と、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する結果出力部と、を有する、
ことを特徴とする情報出力装置。 The information acquisition unit that acquires moving images and
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. A result acquisition unit that acquires the categorized results for each type and the first accuracy indicating the accuracy of the categorized results.
A first condition for determining whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy for each object included in the plurality of images. Judgment unit and
Among the objects included in the plurality of images, the result output unit that outputs information indicating that the object determined to satisfy the predetermined condition is the monitoring target is provided.
An information output device characterized by the fact that.
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。 The information acquisition unit that acquires moving images and
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. By acquiring the categorization result for each type and the first accuracy indicating the accuracy of the categorization result, and further using the second learning model in which the position information of the object in the image is learned, the plurality of images are described. The result acquisition unit that acquires the second accuracy, which indicates the probability that the object exists in each,
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. A second condition determination unit that determines whether or not the condition is satisfied, and
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. Has a result acquisition unit,
An information output device characterized by the fact that.
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。 Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
For each object included in the plurality of images, it is determined whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy.
Among the objects included in the plurality of images, information indicating that the object determined to satisfy the predetermined condition is the monitoring target is output.
An information output method characterized by having a computer execute processing.
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。 Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. Determine if it meets or not,
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. ,
An information output method characterized by having a computer execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020000996A JP7436801B2 (en) | 2020-01-07 | 2020-01-07 | Information output program, information output device, and information output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020000996A JP7436801B2 (en) | 2020-01-07 | 2020-01-07 | Information output program, information output device, and information output method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111027A true JP2021111027A (en) | 2021-08-02 |
JP7436801B2 JP7436801B2 (en) | 2024-02-22 |
Family
ID=77059894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020000996A Active JP7436801B2 (en) | 2020-01-07 | 2020-01-07 | Information output program, information output device, and information output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7436801B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6446971B2 (en) | 2014-10-06 | 2019-01-09 | 日本電気株式会社 | Data processing apparatus, data processing method, and computer program |
US10572963B1 (en) | 2017-07-14 | 2020-02-25 | Synapse Technology Corporation | Detection of items |
JP6797860B2 (en) | 2018-05-02 | 2020-12-09 | 株式会社日立国際電気 | Water intrusion detection system and its method |
-
2020
- 2020-01-07 JP JP2020000996A patent/JP7436801B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7436801B2 (en) | 2024-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101385599B1 (en) | Method and apparatus for interfering montage | |
KR101910542B1 (en) | Image Analysis Method and Server Apparatus for Detecting Object | |
US11580629B2 (en) | System and method for determining situation of facility by imaging sensing data of facility | |
JP2018207222A (en) | Camera and parameter registration method | |
KR102002812B1 (en) | Image Analysis Method and Server Apparatus for Detecting Object | |
JP6565600B2 (en) | Attention detection device and attention detection method | |
US20100272351A1 (en) | Information processing apparatus and method for detecting object in image data | |
US20200272897A1 (en) | Learning device, learning method, and recording medium | |
JP2018205900A (en) | Monitoring system and monitoring method | |
JP5674550B2 (en) | Status tracking apparatus, method, and program | |
JPWO2017154655A1 (en) | Crowd type identification system, crowd type identification method, and crowd type identification program | |
CN113989156A (en) | Method, apparatus, medium, device, and program for reliability verification of desensitization method | |
US11521392B2 (en) | Image processing apparatus and image processing method for image analysis process | |
JP2021111027A (en) | Information output program, information output device and information output method | |
CN115904883B (en) | RPA flow execution visual abnormity monitoring method, device and medium | |
Presti et al. | Real-time object detection in embedded video surveillance systems | |
US11887331B2 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
US10372719B2 (en) | Episode mining device, method and non-transitory computer readable medium of the same | |
KR102332183B1 (en) | Method and Apparatus for Detecting Anomaly from Security Video | |
CN112906810B (en) | Target detection method, electronic device, and storage medium | |
WO2021176514A1 (en) | Learning processing program, information processing device, and learning processing method | |
KR20210024871A (en) | Apparatus and method for managing machine-learning model and image analyzing apparatus | |
JP7401747B2 (en) | Sorting program, sorting device and sorting method | |
JP2012511194A (en) | Image motion detection method and apparatus | |
US20230196752A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7436801 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |