JP7436801B2 - Information output program, information output device, and information output method - Google Patents

Information output program, information output device, and information output method Download PDF

Info

Publication number
JP7436801B2
JP7436801B2 JP2020000996A JP2020000996A JP7436801B2 JP 7436801 B2 JP7436801 B2 JP 7436801B2 JP 2020000996 A JP2020000996 A JP 2020000996A JP 2020000996 A JP2020000996 A JP 2020000996A JP 7436801 B2 JP7436801 B2 JP 7436801B2
Authority
JP
Japan
Prior art keywords
accuracy
information
condition
images
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020000996A
Other languages
Japanese (ja)
Other versions
JP2021111027A (en
Inventor
美穂 八木橋
広志 森本
亮啓 平嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020000996A priority Critical patent/JP7436801B2/en
Publication of JP2021111027A publication Critical patent/JP2021111027A/en
Application granted granted Critical
Publication of JP7436801B2 publication Critical patent/JP7436801B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Description

本発明は、情報出力プログラム、情報出力装置及び情報出力方法に関する。 The present invention relates to an information output program, an information output device, and an information output method.

例えば、海上哨戒や沿岸監視等の分野では、監視領域において撮影された動画像の内容を作業者が確認することにより、動画像に映る対象物(例えば、不審船等)の検出や種類の特定等を行う。具体的に、作業者は、例えば、撮影された動画像において複数の対象物を検出した場合、それぞれの対象物についての種類の特定等を目視によって行う(例えば、特許文献1参照)。 For example, in fields such as maritime patrol and coastal monitoring, workers can detect objects (e.g., suspicious ships, etc.) and identify the type of objects shown in the video by checking the content of video captured in the surveillance area. etc. Specifically, for example, when a plurality of objects are detected in a captured moving image, the operator visually identifies the type of each object (see, for example, Patent Document 1).

国際公開第2018/173800号International Publication No. 2018/173800

しかしながら、検出された対象物の全てを監視対象として出力してしまうと、動画像に映る対象物の監視を効率的に行うことができないといった問題がある。 However, if all detected objects are output as monitoring objects, there is a problem that objects appearing in moving images cannot be efficiently monitored.

そこで、一つの側面では、本発明は、動画像に映る対象物の監視を効率的に行うことを可能とする情報出力プログラム、情報出力装置及び情報出力方法を提供することを目的とする。 Therefore, in one aspect, an object of the present invention is to provide an information output program, an information output device, and an information output method that make it possible to efficiently monitor objects shown in moving images.

実施の形態の一態様では、動画像を取得し、画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。 In one aspect of the embodiment, by using a first learning model that acquires a moving image and learns a candidate type of an object included in the image and a probability that the type of the object is the candidate type, A classification result for each type of object included in a plurality of images constituting a moving image and a first accuracy indicating the accuracy of the classification result are obtained, and for each object included in the plurality of images, Based on the classification result and the first accuracy corresponding to each object, it is determined whether each object satisfies a predetermined condition, and among the objects included in the plurality of images, the predetermined Outputs information indicating that the object determined to satisfy the condition is to be monitored.

一つの側面によれば、動画に映る対象物の監視を効率的に行うことを可能とする。 According to one aspect, it is possible to efficiently monitor objects shown in videos.

図1は、情報処理システム10の構成について説明する図である。FIG. 1 is a diagram illustrating the configuration of an information processing system 10. 図2は、情報処理装置1のハードウエア構成を説明する図である。FIG. 2 is a diagram illustrating the hardware configuration of the information processing device 1. 図3は、情報処理装置1の機能のブロック図である。FIG. 3 is a block diagram of the functions of the information processing device 1. 図4は、第1の実施の形態における情報出力処理の概略を説明するフローチャート図である。FIG. 4 is a flowchart illustrating an outline of information output processing in the first embodiment. 図5は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 5 is a flowchart illustrating details of information output processing in the first embodiment. 図6は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 6 is a flowchart illustrating details of information output processing in the first embodiment. 図7は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 7 is a flowchart illustrating details of information output processing in the first embodiment. 図8は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 8 is a flowchart illustrating details of information output processing in the first embodiment. 図9は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 9 is a flowchart illustrating details of information output processing in the first embodiment. 図10は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 10 is a flowchart illustrating details of information output processing in the first embodiment. 図11は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 11 is a flowchart illustrating details of information output processing in the first embodiment. 図12は、第1学習データ131の具体例について説明する図である。FIG. 12 is a diagram illustrating a specific example of the first learning data 131. 図13は、S22の処理の具体例について説明を行う。FIG. 13 describes a specific example of the process of S22. 図14は、第2学習データ132の具体例について説明する図である。FIG. 14 is a diagram illustrating a specific example of the second learning data 132. 図15は、S42の処理の具体例について説明する図である。FIG. 15 is a diagram illustrating a specific example of the process of S42. 図16は、S53の処理の具体例について説明する図である。FIG. 16 is a diagram illustrating a specific example of the process of S53. 図17は、検出結果情報135の具体例について説明する図である。FIG. 17 is a diagram illustrating a specific example of the detection result information 135. 図18は、S61の処理の具体例について説明する図である。FIG. 18 is a diagram illustrating a specific example of the process of S61. 図19は、類別結果情報134の具体例について説明する図である。FIG. 19 is a diagram illustrating a specific example of the classification result information 134. 図20は、S64の処理の具体例について説明する図である。FIG. 20 is a diagram illustrating a specific example of the process of S64. 図21は、S72の処理の具体例について説明する図である。FIG. 21 is a diagram illustrating a specific example of the process of S72.

[情報処理システムの構成]
初めに、情報処理システム10の構成について説明を行う。図1は、情報処理システム10の構成について説明する図である。
[Information processing system configuration]
First, the configuration of the information processing system 10 will be explained. FIG. 1 is a diagram illustrating the configuration of an information processing system 10.

図1に示す情報処理システム10は、情報処理装置1と、操作端末3とを有する。操作端末3は、例えば、作業者が必要な情報の入力等を行うPC(Personal Computer)であって、インターネット等のネットワークNWを介して情報処理装置1とアクセスが可能である。 The information processing system 10 shown in FIG. 1 includes an information processing device 1 and an operation terminal 3. The information processing system 10 shown in FIG. The operating terminal 3 is, for example, a PC (Personal Computer) on which a worker inputs necessary information, and is accessible to the information processing device 1 via a network NW such as the Internet.

情報処理装置1は、例えば、監視領域において撮影された動画像(以下、動画データとも呼ぶ)を構成する各画像(以下、画像データとも呼ぶ)に含まれる対象物の種類の候補(以下、種類候補とも呼ぶ)と、その種類候補が対象物の種類として正解である確度(例えば、確率)とを学習した学習モデル(以下、第1学習モデルとも呼ぶ)を用いることにより、各画像データに含まれる対象物のうち、作業者が目視で確認を行う必要がある対象物の特定を行う。 For example, the information processing device 1 selects candidate types of objects (hereinafter referred to as types) included in each image (hereinafter also referred to as image data) constituting a moving image photographed in a monitoring area (hereinafter also referred to as video data). By using a learning model (hereinafter also referred to as the first learning model) that has learned the candidate type (also referred to as a candidate) and the probability (for example, probability) that the candidate type is correct as the type of the object, Among the objects to be inspected, identify those that require visual confirmation by the worker.

具体的に、情報処理装置1は、例えば、第1学習モデルを用いることによって、複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。 Specifically, the information processing device 1 obtains classification results for each type of object included in the plurality of image data and the accuracy of the classification results, for example, by using the first learning model. The information processing device 1 then determines whether or not each object satisfies a predetermined condition based on the classification result and accuracy corresponding to each object included in the plurality of image data. conduct. Thereafter, the information processing device 1 outputs information indicating that the object that is determined to satisfy a predetermined condition among the objects included in the plurality of image data is the object to be monitored.

すなわち、従来では、例えば、対象物の検出等を行う必要がある動画像が頻繁に発生する場合、対象物の検出等に伴う作業者の負担が増大する可能性があった。また、例えば、確認を行う必要がある対象物の数が今後さらに増大する場合、必要な数の作業者の確保が将来的に困難になる可能性がある。 That is, conventionally, for example, when moving images that require detection of a target object are frequently generated, there is a possibility that the burden on the operator due to the detection of the target object increases. Further, for example, if the number of objects that need to be checked further increases in the future, it may become difficult to secure the necessary number of workers in the future.

そこで、本実施の形態における情報処理装置1は、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも高い対象物が存在する場合、存在した対象物についての監視を行う必要がないと判断する。また、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。 Therefore, the information processing device 1 according to the present embodiment is configured to, for example, detect objects whose type corresponding to the classification result output by the first learning model is not included in the types of monitoring targets, and If there is an object for which the accuracy of the output classification result is higher than a predetermined threshold, it is determined that there is no need to monitor the existing object. Also, for example, if the type corresponding to the classification result output by the first learning model is included in the type of the monitored object, or if the accuracy of the classification result output by the first learning model is higher than a predetermined threshold value, If a low target object exists, the information processing device 1 determines that it is necessary to monitor the existing target object.

そして、情報処理装置1は、例えば、監視を行う必要があると判断した対象物についての情報のみを操作端末3に出力する。その後、作業者は、例えば、操作端末3に情報が出力された対象物についての種類の特定等を目視によって行う。 Then, the information processing device 1 outputs, to the operation terminal 3, only information about the object that is determined to need to be monitored, for example. Thereafter, the operator visually identifies, for example, the type of the object whose information has been output to the operating terminal 3.

これにより、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。 Thereby, the information processing device 1 can suppress the burden on the worker associated with monitoring the target object.

[情報処理システムのハードウエア構成]
次に、情報処理システム10のハードウエア構成について説明する。図2は、情報処理装置1のハードウエア構成を説明する図である。
[Hardware configuration of information processing system]
Next, the hardware configuration of the information processing system 10 will be explained. FIG. 2 is a diagram illustrating the hardware configuration of the information processing device 1.

情報処理装置1は、図2に示すように、プロセッサであるCPU101と、メモリ102と、通信装置103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。 As shown in FIG. 2, the information processing device 1 includes a CPU 101 that is a processor, a memory 102, a communication device 103, and a storage medium 104. Each part is connected to each other via a bus 105.

記憶媒体104は、例えば、作業者が監視を行う必要がある対象物を示す情報を出力する処理(以下、情報出力処理とも呼ぶ)を行うためのプログラム110を記憶するプログラム格納領域(図示しない)を有する。また、記憶媒体104は、例えば、情報出力処理を行う際に用いられる情報を記憶する記憶部130(以下、情報格納領域130とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。 The storage medium 104 is, for example, a program storage area (not shown) that stores a program 110 for performing a process (hereinafter also referred to as information output process) of outputting information indicating an object that a worker needs to monitor. has. Furthermore, the storage medium 104 includes, for example, a storage unit 130 (hereinafter also referred to as an information storage area 130) that stores information used when performing information output processing. Note that the storage medium 104 may be, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

CPU101は、記憶媒体104からメモリ102にロードされたプログラム110を実行して情報出力処理を行う。 The CPU 101 executes the program 110 loaded into the memory 102 from the storage medium 104 to perform information output processing.

また、通信装置103は、例えば、ネットワークNWを介して操作端末3との通信を行う。 Furthermore, the communication device 103 communicates with the operation terminal 3 via the network NW, for example.

[情報処理システムの機能]
次に、情報処理システム10の機能について説明を行う。図3は、情報処理装置1の機能のブロック図である。
[Functions of information processing system]
Next, the functions of the information processing system 10 will be explained. FIG. 3 is a block diagram of the functions of the information processing device 1.

情報処理装置1は、図3に示すように、例えば、CPU101やメモリ102等のハードウエアとプログラム110とが有機的に協働することにより、情報受信部111(以下、情報取得部111とも呼ぶ)と、情報管理部112と、第1モデル生成部113と、第2モデル生成部114と、結果取得部115と、第1条件判定部116と、第2条件判定部117と、結果出力部118と、を含む各種機能を実現する。 As shown in FIG. 3, the information processing device 1 includes an information receiving unit 111 (hereinafter also referred to as an information acquisition unit 111) through organic cooperation between hardware such as a CPU 101 and a memory 102 and a program 110. ), the information management unit 112, the first model generation unit 113, the second model generation unit 114, the result acquisition unit 115, the first condition determination unit 116, the second condition determination unit 117, and the result output unit 118, and various other functions are realized.

また、情報処理装置1は、例えば、図3に示すように、第1学習データ131と、第2学習データ132と、動画データ133と、類別結果情報134と、検出結果情報135とを情報格納領域130に記憶する。 Further, the information processing device 1 stores first learning data 131, second learning data 132, video data 133, classification result information 134, and detection result information 135, for example, as shown in FIG. It is stored in area 130.

情報受信部111は、例えば、作業者が操作端末3を介して入力した各種情報を受信する。具体的に、情報受信部111は、例えば、第1学習モデルの生成に用いられる第1学習データ131を受信する。第1学習データ131は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の種類を示す情報とをそれぞれ含む学習データである。 The information receiving unit 111 receives, for example, various information input by a worker via the operating terminal 3. Specifically, the information receiving unit 111 receives, for example, first learning data 131 used for generating the first learning model. The first learning data 131 is, for example, learning data that each includes a learning image including a target object and information indicating the type of target object included in the learning image.

また、情報受信部111は、例えば、第2学習モデルの生成に用いられる第2学習データ132を受信する。第2学習データ132は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の位置情報とをそれぞれ含む学習データである。 Further, the information receiving unit 111 receives, for example, second learning data 132 used for generating the second learning model. The second learning data 132 is, for example, learning data that each includes a learning image including a target object and position information of the target included in the learning image.

さらに、情報受信部111は、例えば、海上における対象物の撮影を行うカメラ等の撮影装置(図示しない)によって取得された動画データ133を受信する。そして、情報管理部112は、例えば、情報受信部111が受信した第1学習データ131、第2学習データ132及び動画データ133を情報格納領域130に記憶する。 Further, the information receiving unit 111 receives, for example, video data 133 acquired by a photographing device (not shown) such as a camera that photographs objects on the sea. Then, the information management unit 112 stores, for example, the first learning data 131, the second learning data 132, and the video data 133 received by the information receiving unit 111 in the information storage area 130.

なお、情報受信部111は、例えば、操作端末3に対して自発的にアクセスを行うことによって、操作端末3の情報格納領域(図示しない)に記憶された各種情報を取得するものであってもよい。また、情報受信部111は、例えば、撮像装置に対して自発的にアクセスを行うことにより、撮像装置の情報格納領域(図示しない)に記憶された動画データ133を取得するものであってもよい。 Note that the information receiving unit 111 may acquire various information stored in an information storage area (not shown) of the operating terminal 3 by voluntarily accessing the operating terminal 3, for example. good. Further, the information receiving unit 111 may acquire the video data 133 stored in an information storage area (not shown) of the imaging device by, for example, spontaneously accessing the imaging device. .

第1モデル生成部113は、情報格納領域130に記憶された第1学習データ131の学習を行うことによって、第1学習モデルを生成する。 The first model generation unit 113 generates a first learning model by learning the first learning data 131 stored in the information storage area 130.

第2モデル生成部114は、情報格納領域130に記憶された第2学習データ132の学習を行うことによって、第2学習モデルを生成する。 The second model generation unit 114 generates a second learning model by learning the second learning data 132 stored in the information storage area 130.

結果取得部115は、情報格納領域130に記憶された動画データ133を取得する。そして、結果取得部115は、第2モデル生成部114が生成した第2学習モデルを用いることによって、動画データ133を構成する複数の画像データのそれぞれに対象物が存在する確度を示す確度(以下、第2確度とも呼ぶ)を取得する。具体的に、結果取得部115は、第2学習モデルに対する複数の画像データの入力に伴って出力される第2確度を取得する。その後、情報管理部112は、例えば、結果取得部115が取得した第2確度を示す検出結果情報135を生成して情報格納領域130に記憶する。 The result acquisition unit 115 acquires the video data 133 stored in the information storage area 130. Then, by using the second learning model generated by the second model generation unit 114, the result acquisition unit 115 obtains a probability (hereinafter referred to as , also called second accuracy). Specifically, the result acquisition unit 115 acquires the second accuracy that is output when a plurality of image data are input to the second learning model. After that, the information management unit 112 generates, for example, detection result information 135 indicating the second accuracy acquired by the result acquisition unit 115, and stores it in the information storage area 130.

また、結果取得部115は、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれについての複数の部分画像データを取得する。具体的に、結果取得部115は、例えば、情報格納領域130に記憶された検出結果情報135を参照することにより、動画データ133を構成する複数の画像データから複数の部分画像データを取得(抽出)する。そして、結果取得部115は、第1モデル生成部113が生成した第1学習モデルを用いることによって、複数の部分画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度(以下、第1確度とも呼ぶ)とを取得する。具体的に、結果取得部115は、第1学習モデルに対する複数の画像データの入力に伴って出力される類別結果と第1確度とを取得する。その後、情報管理部112は、例えば、結果取得部115が取得した類別結果と第1確度とを示す類別結果情報134を生成して情報格納領域130に記憶する。 Furthermore, the result acquisition unit 115 acquires a plurality of partial image data for each of the objects included in the plurality of image data forming the video data 133. Specifically, the result acquisition unit 115 acquires (extracts) a plurality of partial image data from a plurality of image data forming the video data 133 by referring to the detection result information 135 stored in the information storage area 130, for example. )do. Then, the result acquisition unit 115 uses the first learning model generated by the first model generation unit 113 to obtain the classification results for each type of object included in the plurality of partial image data and the classification results. Accuracy (hereinafter also referred to as first accuracy) is obtained. Specifically, the result acquisition unit 115 acquires the classification result and first accuracy that are output when a plurality of image data are input to the first learning model. Thereafter, the information management unit 112 generates, for example, classification result information 134 indicating the classification result and the first accuracy acquired by the result acquisition unit 115, and stores it in the information storage area 130.

第1条件判定部116は、例えば、情報格納領域130に記憶された類別結果情報134を参照し、複数の部分画像データごとに、各対象物に対応する類別結果が第1条件を満たすか否か、及び、各対象物に対応する第1確度が第2条件を満たすか否かを判定する。具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が閾値(以下、第1閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。 For example, the first condition determination unit 116 refers to the classification result information 134 stored in the information storage area 130, and determines whether the classification result corresponding to each object satisfies the first condition for each of the plurality of partial image data. and whether the first accuracy corresponding to each object satisfies the second condition. Specifically, for example, if the classification result indicates that each object has a predetermined attribute (for example, a warship), the first condition determination unit 116 determines the classification result corresponding to each object. It is determined that the first condition is satisfied. Further, the first condition determination unit 116 determines that, for example, when the first accuracy corresponding to each target object is larger than a threshold value (hereinafter also referred to as the first threshold value), the first accuracy corresponding to each target object is set to the second condition. It is determined that the conditions are met.

第2条件判定部117は、例えば、情報格納領域130に記憶された類別結果情報134及び検出結果情報135を参照し、複数の部分画像データごとに、各対象物に対応する第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する第2確度が第3条件を満たすか否かを判定する。具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が閾値(以下、第2閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。 For example, the second condition determination unit 117 refers to the classification result information 134 and the detection result information 135 stored in the information storage area 130, and determines whether the first accuracy corresponding to each target object is the first accuracy for each of the plurality of partial image data. It is determined whether the two conditions are satisfied, and it is determined whether the second accuracy corresponding to each object satisfies the third condition. Specifically, the second condition determining unit 117 determines that the second accuracy corresponding to each object is larger than a threshold (hereinafter also referred to as a second threshold), for example. It is determined that three conditions are met.

結果出力部118は、複数の部分画像データに含まれる各対象物のうち、類別結果が第1条件を満たすと判定した対象物と、第1確度が第2条件を満たすと判定した対象物とを示す情報(例えば、アラート)を出力する。 The result output unit 118 selects, among the objects included in the plurality of partial image data, objects for which the classification result has determined to satisfy the first condition and objects for which the first accuracy has determined to satisfy the second condition. output information (for example, an alert) indicating the

また、結果出力部118は、複数の部分画像データに含まれる各対象物のうち、第1確度が第2条件を満たし、かつ、第2確度が第3条件を満たす対象物が未学習であることを示す情報を出力する。 In addition, the result output unit 118 determines that among the objects included in the plurality of partial image data, the object whose first accuracy satisfies the second condition and whose second accuracy satisfies the third condition has not been learned. Outputs information indicating that.

[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明する。図4は、第1の実施の形態における情報出力処理の概略を説明するフローチャート図である。
[Outline of first embodiment]
Next, an outline of the first embodiment will be described. FIG. 4 is a flowchart illustrating an outline of information output processing in the first embodiment.

情報処理装置1は、図4に示すように、情報出力タイミングになるまで待機する(S1のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。 As shown in FIG. 4, the information processing device 1 waits until the information output timing comes (NO in S1). The information output timing may be, for example, the timing at which the operator inputs information indicating that monitoring of objects on the sea is to be started.

そして、情報出力タイミングになった場合(S1のYES)、情報処理装置1は、動画データ133を取得する(S2)。具体的に、情報処理装置1は、例えば、情報格納領域130に記憶された動画データ133を取得する。また、情報処理装置1は、例えば、外部の記憶装置(図示しない)に記憶された動画データ133を取得する。 Then, when the information output timing has come (YES in S1), the information processing device 1 acquires the video data 133 (S2). Specifically, the information processing device 1 acquires the video data 133 stored in the information storage area 130, for example. Further, the information processing device 1 obtains, for example, video data 133 stored in an external storage device (not shown).

続いて、情報処理装置1は、画像データに含まれる対象物の種類候補と、その種類候補が対象物の種類として正解である確度とを学習した第1学習モデルを用いることによって、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度を示す第1確度とを取得する(S3)。 Next, the information processing device 1 performs the processing in S2 by using the first learning model that has learned the object type candidates included in the image data and the probability that the type candidates are correct as the object type. A classification result for each type of object included in the plurality of image data constituting the video data acquired in (S3) is obtained.

次に、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物ごとに、S3の処理で取得した類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う(S4)。 Next, the information processing device 1 calculates each target object included in the plurality of image data constituting the video data obtained in the process of S2 based on the classification result and the first accuracy obtained in the process of S3. It is determined whether the object satisfies a predetermined condition (S4).

その後、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のうち、S4の処理において所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する(S5)。 After that, the information processing device 1 determines that the object that is determined to satisfy a predetermined condition in the process of S4, among the objects included in the plurality of image data forming the video data acquired in the process of S2, is to be monitored. Information indicating this is output (S5).

これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による確認を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。 Thereby, by using the first learning model, the information processing device 1 is able to specify an object that requires visual confirmation by the operator. Therefore, the information processing device 1 can suppress the burden on the worker associated with monitoring the object.

[第1の実施の形態の詳細]
次に、第1の実施の形態の詳細について説明する。図5から図11は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。また、図12から図21は、第1の実施の形態における情報出力処理の詳細を説明する図である。
[Details of the first embodiment]
Next, details of the first embodiment will be described. 5 to 11 are flowcharts illustrating details of information output processing in the first embodiment. Further, FIGS. 12 to 21 are diagrams illustrating details of the information output processing in the first embodiment.

[第1学習データ記憶処理]
初めに、情報出力処理のうち、第1学習データ131の記憶を行う処理(以下、第1学習データ記憶処理とも呼ぶ)について説明を行う。図5は、第1学習データ記憶処理を説明するフローチャート図である。
[First learning data storage process]
First, among the information output processing, the processing for storing the first learning data 131 (hereinafter also referred to as the first learning data storage processing) will be explained. FIG. 5 is a flowchart illustrating the first learning data storage process.

情報処理装置1の情報受信部111は、図5に示すように、例えば、操作端末3から送信された複数の第1学習データ131を受信するまで待機する(S11のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第1学習データ131が操作端末3を介して送信されるまで待機する。 As shown in FIG. 5, the information receiving unit 111 of the information processing device 1 waits, for example, until it receives the plurality of first learning data 131 transmitted from the operating terminal 3 (NO in S11). That is, the information receiving unit 111 waits until the first learning data 131 generated by the worker is transmitted via the operation terminal 3, for example.

そして、複数の第1学習データ131を受信した場合(S11のYES)、情報処理装置1の情報管理部112は、S11の処理で受信した複数の第1学習データ131を情報格納領域130に記憶する(S12)。以下、第1学習データ131の具体例について説明を行う。 Then, when the plurality of first learning data 131 is received (YES in S11), the information management unit 112 of the information processing device 1 stores the plurality of first learning data 131 received in the process in S11 in the information storage area 130. (S12). A specific example of the first learning data 131 will be described below.

[第1学習データの具体例]
図12は、第1学習データ131の具体例について説明する図である。
[Specific example of first learning data]
FIG. 12 is a diagram illustrating a specific example of the first learning data 131.

図12に示す第1学習データ131は、第1学習データ131のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物の種類(正解の種類)を示す「種類」とを含む。なお、以下、「種類」には、「AAA」、「BBB」及び「CCC」のうちのいずれかが設定されるものとして説明を行う。 The first learning data 131 shown in FIG. 12 includes an "item number" indicating identification information of each of the first learning data 131, "image data" indicating each learning image data itself, and each learning image data. ``type'' indicating the type of object included (type of correct answer). Note that the following description assumes that the "type" is set to one of "AAA", "BBB", and "CCC".

具体的に、図12における「項番」が「1」である第1学習データ131は、名称が「IMAGEa1」である学習用画像データを含み、かつ、「種類」が「AAA」である学習データである。 Specifically, the first learning data 131 whose "item number" is "1" in FIG. 12 includes learning image data whose name is "IMAGEa1" and whose "type" is "AAA". It is data.

また、図12における「項番」が「2」である第1学習データ131は、名称が「IMAGEa2」である学習用画像データを含み、かつ、「種類」が「BBB」である学習データである。図12に含まれる他の第1学習データ131については説明を省略する。 In addition, the first learning data 131 whose "item number" is "2" in FIG. 12 is learning data which includes learning image data whose name is "IMAGEa2" and whose "type" is "BBB". be. Description of other first learning data 131 included in FIG. 12 will be omitted.

[第1モデル生成処理]
次に、情報出力処理のうち、第1モデルの生成を行う処理(以下、第1モデル生成処理とも呼ぶ)について説明を行う。図6は、第1モデル生成処理を説明するフローチャート図である。
[First model generation process]
Next, of the information output processing, the processing for generating the first model (hereinafter also referred to as the first model generation processing) will be explained. FIG. 6 is a flowchart diagram illustrating the first model generation process.

情報処理装置1の第1モデル生成部113は、図6に示すように、例えば、第1モデル生成タイミングになるまで待機する(S21のNO)。第1モデル生成タイミングは、例えば、作業者が第1モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。 As shown in FIG. 6, the first model generation unit 113 of the information processing device 1 waits, for example, until the first model generation timing comes (NO in S21). The first model generation timing may be, for example, the timing at which the operator inputs information to the information processing device 1 to the effect that the first model is to be generated.

そして、第1モデル生成タイミングになった場合(S21のYES)、第1モデル生成部113は、情報格納領域130に記憶された複数の第1学習データ131の学習を行うことにより、第1学習モデルを生成する(S22)。以下、S22の処理の具体例について説明を行う。 Then, when the first model generation timing has come (YES in S21), the first model generation unit 113 performs the first learning by learning the plurality of first learning data 131 stored in the information storage area 130. A model is generated (S22). A specific example of the process of S22 will be described below.

[S22の処理の具体例]
図13は、S22の処理の具体例について説明を行う。
[Specific example of processing in S22]
FIG. 13 describes a specific example of the process of S22.

第1モデル生成部113は、図13に示すように、例えば、対象物の種類候補のそれぞれに対応する複数の出力ニューロン(以下、第1出力ニューロンとも呼ぶ)NE11と、第1確度に対応する1の出力ニューロン(以下、第2出力ニューロンとも呼ぶ)NE12とを有する第1モデルMD01を生成する。図13に示す例において、第1出力ニューロンNE11には、種類候補である「AAA」、「BBB」及び「CCC」のそれぞれに対応する第1出力ニューロンNE11a、NE11b及びNE11cが含まれている。 As shown in FIG. 13, the first model generation unit 113 includes, for example, a plurality of output neurons (hereinafter also referred to as first output neurons) NE11 corresponding to each of the object type candidates, and a plurality of output neurons (hereinafter also referred to as first output neurons) NE11 corresponding to the first accuracy. A first model MD01 having one output neuron (hereinafter also referred to as a second output neuron) NE12 is generated. In the example shown in FIG. 13, the first output neuron NE11 includes first output neurons NE11a, NE11b, and NE11c corresponding to the type candidates "AAA", "BBB", and "CCC", respectively.

そして、例えば、図12で説明した第1学習データ131における「項番」が「1」である情報には、「画像データ」として「IMAGEa1」が設定され、「種類」として「AAA」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa1」である画像データの特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「AAA」に対応する正解値(「1」、「0」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「1」との差、第1出力ニューロンNE11bから出力される値と「0」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。 For example, for the information whose "item number" is "1" in the first learning data 131 explained in FIG. 12, "IMAGEa1" is set as "image data" and "AAA" is set as "type". has been done. Therefore, for example, when the feature amount of the image data whose name is "IMAGEa1" is input from the input neuron NE13, the first model generation unit 113 generates a value output from each of the first output neurons NE11 and "AAA". The value corresponding to each weight in the first learning model is updated so that the difference from the correct value ("1", "0", and "0") corresponding to "" is reduced. Specifically, in this case, the first model generation unit 113 calculates the difference between the value output from the first output neuron NE11a and "1", and the difference between the value output from the first output neuron NE11b and "0". , and the value corresponding to each weight in the first learning model is updated so that the difference between the value output from the first output neuron NE11c and "0" becomes smaller.

また、例えば、図12で説明した第1学習データ131における「項番」が「2」である情報には、「画像データ」として「IMAGEa2」が設定され、「種類」として「BBB」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa2」である画像データまたはその特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「BBB」に対応する正解値(「0」、「1」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「0」との差、第1出力ニューロンNE11bから出力される値と「1」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。 For example, for the information whose "item number" is "2" in the first learning data 131 explained in FIG. 12, "IMAGEa2" is set as "image data" and "BBB" is set as "type". has been done. Therefore, for example, when image data whose name is "IMAGEa2" or its feature amount is input from the input neuron NE13, the first model generation unit 113 generates the values output from each of the first output neurons NE11 and "IMAGEa2". The value corresponding to each weight in the first learning model is updated so that the difference from the correct value ("0", "1", and "0") corresponding to "BBB" becomes smaller. Specifically, in this case, the first model generation unit 113 calculates the difference between the value output from the first output neuron NE11a and "0" and the difference between the value output from the first output neuron NE11b and "1". , and the value corresponding to each weight in the first learning model is updated so that the difference between the value output from the first output neuron NE11c and "0" becomes smaller.

なお、第1モデル生成部113は、第1出力ニューロンNE11からの出力値と正解値との比較を行う前に、第1出力ニューロンNE11からの出力値を第2出力ニューロンNE12からの出力値によって補正を行うものであってもよい。 Note that, before comparing the output value from the first output neuron NE11 with the correct value, the first model generation unit 113 converts the output value from the first output neuron NE11 into the output value from the second output neuron NE12. It may also be one that performs correction.

具体的に、第1モデル生成部113は、この場合、第2出力ニューロンNE12からの出力値が「0」に近いほど、第1出力ニューロンNE11からの出力値が正解値に近づくように補正を行う。一方、第1モデル生成部113は、第2出力ニューロンNE12からの出力値が「1」に近いほど、第1出力ニューロンNE11からの出力値の補正幅を小さくする。また、第1モデル生成部113は、この場合、第1出力ニューロンNE11からの出力値の補正幅が大きいほど大きい値のペナルティ値を設定する。そして、第1モデル生成部113は、第1出力ニューロンNE11からの出力値(補正後の値)と正解値との差及びペナルティ値の両方が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。 Specifically, in this case, the first model generation unit 113 corrects the output value from the first output neuron NE11 so that the closer the output value from the second output neuron NE12 is to "0", the closer the output value from the first output neuron NE11 is to the correct value. conduct. On the other hand, the first model generation unit 113 decreases the correction width of the output value from the first output neuron NE11 as the output value from the second output neuron NE12 approaches "1". Furthermore, in this case, the first model generation unit 113 sets a penalty value that is larger as the correction width of the output value from the first output neuron NE11 is larger. Then, the first model generation unit 113 adjusts each weight in the first learning model so that both the difference between the output value (value after correction) from the first output neuron NE11 and the correct value and the penalty value are small. Update the corresponding value.

[第2学習データ記憶処理]
次に、情報出力処理のうち、第2学習データ132の記憶を行う処理(以下、第2学習データ記憶処理とも呼ぶ)について説明を行う。図7は、第2学習データ記憶処理を説明するフローチャート図である。
[Second learning data storage process]
Next, of the information output processing, the processing for storing the second learning data 132 (hereinafter also referred to as the second learning data storage processing) will be explained. FIG. 7 is a flowchart illustrating the second learning data storage process.

情報受信部111は、図7に示すように、例えば、操作端末3から送信された複数の第2学習データ132を受信するまで待機する(S31のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第2学習データ132が操作端末3を介して送信されるまで待機する。 As shown in FIG. 7, the information receiving unit 111 waits, for example, until receiving the plurality of second learning data 132 transmitted from the operation terminal 3 (NO in S31). That is, the information receiving unit 111 waits until the second learning data 132 generated by the worker is transmitted via the operation terminal 3, for example.

そして、複数の第1学習データ131を受信した場合(S31のYES)、情報管理部112は、S31の処理で受信した複数の第2学習データ132を情報格納領域130に記憶する(S32)。以下、第2学習データ132の具体例について説明を行う。 When the plurality of first learning data 131 is received (YES in S31), the information management unit 112 stores the plurality of second learning data 132 received in the process of S31 in the information storage area 130 (S32). A specific example of the second learning data 132 will be described below.

[第2学習データの具体例]
図14は、第2学習データ132の具体例について説明する図である。
[Specific example of second learning data]
FIG. 14 is a diagram illustrating a specific example of the second learning data 132.

図14に示す第2学習データ132は、第2学習データ132のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物(対象物を含む枠)の左上の位置を示す「位置」と、各学習用画像データに含まれる対象物(対象物を含む枠)の幅を示す「幅」と、各学習用画像データに含まれる対象物(対象物を含む枠)の高さを示す「高さ」とを項目として有する。 The second learning data 132 shown in FIG. 14 includes "item number" indicating the identification information of each of the second learning data 132, "image data" indicating each learning image data itself, and each learning image data. "Position" indicating the upper left position of the included object (frame containing the object), "Width" indicating the width of the object (frame containing the object) included in each learning image data, and each learning The item "height" indicates the height of the object (the frame containing the object) included in the image data for use.

具体的に、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データを含み、さらに、「位置」が「10,32」であって「幅」が「10」であって「高さ」が「8」である対象物についての情報と、「位置」が「24,30」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「28,20」であって「幅」が「8」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データに含まれる3つの対象物についての情報を含んでいる。 Specifically, the second learning data 132 whose “item number” is “1” in FIG. 14 includes learning image data whose name is “IMAGEb1” and whose “position” is “10, 32”. information about an object whose "width" is "10" and "height" is "8", and information about an object whose "position" is "24,30" and whose "width" is "4". information about an object whose "height" is "2", its "position" is "28, 20", its "width" is "8", and its "height" is "6". This is learning data that includes information about the target object. That is, the second learning data 132 whose "item number" is "1" in FIG. 14 includes information about three objects included in the learning image data whose name is "IMAGEb1".

また、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データを含み、さらに、「位置」が「34,36」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「10,12」であって「幅」が「12」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データに含まれる2つの対象物についての情報を含んでいる。図14に含まれる他の第2学習データ132についての説明は省略する。 Further, the second learning data 132 whose “item number” is “2” in FIG. 14 includes learning image data whose name is “IMAGEb2”, and whose “position” is “34, 36”. Information about an object whose "width" is "4" and "height" is "2" and whose "position" is "10,12" and whose "width" is "12" and " This learning data includes information about an object whose height is "6". That is, the second learning data 132 whose "item number" in FIG. 14 is "2" includes information about two objects included in the learning image data whose name is "IMAGEb2". A description of the other second learning data 132 included in FIG. 14 will be omitted.

[第2モデル生成処理]
次に、情報出力処理のうち、第2モデルの生成を行う処理(以下、第2モデル生成処理とも呼ぶ)について説明を行う。図8は、第2モデル生成処理を説明するフローチャート図である。
[Second model generation process]
Next, of the information output processing, the processing for generating the second model (hereinafter also referred to as the second model generation processing) will be explained. FIG. 8 is a flowchart illustrating the second model generation process.

情報処理装置1の第1モデル生成部113は、図8に示すように、例えば、第2モデル生成タイミングになるまで待機する(S41のNO)。第2モデル生成タイミングは、例えば、作業者が第2モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。また、第2モデル生成タイミングは、例えば、第1モデルが生成された直後のタイミングであってよい。 As shown in FIG. 8, the first model generation unit 113 of the information processing device 1 waits, for example, until the second model generation timing comes (NO in S41). The second model generation timing may be, for example, the timing at which the operator inputs information to the information processing device 1 to the effect that the second model is to be generated. Further, the second model generation timing may be, for example, the timing immediately after the first model is generated.

そして、第2モデル生成タイミングになった場合(S41のYES)、第2モデル生成部114は、情報格納領域130に記憶された複数の第2学習データ132の学習を行うことにより、第2学習モデルを生成する(S42)。以下、S42の処理の具体例について説明を行う。 Then, when the second model generation timing has come (YES in S41), the second model generation unit 114 performs the second learning by learning the plurality of second learning data 132 stored in the information storage area 130. A model is generated (S42). A specific example of the process of S42 will be described below.

[S42の処理の具体例]
図15は、S42の処理の具体例について説明する図である。
[Specific example of processing in S42]
FIG. 15 is a diagram illustrating a specific example of the process of S42.

第2モデル生成部114は、図15に示すように、例えば、学習用画像データを分割した複数の分割画像データのそれぞれに対応する複数の出力ニューロンNE21を有する第2モデルMD02を生成する。図15に示す例において、出力ニューロンNE21には、学習用画像データを分割した16個の分割画像データのそれぞれに対応する出力ニューロンNE21a、NE21b、NE21c、NE21d、NE21e、NE21f、NE21g、NE21h、NE21i、NE21j、NE21k、NE21l、NE21m、NE21n、NE21о及びNE21pのそれぞれが含まれている。 As shown in FIG. 15, the second model generation unit 114 generates, for example, a second model MD02 having a plurality of output neurons NE21 corresponding to each of a plurality of divided image data obtained by dividing the learning image data. In the example shown in FIG. 15, the output neuron NE21 includes output neurons NE21a, NE21b, NE21c, NE21d, NE21e, NE21f, NE21g, NE21h, NE21i corresponding to each of the 16 divided image data obtained by dividing the learning image data. , NE21j, NE21k, NE21l, NE21m, NE21n, NE21о, and NE21p.

そして、例えば、図14で説明した第2学習データ132における「項番」が「3」である情報には、「画像データ」として「IMAGEb3」が設定され、「位置」、「幅」及び「高さ」として1つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb3」である画像データの分割画像データのうち、出力ニューロンNE21dに対応する分割画像データに対象物が含まれている場合において、名称が「IMAGEb3」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21dからの出力値と「1」との差、及び、出力ニューロンNE21d以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。 For example, for the information whose "item number" is "3" in the second learning data 132 explained in FIG. 14, "IMAGEb3" is set as "image data", and "position", "width" and " Information about one object is set as "Height". Therefore, for example, when the divided image data corresponding to the output neuron NE21d includes an object among the divided image data of the image data whose name is "IMAGEb3", the second model generation unit 114 is configured to When the feature quantity of the image data "IMAGEb3" is input from the input neuron NE23, the difference between the output value from the output neuron NE21d and "1" and the output from each of the output neurons NE21 other than the output neuron NE21d The values corresponding to each weight in the second learning model are updated so that the difference between the value and "0" becomes smaller.

また、例えば、図14で説明した第2学習データ132における「項番」が「2」である情報には、「画像データ」として「IMAGEb2」が設定され、「位置」、「幅」及び「高さ」として2つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb2」である画像データの分割画像データのうち、出力ニューロンNE21f及びNE21mに対応する分割画像データのそれぞれに対象物が含まれている場合において、名称が「IMAGEb2」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21f及びNE21mのそれぞれからの出力値と「1」との差、及び、これら以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。 Further, for example, for the information whose "item number" is "2" in the second learning data 132 explained in FIG. 14, "IMAGEb2" is set as "image data", and "position", "width" and " Information about the two objects is set as "height". Therefore, for example, if the second model generation unit 114 includes an object in each of the divided image data corresponding to the output neurons NE21f and NE21m among the divided image data of the image data whose name is "IMAGEb2" In, when the feature amount of the image data whose name is "IMAGEb2" is input from the input neuron NE23, the difference between the output value from each of the output neurons NE21f and NE21m and "1", and the output neurons other than these The values corresponding to each weight in the second learning model are updated so that the difference between the output value from each NE 21 and "0" becomes smaller.

[情報出力処理のメイン処理]
次に、情報出力処理のメイン処理について説明を行う。図9から図11は、情報出力処理のメイン処理を説明するフローチャート図である。
[Main processing of information output processing]
Next, the main processing of the information output processing will be explained. 9 to 11 are flowcharts illustrating the main processing of the information output processing.

情報処理装置1の結果取得部115は、図9に示すように、例えば、情報出力タイミングになるまで待機する(S51のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。 As shown in FIG. 9, the result acquisition unit 115 of the information processing device 1 waits, for example, until the information output timing comes (NO in S51). The information output timing may be, for example, the timing at which the operator inputs information indicating that monitoring of objects on the sea is to be started.

そして、情報出力タイミングになった場合(S51のYES)、結果取得部115は、動画データ133を取得する(S52)。 Then, when the information output timing has come (S51: YES), the result acquisition unit 115 acquires the video data 133 (S52).

続いて、結果取得部115は、S42の処理で生成した第2学習モデルを用いることによって、S52の処理で取得した動画データ133に含まれる複数の画像データごとに、各画像データに対象物が存在する確度を示す第2確度を取得する(S53)。以下、S53の処理の具体例について説明を行う。 Subsequently, by using the second learning model generated in the process of S42, the result acquisition unit 115 determines whether the target object is included in each image data for each of the plurality of image data included in the video data 133 acquired in the process of S52. A second accuracy indicating the existing accuracy is acquired (S53). A specific example of the process of S53 will be described below.

[S53の処理の具体例]
図16は、S53の処理の具体例について説明する図である。
[Specific example of processing in S53]
FIG. 16 is a diagram illustrating a specific example of the process of S53.

結果取得部115は、図16に示すように、例えば、動画データ133に含まれる画像データIMAGEc1を第2学習モデルMD02に入力する。そして、結果取得部115は、例えば、画像データIMAGEc1の入力に伴って第2学習モデルMD02の出力ニューロンNE21のそれぞれから出力された値を取得する。 As shown in FIG. 16, the result acquisition unit 115 inputs, for example, image data IMAGEc1 included in the video data 133 to the second learning model MD02. Then, the result acquisition unit 115 acquires, for example, the values output from each of the output neurons NE21 of the second learning model MD02 in response to the input of the image data IMAGEc1.

その後、結果取得部115は、例えば、第2学習モデルMD02から取得された値のそれぞれから、画像データIMAGEc1に含まれる対象物の位置の特定を行う。具体的に、結果取得部115は、図16に示すように、例えば、画像データIMAGEc1に含まれる対象物を含む部分画像データとして、部分画像データIMAGEd1、部分画像データIMAGEd2及び部分画像データIMAGEd3のそれぞれの位置の特定を行う。 After that, the result acquisition unit 115 identifies the position of the object included in the image data IMAGEc1, for example, from each of the values acquired from the second learning model MD02. Specifically, as shown in FIG. 16, the result acquisition unit 115, for example, obtains each of partial image data IMAGEd1, partial image data IMAGEd2, and partial image data IMAGEd3 as partial image data including the object included in the image data IMAGEc1. Identify the location of.

また、結果取得部115は、例えば、特定した対象物ごとに、第2学習モデルMD02の出力ニューロンNE2のそれぞれから出力された値のうち、各対象物の位置に対応する値の最大値を第2確度として取得する。 Further, the result acquisition unit 115 may, for example, calculate the maximum value of the values corresponding to the position of each object among the values output from each of the output neurons NE2 of the second learning model MD02 for each specified object. Obtained as 2 accuracy.

なお、画像データIMAGEc1に含まれる対象物の位置及び第2確度は、第2モデルMD02から出力されるものであってもよい。そして、結果取得部115は、この場合、第2モデルMD02から出力された各情報を取得するものであってもよい。 Note that the position of the object and the second accuracy included in the image data IMAGEc1 may be output from the second model MD02. In this case, the result acquisition unit 115 may acquire each piece of information output from the second model MD02.

図9に戻り、情報管理部112は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S53の処理で取得した第2確度を含む検出結果情報135を生成する(S54)。そして、情報管理部112は、生成した検出結果情報135を情報格納領域130に記憶する。以下、検出結果情報135の具体例について説明を行う。 Returning to FIG. 9, the information management unit 112 generates, for example, detection result information 135 including the second accuracy obtained in the process of S53 for each image data included in the video data 133 obtained in the process of S52 (S54 ). The information management unit 112 then stores the generated detection result information 135 in the information storage area 130. A specific example of the detection result information 135 will be described below.

[検出結果情報の具体例]
図17は、検出結果情報135の具体例について説明する図である。
[Specific example of detection result information]
FIG. 17 is a diagram illustrating a specific example of the detection result information 135.

図17に示す検出結果情報135は、検出結果情報135に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物に対応する第2確度を示す「第2確度」とを項目として有する。 The detection result information 135 shown in FIG. 17 includes an "item number" indicating each piece of information included in the detection result information 135, "partial image data" indicating identification information of partial image data including each target object, and each target object. It has an item "second accuracy" indicating a second accuracy corresponding to .

具体的に、図17に示す検出結果情報135において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定され、「第2確度」として「0.9」が設定されている。 Specifically, in the detection result information 135 shown in FIG. 17, for information whose "item number" is "1", "IMAGEd1" is set as "partial image data", and "0. 9" is set.

また、図17に示す検出結果情報135において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定され、「第2確度」として「0.7」が設定されている。図17に含まれる他の情報についての説明は省略する。 In addition, in the detection result information 135 shown in FIG. 17, for information whose "item number" is "2", "IMAGEd2" is set as "partial image data", and "0.7" is set as "second accuracy". is set. Description of other information included in FIG. 17 will be omitted.

なお、検出結果情報135は、S53の処理で特定した部分画像データの位置を示す情報を含むものであってもよい。 Note that the detection result information 135 may include information indicating the position of the partial image data identified in the process of S53.

図9に戻り、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データから、各画像データに含まれる対象物を含む部分画像データを取得する(S55)。 Returning to FIG. 9, the information management unit 112 acquires partial image data including the object included in each image data from the image data included in the video data 133 acquired in the process of S52 (S55).

具体的に、情報管理部112は、例えば、S53の処理で特定した部分画像データの位置を参照することによって、S52の処理で取得した動画データ133に含まれる各画像データから部分画像データの取得を行う。 Specifically, the information management unit 112 acquires partial image data from each image data included in the video data 133 acquired in the process of S52, for example, by referring to the position of the partial image data identified in the process of S53. I do.

なお、S53の処理で特定した部分画像データの位置を示す情報が検出結果情報135に含まれる場合、情報管理部112は、情報格納領域130に記憶された検出結果情報135を参照することによって、部分画像データの取得を行うものであってもよい。 Note that when the detection result information 135 includes information indicating the position of the partial image data identified in the process of S53, the information management unit 112 refers to the detection result information 135 stored in the information storage area 130. It is also possible to acquire partial image data.

そして、結果取得部115は、図10に示すように、S22の処理で生成した第1学習モデルを用いることによって、S55の処理で取得した部分画像データごとに、各部分画像データに含まれる対象物の種類の類別結果と、その類別結果の確度を示す第1確度とを取得する(S61)。以下、S61の処理の具体例について説明を行う。 Then, as shown in FIG. 10, by using the first learning model generated in the process of S22, the result acquisition unit 115 analyzes the target included in each partial image data for each partial image data acquired in the process of S55. A classification result of the type of object and a first accuracy indicating the accuracy of the classification result are obtained (S61). A specific example of the process in S61 will be described below.

[S61の処理の具体例]
図18は、S61の処理の具体例について説明する図である。
[Specific example of processing in S61]
FIG. 18 is a diagram illustrating a specific example of the process of S61.

結果取得部115は、図18に示すように、例えば、S55の処理で取得した部分画像データIMAGEd1を第1学習モデルMD01に入力する。そして、結果取得部115は、例えば、部分画像データIMAGEd1の入力に伴って第1学習モデルMD01の出力ニューロンNE11及び出力ニューロンNE12のそれぞれから出力された値と取得する。 As shown in FIG. 18, the result acquisition unit 115 inputs, for example, the partial image data IMAGEd1 acquired in the process of S55 to the first learning model MD01. Then, the result acquisition unit 115 acquires, for example, the values output from each of the output neuron NE11 and the output neuron NE12 of the first learning model MD01 in response to input of the partial image data IMAGEd1.

具体的に、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」である確度が「0.6」であり、「BBB」である確度が「0.3」であり、「CCC」である確度が「0.1」であることを示す情報を類別結果として取得する。 Specifically, as shown in FIG. 18, the result acquisition unit 115 determines that, for example, the probability that the type of the object included in the partial image data IMAGEd1 is "AAA" is "0.6", and the probability that the type of the object included in the partial image data IMAGEd1 is "BBB" is "0.6". Information indicating that a certain accuracy is "0.3" and that the accuracy of "CCC" is "0.1" is acquired as a classification result.

また、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類についての類別結果の第1確度として「0.9」を取得する。 Further, as shown in FIG. 18, the result acquisition unit 115 acquires, for example, "0.9" as the first accuracy of the classification result for the type of object included in the partial image data IMAGEd1.

図10に戻り、情報管理部112は、例えば、S55の処理で取得した部分画像データごとに、S61の処理で取得した類別結果と第1確度を含む類別結果情報134を生成する(S62)。そして、情報管理部112は、生成した類別結果情報134を情報格納領域130に記憶する。以下、類別結果情報134の具体例について説明を行う。 Returning to FIG. 10, the information management unit 112 generates, for example, classification result information 134 including the classification result obtained in the process of S61 and the first accuracy for each partial image data obtained in the process of S55 (S62). The information management unit 112 then stores the generated classification result information 134 in the information storage area 130. A specific example of the classification result information 134 will be described below.

[類別結果情報の具体例]
図19は、類別結果情報134の具体例について説明する図である。
[Specific example of classification result information]
FIG. 19 is a diagram illustrating a specific example of the classification result information 134.

図19に示す類別結果情報134は、類別結果情報134に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物の種類の類別結果を示す「類別結果」と、各対象物の種類についての類別結果の第1確度を示す「第1確度」とを項目として有する。 The classification result information 134 shown in FIG. 19 includes "item number" indicating each piece of information included in the classification result information 134, "partial image data" indicating identification information of partial image data including each object, and each object. The items include "classification result" indicating the classification result of the type of object, and "first accuracy" indicating the first accuracy of the classification result for each type of object.

具体的に、図19に示す類別結果情報134において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定されている。また、図19に示す類別結果情報134において、「項番」が「1」である情報には、「類別結果」として、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.6」、「0.3」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「1」である情報には、「第1確度」として「0.8」が設定されている。 Specifically, in the classification result information 134 shown in FIG. 19, "IMAGEd1" is set as "partial image data" for information whose "item number" is "1". In the classification result information 134 shown in FIG. 19, the information whose "item number" is "1" also includes the types of objects included in the partial image data IMAGEd1 as "AAA" and "BBB". ” and “CCC” with respective accuracies of “0.6,” “0.3,” and “0.1” are set. Furthermore, in the classification result information 134 shown in FIG. 19, "0.8" is set as the "first accuracy" for information whose "item number" is "1".

また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定されている。また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「類別結果」として、部分画像データIMAGEd2に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.2」、「0.7」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「2」である情報には、「第1確度」として「0.9」が設定されている。図19に含まれる他の情報についての説明は省略する。 Further, in the classification result information 134 shown in FIG. 19, "IMAGEd2" is set as "partial image data" for information whose "item number" is "2". In addition, in the classification result information 134 shown in FIG. 19, the information whose "item number" is "2" includes the types of objects included in the partial image data IMAGEd2 as "AAA" and "BBB". ” and “CCC” with respective accuracies of “0.2,” “0.7,” and “0.1” are set. Furthermore, in the classification result information 134 shown in FIG. 19, "0.9" is set as the "first accuracy" for information whose "item number" is "2". Description of other information included in FIG. 19 will be omitted.

図10に戻り、情報処理装置1の第2条件判定部117は、S55の処理で取得した部分画像データごとに、各部分画像データに対応する類別結果が第1条件を満たすか否か、及び、各部分画像データに対応する第1確度が第2条件を満たすか否かを判定する(S63)。 Returning to FIG. 10, the second condition determination unit 117 of the information processing device 1 determines, for each partial image data acquired in the process of S55, whether or not the classification result corresponding to each partial image data satisfies the first condition; , it is determined whether the first accuracy corresponding to each partial image data satisfies the second condition (S63).

具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が第1閾値よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。 Specifically, for example, if the classification result indicates that each object has a predetermined attribute (for example, a warship), the first condition determination unit 116 determines the classification result corresponding to each object. It is determined that the first condition is satisfied. Further, the first condition determination unit 116 determines that the first accuracy corresponding to each target object satisfies the second condition, for example, when the first accuracy corresponding to each target object is larger than the first threshold value. .

そして、情報処理装置1の結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した類別結果が第1条件を満たすと判定した部分画像データのそれぞれに含まれる対象物と、S61の処理で取得した第1確度が第2条件を満たすと判定した部分画像データのそれぞれに含まれる対象物とについてのアラートを操作端末3に出力する(S64)。以下、S64の処理の具体例について説明を行う。 Then, the result output unit 118 of the information processing device 1 selects the classification result obtained in the process of S61, which is included in each of the partial image data determined to satisfy the first condition, among the partial image data obtained in the process of S55. An alert is output to the operation terminal 3 regarding the target object and the target object included in each of the partial image data for which it is determined that the first accuracy obtained in the process of S61 satisfies the second condition (S64). A specific example of the process of S64 will be described below.

[S64の処理の具体例]
図20は、S64の処理の具体例について説明する図である。
[Specific example of processing in S64]
FIG. 20 is a diagram illustrating a specific example of the process of S64.

図20に示す情報のうちの「項番」が「1」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。また、図20に示す情報のうちの「項番」が「3」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。さらに、図20に示す情報のうちの「項番」が「4」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われることを示している。 Among the information shown in FIG. 20, for the information whose "item number" is "1", if the first accuracy is higher than the first threshold and the object requires monitoring, an alert is output. It is shown that. In addition, for the information whose "item number" is "3" among the information shown in FIG. 20, if the first accuracy is lower than the first threshold and the object requires monitoring, the alert output is indicates that it will be done. Furthermore, among the information shown in FIG. 20, the information whose "item number" is "4" does not output an alert if the first accuracy is lower than the first threshold and the object does not require monitoring. This indicates that the

一方、図20に示す情報のうちの「項番」が「2」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われないことを示している。 On the other hand, for the information whose "item number" is "2" among the information shown in FIG. 20, if the first accuracy is higher than the first threshold and the object does not require monitoring, an alert will not be output. It shows that it will not happen.

すなわち、第1確度が高く、かつ、監視を要しない種類の対象物は、作業者が検知を行う必要がない対象物(作業者が対処を行う必要がない対象物)である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が高く、かつ、監視を要しない種類の対象物を検出した場合、作業者に対する通知(アラートの出力)を行わない。 In other words, there is a strong possibility that a type of object that has a high first accuracy and does not require monitoring is an object that does not require a worker to detect (an object that does not require a worker to take action). It can be judged that it is high. Therefore, when the result output unit 118 detects an object of a type that has a high first accuracy and does not require monitoring, it does not notify the operator (output an alert).

これにより、情報処理装置1は、例えば、海上における対象物の監視に伴う作業の作業負担を軽減させることが可能になる。 This makes it possible for the information processing device 1 to reduce the workload associated with monitoring objects at sea, for example.

また、情報処理装置1の第1条件判定部116は、図11に示すように、S55の処理で取得した部分画像データごとに、各部分画像データに対応する第1確度が第2条件を満たすか否か、及び、各部分画像データに対応する第2確度が第3条件を満たすか否かを判定する(S71)。 Further, as shown in FIG. 11, the first condition determination unit 116 of the information processing device 1 determines that the first accuracy corresponding to each partial image data satisfies the second condition for each partial image data acquired in the process of S55. It is determined whether or not the second accuracy corresponding to each partial image data satisfies the third condition (S71).

具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が第2閾値よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。 Specifically, the second condition determination unit 117 determines that, for example, when the second accuracy corresponding to each target object is larger than the second threshold value, the second accuracy corresponding to each target object satisfies the third condition. judge.

そして、結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した第1確度が第2条件を満たさず、かつ、S53の処理で取得した第2確度が第3条件を満たす部分画像データに含まれる対象物が未学習であることを示す情報を出力する(S72)。以下、S72の処理の具体例について説明を行う。 Then, the result output unit 118 determines that among the partial image data acquired in the process of S55, the first accuracy acquired in the process of S61 does not satisfy the second condition, and that the second accuracy acquired in the process of S53 is the second accuracy. Information indicating that the object included in the partial image data that satisfies the three conditions has not been learned is output (S72). A specific example of the process of S72 will be described below.

[S72の処理の具体例]
図21は、S72の処理の具体例について説明する図である。図21に示すグラフでは、横軸が第1確度に対応し、縦軸が第2確度に対応する。
[Specific example of processing in S72]
FIG. 21 is a diagram illustrating a specific example of the process of S72. In the graph shown in FIG. 21, the horizontal axis corresponds to the first accuracy, and the vertical axis corresponds to the second accuracy.

図21に示すグラフは、例えば、第1確度が第1閾値を上回る対象物が第1学習モデル及び第2学習モデルにおいて既に学習済の対象物であると判定されることを示している。 The graph shown in FIG. 21 shows that, for example, an object whose first accuracy exceeds the first threshold is determined to be an object that has already been learned in the first learning model and the second learning model.

また、図21に示すグラフは、例えば、第1確度が第1閾値を下回る対象物が第1学習モデル及び第2学習モデルにおいて未学習である可能性がある対象物であると判定されることを示している。 Further, the graph shown in FIG. 21 shows that, for example, an object whose first accuracy is less than the first threshold is determined to be an object that may not have been learned in the first learning model and the second learning model. It shows.

さらに、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を下回る対象物が、学習済の対象物であるが動画データ133に含まれるノイズ等の影響によって種類の判断が困難な対象物であると判定されることを示している。また、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を上回る対象物が、未学習の対象物であると判定されることを示している。 Furthermore, the graph shown in FIG. 21 shows that an object whose first accuracy is less than the first threshold and whose second threshold is less than the second threshold is a learned object, but noise contained in the video data 133, etc. This indicates that the object is judged to be difficult to determine its type due to the influence of Furthermore, the graph shown in FIG. 21 indicates that an object whose first accuracy is less than the first threshold and whose second threshold is greater than the second threshold is determined to be an unlearned object. .

すなわち、第1確度が低く、かつ、第2確度が高い対象物は、第1学習モデル及び第2学習モデルにおいてまで学習されていない対象物である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が低く、かつ、第2確度が高い対象物が存在する場合、その対象物を未学習の対象物として特定する。 In other words, it can be determined that an object for which the first accuracy is low and the second accuracy is high is extremely likely to be an object that has not been learned in the first learning model and the second learning model. Therefore, when there is an object for which the first accuracy is low and the second accuracy is high, the result output unit 118 identifies the object as an unlearned object.

これにより、情報処理装置1は、第1確度が低い対象物のそれぞれを、学習済の対象物と未学習の対象物とのいずれかに分類することが可能になる。そして、作業者は、例えば、未学習の対象物として特定した対象物のみを第1学習モデル及び第2学習モデルに学習させることで、各学習モデルの精度を高めることが可能になる。 This makes it possible for the information processing device 1 to classify each object with a low first accuracy into either a learned object or an unlearned object. Then, for example, the operator can increase the accuracy of each learning model by having the first learning model and the second learning model learn only the object specified as an unlearned object.

このように、本実施の形態における情報処理装置1は、第1学習モデルを用いることによって、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の第1確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。 In this way, the information processing device 1 according to the present embodiment uses the first learning model to obtain classification results for each type of object included in the plurality of image data constituting the video data 133, and and the first accuracy of the classification result. Then, the information processing device 1 determines, for each object included in the plurality of image data, whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object. Make a judgment. Thereafter, the information processing device 1 outputs information indicating that the object that is determined to satisfy a predetermined condition among the objects included in the plurality of image data is the object to be monitored.

すなわち、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類(例えば、予め定められた監視対象の種類)に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値(例えば、予め定められた閾値)よりも高い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要がないと判断する。一方、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。 That is, for example, if the type corresponding to the classification result output by the first learning model is not included in the types of monitoring targets (for example, a predetermined type of monitoring target), the first learning model If there is an object for which the accuracy of the classification result outputted by is higher than a predetermined threshold (for example, a predetermined threshold), the information processing device 1 determines that there is no need to monitor the existing object. to decide. On the other hand, for example, if the type corresponding to the classification result output by the first learning model is included in the types of the monitored object, or if the accuracy of the classification result output by the first learning model is lower than a predetermined threshold value, If a low target object exists, the information processing device 1 determines that it is necessary to monitor the existing target object.

これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による監視を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。 As a result, the information processing device 1 can use the first learning model to identify objects that need to be visually monitored by the operator. Therefore, the information processing device 1 can suppress the burden on the worker associated with monitoring the object.

以上の実施の形態をまとめると、以下の付記のとおりである。 The above embodiments can be summarized as follows.

(付記1)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Additional note 1)
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
For each object included in the plurality of images, it is determined whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object,
Outputting information indicating that the object that is determined to satisfy the predetermined condition among the objects included in the plurality of images is a monitoring target;
An information output program characterized by causing a computer to execute processing.

(付記2)
付記1において、さらに、
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Additional note 2)
In Appendix 1, further,
Before the process of acquiring the classification result and the first accuracy, a plurality of first learning images each including a learning image including a target object and information indicating a candidate type of the target object included in the learning image are performed. generating the first learning model by performing data learning;
An information output program characterized by causing a computer to execute processing.

(付記3)
付記1において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。
(Additional note 3)
In Appendix 1,
In the process of performing the determination, for each target object included in the plurality of images, it is determined whether the classification result corresponding to each target object satisfies a first condition, and the first accuracy corresponding to each target object. Determine whether or not satisfies the second condition,
In the outputting process, among the objects included in the plurality of images, the classification result determines that the classification result satisfies the first condition, and the first accuracy determines that the object satisfies the second condition. Output alerts about and,
An information output program characterized by:

(付記4)
付記3において、
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Additional note 4)
In Appendix 3,
In the determination process, if the classification result indicates that each object has a predetermined attribute, the classification result corresponding to each object satisfies the first condition. judge,
An information output program characterized by:

(付記5)
付記3において、
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 5)
In Appendix 3,
In the process of performing the determination, if the first accuracy corresponding to each target object is larger than a first threshold value, it is determined that the first accuracy corresponding to each target object satisfies the second condition.
An information output program characterized by:

(付記6)
付記3において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力プログラム。
(Appendix 6)
In Appendix 3, further,
obtaining a second accuracy indicating the probability that the object exists in each of the plurality of images by using a second learning model that has learned position information of the object in the image;
Let the computer carry out the process,
In the process of performing the determination, it is determined for each target object included in the plurality of images whether the first accuracy corresponding to each target object satisfies the second condition, and determining whether the second accuracy satisfies a third condition;
In the outputting process, among the objects included in the plurality of images, an object whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition is unlearned. Output information indicating that there is a
An information output program characterized by:

(付記7)
付記6において、さらに、
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 7)
In Appendix 6, further,
Before the process of acquiring the second accuracy, learning a plurality of second learning data each including a learning image including a target object and position information of the target in the learning image, thereby obtaining the second accuracy. 2 Generate a learning model,
An information output program characterized by causing a computer to execute processing.

(付記8)
付記6において、
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 8)
In Appendix 6,
In the process of performing the determination, if the second accuracy corresponding to each target object is larger than a second threshold, it is determined that the second accuracy corresponding to each target object satisfies the third condition.
An information output program characterized by:

(付記9)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 9)
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
By using a second learning model that has learned position information of the target object in the image, a second accuracy indicating the probability that the target object exists in each of the plurality of images is obtained;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies the other conditions. Determine whether it satisfies or not,
Among the objects included in the plurality of images, information indicating that an object for which the first accuracy does not satisfy the condition and whose second accuracy satisfies the other condition is unlearned. ,
An information output program characterized by causing a computer to execute processing.

(付記10)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う第1条件判定部と、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する結果出力部と、を有する、
ことを特徴とする情報出力装置。
(Appendix 10)
an information acquisition unit that acquires moving images;
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. a result acquisition unit that acquires a classification result for each type and a first accuracy indicating the accuracy of the classification result;
a first condition for determining whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object for each object included in the plurality of images; A determination section;
a result output unit that outputs information indicating that an object that is determined to satisfy the predetermined condition among the objects included in the plurality of images is a monitoring target;
An information output device characterized by:

(付記11)
付記10において、
前記第1条件判定部は、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力装置。
(Appendix 11)
In Appendix 10,
The first condition determining unit determines, for each object included in the plurality of images, whether or not the classification result corresponding to each object satisfies a first condition, and whether or not the classification result corresponding to each object satisfies the first condition. Determine whether the accuracy satisfies the second condition,
The result output unit selects, among the objects included in the plurality of images, an object for which the classification result has determined to satisfy the first condition and an object for which the first accuracy has determined to satisfy the second condition. Output alerts about and,
An information output device characterized by:

(付記12)
付記11において、
前記結果取得部は、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、さらに、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定する第2条件判定部を有し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力装置。
(Appendix 12)
In Appendix 11,
The result acquisition unit acquires a second probability indicating the probability that the target object exists in each of the plurality of images by using a second learning model that has learned position information of the target object in the image, and further,
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies the second condition, and the second accuracy corresponding to each object is determined to be a second condition determination unit that determines whether the three conditions are satisfied;
The result output unit determines that, among the objects included in the plurality of images, an object for which the first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition is unlearned. Output information indicating that there is a
An information output device characterized by:

(付記13)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。
(Appendix 13)
an information acquisition unit that acquires moving images;
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, By obtaining the classification results for each type and the first accuracy indicating the accuracy of the classification results, and further using a second learning model that has learned the position information of the object in the images, a result acquisition unit that acquires a second accuracy indicating the accuracy that the target object exists in each case;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies the other conditions. a second condition determination unit that determines whether or not the condition is satisfied;
Among the objects included in the plurality of images, information indicating that an object for which the first accuracy does not satisfy the condition and whose second accuracy satisfies the other condition is unlearned. having a result acquisition section;
An information output device characterized by:

(付記14)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
(Appendix 14)
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
For each object included in the plurality of images, it is determined whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object,
Outputting information indicating that the object that is determined to satisfy the predetermined condition among the objects included in the plurality of images is a monitoring target;
An information output method characterized by causing a computer to perform processing.

(付記15)
付記14において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力方法。
(Appendix 15)
In Appendix 14,
In the process of performing the determination, for each target object included in the plurality of images, it is determined whether the classification result corresponding to each target object satisfies a first condition, and the first accuracy corresponding to each target object. Determine whether or not satisfies the second condition,
In the outputting process, among the objects included in the plurality of images, the classification result determines that the classification result satisfies the first condition, and the first accuracy determines that the object satisfies the second condition. Output alerts about and,
An information output method characterized by:

(付記16)
付記15において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力方法。
(Appendix 16)
In addition 15, further,
obtaining a second accuracy indicating the probability that the object exists in each of the plurality of images by using a second learning model that has learned position information of the object in the image;
Let the computer carry out the process,
In the process of performing the determination, it is determined for each target object included in the plurality of images whether the first accuracy corresponding to each target object satisfies the second condition, and determining whether the second accuracy satisfies a third condition;
In the outputting process, among the objects included in the plurality of images, objects for which the first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that there is a
An information output method characterized by:

(付記17)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
(Appendix 17)
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
By using a second learning model that has learned position information of the target object in the image, a second accuracy indicating the probability that the target object exists in each of the plurality of images is obtained;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies the other conditions. Determine whether it satisfies or not,
Outputting information indicating that, among the objects included in the plurality of images, an object whose first accuracy does not satisfy the condition and whose second accuracy satisfies the other condition has not been learned. ,
An information output method characterized by causing a computer to perform processing.

1:情報処理装置 3:操作端末
10:情報処理システム NW:ネットワーク
1: Information processing device 3: Operation terminal 10: Information processing system NW: Network

Claims (10)

動画像を取得し、Obtain video images,
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、By using a second learning model that has learned position information of the target object in the image, a second accuracy indicating the probability that the target object exists in each of the plurality of images is obtained;
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies a second condition, and the second accuracy corresponding to each object satisfies a third condition. Determine whether the conditions are met,
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、Information indicating that among the objects included in the plurality of images, an object for which the first accuracy does not satisfy the second condition and for which the second accuracy satisfies the third condition has not been learned. Output,
処理をコンピュータに実行させることを特徴とする情報出力プログラム。An information output program characterized by causing a computer to execute processing.
請求項1において、
記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
In claim 1,
For each object included in the plurality of images, it is determined whether each object satisfies a predetermined condition based on the classification result and the first accuracy corresponding to each object,
Outputting information indicating that the object that is determined to satisfy the predetermined condition among the objects included in the plurality of images is a monitoring target;
An information output program characterized by causing a computer to execute processing.
請求項において、さらに、
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
In claim 2 , further:
Before the process of acquiring the classification result and the first accuracy, a plurality of first learning images each including a learning image including a target object and information indicating a candidate type of the target object included in the learning image are performed. generating the first learning model by performing data learning;
An information output program characterized by causing a computer to execute processing.
請求項において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。
In claim 2 ,
In the process of performing the determination, for each target object included in the plurality of images, it is determined whether the classification result corresponding to each target object satisfies a first condition, and the first accuracy corresponding to each target object. Determine whether or not satisfies the second condition,
In the outputting process, among the objects included in the plurality of images, the classification result determines that the classification result satisfies the first condition, and the first accuracy determines that the object satisfies the second condition. Output alerts about and,
An information output program characterized by:
請求項において、
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
In claim 4 ,
In the determination process, if the classification result indicates that each object has a predetermined attribute, the classification result corresponding to each object satisfies the first condition. judge,
An information output program characterized by:
請求項において、
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
In claim 4 ,
In the process of performing the determination, if the first accuracy corresponding to each target object is larger than a first threshold value, it is determined that the first accuracy corresponding to each target object satisfies the second condition.
An information output program characterized by:
請求項において、さらに、
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
In claim 1 , further:
Before the process of acquiring the second accuracy, learning a plurality of second learning data each including a learning image including a target object and position information of the target in the learning image, thereby obtaining the second accuracy. 2 Generate a learning model,
An information output program characterized by causing a computer to execute processing.
請求項において、
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
In claim 1 ,
In the process of performing the determination, if the second accuracy corresponding to each target object is larger than a second threshold, it is determined that the second accuracy corresponding to each target object satisfies the third condition.
An information output program characterized by:
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。
an information acquisition unit that acquires moving images;
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. By acquiring the classification results for each type and the first accuracy indicating the accuracy of the classification results, and further using a second learning model that has learned the position information of the object in the images, a result acquisition unit that acquires a second accuracy indicating the accuracy that the target object exists in each case;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies a second condition, and the second accuracy corresponding to each object satisfies a third condition. a second condition determination unit that determines whether the condition is satisfied;
Information indicating that among the objects included in the plurality of images, an object for which the first accuracy does not satisfy the second condition and for which the second accuracy satisfies the third condition has not been learned. It has a result acquisition unit that outputs.
An information output device characterized by:
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
Obtain video images,
By using a first learning model that has learned candidate types of objects included in an image and the probability that the type of the object is the candidate type, it is possible to determine the type of objects included in the plurality of images constituting the moving image. Obtaining a classification result for each type and a first accuracy indicating the accuracy of the classification result,
By using a second learning model that has learned position information of the target object in the image, a second accuracy indicating the probability that the target object exists in each of the plurality of images is obtained;
For each object included in the plurality of images, it is determined whether the first accuracy corresponding to each object satisfies a second condition, and the second accuracy corresponding to each object satisfies a third condition. Determine whether the conditions are met,
Information indicating that among the objects included in the plurality of images, an object for which the first accuracy does not satisfy the second condition and for which the second accuracy satisfies the third condition has not been learned. Output,
An information output method characterized by causing a computer to perform processing.
JP2020000996A 2020-01-07 2020-01-07 Information output program, information output device, and information output method Active JP7436801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020000996A JP7436801B2 (en) 2020-01-07 2020-01-07 Information output program, information output device, and information output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020000996A JP7436801B2 (en) 2020-01-07 2020-01-07 Information output program, information output device, and information output method

Publications (2)

Publication Number Publication Date
JP2021111027A JP2021111027A (en) 2021-08-02
JP7436801B2 true JP7436801B2 (en) 2024-02-22

Family

ID=77059894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020000996A Active JP7436801B2 (en) 2020-01-07 2020-01-07 Information output program, information output device, and information output method

Country Status (1)

Country Link
JP (1) JP7436801B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076073A (en) 2014-10-06 2016-05-12 日本電気株式会社 Data processing device, data processing method, and computer program
JP2018152106A (en) 2018-05-02 2018-09-27 株式会社日立国際電気 System for detecting invasion on water and method for the same
JP2019021313A (en) 2017-07-14 2019-02-07 シナプス テクノロジー コーポレイション Detection of items

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076073A (en) 2014-10-06 2016-05-12 日本電気株式会社 Data processing device, data processing method, and computer program
JP2019021313A (en) 2017-07-14 2019-02-07 シナプス テクノロジー コーポレイション Detection of items
JP2018152106A (en) 2018-05-02 2018-09-27 株式会社日立国際電気 System for detecting invasion on water and method for the same

Also Published As

Publication number Publication date
JP2021111027A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
KR101910542B1 (en) Image Analysis Method and Server Apparatus for Detecting Object
JP6036824B2 (en) Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program
JP5701005B2 (en) Object detection apparatus, object detection method, surveillance camera system, and program
US20150310297A1 (en) Systems and methods for computer vision background estimation using foreground-aware statistical models
KR102002812B1 (en) Image Analysis Method and Server Apparatus for Detecting Object
JP2008234551A (en) Abnormality detection apparatus and abnormality detection program
KR100982347B1 (en) smoke sensing method and system
EP3151160B1 (en) Visual attention detector and visual attention detection method
JP2016085487A (en) Information processing device, information processing method and computer program
WO2013005815A1 (en) Object detection device, object detection method, and program
US20220245405A1 (en) Deterioration suppression program, deterioration suppression method, and non-transitory computer-readable storage medium
US20200250471A1 (en) Information processing apparatus, information processing method, and medium
US8923552B2 (en) Object detection apparatus and object detection method
JP2018205900A (en) Monitoring system and monitoring method
JP2018026115A (en) Flame detection method, flame detector, and electronic apparatus
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
JP5155110B2 (en) Monitoring device
JP7436801B2 (en) Information output program, information output device, and information output method
JP2020160804A (en) Information processing device, program, and information processing method
US11521392B2 (en) Image processing apparatus and image processing method for image analysis process
JPWO2018179119A1 (en) Video analysis device, video analysis method, and program
US11887331B2 (en) Information processing apparatus, control method, and non-transitory storage medium
CN111784750A (en) Method, device and equipment for tracking moving object in video image and storage medium
JP7243372B2 (en) Object tracking device and object tracking method
JP2019028577A (en) Device, method and program for determining animal species

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7436801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150