JP2021111027A - Information output program, information output device and information output method - Google Patents

Information output program, information output device and information output method Download PDF

Info

Publication number
JP2021111027A
JP2021111027A JP2020000996A JP2020000996A JP2021111027A JP 2021111027 A JP2021111027 A JP 2021111027A JP 2020000996 A JP2020000996 A JP 2020000996A JP 2020000996 A JP2020000996 A JP 2020000996A JP 2021111027 A JP2021111027 A JP 2021111027A
Authority
JP
Japan
Prior art keywords
accuracy
information
images
condition
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020000996A
Other languages
Japanese (ja)
Other versions
JP7436801B2 (en
Inventor
美穂 八木橋
Miho Yagihashi
美穂 八木橋
広志 森本
Hiroshi Morimoto
広志 森本
亮啓 平嶋
Keisuke Hirashima
亮啓 平嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020000996A priority Critical patent/JP7436801B2/en
Publication of JP2021111027A publication Critical patent/JP2021111027A/en
Application granted granted Critical
Publication of JP7436801B2 publication Critical patent/JP7436801B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information output program, an information output device and an information output method which can efficiently monitor an object reflected in a dynamic image.SOLUTION: An information output device acquires a dynamic image; acquires a classification result about each type of an object included in a plurality of images constituting the dynamic image, and a first degree of certainty indicating a degree of certainty of the classification result, by using a first learning model which has learned a type candidate of the object included in the image and the degree of certainty that a type of the object is the type candidate; determines whether or not each object satisfies a predetermined condition, based on the classification result corresponding to each object and the first degree of certainty, for each object included in the plurality of images; and outputs information indicating that the object which has been determined to satisfy the predetermined condition is a monitoring object, among the objects included in the plurality of images.SELECTED DRAWING: Figure 18

Description

本発明は、情報出力プログラム、情報出力装置及び情報出力方法に関する。 The present invention relates to an information output program, an information output device, and an information output method.

例えば、海上哨戒や沿岸監視等の分野では、監視領域において撮影された動画像の内容を作業者が確認することにより、動画像に映る対象物(例えば、不審船等)の検出や種類の特定等を行う。具体的に、作業者は、例えば、撮影された動画像において複数の対象物を検出した場合、それぞれの対象物についての種類の特定等を目視によって行う(例えば、特許文献1参照)。 For example, in fields such as maritime patrols and coastal surveillance, workers can check the contents of moving images taken in the monitoring area to detect objects (for example, suspicious ships) and identify the types of objects reflected in the moving images. And so on. Specifically, for example, when a plurality of objects are detected in a captured moving image, the operator visually identifies the type of each object (see, for example, Patent Document 1).

国際公開第2018/173800号International Publication No. 2018/173800

しかしながら、検出された対象物の全てを監視対象として出力してしまうと、動画像に映る対象物の監視を効率的に行うことができないといった問題がある。 However, if all the detected objects are output as monitoring targets, there is a problem that the objects displayed in the moving image cannot be efficiently monitored.

そこで、一つの側面では、本発明は、動画像に映る対象物の監視を効率的に行うことを可能とする情報出力プログラム、情報出力装置及び情報出力方法を提供することを目的とする。 Therefore, in one aspect, it is an object of the present invention to provide an information output program, an information output device, and an information output method that enable efficient monitoring of an object displayed in a moving image.

実施の形態の一態様では、動画像を取得し、画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。 In one aspect of the embodiment, the first learning model is used by acquiring a moving image and learning the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate. The categorization result for each type of the object included in the plurality of images constituting the moving image and the first accuracy indicating the accuracy of the categorization result are acquired, and for each object included in the plurality of images, Based on the categorization result corresponding to each object and the first accuracy, it is determined whether or not each object satisfies a predetermined condition, and among the objects included in the plurality of images, the predetermined object is determined. Outputs information indicating that the object determined to satisfy the condition of is the monitoring target.

一つの側面によれば、動画に映る対象物の監視を効率的に行うことを可能とする。 According to one aspect, it is possible to efficiently monitor the object shown in the moving image.

図1は、情報処理システム10の構成について説明する図である。FIG. 1 is a diagram illustrating a configuration of the information processing system 10. 図2は、情報処理装置1のハードウエア構成を説明する図である。FIG. 2 is a diagram illustrating a hardware configuration of the information processing device 1. 図3は、情報処理装置1の機能のブロック図である。FIG. 3 is a block diagram of the function of the information processing device 1. 図4は、第1の実施の形態における情報出力処理の概略を説明するフローチャート図である。FIG. 4 is a flowchart illustrating an outline of the information output process according to the first embodiment. 図5は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 5 is a flowchart illustrating the details of the information output processing according to the first embodiment. 図6は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 6 is a flowchart illustrating the details of the information output processing according to the first embodiment. 図7は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 7 is a flowchart illustrating the details of the information output processing according to the first embodiment. 図8は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 8 is a flowchart illustrating the details of the information output processing according to the first embodiment. 図9は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 9 is a flowchart illustrating the details of the information output processing according to the first embodiment. 図10は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 10 is a flowchart illustrating the details of the information output processing according to the first embodiment. 図11は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。FIG. 11 is a flowchart illustrating the details of the information output processing according to the first embodiment. 図12は、第1学習データ131の具体例について説明する図である。FIG. 12 is a diagram illustrating a specific example of the first learning data 131. 図13は、S22の処理の具体例について説明を行う。FIG. 13 describes a specific example of the process of S22. 図14は、第2学習データ132の具体例について説明する図である。FIG. 14 is a diagram illustrating a specific example of the second learning data 132. 図15は、S42の処理の具体例について説明する図である。FIG. 15 is a diagram illustrating a specific example of the process of S42. 図16は、S53の処理の具体例について説明する図である。FIG. 16 is a diagram illustrating a specific example of the processing of S53. 図17は、検出結果情報135の具体例について説明する図である。FIG. 17 is a diagram illustrating a specific example of the detection result information 135. 図18は、S61の処理の具体例について説明する図である。FIG. 18 is a diagram illustrating a specific example of the processing of S61. 図19は、類別結果情報134の具体例について説明する図である。FIG. 19 is a diagram illustrating a specific example of the classification result information 134. 図20は、S64の処理の具体例について説明する図である。FIG. 20 is a diagram illustrating a specific example of the processing of S64. 図21は、S72の処理の具体例について説明する図である。FIG. 21 is a diagram illustrating a specific example of the process of S72.

[情報処理システムの構成]
初めに、情報処理システム10の構成について説明を行う。図1は、情報処理システム10の構成について説明する図である。
[Information processing system configuration]
First, the configuration of the information processing system 10 will be described. FIG. 1 is a diagram illustrating a configuration of the information processing system 10.

図1に示す情報処理システム10は、情報処理装置1と、操作端末3とを有する。操作端末3は、例えば、作業者が必要な情報の入力等を行うPC(Personal Computer)であって、インターネット等のネットワークNWを介して情報処理装置1とアクセスが可能である。 The information processing system 10 shown in FIG. 1 includes an information processing device 1 and an operation terminal 3. The operation terminal 3 is, for example, a PC (Personal Computer) in which an operator inputs necessary information and the like, and can access the information processing device 1 via a network NW such as the Internet.

情報処理装置1は、例えば、監視領域において撮影された動画像(以下、動画データとも呼ぶ)を構成する各画像(以下、画像データとも呼ぶ)に含まれる対象物の種類の候補(以下、種類候補とも呼ぶ)と、その種類候補が対象物の種類として正解である確度(例えば、確率)とを学習した学習モデル(以下、第1学習モデルとも呼ぶ)を用いることにより、各画像データに含まれる対象物のうち、作業者が目視で確認を行う必要がある対象物の特定を行う。 The information processing device 1 is, for example, a candidate (hereinafter, type) of an object type included in each image (hereinafter, also referred to as image data) constituting a moving image (hereinafter, also referred to as moving image data) captured in a monitoring area. It is included in each image data by using a learning model (hereinafter, also referred to as a first learning model) that learns (also referred to as a candidate) and the probability (for example, probability) that the type candidate is the correct answer as the type of the object. Among the objects to be processed, identify the objects that the operator needs to visually check.

具体的に、情報処理装置1は、例えば、第1学習モデルを用いることによって、複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。 Specifically, the information processing apparatus 1 acquires, for example, a categorized result for each type of an object included in a plurality of image data and the accuracy of the categorized result by using the first learning model. Then, the information processing device 1 determines whether or not each object satisfies a predetermined condition based on the classification result and the accuracy corresponding to each object for each object included in the plurality of image data. conduct. After that, the information processing device 1 outputs information indicating that, among the objects included in the plurality of image data, the object determined to satisfy a predetermined condition is the monitoring target.

すなわち、従来では、例えば、対象物の検出等を行う必要がある動画像が頻繁に発生する場合、対象物の検出等に伴う作業者の負担が増大する可能性があった。また、例えば、確認を行う必要がある対象物の数が今後さらに増大する場合、必要な数の作業者の確保が将来的に困難になる可能性がある。 That is, in the past, for example, when moving images that require detection of an object or the like frequently occur, there is a possibility that the burden on the operator due to the detection of the object or the like will increase. Further, for example, if the number of objects that need to be confirmed increases further in the future, it may become difficult to secure the required number of workers in the future.

そこで、本実施の形態における情報処理装置1は、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも高い対象物が存在する場合、存在した対象物についての監視を行う必要がないと判断する。また、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。 Therefore, the information processing device 1 in the present embodiment is, for example, an object whose type corresponding to the classification result output by the first learning model is not included in the type of the monitoring target, and is based on the first learning model. When there is an object whose accuracy of the output classification result is higher than a predetermined threshold value, it is determined that it is not necessary to monitor the existing object. Further, for example, an object in which the type corresponding to the classification result output by the first learning model is included in the type of the monitoring target, or the accuracy of the classification result output by the first learning model is higher than a predetermined threshold value. When a low object exists, the information processing apparatus 1 determines that it is necessary to monitor the existing object.

そして、情報処理装置1は、例えば、監視を行う必要があると判断した対象物についての情報のみを操作端末3に出力する。その後、作業者は、例えば、操作端末3に情報が出力された対象物についての種類の特定等を目視によって行う。 Then, the information processing device 1 outputs, for example, only the information about the object determined to need to be monitored to the operation terminal 3. After that, the operator visually identifies the type of the object whose information is output to the operation terminal 3, for example.

これにより、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。 As a result, the information processing device 1 can suppress the burden on the operator due to the monitoring of the object.

[情報処理システムのハードウエア構成]
次に、情報処理システム10のハードウエア構成について説明する。図2は、情報処理装置1のハードウエア構成を説明する図である。
[Hardware configuration of information processing system]
Next, the hardware configuration of the information processing system 10 will be described. FIG. 2 is a diagram illustrating a hardware configuration of the information processing device 1.

情報処理装置1は、図2に示すように、プロセッサであるCPU101と、メモリ102と、通信装置103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。 As shown in FIG. 2, the information processing device 1 includes a CPU 101 which is a processor, a memory 102, a communication device 103, and a storage medium 104. The parts are connected to each other via the bus 105.

記憶媒体104は、例えば、作業者が監視を行う必要がある対象物を示す情報を出力する処理(以下、情報出力処理とも呼ぶ)を行うためのプログラム110を記憶するプログラム格納領域(図示しない)を有する。また、記憶媒体104は、例えば、情報出力処理を行う際に用いられる情報を記憶する記憶部130(以下、情報格納領域130とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。 The storage medium 104 is, for example, a program storage area (not shown) for storing a program 110 for performing a process of outputting information indicating an object that an operator needs to monitor (hereinafter, also referred to as an information output process). Has. Further, the storage medium 104 has, for example, a storage unit 130 (hereinafter, also referred to as an information storage area 130) for storing information used when performing information output processing. The storage medium 104 may be, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

CPU101は、記憶媒体104からメモリ102にロードされたプログラム110を実行して情報出力処理を行う。 The CPU 101 executes the program 110 loaded from the storage medium 104 into the memory 102 to perform information output processing.

また、通信装置103は、例えば、ネットワークNWを介して操作端末3との通信を行う。 Further, the communication device 103 communicates with the operation terminal 3 via, for example, the network NW.

[情報処理システムの機能]
次に、情報処理システム10の機能について説明を行う。図3は、情報処理装置1の機能のブロック図である。
[Information processing system functions]
Next, the function of the information processing system 10 will be described. FIG. 3 is a block diagram of the function of the information processing device 1.

情報処理装置1は、図3に示すように、例えば、CPU101やメモリ102等のハードウエアとプログラム110とが有機的に協働することにより、情報受信部111(以下、情報取得部111とも呼ぶ)と、情報管理部112と、第1モデル生成部113と、第2モデル生成部114と、結果取得部115と、第1条件判定部116と、第2条件判定部117と、結果出力部118と、を含む各種機能を実現する。 As shown in FIG. 3, the information processing device 1 is, for example, an information receiving unit 111 (hereinafter, also referred to as an information acquisition unit 111) by organically collaborating with hardware such as a CPU 101 and a memory 102 and a program 110. ), The information management unit 112, the first model generation unit 113, the second model generation unit 114, the result acquisition unit 115, the first condition determination unit 116, the second condition determination unit 117, and the result output unit. Realizes various functions including 118.

また、情報処理装置1は、例えば、図3に示すように、第1学習データ131と、第2学習データ132と、動画データ133と、類別結果情報134と、検出結果情報135とを情報格納領域130に記憶する。 Further, as shown in FIG. 3, the information processing apparatus 1 stores, for example, the first learning data 131, the second learning data 132, the moving image data 133, the classification result information 134, and the detection result information 135. Store in area 130.

情報受信部111は、例えば、作業者が操作端末3を介して入力した各種情報を受信する。具体的に、情報受信部111は、例えば、第1学習モデルの生成に用いられる第1学習データ131を受信する。第1学習データ131は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の種類を示す情報とをそれぞれ含む学習データである。 The information receiving unit 111 receives, for example, various information input by the operator via the operation terminal 3. Specifically, the information receiving unit 111 receives, for example, the first learning data 131 used for generating the first learning model. The first learning data 131 is, for example, learning data including a learning image including an object and information indicating a type of the object included in the learning image.

また、情報受信部111は、例えば、第2学習モデルの生成に用いられる第2学習データ132を受信する。第2学習データ132は、例えば、対象物を含む学習用画像と、その学習用画像に含まれる対象物の位置情報とをそれぞれ含む学習データである。 Further, the information receiving unit 111 receives, for example, the second learning data 132 used for generating the second learning model. The second learning data 132 is, for example, learning data including a learning image including an object and position information of the object included in the learning image.

さらに、情報受信部111は、例えば、海上における対象物の撮影を行うカメラ等の撮影装置(図示しない)によって取得された動画データ133を受信する。そして、情報管理部112は、例えば、情報受信部111が受信した第1学習データ131、第2学習データ132及び動画データ133を情報格納領域130に記憶する。 Further, the information receiving unit 111 receives the moving image data 133 acquired by, for example, a photographing device (not shown) such as a camera that photographs an object at sea. Then, the information management unit 112 stores, for example, the first learning data 131, the second learning data 132, and the moving image data 133 received by the information receiving unit 111 in the information storage area 130.

なお、情報受信部111は、例えば、操作端末3に対して自発的にアクセスを行うことによって、操作端末3の情報格納領域(図示しない)に記憶された各種情報を取得するものであってもよい。また、情報受信部111は、例えば、撮像装置に対して自発的にアクセスを行うことにより、撮像装置の情報格納領域(図示しない)に記憶された動画データ133を取得するものであってもよい。 The information receiving unit 111 may acquire various information stored in the information storage area (not shown) of the operation terminal 3 by voluntarily accessing the operation terminal 3, for example. good. Further, the information receiving unit 111 may acquire the moving image data 133 stored in the information storage area (not shown) of the imaging device by voluntarily accessing the imaging device, for example. ..

第1モデル生成部113は、情報格納領域130に記憶された第1学習データ131の学習を行うことによって、第1学習モデルを生成する。 The first model generation unit 113 generates the first learning model by learning the first learning data 131 stored in the information storage area 130.

第2モデル生成部114は、情報格納領域130に記憶された第2学習データ132の学習を行うことによって、第2学習モデルを生成する。 The second model generation unit 114 generates the second learning model by learning the second learning data 132 stored in the information storage area 130.

結果取得部115は、情報格納領域130に記憶された動画データ133を取得する。そして、結果取得部115は、第2モデル生成部114が生成した第2学習モデルを用いることによって、動画データ133を構成する複数の画像データのそれぞれに対象物が存在する確度を示す確度(以下、第2確度とも呼ぶ)を取得する。具体的に、結果取得部115は、第2学習モデルに対する複数の画像データの入力に伴って出力される第2確度を取得する。その後、情報管理部112は、例えば、結果取得部115が取得した第2確度を示す検出結果情報135を生成して情報格納領域130に記憶する。 The result acquisition unit 115 acquires the moving image data 133 stored in the information storage area 130. Then, the result acquisition unit 115 uses the second learning model generated by the second model generation unit 114 to indicate the accuracy that the object exists in each of the plurality of image data constituting the moving image data 133 (hereinafter referred to as the accuracy). , Also called the second accuracy). Specifically, the result acquisition unit 115 acquires the second accuracy that is output when a plurality of image data are input to the second learning model. After that, the information management unit 112 generates, for example, the detection result information 135 indicating the second accuracy acquired by the result acquisition unit 115 and stores it in the information storage area 130.

また、結果取得部115は、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれについての複数の部分画像データを取得する。具体的に、結果取得部115は、例えば、情報格納領域130に記憶された検出結果情報135を参照することにより、動画データ133を構成する複数の画像データから複数の部分画像データを取得(抽出)する。そして、結果取得部115は、第1モデル生成部113が生成した第1学習モデルを用いることによって、複数の部分画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度(以下、第1確度とも呼ぶ)とを取得する。具体的に、結果取得部115は、第1学習モデルに対する複数の画像データの入力に伴って出力される類別結果と第1確度とを取得する。その後、情報管理部112は、例えば、結果取得部115が取得した類別結果と第1確度とを示す類別結果情報134を生成して情報格納領域130に記憶する。 In addition, the result acquisition unit 115 acquires a plurality of partial image data for each of the objects included in the plurality of image data constituting the moving image data 133. Specifically, the result acquisition unit 115 acquires (extracts) a plurality of partial image data from the plurality of image data constituting the moving image data 133 by referring to the detection result information 135 stored in the information storage area 130, for example. )do. Then, the result acquisition unit 115 uses the first learning model generated by the first model generation unit 113 to obtain the categorized results for each type of the object included in the plurality of partial image data and the categorized results. Acquire the accuracy (hereinafter, also referred to as the first accuracy). Specifically, the result acquisition unit 115 acquires the categorized result and the first accuracy that are output when a plurality of image data are input to the first learning model. After that, the information management unit 112 generates, for example, the classification result information 134 indicating the classification result acquired by the result acquisition unit 115 and the first accuracy, and stores it in the information storage area 130.

第1条件判定部116は、例えば、情報格納領域130に記憶された類別結果情報134を参照し、複数の部分画像データごとに、各対象物に対応する類別結果が第1条件を満たすか否か、及び、各対象物に対応する第1確度が第2条件を満たすか否かを判定する。具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が閾値(以下、第1閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。 The first condition determination unit 116 refers to, for example, the classification result information 134 stored in the information storage area 130, and whether or not the classification result corresponding to each object satisfies the first condition for each of the plurality of partial image data. And, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition. Specifically, the first condition determination unit 116, for example, when the classification result indicates that each object is an object having a predetermined attribute (for example, a warship), the classification result corresponding to each object. Is determined to satisfy the first condition. Further, in the first condition determination unit 116, for example, when the first accuracy corresponding to each object is larger than the threshold value (hereinafter, also referred to as the first threshold value), the first accuracy corresponding to each object is the second condition. Is determined to satisfy.

第2条件判定部117は、例えば、情報格納領域130に記憶された類別結果情報134及び検出結果情報135を参照し、複数の部分画像データごとに、各対象物に対応する第1確度が第2条件を満たすか否かを判定し、かつ、各対象物に対応する第2確度が第3条件を満たすか否かを判定する。具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が閾値(以下、第2閾値とも呼ぶ)よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。 The second condition determination unit 117 refers to, for example, the classification result information 134 and the detection result information 135 stored in the information storage area 130, and for each of the plurality of partial image data, the first accuracy corresponding to each object is the first. It is determined whether or not the two conditions are satisfied, and whether or not the second accuracy corresponding to each object satisfies the third condition. Specifically, in the second condition determination unit 117, for example, when the second accuracy corresponding to each object is larger than the threshold value (hereinafter, also referred to as the second threshold value), the second accuracy corresponding to each object is the second. It is determined that the three conditions are satisfied.

結果出力部118は、複数の部分画像データに含まれる各対象物のうち、類別結果が第1条件を満たすと判定した対象物と、第1確度が第2条件を満たすと判定した対象物とを示す情報(例えば、アラート)を出力する。 The result output unit 118 includes an object for which the classification result is determined to satisfy the first condition and an object for which the first accuracy is determined to satisfy the second condition among the objects included in the plurality of partial image data. Information (for example, alert) indicating the above is output.

また、結果出力部118は、複数の部分画像データに含まれる各対象物のうち、第1確度が第2条件を満たし、かつ、第2確度が第3条件を満たす対象物が未学習であることを示す情報を出力する。 Further, in the result output unit 118, among the objects included in the plurality of partial image data, the objects whose first accuracy satisfies the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that.

[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明する。図4は、第1の実施の形態における情報出力処理の概略を説明するフローチャート図である。
[Outline of the first embodiment]
Next, the outline of the first embodiment will be described. FIG. 4 is a flowchart illustrating an outline of the information output process according to the first embodiment.

情報処理装置1は、図4に示すように、情報出力タイミングになるまで待機する(S1のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。 As shown in FIG. 4, the information processing device 1 waits until the information output timing is reached (NO in S1). The information output timing may be, for example, the timing at which the worker inputs information to the effect that the monitoring of the object at sea is started.

そして、情報出力タイミングになった場合(S1のYES)、情報処理装置1は、動画データ133を取得する(S2)。具体的に、情報処理装置1は、例えば、情報格納領域130に記憶された動画データ133を取得する。また、情報処理装置1は、例えば、外部の記憶装置(図示しない)に記憶された動画データ133を取得する。 Then, when the information output timing is reached (YES in S1), the information processing device 1 acquires the moving image data 133 (S2). Specifically, the information processing device 1 acquires, for example, the moving image data 133 stored in the information storage area 130. Further, the information processing device 1 acquires, for example, moving image data 133 stored in an external storage device (not shown).

続いて、情報処理装置1は、画像データに含まれる対象物の種類候補と、その種類候補が対象物の種類として正解である確度とを学習した第1学習モデルを用いることによって、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の確度を示す第1確度とを取得する(S3)。 Subsequently, the information processing apparatus 1 processes S2 by using the first learning model that learns the type candidate of the object included in the image data and the probability that the type candidate is the correct answer as the type of the object. The categorization result for each type of the object included in the plurality of image data constituting the moving image data acquired in the above and the first accuracy indicating the accuracy of the categorization result are acquired (S3).

次に、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物ごとに、S3の処理で取得した類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う(S4)。 Next, the information processing device 1 sets each of the objects included in the plurality of image data constituting the moving image data acquired in the process of S2 based on the categorization result acquired in the process of S3 and the first accuracy. It is determined whether or not the object satisfies a predetermined condition (S4).

その後、情報処理装置1は、S2の処理で取得した動画データを構成する複数の画像データに含まれる対象物のうち、S4の処理において所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する(S5)。 After that, the information processing device 1 monitors the objects included in the plurality of image data constituting the moving image data acquired in the process of S2, which are determined to satisfy a predetermined condition in the process of S4. Information indicating that is output (S5).

これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による確認を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。 As a result, the information processing device 1 can identify an object that the operator needs to visually confirm by using the first learning model. Therefore, the information processing device 1 can suppress the burden on the operator due to the monitoring of the object.

[第1の実施の形態の詳細]
次に、第1の実施の形態の詳細について説明する。図5から図11は、第1の実施の形態における情報出力処理の詳細を説明するフローチャート図である。また、図12から図21は、第1の実施の形態における情報出力処理の詳細を説明する図である。
[Details of the first embodiment]
Next, the details of the first embodiment will be described. 5 to 11 are flowcharts illustrating the details of the information output processing according to the first embodiment. Further, FIGS. 12 to 21 are diagrams for explaining the details of the information output processing in the first embodiment.

[第1学習データ記憶処理]
初めに、情報出力処理のうち、第1学習データ131の記憶を行う処理(以下、第1学習データ記憶処理とも呼ぶ)について説明を行う。図5は、第1学習データ記憶処理を説明するフローチャート図である。
[1st learning data storage processing]
First, among the information output processes, a process of storing the first learning data 131 (hereinafter, also referred to as a first learning data storage process) will be described. FIG. 5 is a flowchart illustrating the first learning data storage process.

情報処理装置1の情報受信部111は、図5に示すように、例えば、操作端末3から送信された複数の第1学習データ131を受信するまで待機する(S11のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第1学習データ131が操作端末3を介して送信されるまで待機する。 As shown in FIG. 5, the information receiving unit 111 of the information processing device 1 waits until, for example, receives a plurality of first learning data 131 transmitted from the operation terminal 3 (NO in S11). That is, the information receiving unit 111 waits until, for example, the first learning data 131 generated by the operator is transmitted via the operation terminal 3.

そして、複数の第1学習データ131を受信した場合(S11のYES)、情報処理装置1の情報管理部112は、S11の処理で受信した複数の第1学習データ131を情報格納領域130に記憶する(S12)。以下、第1学習データ131の具体例について説明を行う。 When a plurality of first learning data 131s are received (YES in S11), the information management unit 112 of the information processing apparatus 1 stores the plurality of first learning data 131s received in the process of S11 in the information storage area 130. (S12). Hereinafter, a specific example of the first learning data 131 will be described.

[第1学習データの具体例]
図12は、第1学習データ131の具体例について説明する図である。
[Specific example of the first training data]
FIG. 12 is a diagram illustrating a specific example of the first learning data 131.

図12に示す第1学習データ131は、第1学習データ131のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物の種類(正解の種類)を示す「種類」とを含む。なお、以下、「種類」には、「AAA」、「BBB」及び「CCC」のうちのいずれかが設定されるものとして説明を行う。 The first learning data 131 shown in FIG. 12 includes a "item number" indicating each identification information of the first learning data 131, an "image data" indicating each learning image data itself, and each learning image data. Includes "type" indicating the type of object to be included (type of correct answer). In the following description, it is assumed that any one of "AAA", "BBB" and "CCC" is set for the "type".

具体的に、図12における「項番」が「1」である第1学習データ131は、名称が「IMAGEa1」である学習用画像データを含み、かつ、「種類」が「AAA」である学習データである。 Specifically, the first learning data 131 whose "item number" is "1" in FIG. 12 includes learning image data whose name is "IMAGEa1" and whose "type" is "AAA". It is data.

また、図12における「項番」が「2」である第1学習データ131は、名称が「IMAGEa2」である学習用画像データを含み、かつ、「種類」が「BBB」である学習データである。図12に含まれる他の第1学習データ131については説明を省略する。 Further, the first learning data 131 whose "item number" is "2" in FIG. 12 is learning data which includes learning image data whose name is "IMAGEa2" and whose "type" is "BBB". be. The description of the other first learning data 131 included in FIG. 12 will be omitted.

[第1モデル生成処理]
次に、情報出力処理のうち、第1モデルの生成を行う処理(以下、第1モデル生成処理とも呼ぶ)について説明を行う。図6は、第1モデル生成処理を説明するフローチャート図である。
[First model generation process]
Next, among the information output processes, a process for generating the first model (hereinafter, also referred to as a first model generation process) will be described. FIG. 6 is a flowchart illustrating the first model generation process.

情報処理装置1の第1モデル生成部113は、図6に示すように、例えば、第1モデル生成タイミングになるまで待機する(S21のNO)。第1モデル生成タイミングは、例えば、作業者が第1モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。 As shown in FIG. 6, the first model generation unit 113 of the information processing apparatus 1 waits until, for example, the first model generation timing (NO in S21). The first model generation timing may be, for example, the timing at which the worker inputs information to the information processing device 1 to the effect that the first model is generated.

そして、第1モデル生成タイミングになった場合(S21のYES)、第1モデル生成部113は、情報格納領域130に記憶された複数の第1学習データ131の学習を行うことにより、第1学習モデルを生成する(S22)。以下、S22の処理の具体例について説明を行う。 Then, when the first model generation timing is reached (YES in S21), the first model generation unit 113 learns the plurality of first learning data 131 stored in the information storage area 130, thereby performing the first learning. Generate a model (S22). Hereinafter, a specific example of the processing of S22 will be described.

[S22の処理の具体例]
図13は、S22の処理の具体例について説明を行う。
[Specific example of processing of S22]
FIG. 13 describes a specific example of the process of S22.

第1モデル生成部113は、図13に示すように、例えば、対象物の種類候補のそれぞれに対応する複数の出力ニューロン(以下、第1出力ニューロンとも呼ぶ)NE11と、第1確度に対応する1の出力ニューロン(以下、第2出力ニューロンとも呼ぶ)NE12とを有する第1モデルMD01を生成する。図13に示す例において、第1出力ニューロンNE11には、種類候補である「AAA」、「BBB」及び「CCC」のそれぞれに対応する第1出力ニューロンNE11a、NE11b及びNE11cが含まれている。 As shown in FIG. 13, the first model generation unit 113 corresponds to, for example, a plurality of output neurons (hereinafter, also referred to as first output neurons) NE11 corresponding to each of the object type candidates and the first accuracy. A first model MD01 having one output neuron (hereinafter, also referred to as a second output neuron) NE12 is generated. In the example shown in FIG. 13, the first output neuron NE11 includes first output neurons NE11a, NE11b, and NE11c corresponding to the type candidates "AAA", "BBB", and "CCC", respectively.

そして、例えば、図12で説明した第1学習データ131における「項番」が「1」である情報には、「画像データ」として「IMAGEa1」が設定され、「種類」として「AAA」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa1」である画像データの特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「AAA」に対応する正解値(「1」、「0」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「1」との差、第1出力ニューロンNE11bから出力される値と「0」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。 Then, for example, "IMAGEa1" is set as the "image data" and "AAA" is set as the "type" for the information in which the "item number" is "1" in the first learning data 131 described with reference to FIG. Has been done. Therefore, for example, when the feature amount of the image data whose name is "IMAGEa1" is input from the input neuron NE13, the first model generation unit 113 has a value output from each of the first output neurons NE11 and "AAA". The value corresponding to each weight in the first learning model is updated so that the difference from the correct answer value (“1”, “0”, and “0”) corresponding to “” becomes small. Specifically, in this case, the first model generation unit 113 has a difference between the value output from the first output neuron NE11a and "1", and a difference between the value output from the first output neuron NE11b and "0". , And, the value corresponding to each weight in the first learning model is updated so that the difference between the value output from the first output neuron NE11c and “0” becomes smaller.

また、例えば、図12で説明した第1学習データ131における「項番」が「2」である情報には、「画像データ」として「IMAGEa2」が設定され、「種類」として「BBB」が設定されている。そのため、第1モデル生成部113は、例えば、名称が「IMAGEa2」である画像データまたはその特徴量が入力ニューロンNE13から入力された場合、第1出力ニューロンNE11のそれぞれから出力される値と、「BBB」に対応する正解値(「0」、「1」及び「0」)との差が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。具体的に、第1モデル生成部113は、この場合、第1出力ニューロンNE11aから出力される値と「0」との差、第1出力ニューロンNE11bから出力される値と「1」との差、及び、第1出力ニューロンNE11cから出力される値と「0」との差のそれぞれが小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。 Further, for example, in the information in which the "item number" is "2" in the first learning data 131 described with reference to FIG. 12, "IMAGEa2" is set as the "image data" and "BBB" is set as the "type". Has been done. Therefore, for example, when the image data whose name is "IMAGEa2" or its feature amount is input from the input neuron NE13, the first model generation unit 113 has a value output from each of the first output neurons NE11 and " The value corresponding to each weight in the first learning model is updated so that the difference from the correct answer value (“0”, “1”, and “0”) corresponding to “BBB” becomes small. Specifically, in this case, the first model generation unit 113 has a difference between the value output from the first output neuron NE11a and "0", and a difference between the value output from the first output neuron NE11b and "1". , And, the value corresponding to each weight in the first learning model is updated so that the difference between the value output from the first output neuron NE11c and “0” becomes smaller.

なお、第1モデル生成部113は、第1出力ニューロンNE11からの出力値と正解値との比較を行う前に、第1出力ニューロンNE11からの出力値を第2出力ニューロンNE12からの出力値によって補正を行うものであってもよい。 The first model generation unit 113 uses the output value from the first output neuron NE11 as the output value from the second output neuron NE12 before comparing the output value from the first output neuron NE11 with the correct answer value. It may be the one that makes a correction.

具体的に、第1モデル生成部113は、この場合、第2出力ニューロンNE12からの出力値が「0」に近いほど、第1出力ニューロンNE11からの出力値が正解値に近づくように補正を行う。一方、第1モデル生成部113は、第2出力ニューロンNE12からの出力値が「1」に近いほど、第1出力ニューロンNE11からの出力値の補正幅を小さくする。また、第1モデル生成部113は、この場合、第1出力ニューロンNE11からの出力値の補正幅が大きいほど大きい値のペナルティ値を設定する。そして、第1モデル生成部113は、第1出力ニューロンNE11からの出力値(補正後の値)と正解値との差及びペナルティ値の両方が小さくなるように、第1学習モデルにおける各重みに対応する値の更新を行う。 Specifically, in this case, the first model generation unit 113 corrects so that the closer the output value from the second output neuron NE12 is to "0", the closer the output value from the first output neuron NE11 is to the correct answer value. conduct. On the other hand, the first model generation unit 113 reduces the correction width of the output value from the first output neuron NE11 as the output value from the second output neuron NE12 is closer to "1". Further, in this case, the first model generation unit 113 sets a penalty value of a larger value as the correction width of the output value from the first output neuron NE11 is larger. Then, the first model generation unit 113 sets each weight in the first learning model so that both the difference between the output value (corrected value) from the first output neuron NE11 and the correct answer value and the penalty value become small. Update the corresponding value.

[第2学習データ記憶処理]
次に、情報出力処理のうち、第2学習データ132の記憶を行う処理(以下、第2学習データ記憶処理とも呼ぶ)について説明を行う。図7は、第2学習データ記憶処理を説明するフローチャート図である。
[Second learning data storage processing]
Next, among the information output processes, a process of storing the second learning data 132 (hereinafter, also referred to as a second learning data storage process) will be described. FIG. 7 is a flowchart illustrating the second learning data storage process.

情報受信部111は、図7に示すように、例えば、操作端末3から送信された複数の第2学習データ132を受信するまで待機する(S31のNO)。すなわち、情報受信部111は、例えば、作業者によって生成された第2学習データ132が操作端末3を介して送信されるまで待機する。 As shown in FIG. 7, the information receiving unit 111 waits until, for example, receives a plurality of second learning data 132 transmitted from the operation terminal 3 (NO in S31). That is, the information receiving unit 111 waits until, for example, the second learning data 132 generated by the operator is transmitted via the operation terminal 3.

そして、複数の第1学習データ131を受信した場合(S31のYES)、情報管理部112は、S31の処理で受信した複数の第2学習データ132を情報格納領域130に記憶する(S32)。以下、第2学習データ132の具体例について説明を行う。 Then, when a plurality of first learning data 131s are received (YES in S31), the information management unit 112 stores the plurality of second learning data 132s received in the process of S31 in the information storage area 130 (S32). Hereinafter, a specific example of the second learning data 132 will be described.

[第2学習データの具体例]
図14は、第2学習データ132の具体例について説明する図である。
[Specific example of the second learning data]
FIG. 14 is a diagram illustrating a specific example of the second learning data 132.

図14に示す第2学習データ132は、第2学習データ132のそれぞれの識別情報を示す「項番」と、各学習用画像データのそのものを示す「画像データ」と、各学習用画像データに含まれる対象物(対象物を含む枠)の左上の位置を示す「位置」と、各学習用画像データに含まれる対象物(対象物を含む枠)の幅を示す「幅」と、各学習用画像データに含まれる対象物(対象物を含む枠)の高さを示す「高さ」とを項目として有する。 The second learning data 132 shown in FIG. 14 includes a "item number" indicating each identification information of the second learning data 132, an "image data" indicating each learning image data itself, and each learning image data. "Position" indicating the upper left position of the included object (frame including the object), "width" indicating the width of the object (frame including the object) included in each learning image data, and each learning It has an item "height" indicating the height of the object (frame including the object) included in the image data.

具体的に、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データを含み、さらに、「位置」が「10,32」であって「幅」が「10」であって「高さ」が「8」である対象物についての情報と、「位置」が「24,30」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「28,20」であって「幅」が「8」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「1」である第2学習データ132は、名称が「IMAGEb1」である学習用画像データに含まれる3つの対象物についての情報を含んでいる。 Specifically, the second learning data 132 in which the "item number" is "1" in FIG. 14 includes the learning image data whose name is "IMAGEb1", and further, the "position" is "10, 32". Information about the object whose "width" is "10" and "height" is "8", and "position" is "24,30" and "width" is "4". Information about the object whose "height" is "2", and "position" is "28,20", "width" is "8", and "height" is "6". It is learning data including information about an object. That is, the second learning data 132 whose “item number” is “1” in FIG. 14 includes information about three objects included in the learning image data whose name is “IMAGEb1”.

また、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データを含み、さらに、「位置」が「34,36」であって「幅」が「4」であって「高さ」が「2」である対象物についての情報と、「位置」が「10,12」であって「幅」が「12」であって「高さ」が「6」である対象物についての情報とを含む学習データである。すなわち、図14における「項番」が「2」である第2学習データ132は、名称が「IMAGEb2」である学習用画像データに含まれる2つの対象物についての情報を含んでいる。図14に含まれる他の第2学習データ132についての説明は省略する。 Further, the second learning data 132 in which the "item number" is "2" in FIG. 14 includes the learning image data whose name is "IMAGEb2", and further, the "position" is "34,36". Information about an object whose "width" is "4" and whose "height" is "2", and whose "position" is "10,12" and whose "width" is "12" and " It is learning data including information about an object whose "height" is "6". That is, the second learning data 132 whose "item number" is "2" in FIG. 14 includes information about two objects included in the learning image data whose name is "IMAGEb2". The description of the other second learning data 132 included in FIG. 14 will be omitted.

[第2モデル生成処理]
次に、情報出力処理のうち、第2モデルの生成を行う処理(以下、第2モデル生成処理とも呼ぶ)について説明を行う。図8は、第2モデル生成処理を説明するフローチャート図である。
[Second model generation process]
Next, among the information output processes, a process for generating the second model (hereinafter, also referred to as a second model generation process) will be described. FIG. 8 is a flowchart illustrating the second model generation process.

情報処理装置1の第1モデル生成部113は、図8に示すように、例えば、第2モデル生成タイミングになるまで待機する(S41のNO)。第2モデル生成タイミングは、例えば、作業者が第2モデルの生成を行う旨の情報を情報処理装置1に入力したタイミングであってよい。また、第2モデル生成タイミングは、例えば、第1モデルが生成された直後のタイミングであってよい。 As shown in FIG. 8, the first model generation unit 113 of the information processing apparatus 1 waits until, for example, the second model generation timing (NO in S41). The second model generation timing may be, for example, the timing at which the operator inputs information to the information processing device 1 to the effect that the second model is generated. Further, the second model generation timing may be, for example, the timing immediately after the first model is generated.

そして、第2モデル生成タイミングになった場合(S41のYES)、第2モデル生成部114は、情報格納領域130に記憶された複数の第2学習データ132の学習を行うことにより、第2学習モデルを生成する(S42)。以下、S42の処理の具体例について説明を行う。 Then, when the second model generation timing is reached (YES in S41), the second model generation unit 114 learns the plurality of second learning data 132 stored in the information storage area 130, thereby performing the second learning. Generate a model (S42). Hereinafter, a specific example of the processing of S42 will be described.

[S42の処理の具体例]
図15は、S42の処理の具体例について説明する図である。
[Specific example of processing of S42]
FIG. 15 is a diagram illustrating a specific example of the process of S42.

第2モデル生成部114は、図15に示すように、例えば、学習用画像データを分割した複数の分割画像データのそれぞれに対応する複数の出力ニューロンNE21を有する第2モデルMD02を生成する。図15に示す例において、出力ニューロンNE21には、学習用画像データを分割した16個の分割画像データのそれぞれに対応する出力ニューロンNE21a、NE21b、NE21c、NE21d、NE21e、NE21f、NE21g、NE21h、NE21i、NE21j、NE21k、NE21l、NE21m、NE21n、NE21о及びNE21pのそれぞれが含まれている。 As shown in FIG. 15, the second model generation unit 114 generates, for example, a second model MD02 having a plurality of output neurons NE21 corresponding to each of the plurality of divided image data obtained by dividing the learning image data. In the example shown in FIG. 15, the output neuron NE21 includes output neurons NE21a, NE21b, NE21c, NE21d, NE21e, NE21f, NE21g, NE21h, NE21i corresponding to each of the 16 divided image data obtained by dividing the learning image data. , NE21j, NE21k, NE21l, NE21m, NE21n, NE21о and NE21p, respectively.

そして、例えば、図14で説明した第2学習データ132における「項番」が「3」である情報には、「画像データ」として「IMAGEb3」が設定され、「位置」、「幅」及び「高さ」として1つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb3」である画像データの分割画像データのうち、出力ニューロンNE21dに対応する分割画像データに対象物が含まれている場合において、名称が「IMAGEb3」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21dからの出力値と「1」との差、及び、出力ニューロンNE21d以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。 Then, for example, "IMAGEb3" is set as "image data" for the information in which the "item number" is "3" in the second learning data 132 described with reference to FIG. 14, and the "position", "width", and "width" are set. Information about one object is set as "height". Therefore, the second model generation unit 114 has a name, for example, when the divided image data of the image data whose name is "IMAGEb3" includes an object in the divided image data corresponding to the output neuron NE21d. When the feature amount of the image data of "IMAGEb3" is input from the input neuron NE23, the difference between the output value from the output neuron NE21d and "1" and the output from each of the output neurons NE21 other than the output neuron NE21d. The value corresponding to each weight in the second learning model is updated so that the difference between the value and "0" becomes small.

また、例えば、図14で説明した第2学習データ132における「項番」が「2」である情報には、「画像データ」として「IMAGEb2」が設定され、「位置」、「幅」及び「高さ」として2つの対象物についての情報が設定されている。そのため、第2モデル生成部114は、例えば、名称が「IMAGEb2」である画像データの分割画像データのうち、出力ニューロンNE21f及びNE21mに対応する分割画像データのそれぞれに対象物が含まれている場合において、名称が「IMAGEb2」である画像データの特徴量が入力ニューロンNE23から入力された場合、出力ニューロンNE21f及びNE21mのそれぞれからの出力値と「1」との差、及び、これら以外の出力ニューロンNE21のそれぞれからの出力値と「0」との差がそれぞれ小さくなるように、第2学習モデルにおける各重みに対応する値の更新を行う。 Further, for example, "IMAGEb2" is set as "image data" for the information in which the "item number" is "2" in the second learning data 132 described with reference to FIG. 14, and the "position", "width", and "width" are set. Information about two objects is set as "height". Therefore, in the second model generation unit 114, for example, when the divided image data of the image data whose name is "IMAGEb2" includes an object in each of the divided image data corresponding to the output neurons NE21f and NE21m. In, when the feature amount of the image data whose name is "IMAGEb2" is input from the input neuron NE23, the difference between the output value from each of the output neurons NE21f and NE21m and "1", and the output neurons other than these. The value corresponding to each weight in the second learning model is updated so that the difference between the output value from each of NE21 and "0" becomes small.

[情報出力処理のメイン処理]
次に、情報出力処理のメイン処理について説明を行う。図9から図11は、情報出力処理のメイン処理を説明するフローチャート図である。
[Main processing of information output processing]
Next, the main process of the information output process will be described. 9 to 11 are flowcharts illustrating the main process of the information output process.

情報処理装置1の結果取得部115は、図9に示すように、例えば、情報出力タイミングになるまで待機する(S51のNO)。情報出力タイミングは、例えば、作業者が海上における対象物の監視を開始する旨の情報を入力したタイミングであってよい。 As shown in FIG. 9, the result acquisition unit 115 of the information processing device 1 waits until, for example, the information output timing (NO in S51). The information output timing may be, for example, the timing at which the worker inputs information to the effect that the monitoring of the object at sea is started.

そして、情報出力タイミングになった場合(S51のYES)、結果取得部115は、動画データ133を取得する(S52)。 Then, when the information output timing is reached (YES in S51), the result acquisition unit 115 acquires the moving image data 133 (S52).

続いて、結果取得部115は、S42の処理で生成した第2学習モデルを用いることによって、S52の処理で取得した動画データ133に含まれる複数の画像データごとに、各画像データに対象物が存在する確度を示す第2確度を取得する(S53)。以下、S53の処理の具体例について説明を行う。 Subsequently, the result acquisition unit 115 uses the second learning model generated in the process of S42 to add an object to each image data for each of the plurality of image data included in the moving image data 133 acquired in the process of S52. The second accuracy indicating the existing accuracy is acquired (S53). Hereinafter, a specific example of the processing of S53 will be described.

[S53の処理の具体例]
図16は、S53の処理の具体例について説明する図である。
[Specific example of processing of S53]
FIG. 16 is a diagram illustrating a specific example of the processing of S53.

結果取得部115は、図16に示すように、例えば、動画データ133に含まれる画像データIMAGEc1を第2学習モデルMD02に入力する。そして、結果取得部115は、例えば、画像データIMAGEc1の入力に伴って第2学習モデルMD02の出力ニューロンNE21のそれぞれから出力された値を取得する。 As shown in FIG. 16, the result acquisition unit 115 inputs, for example, the image data IMAGEc1 included in the moving image data 133 into the second learning model MD02. Then, the result acquisition unit 115 acquires, for example, the values output from each of the output neurons NE21 of the second learning model MD02 in response to the input of the image data IMAGEc1.

その後、結果取得部115は、例えば、第2学習モデルMD02から取得された値のそれぞれから、画像データIMAGEc1に含まれる対象物の位置の特定を行う。具体的に、結果取得部115は、図16に示すように、例えば、画像データIMAGEc1に含まれる対象物を含む部分画像データとして、部分画像データIMAGEd1、部分画像データIMAGEd2及び部分画像データIMAGEd3のそれぞれの位置の特定を行う。 After that, the result acquisition unit 115 identifies the position of the object included in the image data IMAGEc1 from each of the values acquired from, for example, the second learning model MD02. Specifically, as shown in FIG. 16, the result acquisition unit 115 includes, for example, partial image data IMAGEd1, partial image data IMAGEd2, and partial image data IMAGEd3 as partial image data including an object included in the image data IMAGEc1. Identify the position of.

また、結果取得部115は、例えば、特定した対象物ごとに、第2学習モデルMD02の出力ニューロンNE2のそれぞれから出力された値のうち、各対象物の位置に対応する値の最大値を第2確度として取得する。 Further, for example, the result acquisition unit 115 sets the maximum value of the value corresponding to the position of each object among the values output from each of the output neurons NE2 of the second learning model MD02 for each specified object. 2 Obtained as accuracy.

なお、画像データIMAGEc1に含まれる対象物の位置及び第2確度は、第2モデルMD02から出力されるものであってもよい。そして、結果取得部115は、この場合、第2モデルMD02から出力された各情報を取得するものであってもよい。 The position and the second accuracy of the object included in the image data IMAGEc1 may be output from the second model MD02. Then, in this case, the result acquisition unit 115 may acquire each information output from the second model MD02.

図9に戻り、情報管理部112は、例えば、S52の処理で取得した動画データ133に含まれる画像データごとに、S53の処理で取得した第2確度を含む検出結果情報135を生成する(S54)。そして、情報管理部112は、生成した検出結果情報135を情報格納領域130に記憶する。以下、検出結果情報135の具体例について説明を行う。 Returning to FIG. 9, the information management unit 112 generates detection result information 135 including the second accuracy acquired in the process of S53 for each image data included in the moving image data 133 acquired in the process of S52, for example (S54). ). Then, the information management unit 112 stores the generated detection result information 135 in the information storage area 130. Hereinafter, a specific example of the detection result information 135 will be described.

[検出結果情報の具体例]
図17は、検出結果情報135の具体例について説明する図である。
[Specific example of detection result information]
FIG. 17 is a diagram illustrating a specific example of the detection result information 135.

図17に示す検出結果情報135は、検出結果情報135に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物に対応する第2確度を示す「第2確度」とを項目として有する。 The detection result information 135 shown in FIG. 17 includes a "item number" indicating each information included in the detection result information 135, a "partial image data" indicating identification information of partial image data including each object, and each object. It has a "second accuracy" indicating the second accuracy corresponding to the item.

具体的に、図17に示す検出結果情報135において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定され、「第2確度」として「0.9」が設定されている。 Specifically, in the detection result information 135 shown in FIG. 17, “IMAGEd1” is set as the “partial image data” and “0. 9 ”is set.

また、図17に示す検出結果情報135において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定され、「第2確度」として「0.7」が設定されている。図17に含まれる他の情報についての説明は省略する。 Further, in the detection result information 135 shown in FIG. 17, "IMAGEd2" is set as the "partial image data" and "0.7" is set as the "second accuracy" for the information whose "item number" is "2". Is set. The description of other information included in FIG. 17 will be omitted.

なお、検出結果情報135は、S53の処理で特定した部分画像データの位置を示す情報を含むものであってもよい。 The detection result information 135 may include information indicating the position of the partial image data specified in the process of S53.

図9に戻り、情報管理部112は、S52の処理で取得した動画データ133に含まれる画像データから、各画像データに含まれる対象物を含む部分画像データを取得する(S55)。 Returning to FIG. 9, the information management unit 112 acquires partial image data including an object included in each image data from the image data included in the moving image data 133 acquired in the process of S52 (S55).

具体的に、情報管理部112は、例えば、S53の処理で特定した部分画像データの位置を参照することによって、S52の処理で取得した動画データ133に含まれる各画像データから部分画像データの取得を行う。 Specifically, the information management unit 112 acquires partial image data from each image data included in the moving image data 133 acquired in the process of S52 by referring to the position of the partial image data specified in the process of S53, for example. I do.

なお、S53の処理で特定した部分画像データの位置を示す情報が検出結果情報135に含まれる場合、情報管理部112は、情報格納領域130に記憶された検出結果情報135を参照することによって、部分画像データの取得を行うものであってもよい。 When the detection result information 135 includes information indicating the position of the partial image data specified in the process of S53, the information management unit 112 refers to the detection result information 135 stored in the information storage area 130. Partial image data may be acquired.

そして、結果取得部115は、図10に示すように、S22の処理で生成した第1学習モデルを用いることによって、S55の処理で取得した部分画像データごとに、各部分画像データに含まれる対象物の種類の類別結果と、その類別結果の確度を示す第1確度とを取得する(S61)。以下、S61の処理の具体例について説明を行う。 Then, as shown in FIG. 10, the result acquisition unit 115 uses the first learning model generated in the process of S22 to include the target included in each partial image data for each partial image data acquired in the process of S55. The categorization result of the type of the object and the first accuracy indicating the accuracy of the categorization result are acquired (S61). Hereinafter, a specific example of the processing of S61 will be described.

[S61の処理の具体例]
図18は、S61の処理の具体例について説明する図である。
[Specific example of processing of S61]
FIG. 18 is a diagram illustrating a specific example of the processing of S61.

結果取得部115は、図18に示すように、例えば、S55の処理で取得した部分画像データIMAGEd1を第1学習モデルMD01に入力する。そして、結果取得部115は、例えば、部分画像データIMAGEd1の入力に伴って第1学習モデルMD01の出力ニューロンNE11及び出力ニューロンNE12のそれぞれから出力された値と取得する。 As shown in FIG. 18, the result acquisition unit 115 inputs, for example, the partial image data IMAGEd1 acquired in the process of S55 into the first learning model MD01. Then, the result acquisition unit 115 acquires, for example, the values output from the output neurons NE11 and the output neurons NE12 of the first learning model MD01 in response to the input of the partial image data IMAGEd1.

具体的に、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」である確度が「0.6」であり、「BBB」である確度が「0.3」であり、「CCC」である確度が「0.1」であることを示す情報を類別結果として取得する。 Specifically, as shown in FIG. 18, the result acquisition unit 115 has an accuracy of "0.6" that the type of the object included in the partial image data IMAGEd1 is "AAA", and is "BBB". Information indicating that a certain accuracy is "0.3" and the accuracy of "CCC" is "0.1" is acquired as a classification result.

また、結果取得部115は、図18に示すように、例えば、部分画像データIMAGEd1に含まれる対象物の種類についての類別結果の第1確度として「0.9」を取得する。 Further, as shown in FIG. 18, the result acquisition unit 115 acquires "0.9" as the first accuracy of the classification result for the type of the object included in the partial image data IMAGEd1, for example.

図10に戻り、情報管理部112は、例えば、S55の処理で取得した部分画像データごとに、S61の処理で取得した類別結果と第1確度を含む類別結果情報134を生成する(S62)。そして、情報管理部112は、生成した類別結果情報134を情報格納領域130に記憶する。以下、類別結果情報134の具体例について説明を行う。 Returning to FIG. 10, the information management unit 112 generates, for example, the classification result information 134 including the classification result acquired in the processing of S61 and the first accuracy for each partial image data acquired in the processing of S55 (S62). Then, the information management unit 112 stores the generated classification result information 134 in the information storage area 130. Hereinafter, a specific example of the classification result information 134 will be described.

[類別結果情報の具体例]
図19は、類別結果情報134の具体例について説明する図である。
[Specific examples of categorized result information]
FIG. 19 is a diagram illustrating a specific example of the classification result information 134.

図19に示す類別結果情報134は、類別結果情報134に含まれる各情報を示す「項番」と、各対象物を含む部分画像データの識別情報を示す「部分画像データ」と、各対象物の種類の類別結果を示す「類別結果」と、各対象物の種類についての類別結果の第1確度を示す「第1確度」とを項目として有する。 The classification result information 134 shown in FIG. 19 includes a "item number" indicating each information included in the classification result information 134, a "partial image data" indicating identification information of partial image data including each object, and each object. The items include a "classification result" indicating the categorization result of each type of the object and a "first probability" indicating the first probability of the categorization result for each type of object.

具体的に、図19に示す類別結果情報134において、「項番」が「1」である情報には、「部分画像データ」として「IMAGEd1」が設定されている。また、図19に示す類別結果情報134において、「項番」が「1」である情報には、「類別結果」として、部分画像データIMAGEd1に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.6」、「0.3」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「1」である情報には、「第1確度」として「0.8」が設定されている。 Specifically, in the classification result information 134 shown in FIG. 19, "IMAGEd1" is set as "partial image data" for the information in which the "item number" is "1". Further, in the classification result information 134 shown in FIG. 19, the information in which the "item number" is "1" has the types of objects included in the partial image data IMAGEd1 as "classification results" of "AAA" and "BBB". The information that the accuracy of each of "" and "CCC" is "0.6", "0.3", and "0.1" is set. Further, in the classification result information 134 shown in FIG. 19, "0.8" is set as the "first accuracy" for the information in which the "item number" is "1".

また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「部分画像データ」として「IMAGEd2」が設定されている。また、図19に示す類別結果情報134において、「項番」が「2」である情報には、「類別結果」として、部分画像データIMAGEd2に含まれる対象物の種類が「AAA」、「BBB」及び「CCC」のそれぞれである確度が「0.2」、「0.7」及び「0.1」である情報が設定されている。さらに、図19に示す類別結果情報134において、「項番」が「2」である情報には、「第1確度」として「0.9」が設定されている。図19に含まれる他の情報についての説明は省略する。 Further, in the classification result information 134 shown in FIG. 19, "IMAGEd2" is set as "partial image data" for the information in which the "item number" is "2". Further, in the classification result information 134 shown in FIG. 19, in the information in which the "item number" is "2", the types of objects included in the partial image data IMAGEd2 are "AAA" and "BBB" as the "classification result". The information that the accuracy of each of "" and "CCC" is "0.2", "0.7", and "0.1" is set. Further, in the classification result information 134 shown in FIG. 19, "0.9" is set as the "first accuracy" for the information in which the "item number" is "2". Description of the other information contained in FIG. 19 will be omitted.

図10に戻り、情報処理装置1の第2条件判定部117は、S55の処理で取得した部分画像データごとに、各部分画像データに対応する類別結果が第1条件を満たすか否か、及び、各部分画像データに対応する第1確度が第2条件を満たすか否かを判定する(S63)。 Returning to FIG. 10, the second condition determination unit 117 of the information processing apparatus 1 determines whether or not the classification result corresponding to each partial image data satisfies the first condition for each partial image data acquired in the process of S55. , It is determined whether or not the first accuracy corresponding to each partial image data satisfies the second condition (S63).

具体的に、第1条件判定部116は、例えば、各対象物が所定の属性(例えば、軍艦)を有する対象物であることを類別結果が示している場合、各対象物に対応する類別結果が第1条件を満たしていると判定する。また、第1条件判定部116は、例えば、各対象物に対応する第1確度が第1閾値よりも大きい場合、各対象物に対応する第1確度が第2条件を満たしていると判定する。 Specifically, the first condition determination unit 116, for example, when the classification result indicates that each object is an object having a predetermined attribute (for example, a warship), the classification result corresponding to each object. Is determined to satisfy the first condition. Further, the first condition determination unit 116 determines that, for example, when the first accuracy corresponding to each object is larger than the first threshold value, the first accuracy corresponding to each object satisfies the second condition. ..

そして、情報処理装置1の結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した類別結果が第1条件を満たすと判定した部分画像データのそれぞれに含まれる対象物と、S61の処理で取得した第1確度が第2条件を満たすと判定した部分画像データのそれぞれに含まれる対象物とについてのアラートを操作端末3に出力する(S64)。以下、S64の処理の具体例について説明を行う。 Then, the result output unit 118 of the information processing apparatus 1 is included in each of the partial image data acquired in the process of S55 and which is determined that the classification result acquired in the process of S61 satisfies the first condition. An alert about the object and the object included in each of the partial image data determined that the first accuracy acquired in the process of S61 satisfies the second condition is output to the operation terminal 3 (S64). Hereinafter, a specific example of the processing of S64 will be described.

[S64の処理の具体例]
図20は、S64の処理の具体例について説明する図である。
[Specific example of S64 processing]
FIG. 20 is a diagram illustrating a specific example of the processing of S64.

図20に示す情報のうちの「項番」が「1」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。また、図20に示す情報のうちの「項番」が「3」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものである場合、アラートの出力が行われることを示している。さらに、図20に示す情報のうちの「項番」が「4」である情報は、第1確度が第1閾値より低く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われることを示している。 Of the information shown in FIG. 20, the information whose "item number" is "1" is alerted when the first accuracy is higher than the first threshold value and the object needs to be monitored. It is shown that. Further, in the information shown in FIG. 20 in which the "item number" is "3", if the first accuracy is lower than the first threshold value and the object needs to be monitored, an alert output is output. Indicates that it will be done. Further, in the information shown in FIG. 20 in which the "item number" is "4", if the first accuracy is lower than the first threshold value and the object does not require monitoring, an alert is output. It shows that it will be done.

一方、図20に示す情報のうちの「項番」が「2」である情報は、第1確度が第1閾値より高く、かつ、対象物が監視を要するものでない場合、アラートの出力が行われないことを示している。 On the other hand, in the information shown in FIG. 20 in which the "item number" is "2", if the first accuracy is higher than the first threshold value and the object does not require monitoring, an alert is output. It shows that it will not be broken.

すなわち、第1確度が高く、かつ、監視を要しない種類の対象物は、作業者が検知を行う必要がない対象物(作業者が対処を行う必要がない対象物)である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が高く、かつ、監視を要しない種類の対象物を検出した場合、作業者に対する通知(アラートの出力)を行わない。 That is, it is highly possible that an object having a high first accuracy and does not require monitoring is an object that the worker does not need to detect (an object that the worker does not need to deal with). It can be judged that it is expensive. Therefore, when the result output unit 118 detects an object having a high first accuracy and does not require monitoring, the result output unit 118 does not notify the operator (output of an alert).

これにより、情報処理装置1は、例えば、海上における対象物の監視に伴う作業の作業負担を軽減させることが可能になる。 This makes it possible for the information processing device 1 to reduce the work load associated with monitoring an object at sea, for example.

また、情報処理装置1の第1条件判定部116は、図11に示すように、S55の処理で取得した部分画像データごとに、各部分画像データに対応する第1確度が第2条件を満たすか否か、及び、各部分画像データに対応する第2確度が第3条件を満たすか否かを判定する(S71)。 Further, as shown in FIG. 11, the first condition determination unit 116 of the information processing device 1 satisfies the second condition with the first accuracy corresponding to each partial image data for each partial image data acquired in the process of S55. It is determined whether or not and whether or not the second accuracy corresponding to each partial image data satisfies the third condition (S71).

具体的に、第2条件判定部117は、例えば、各対象物に対応する第2確度が第2閾値よりも大きい場合、各対象物に対応する第2確度が第3条件を満たしていると判定する。 Specifically, the second condition determination unit 117 states that, for example, when the second accuracy corresponding to each object is larger than the second threshold value, the second accuracy corresponding to each object satisfies the third condition. judge.

そして、結果出力部118は、S55の処理で取得した部分画像データのうち、S61の処理で取得した第1確度が第2条件を満たさず、かつ、S53の処理で取得した第2確度が第3条件を満たす部分画像データに含まれる対象物が未学習であることを示す情報を出力する(S72)。以下、S72の処理の具体例について説明を行う。 Then, in the result output unit 118, among the partial image data acquired in the process of S55, the first accuracy acquired in the process of S61 does not satisfy the second condition, and the second accuracy acquired in the process of S53 is the second. Information indicating that the object included in the partial image data satisfying the three conditions is unlearned is output (S72). Hereinafter, a specific example of the processing of S72 will be described.

[S72の処理の具体例]
図21は、S72の処理の具体例について説明する図である。図21に示すグラフでは、横軸が第1確度に対応し、縦軸が第2確度に対応する。
[Specific example of processing of S72]
FIG. 21 is a diagram illustrating a specific example of the process of S72. In the graph shown in FIG. 21, the horizontal axis corresponds to the first accuracy and the vertical axis corresponds to the second accuracy.

図21に示すグラフは、例えば、第1確度が第1閾値を上回る対象物が第1学習モデル及び第2学習モデルにおいて既に学習済の対象物であると判定されることを示している。 The graph shown in FIG. 21 shows, for example, that an object whose first accuracy exceeds the first threshold value is determined to be an object that has already been learned in the first learning model and the second learning model.

また、図21に示すグラフは、例えば、第1確度が第1閾値を下回る対象物が第1学習モデル及び第2学習モデルにおいて未学習である可能性がある対象物であると判定されることを示している。 Further, in the graph shown in FIG. 21, for example, it is determined that an object having a first accuracy lower than the first threshold value is an object that may not be learned in the first learning model and the second learning model. Is shown.

さらに、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を下回る対象物が、学習済の対象物であるが動画データ133に含まれるノイズ等の影響によって種類の判断が困難な対象物であると判定されることを示している。また、図21に示すグラフは、第1確度が第1閾値を下回り、かつ、第2閾値が第2閾値を上回る対象物が、未学習の対象物であると判定されることを示している。 Further, in the graph shown in FIG. 21, an object whose first accuracy is lower than the first threshold value and whose second threshold value is lower than the second threshold value is a learned object, but noise and the like included in the moving image data 133. It is shown that it is judged that the object is difficult to judge the type due to the influence of. Further, the graph shown in FIG. 21 shows that an object having a first accuracy lower than the first threshold value and a second threshold value exceeding the second threshold value is determined to be an unlearned object. ..

すなわち、第1確度が低く、かつ、第2確度が高い対象物は、第1学習モデル及び第2学習モデルにおいてまで学習されていない対象物である可能性が極めて高いと判断できる。そのため、結果出力部118は、第1確度が低く、かつ、第2確度が高い対象物が存在する場合、その対象物を未学習の対象物として特定する。 That is, it can be determined that an object having a low first accuracy and a high second accuracy is extremely likely to be an object that has not been learned even in the first learning model and the second learning model. Therefore, when the result output unit 118 has an object having a low first accuracy and a high second accuracy, the result output unit 118 identifies the object as an unlearned object.

これにより、情報処理装置1は、第1確度が低い対象物のそれぞれを、学習済の対象物と未学習の対象物とのいずれかに分類することが可能になる。そして、作業者は、例えば、未学習の対象物として特定した対象物のみを第1学習モデル及び第2学習モデルに学習させることで、各学習モデルの精度を高めることが可能になる。 As a result, the information processing apparatus 1 can classify each of the objects having a low first accuracy into either a learned object or an unlearned object. Then, for example, the worker can improve the accuracy of each learning model by having the first learning model and the second learning model learn only the object specified as the unlearned object.

このように、本実施の形態における情報処理装置1は、第1学習モデルを用いることによって、動画データ133を構成する複数の画像データに含まれる対象物のそれぞれの種類についての類別結果と、その類別結果の第1確度とを取得する。そして、情報処理装置1は、複数の画像データに含まれる対象物ごとに、各対象物に対応する類別結果と第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う。その後、情報処理装置1は、複数の画像データに含まれる対象物のうち、所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する。 As described above, the information processing apparatus 1 in the present embodiment uses the first learning model to obtain categorized results for each type of the object included in the plurality of image data constituting the moving image data 133, and the categorized results thereof. Obtain the first accuracy of the categorization result. Then, the information processing device 1 determines whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy for each object included in the plurality of image data. Make a judgment. After that, the information processing device 1 outputs information indicating that, among the objects included in the plurality of image data, the object determined to satisfy a predetermined condition is the monitoring target.

すなわち、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類(例えば、予め定められた監視対象の種類)に含まれていない対象物であって、第1学習モデルによって出力された類別結果の確度が所定の閾値(例えば、予め定められた閾値)よりも高い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要がないと判断する。一方、例えば、第1学習モデルによって出力された類別結果に対応する種類が監視対象の種類に含まれている対象物や、第1学習モデルによって出力された類別結果の確度が所定の閾値よりも低い対象物が存在する場合、情報処理装置1は、存在した対象物についての監視を行う必要があると判断する。 That is, for example, the type corresponding to the classification result output by the first learning model is an object that is not included in the type of the monitoring target (for example, the predetermined type of the monitoring target), and the first learning model. When there is an object whose accuracy of the classification result output by is higher than a predetermined threshold value (for example, a predetermined threshold value), the information processing apparatus 1 does not need to monitor the existing object. to decide. On the other hand, for example, an object in which the type corresponding to the classification result output by the first learning model is included in the type of the monitoring target, or the accuracy of the classification result output by the first learning model is higher than a predetermined threshold value. When a low object exists, the information processing apparatus 1 determines that it is necessary to monitor the existing object.

これにより、情報処理装置1は、第1学習モデルを用いることで、作業者が目視による監視を行う必要がある対象物を特定することが可能になる。そのため、情報処理装置1は、対象物の監視に伴う作業者の負担を抑制することが可能になる。 As a result, the information processing device 1 can identify an object that the operator needs to visually monitor by using the first learning model. Therefore, the information processing device 1 can suppress the burden on the operator due to the monitoring of the object.

以上の実施の形態をまとめると、以下の付記のとおりである。 The above embodiments can be summarized as follows.

(付記1)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 1)
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
For each object included in the plurality of images, it is determined whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy.
Among the objects included in the plurality of images, information indicating that the object determined to satisfy the predetermined condition is the monitoring target is output.
An information output program characterized by having a computer execute processing.

(付記2)
付記1において、さらに、
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 2)
In Appendix 1, further
Prior to the process of acquiring the classification result and the first accuracy, a plurality of first learnings including a learning image including an object and information indicating a type candidate of the object included in the learning image. By training the data, the first training model is generated.
An information output program characterized by having a computer execute processing.

(付記3)
付記1において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。
(Appendix 3)
In Appendix 1,
In the process of performing the determination, for each object included in the plurality of images, whether or not the classification result corresponding to each object satisfies the first condition, and the first accuracy corresponding to each object. Determines if the second condition is met,
In the output process, among the objects included in the plurality of images, the object for which the classification result is determined to satisfy the first condition and the object for which the first accuracy is determined to satisfy the second condition are satisfied. Output an alert about and
An information output program characterized by this.

(付記4)
付記3において、
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 4)
In Appendix 3,
In the process of performing the determination, when the classification result indicates that each object is an object having a predetermined attribute, the classification result corresponding to each object satisfies the first condition. judge,
An information output program characterized by this.

(付記5)
付記3において、
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 5)
In Appendix 3,
In the process of performing the determination, when the first accuracy corresponding to each object is larger than the first threshold value, it is determined that the first accuracy corresponding to each object satisfies the second condition.
An information output program characterized by this.

(付記6)
付記3において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力プログラム。
(Appendix 6)
In Appendix 3, further
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
Let the computer perform the process
In the process of performing the determination, for each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition, and the object corresponds to each object. It is determined whether or not the second accuracy is satisfied with the third condition.
In the output process, among the objects included in the plurality of images, the objects whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that there is,
An information output program characterized by this.

(付記7)
付記6において、さらに、
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 7)
In Appendix 6, further
Prior to the process of acquiring the second accuracy, a plurality of second learning data including the learning image including the object and the position information of the object in the learning image are learned, thereby performing the second learning. 2 Generate a learning model,
An information output program characterized by having a computer execute processing.

(付記8)
付記6において、
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
(Appendix 8)
In Appendix 6,
In the process of performing the determination, when the second accuracy corresponding to each object is larger than the second threshold value, it is determined that the second accuracy corresponding to each object satisfies the third condition.
An information output program characterized by this.

(付記9)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(Appendix 9)
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. Determine if it meets or not,
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. ,
An information output program characterized by having a computer execute processing.

(付記10)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う第1条件判定部と、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する結果出力部と、を有する、
ことを特徴とする情報出力装置。
(Appendix 10)
The information acquisition unit that acquires moving images and
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. A result acquisition unit that acquires the categorized results for each type and the first accuracy indicating the accuracy of the categorized results.
A first condition for determining whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy for each object included in the plurality of images. Judgment unit and
Among the objects included in the plurality of images, the result output unit that outputs information indicating that the object determined to satisfy the predetermined condition is the monitoring target is provided.
An information output device characterized by the fact that.

(付記11)
付記10において、
前記第1条件判定部は、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力装置。
(Appendix 11)
In Appendix 10,
The first condition determination unit determines whether or not the classification result corresponding to each object satisfies the first condition for each object included in the plurality of images, and the first condition corresponding to each object. Determine if the accuracy meets the second condition,
Among the objects included in the plurality of images, the result output unit is an object for which the classification result is determined to satisfy the first condition and an object for which the first accuracy is determined to satisfy the second condition. Output an alert about and
An information output device characterized by the fact that.

(付記12)
付記11において、
前記結果取得部は、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、さらに、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定する第2条件判定部を有し、
前記結果出力部は、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力装置。
(Appendix 12)
In Appendix 11,
By using the second learning model in which the position information of the object in the image is learned, the result acquisition unit acquires the second accuracy indicating the probability that the object exists in each of the plurality of images, and further,
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition, and the second accuracy corresponding to each object is the second. It has a second condition determination unit that determines whether or not the three conditions are satisfied.
Among the objects included in the plurality of images, the result output unit has not learned the objects whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition. Output information indicating that there is,
An information output device characterized by the fact that.

(付記13)
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。
(Appendix 13)
The information acquisition unit that acquires moving images and
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. By acquiring the categorization result for each type and the first accuracy indicating the accuracy of the categorization result, and further using the second learning model in which the position information of the object in the image is learned, the plurality of images are described. The result acquisition unit that acquires the second accuracy, which indicates the probability that the object exists in each,
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. A second condition determination unit that determines whether or not the condition is satisfied, and
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. Has a result acquisition unit,
An information output device characterized by the fact that.

(付記14)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
(Appendix 14)
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
For each object included in the plurality of images, it is determined whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy.
Among the objects included in the plurality of images, information indicating that the object determined to satisfy the predetermined condition is the monitoring target is output.
An information output method characterized by having a computer execute processing.

(付記15)
付記14において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力方法。
(Appendix 15)
In Appendix 14,
In the process of performing the determination, for each object included in the plurality of images, whether or not the classification result corresponding to each object satisfies the first condition, and the first accuracy corresponding to each object. Determines if the second condition is met,
In the output process, among the objects included in the plurality of images, the object for which the classification result is determined to satisfy the first condition and the object for which the first accuracy is determined to satisfy the second condition are satisfied. Output an alert about and
An information output method characterized by the fact that.

(付記16)
付記15において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力方法。
(Appendix 16)
In Appendix 15, further
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
Let the computer perform the process
In the process of performing the determination, for each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition, and the object corresponds to each object. It is determined whether or not the second accuracy is satisfied with the third condition.
In the output process, among the objects included in the plurality of images, the objects whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that there is,
An information output method characterized by the fact that.

(付記17)
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
(Appendix 17)
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. Determine if it meets or not,
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. ,
An information output method characterized by having a computer execute processing.

1:情報処理装置 3:操作端末
10:情報処理システム NW:ネットワーク
1: Information processing device 3: Operation terminal 10: Information processing system NW: Network

Claims (13)

動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
For each object included in the plurality of images, it is determined whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy.
Among the objects included in the plurality of images, information indicating that the object determined to satisfy the predetermined condition is the monitoring target is output.
An information output program characterized by having a computer execute processing.
請求項1において、さらに、
前記類別結果と前記第1確度とを取得する処理の前に、対象物を含む学習用画像と前記学習用画像に含まれる前記対象物の種類候補を示す情報とをそれぞれ含む複数の第1学習データの学習を行うことにより、前記第1学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
In claim 1, further
Prior to the process of acquiring the classification result and the first accuracy, a plurality of first learnings including a learning image including an object and information indicating a type candidate of the object included in the learning image. By training the data, the first training model is generated.
An information output program characterized by having a computer execute processing.
請求項1において、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果が第1条件を満たすか否か、及び、各対象物に対応する前記第1確度が第2条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記類別結果が前記第1条件を満たすと判定した対象物と前記第1確度が前記第2条件を満たすと判定した対象物とについてのアラートを出力する、
ことを特徴とする情報出力プログラム。
In claim 1,
In the process of performing the determination, for each object included in the plurality of images, whether or not the classification result corresponding to each object satisfies the first condition, and the first accuracy corresponding to each object. Determines if the second condition is met,
In the output process, among the objects included in the plurality of images, the object for which the classification result is determined to satisfy the first condition and the object for which the first accuracy is determined to satisfy the second condition are satisfied. Output an alert about and
An information output program characterized by this.
請求項3において、
前記判定を行う処理では、各対象物が所定の属性を有する対象物であることを前記類別結果が示している場合、各対象物に対応する前記類別結果が前記第1条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
In claim 3,
In the process of performing the determination, when the classification result indicates that each object is an object having a predetermined attribute, the classification result corresponding to each object satisfies the first condition. judge,
An information output program characterized by this.
請求項3において、
前記判定を行う処理では、各対象物に対応する前記第1確度が第1閾値よりも大きい場合、各対象物に対応する前記第1確度が前記第2条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
In claim 3,
In the process of performing the determination, when the first accuracy corresponding to each object is larger than the first threshold value, it is determined that the first accuracy corresponding to each object satisfies the second condition.
An information output program characterized by this.
請求項3において、さらに、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する、
処理をコンピュータに実行させ、
前記判定を行う処理では、前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が前記第2条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が第3条件を満たすか否かを判定し、
前記出力する処理では、前記複数の画像に含まれる対象物のうち、前記第1確度が前記第2条件を満たさず、かつ、前記第2確度が前記第3条件を満たす対象物が未学習であることを示す情報を出力する、
ことを特徴とする情報出力プログラム。
In claim 3, further
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
Let the computer perform the process
In the process of performing the determination, for each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the second condition, and the object corresponds to each object. It is determined whether or not the second accuracy is satisfied with the third condition.
In the output process, among the objects included in the plurality of images, the objects whose first accuracy does not satisfy the second condition and whose second accuracy satisfies the third condition are unlearned. Output information indicating that there is,
An information output program characterized by this.
請求項6において、さらに、
前記第2確度を取得する処理の前に、対象物を含む学習用画像と前記学習用画像における前記対象物の位置情報とをそれぞれ含む複数の第2学習データの学習を行うことにより、前記第2学習モデルを生成する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
In claim 6, further
Prior to the process of acquiring the second accuracy, a plurality of second learning data including the learning image including the object and the position information of the object in the learning image are learned, thereby performing the second learning. 2 Generate a learning model,
An information output program characterized by having a computer execute processing.
請求項6において、
前記判定を行う処理では、各対象物に対応する前記第2確度が第2閾値よりも大きい場合、各対象物に対応する前記第2確度が前記第3条件を満たしていると判定する、
ことを特徴とする情報出力プログラム。
In claim 6,
In the process of performing the determination, when the second accuracy corresponding to each object is larger than the second threshold value, it is determined that the second accuracy corresponding to each object satisfies the third condition.
An information output program characterized by this.
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. Determine if it meets or not,
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. ,
An information output program characterized by having a computer execute processing.
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行う第1条件判定部と、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する結果出力部と、を有する、
ことを特徴とする情報出力装置。
The information acquisition unit that acquires moving images and
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. A result acquisition unit that acquires the categorized results for each type and the first accuracy indicating the accuracy of the categorized results.
A first condition for determining whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy for each object included in the plurality of images. Judgment unit and
Among the objects included in the plurality of images, the result output unit that outputs information indicating that the object determined to satisfy the predetermined condition is the monitoring target is provided.
An information output device characterized by the fact that.
動画像を取得する情報取得部と、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、さらに、画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得する結果取得部と、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定する第2条件判定部と、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する結果取得部を有する、
ことを特徴とする情報出力装置。
The information acquisition unit that acquires moving images and
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. By acquiring the categorization result for each type and the first accuracy indicating the accuracy of the categorization result, and further using the second learning model in which the position information of the object in the image is learned, the plurality of images are described. The result acquisition unit that acquires the second accuracy, which indicates the probability that the object exists in each,
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. A second condition determination unit that determines whether or not the condition is satisfied, and
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. Has a result acquisition unit,
An information output device characterized by the fact that.
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記類別結果と前記第1確度とに基づいて、各対象物が所定の条件を満たすか否かの判定を行い、
前記複数の画像に含まれる対象物のうち、前記所定の条件を満たすと判定した対象物が監視対象であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
For each object included in the plurality of images, it is determined whether or not each object satisfies a predetermined condition based on the classification result corresponding to each object and the first accuracy.
Among the objects included in the plurality of images, information indicating that the object determined to satisfy the predetermined condition is the monitoring target is output.
An information output method characterized by having a computer execute processing.
動画像を取得し、
画像に含まれる対象物の種類候補と前記対象物の種類が前記種類候補である確度とを学習した第1学習モデルを用いることによって、前記動画像を構成する複数の画像に含まれる対象物のそれぞれの種類についての類別結果と、前記類別結果の確度を示す第1確度とを取得し、
画像における対象物の位置情報を学習した第2学習モデルを用いることによって、前記複数の画像のそれぞれに対象物が存在する確度を示す第2確度を取得し、
前記複数の画像に含まれる対象物ごとに、各対象物に対応する前記第1確度が条件を満たすか否かを判定し、かつ、各対象物に対応する前記第2確度が他の条件を満たすか否かを判定し、
前記複数の画像に含まれる対象物のうち、前記第1確度が前記条件を満たさず、かつ、前記第2確度が前記他の条件を満たす対象物が未学習であることを示す情報を出力する、
処理をコンピュータに実行させることを特徴とする情報出力方法。
Get a moving image,
By using the first learning model in which the type candidate of the object included in the image and the accuracy that the type of the object is the type candidate are learned, the object included in the plurality of images constituting the moving image is used. Obtain the categorization result for each type and the first accuracy indicating the accuracy of the categorization result.
By using the second learning model in which the position information of the object in the image is learned, the second accuracy indicating the probability that the object exists in each of the plurality of images is acquired.
For each object included in the plurality of images, it is determined whether or not the first accuracy corresponding to each object satisfies the condition, and the second accuracy corresponding to each object satisfies other conditions. Determine if it meets or not,
Among the objects included in the plurality of images, information indicating that the object whose first accuracy does not satisfy the above condition and whose second accuracy satisfies the other condition is unlearned is output. ,
An information output method characterized by having a computer execute processing.
JP2020000996A 2020-01-07 2020-01-07 Information output program, information output device, and information output method Active JP7436801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020000996A JP7436801B2 (en) 2020-01-07 2020-01-07 Information output program, information output device, and information output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020000996A JP7436801B2 (en) 2020-01-07 2020-01-07 Information output program, information output device, and information output method

Publications (2)

Publication Number Publication Date
JP2021111027A true JP2021111027A (en) 2021-08-02
JP7436801B2 JP7436801B2 (en) 2024-02-22

Family

ID=77059894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020000996A Active JP7436801B2 (en) 2020-01-07 2020-01-07 Information output program, information output device, and information output method

Country Status (1)

Country Link
JP (1) JP7436801B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6446971B2 (en) 2014-10-06 2019-01-09 日本電気株式会社 Data processing apparatus, data processing method, and computer program
US10572963B1 (en) 2017-07-14 2020-02-25 Synapse Technology Corporation Detection of items
JP6797860B2 (en) 2018-05-02 2020-12-09 株式会社日立国際電気 Water intrusion detection system and its method

Also Published As

Publication number Publication date
JP7436801B2 (en) 2024-02-22

Similar Documents

Publication Publication Date Title
KR101385599B1 (en) Method and apparatus for interfering montage
KR101910542B1 (en) Image Analysis Method and Server Apparatus for Detecting Object
US11580629B2 (en) System and method for determining situation of facility by imaging sensing data of facility
JP2018207222A (en) Camera and parameter registration method
KR102002812B1 (en) Image Analysis Method and Server Apparatus for Detecting Object
JP6565600B2 (en) Attention detection device and attention detection method
US20100272351A1 (en) Information processing apparatus and method for detecting object in image data
US20200272897A1 (en) Learning device, learning method, and recording medium
JP2018205900A (en) Monitoring system and monitoring method
JP5674550B2 (en) Status tracking apparatus, method, and program
JPWO2017154655A1 (en) Crowd type identification system, crowd type identification method, and crowd type identification program
CN113989156A (en) Method, apparatus, medium, device, and program for reliability verification of desensitization method
US11521392B2 (en) Image processing apparatus and image processing method for image analysis process
JP2021111027A (en) Information output program, information output device and information output method
CN115904883B (en) RPA flow execution visual abnormity monitoring method, device and medium
Presti et al. Real-time object detection in embedded video surveillance systems
US11887331B2 (en) Information processing apparatus, control method, and non-transitory storage medium
US10372719B2 (en) Episode mining device, method and non-transitory computer readable medium of the same
KR102332183B1 (en) Method and Apparatus for Detecting Anomaly from Security Video
CN112906810B (en) Target detection method, electronic device, and storage medium
WO2021176514A1 (en) Learning processing program, information processing device, and learning processing method
KR20210024871A (en) Apparatus and method for managing machine-learning model and image analyzing apparatus
JP7401747B2 (en) Sorting program, sorting device and sorting method
JP2012511194A (en) Image motion detection method and apparatus
US20230196752A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7436801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150