JP7223194B1 - Information processing method, computer program, information processing device and information processing system - Google Patents

Information processing method, computer program, information processing device and information processing system Download PDF

Info

Publication number
JP7223194B1
JP7223194B1 JP2022087026A JP2022087026A JP7223194B1 JP 7223194 B1 JP7223194 B1 JP 7223194B1 JP 2022087026 A JP2022087026 A JP 2022087026A JP 2022087026 A JP2022087026 A JP 2022087026A JP 7223194 B1 JP7223194 B1 JP 7223194B1
Authority
JP
Japan
Prior art keywords
image
information processing
wavelength band
unit
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022087026A
Other languages
Japanese (ja)
Other versions
JP2023174268A (en
Inventor
聖悟 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2022087026A priority Critical patent/JP7223194B1/en
Application granted granted Critical
Publication of JP7223194B1 publication Critical patent/JP7223194B1/en
Publication of JP2023174268A publication Critical patent/JP2023174268A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】撮影画像に基づく対象物の状態検出の精度を向上することが期待できる情報処理方法、コンピュータプログラム、情報処理装置、撮影装置及び情報処理システムを提供する。【解決手段】本実施の形態に係る情報処理方法は、情報処理装置が、対象物を第1波長帯の光に基づいて撮影した第1画像を取得し、前記対象物を第2波長帯の光に基づいて撮影した第2画像を取得し、前記第1画像に対するセグメンテーションを行って前記対象物が写された画像領域を特定し、特定結果に基づいて、前記第2画像から前記対象物の状態を検出する。前記第1波長帯は可視光線の波長帯であってよく、前記第2波長帯は赤外線の波長帯であってよい。前記情報処理装置が、前記第1画像に基づいて前記対象物を分類し、前記対象物の分類結果及び前記特定結果に基づいて、前記第2画像から前記対象物の状態を検出してもよい。【選択図】図1The present invention provides an information processing method, a computer program, an information processing device, a photographing device, and an information processing system that can be expected to improve the accuracy of detecting the state of an object based on a photographed image. In the information processing method according to the present embodiment, an information processing device acquires a first image of an object based on light in a first wavelength band, and captures the object in a second wavelength band. Obtain a second image taken based on light, perform segmentation on the first image to identify the image area where the target object is captured, and based on the identification result, identify the target object from the second image. Detect conditions. The first wavelength band may be a visible light wavelength band, and the second wavelength band may be an infrared wavelength band. The information processing device may classify the object based on the first image, and detect the state of the object from the second image based on the classification result and the identification result of the object. . [Selection diagram] Figure 1

Description

本発明は、対象物の状態を検出するための情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システムに関する。 The present invention relates to an information processing method, a computer program, an information processing apparatus, and an information processing system for detecting the state of an object.

従来、食品等の対象物を撮影装置で撮影した画像に基づいて、この対象物の異常の有無又は熟れ具合等の状態を検出する技術が広く用いられている。近年では、予め機械学習がなされた学習モデル、いわゆるAI(Artificial Intelligence)を用いて、撮影画像から対象物の状態を検出することが行われている。 2. Description of the Related Art Conventionally, there has been widely used a technique of detecting the presence or absence of an abnormality or the degree of overripe of an object such as food based on an image of the object captured by a photographing device. In recent years, the state of an object is detected from a photographed image using a learning model that has undergone machine learning in advance, so-called AI (Artificial Intelligence).

特許文献1においては、対象がそれぞれ異なる位置又は姿勢で写りこむように撮像装置により撮像された複数の撮像画像を、これら複数の撮像画像の各々における撮像装置と対象との相対的な位置又は姿勢の関係を特定可能な態様で取得し、これら複数の撮像画像から対象の表面の異常に該当する可能性がある異常候補が写りこんでいる複数の異常候補画像を抽出し、複数の異常候補画像の間における異常候補の変化に基づいて、複数の異常候補画像の各々の異常候補の対象の表面に対する深度を推定し、複数の異常候補画像の各々の異常候補の深度に基づいて、異常候補が異常に該当するか否かを検出する異常検出装置が提案されている。 In Patent Literature 1, a plurality of captured images captured by an imaging device so that an object is captured in different positions or postures are used to determine the relative positions or postures of the imaging device and the target in each of the plurality of captured images. A relationship is acquired in a manner that can be specified, a plurality of abnormality candidate images in which abnormality candidates that may correspond to the abnormality of the surface of the object are captured are extracted from the plurality of captured images, and a plurality of abnormality candidate images are extracted. estimating the depth of each abnormality candidate in the plurality of candidate abnormality images with respect to the surface of the object based on the change in the abnormality candidate between the plurality of candidate images; An anomaly detection device has been proposed for detecting whether or not

特開2022-48904号公報JP 2022-48904 A

しかしながら、例えばアボガドのように色が暗い対象物又はリンゴのように表面に模様がある対象物等は、撮影画像に基づく状態検出を高精度に行うことが難しいという問題がある。 However, there is a problem that it is difficult to accurately detect the state of an object such as an avocado that has a dark color or an object that has a pattern on the surface such as an apple.

本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、撮影画像に基づく対象物の状態検出の精度を向上することが期待できる情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システムを提供することにある。 The present invention has been made in view of such circumstances, and its object is to provide an information processing method, a computer program, and an information processing method that can be expected to improve the accuracy of detecting the state of an object based on a photographed image. An object of the present invention is to provide a processing device and an information processing system.

一実施形態に係る情報処理方法は、情報処理装置が、対象物を第1波長帯の光に基づいて撮影した第1画像を取得し、前記対象物を第2波長帯の光に基づいて撮影した第2画像を取得し、前記第1画像に対するセグメンテーションを行って前記対象物が写された画像領域を特定し、特定結果に基づいて、前記第2画像から前記対象物の画像領域を抽出し、前記第1画像に基づいて前記対象物を分類し、前記第2画像から抽出された画像領域の入力に対して前記対象物の状態に関する情報を出力するよう機械学習がなされた複数の学習モデルの中から、分類結果に応じて一の学習モデルを選択し、抽出した前記画像領域及び選択した学習モデルに基づいて前記対象物の状態を検出する。 In an information processing method according to an embodiment, an information processing device acquires a first image of an object captured using light in a first wavelength band, and captures the object based on light in a second wavelength band. segmentation is performed on the first image to identify an image region in which the object is captured, and based on the identification result, an image region of the object is extracted from the second image. , a plurality of learning models machine-learned to classify the object based on the first image and output information about the state of the object in response to an input of an image region extracted from the second image; One learning model is selected from among according to the classification result, and the state of the object is detected based on the extracted image region and the selected learning model .

一実施形態による場合は、撮影画像に基づく対象物の状態検出の精度を向上することを期待できる。 According to one embodiment, it can be expected to improve the accuracy of object state detection based on a captured image.

本実施の形態に係る情報処理システムの概要を説明するための模式図である。1 is a schematic diagram for explaining an overview of an information processing system according to an embodiment; FIG. 本実施の形態に係る情報処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing apparatus according to an embodiment; FIG. 本実施の形態に係るカメラの構成を示す模式図である。1 is a schematic diagram showing the configuration of a camera according to an embodiment; FIG. カメラが撮影した対象物の可視光線画像及び赤外線画像の一例を示す画像である。It is an image showing an example of a visible light image and an infrared image of an object photographed by a camera. 情報処理装置が行うセグメンテーション処理を説明するための模式図である。FIG. 4 is a schematic diagram for explaining segmentation processing performed by an information processing apparatus; 情報処理装置が行う画像領域抽出処理を説明するための模式図である。FIG. 4 is a schematic diagram for explaining image region extraction processing performed by an information processing apparatus; 情報処理装置が行う異常検出処理を説明するための模式図である。FIG. 3 is a schematic diagram for explaining anomaly detection processing performed by an information processing device; 異常箇所の通知画面の一例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a notification screen of an abnormal location; 本実施の形態に係る情報処理装置が行う状態検出処理の手順を示すフローチャートである。4 is a flowchart showing the procedure of state detection processing performed by the information processing apparatus according to the embodiment; 実施の形態2に係る情報処理装置が行う状態検出処理の手順を示すフローチャートである。9 is a flow chart showing the procedure of state detection processing performed by the information processing apparatus according to the second embodiment; 実施の形態3に係る情報処理装置が行う状態検出処理の手順を示すフローチャートである。10 is a flow chart showing the procedure of state detection processing performed by the information processing apparatus according to the third embodiment; 実施の形態4に係る情報処理装置が行う状態検出処理の手順を示すフローチャートである。FIG. 13 is a flow chart showing the procedure of state detection processing performed by the information processing apparatus according to the fourth embodiment; FIG. 実施の形態4に係る情報処理装置が行う状態検出処理の手順を示すフローチャートである。FIG. 13 is a flow chart showing the procedure of state detection processing performed by the information processing apparatus according to the fourth embodiment; FIG.

本発明の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of an information processing system according to an embodiment of the present invention will be described below with reference to the drawings. The present invention is not limited to these examples, but is indicated by the scope of the claims, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

<システム概要>
図1は、本実施の形態に係る情報処理システムの概要を説明するための模式図である。本実施の形態に係る情報処理システムは、例えば食品又は医薬品等の対象物100に関する異常又は不良等を検出する処理を行うことにより、対象物100を検査するシステムである。本実施の形態に係る情報処理システムは、異常検出に関する制御及び演算等の処理を行う情報処理装置1と、対象物100を撮影するカメラ3と、異常検出の結果等の情報を表示する表示装置5とを備えて構成されている。
<System Overview>
FIG. 1 is a schematic diagram for explaining an outline of an information processing system according to this embodiment. The information processing system according to the present embodiment is a system that inspects an object 100 such as food or medicine by performing a process of detecting an abnormality or defect in the object 100 . The information processing system according to the present embodiment includes an information processing device 1 that performs processing such as control and calculation related to abnormality detection, a camera 3 that captures an image of an object 100, and a display device that displays information such as the results of abnormality detection. 5.

図1に示すシステム構成例において、本実施の形態に係る情報処理システムは、異常検出を行う対象物100を載置する検査台7を備えている。カメラ3は、例えば検査台7の台上から上方へ延びるアームに保持されており、検査台7に載置された対象物100を上方から撮影することができる。情報処理装置1は、例えば検査台7の近傍に配置され、カメラ3及び表示装置5とそれぞれ通信線又は信号線等を介して接続される。表示装置5は、例えば検査台7の台上に配置され、例えば対象物100の入れ替え等の検査に係る作業を行うユーザに対し、対象物100の異常の有無等の検査結果に関する情報を提示する。 In the system configuration example shown in FIG. 1, the information processing system according to the present embodiment includes an inspection table 7 on which an object 100 for abnormality detection is placed. The camera 3 is held, for example, by an arm extending upward from the table of the inspection table 7, and can photograph the object 100 placed on the inspection table 7 from above. The information processing device 1 is arranged, for example, in the vicinity of the examination table 7, and is connected to the camera 3 and the display device 5 via communication lines, signal lines, or the like. The display device 5 is arranged, for example, on the inspection table 7, and presents information on inspection results such as presence/absence of abnormalities in the object 100 to a user who performs inspection work such as replacement of the object 100. .

なお本実施の形態に係る情報処理システムのは、図1に示す構成に限らない。情報処理システムは、検査台7に載置された対象物100ではなく、例えばベルトコンベアで運ばれている対象物100、ロボットアームが保持している対象物100、又は、ユーザが保持している対象物100等をカメラ3が撮影する構成であってよい。カメラ3は、対象物100の上方から撮影を行うのではなく、側方又は下方等から撮影を行う構成であってよい。またカメラ3は、検査台7に固定されるのではなく、可搬型であってよい。カメラ3は、有線通信を行うのではなく、無線通信により情報処理装置1との情報交換を行ってもよく、カメラ3及び情報処理装置1が一体の装置であってもよい。 Note that the information processing system according to the present embodiment is not limited to the configuration shown in FIG. The information processing system is not for the object 100 placed on the inspection table 7, but for example, the object 100 carried by a belt conveyor, the object 100 held by the robot arm, or the object 100 held by the user. The configuration may be such that the camera 3 photographs the target object 100 or the like. The camera 3 may be configured to photograph the object 100 not from above but from the side or below. Also, the camera 3 may be of a portable type instead of being fixed to the inspection table 7 . The camera 3 may exchange information with the information processing apparatus 1 by wireless communication instead of performing wired communication, and the camera 3 and the information processing apparatus 1 may be integrated.

本実施の形態に係る情報処理システムが備えるカメラ3は、例えば可視光線領域及び赤外線領域等の2つの波長帯での撮影を切り替えて行うことができる。カメラ3は、例えば可視光線領域の波長を透過し、且つ、赤外線領域の波長を透過しない光学フィルタを介して撮影を行うことにより、可視光線領域の波長帯での撮影を行う。以下では、このようにしてカメラ3が可視光線領域での撮影を行って得た画像を、可視光線画像と呼ぶ。またカメラ3は、例えば赤外線領域の波長を透過し、且つ、可視光線領域の波長を透過しない光学フィルタを介して撮影を行うことにより、赤外線領域の波長帯での撮影を行う。以下では、このようにしてカメラ3が赤外線領域での撮影を行って得た画像を、赤外線画像と呼ぶ。カメラ3は、これら複数種類の光学フィルタを適宜に切り替えることで、可視光線領域での撮影と赤外線領域での撮影とを切り替えて行うことができる。カメラ3は、1つの対象物100に対して可視光線領域の波長での撮影と赤外線領域の波長での撮影とを行い、各波長にて撮影した可視光線画像及び赤外線画像の2つの画像を情報処理装置1へ与える。 The camera 3 included in the information processing system according to the present embodiment can switch between two wavelength bands such as a visible light region and an infrared region, for example. The camera 3 captures images in the visible light wavelength band by capturing images through an optical filter that transmits wavelengths in the visible light range but does not transmit wavelengths in the infrared range, for example. Hereinafter, an image obtained by the camera 3 capturing an image in the visible light region in this manner is referred to as a visible light image. In addition, the camera 3 performs photographing in the infrared wavelength band by photographing through an optical filter that transmits wavelengths in the infrared region but does not transmit wavelengths in the visible light region, for example. Hereinafter, an image obtained by the camera 3 capturing an image in the infrared region is called an infrared image. The camera 3 can switch between photographing in the visible light region and photographing in the infrared region by appropriately switching among these plural types of optical filters. The camera 3 captures an image of one object 100 with wavelengths in the visible light range and with wavelengths in the infrared range, and provides two images, a visible light image and an infrared image captured at each wavelength, as information. It is given to the processing device 1 .

本実施の形態に係る情報処理装置1は、カメラ3が対象物100を撮影した可視光線画像及び赤外線画像の2種類の画像を取得して、取得した2種類の画像に基づいて対象物100の異常を検出する処理を行う。本実施の形態において情報処理装置1は、対象物100の可視光線画像を用いて、この画像中に対象物100が写されている画像領域(画素)を特定する処理、いわゆる対象物100のセグメンテーション処理を行う。また情報処理装置1は、可視光線画像を用いて対象物100が何であるかを判定する処理、いわゆる対象物100のクラス分類処理を行ってもよい。なお本実施の形態に係る情報処理装置1は、これらのセグメンテーション処理及びクラス分類処理等を、予め機械学習がなされた学習モデル、いわゆるAIを用いて行う。 The information processing apparatus 1 according to the present embodiment acquires two types of images, a visible light image and an infrared image, of the target object 100 photographed by the camera 3, and determines the image of the target object 100 based on the acquired two types of images. Perform processing to detect anomalies. In the present embodiment, the information processing apparatus 1 uses a visible light image of the object 100 to identify an image region (pixels) in which the object 100 is shown in the image, a so-called segmentation of the object 100. process. The information processing device 1 may also perform a process of determining what the target object 100 is using the visible light image, that is, a so-called class classification process of the target object 100 . Note that the information processing apparatus 1 according to the present embodiment performs these segmentation processing, class classification processing, and the like using a learning model that has undergone machine learning in advance, that is, so-called AI.

情報処理装置1は、セグメンテーション処理により可視光線画像中に対象物100が写されている画像領域を特定することにより、赤外線画像中に対象物100が写されている画像領域を特定することができる。なお本実施の形態においては、1つのカメラ3が光学フィルタの切り替えにより検査台7に載置された(不動の)対象物100を撮影する構成であるため、可視光線画像中に対象物100が写されている位置と、赤外線画像中に対象物100が写されている位置とは同じである。もし対象物100がベルトコンベア等により移動している場合、情報処理装置1は、ベルトコンベアによる対象物100の移動速度と、可視光線画像の撮影と赤外線画像の撮影との間の時間とに基づいて、可視光線画像中の対象物100の位置と赤外線画像中の対象物100の位置との変位量を推定することができる。 The information processing apparatus 1 can specify the image area in which the object 100 is shown in the infrared image by specifying the image area in which the object 100 is shown in the visible light image by the segmentation process. . In the present embodiment, one camera 3 is configured to photograph the (immobile) object 100 placed on the inspection table 7 by switching the optical filters. The photographed position is the same as the position at which the object 100 is photographed in the infrared image. If the target object 100 is moving by a belt conveyor or the like, the information processing device 1 determines based on the moving speed of the target object 100 by the belt conveyor and the time between capturing the visible light image and capturing the infrared image. , the amount of displacement between the position of the object 100 in the visible light image and the position of the object 100 in the infrared image can be estimated.

情報処理装置1は、対象物100が写されている画像領域の特定結果に基づいて、赤外線画像から特定された画像領域を抽出する処理を行う。情報処理装置1は、抽出した画像領域を基に、対象物100の異常を検出する。本実施の形態に係る情報処理装置1は、赤外線画像から抽出した画像領域に基づく対象物100の異常検出を、予め機械学習がなされた学習モデル、いわゆるAIを用いて行う。学習モデルは、例えば赤外線画像から抽出された対象物100の画像領域を入力として受け付けて、この画像領域に写された対象物100に異常があるか否かを示す数値情報、又は、この対象物100の異常箇所を示す座標情報等を出力するように予め機械学習がなされる。 The information processing apparatus 1 performs processing for extracting the specified image area from the infrared image based on the result of specifying the image area in which the target object 100 is captured. The information processing device 1 detects abnormality of the object 100 based on the extracted image area. The information processing apparatus 1 according to the present embodiment performs abnormality detection of the target object 100 based on an image area extracted from an infrared image using a learning model, so-called AI, which has undergone machine learning in advance. The learning model receives, as an input, an image area of the object 100 extracted from an infrared image, for example, and numerical information indicating whether or not the object 100 captured in this image area has an abnormality, or Machine learning is performed in advance so as to output coordinate information or the like indicating 100 abnormal locations.

情報処理装置1は、学習モデルが出力する対象物100の異常の有無等の情報を取得し、取得した情報を検査結果として表示装置5に表示する。なお情報処理装置1は、対象物100に異常があるとの結果が得られた場合にのみ表示装置5に情報を表示してもよい。また本実施の形態に係る情報処理システムでは、情報処理装置1及び表示装置5を別の装置としているが、これに限るものではなく、情報処理装置1及び表示装置5が一体の装置であってもよい。 The information processing device 1 acquires information such as the presence or absence of an abnormality in the object 100 output by the learning model, and displays the acquired information on the display device 5 as an inspection result. Note that the information processing device 1 may display information on the display device 5 only when a result is obtained that the object 100 has an abnormality. In addition, in the information processing system according to the present embodiment, the information processing device 1 and the display device 5 are separate devices, but the present invention is not limited to this. good too.

<装置構成>
図2は、本実施の形態に係る情報処理装置1の構成を示すブロック図である。本実施の形態に係る情報処理装置1は、処理部11、記憶部(ストレージ)12、通信部(トランシーバ)13及び操作部14等を備えて構成されている。なお本実施の形態においては、1つの情報処理装置1にて処理が行われるものとして説明を行うが、複数の情報処理装置が分散して処理を行ってもよい。
<Device configuration>
FIG. 2 is a block diagram showing the configuration of the information processing device 1 according to this embodiment. The information processing apparatus 1 according to the present embodiment includes a processing unit 11, a storage unit (storage) 12, a communication unit (transceiver) 13, an operation unit 14, and the like. In this embodiment, one information processing apparatus 1 performs the processing, but a plurality of information processing apparatuses may perform the processing in a distributed manner.

処理部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)又は量子プロセッサ等の演算処理装置、ROM(Read Only Memory)及びRAM(Random Access Memory)等を用いて構成されている。処理部11は、記憶部12に記憶されたプログラム12aを読み出して実行することにより、対象物100の異常検出に関する種々の処理を行う。 The processing unit 11 includes an arithmetic processing unit such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), a GPU (Graphics Processing Unit) or a quantum processor, a ROM (Read Only Memory) and a RAM (Random Access Memory). It is configured using The processing unit 11 reads and executes a program 12 a stored in the storage unit 12 to perform various processes related to detection of anomalies in the target object 100 .

記憶部12は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するプログラム12aを記憶する。また記憶部12には、予め機械学習がなされた学習済みの学習モデルに関する情報を記憶する学習モデル記憶部12bが設けられている。 The storage unit 12 is configured using, for example, a large-capacity storage device such as a hard disk. The storage unit 12 stores various programs executed by the processing unit 11 and various data required for processing by the processing unit 11 . In the present embodiment, the storage unit 12 stores a program 12a executed by the processing unit 11. FIG. The storage unit 12 is also provided with a learning model storage unit 12b that stores information on a learned learning model that has undergone machine learning in advance.

本実施の形態においてプログラム(コンピュータプログラム、プログラム製品)12aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、情報処理装置1は記録媒体99からプログラム12aを読み出して記憶部12に記憶する。ただし、プログラム12aは、例えば情報処理装置1の製造段階において記憶部12に書き込まれてもよい。また例えばプログラム12aは、遠隔のサーバ装置等が配信するものを情報処理装置1が通信にて取得してもよい。例えばプログラム12aは、記録媒体99に記録されたものを書込装置が読み出して情報処理装置1の記憶部12に書き込んでもよい。プログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。 In the present embodiment, the program (computer program, program product) 12a is provided in a form recorded in a recording medium 99 such as a memory card or an optical disk, and the information processing apparatus 1 reads out the program 12a from the recording medium 99 and stores it in the storage unit. 12. However, the program 12a may be written in the storage unit 12 at the manufacturing stage of the information processing device 1, for example. Further, for example, the program 12a may be distributed by a remote server device or the like and acquired by the information processing device 1 through communication. For example, the program 12 a may be recorded in the recording medium 99 and read by a writing device and written in the storage unit 12 of the information processing device 1 . The program 12 a may be provided in the form of distribution via a network, or may be provided in the form of being recorded on the recording medium 99 .

学習モデル記憶部12bは、情報処理装置1が異常検出等の処理に用いる一又は複数の学習モデルに関する情報を記憶する。学習モデルに関する情報には、例えば学習モデルの構造を示す情報、及び、機械学習の処理により決定された学習モデルのパラメータの情報等が含まれ得る。本実施の形態においては、カメラ3の撮影画像中の対象物100が写された画素を特定するセグメンテーション処理を行う学習モデル、撮影画像に写された対象物の種類等を識別するクラス分類処理を行う学習モデル、及び/又は、対象物100が写された画像領域を基に異常の有無を判定する学習モデル等の情報が学習モデル記憶部12bに記憶される。 The learning model storage unit 12b stores information about one or more learning models that the information processing apparatus 1 uses for processing such as abnormality detection. The information about the learning model can include, for example, information indicating the structure of the learning model, information about parameters of the learning model determined by machine learning processing, and the like. In the present embodiment, a learning model that performs segmentation processing for identifying pixels in the captured image of the camera 3 in which the object 100 is captured, and a class classification process that identifies the type of the target captured in the captured image. Information such as a learning model to be performed and/or a learning model for determining the presence or absence of an abnormality based on an image area in which the object 100 is photographed is stored in the learning model storage unit 12b.

通信部13は、例えば通信ケーブルを介してカメラ3及び表示装置5にそれぞれ接続され、カメラ3及び表示装置5との通信を行う。通信部13は、例えばUSB(Universal Serial Bus)又はLAN(Local Area Network)等の通信規格に基づいて通信を行ってよい。また通信部13は、通信ケーブルを介すことなく、無線通信によりカメラ3及び表示装置5との通信を行ってもよい。通信部13は、例えばカメラ3から送信される可視光線画像及び赤外線画像等を受信して記憶部12に記憶し、処理部11から与えられた制御命令等をカメラ3へ送信する。また通信部13は、処理部11から与えられた表示用の画像データを表示装置5へ送信し、表示装置5に画像表示を行わせる。 The communication unit 13 is connected to the camera 3 and the display device 5 via, for example, a communication cable, and communicates with the camera 3 and the display device 5 . The communication unit 13 may perform communication based on a communication standard such as USB (Universal Serial Bus) or LAN (Local Area Network). Alternatively, the communication unit 13 may communicate with the camera 3 and the display device 5 by wireless communication without using a communication cable. The communication unit 13 receives, for example, a visible light image, an infrared image, and the like transmitted from the camera 3 , stores them in the storage unit 12 , and transmits control instructions and the like given from the processing unit 11 to the camera 3 . Further, the communication unit 13 transmits image data for display given from the processing unit 11 to the display device 5, and causes the display device 5 to display an image.

操作部14は、ユーザの操作を受け付け、受け付けた操作を処理部11へ通知する。操作部14は、例えば機械式のボタン、又は、マウスもしくはキーボード等の入力デバイスによりユーザの操作を受け付ける。これらの入力デバイスは、情報処理装置1に対して取り外すことが可能な構成であってもよい。また情報処理装置1は、操作部14を備えていなくてもよい。情報処理装置1は、例えば表示装置5に設けられた操作部によりユーザの操作を受け付けてもよい。 The operation unit 14 receives a user's operation and notifies the processing unit 11 of the received operation. The operation unit 14 receives a user's operation using, for example, mechanical buttons or an input device such as a mouse or keyboard. These input devices may be detachable from the information processing apparatus 1 . Further, the information processing device 1 does not have to include the operation unit 14 . The information processing device 1 may receive a user's operation through an operation unit provided in the display device 5, for example.

表示装置5は、例えば液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイ等の表示デバイスである。表示装置5は、通信線又は信号線等を介して情報処理装置1に接続され、情報処理装置1から与えられる種々の画像及び文字等を表示する。 The display device 5 is, for example, a display device such as a liquid crystal display or an organic EL (Electro Luminescence) display. The display device 5 is connected to the information processing device 1 via a communication line, a signal line, or the like, and displays various images, characters, and the like given from the information processing device 1 .

また本実施の形態に係る情報処理装置1には、記憶部12に記憶されたプログラム12aを処理部11が読み出して実行することにより、撮影画像取得部11a、画像領域特定部11b、異常検出部11c及び表示処理部11d等が、ソフトウェア的な機能部として処理部11に実現される。なお本図においては、処理部11の機能部として、対象物100の異常検出の処理に関連する機能部を図示し、これ以外の処理に関する機能部は図示を省略している。 Further, in the information processing apparatus 1 according to the present embodiment, the program 12a stored in the storage unit 12 is read out and executed by the processing unit 11, so that the photographed image acquisition unit 11a, the image area identification unit 11b, the abnormality detection unit 11c, the display processing unit 11d, and the like are implemented in the processing unit 11 as software functional units. In addition, in this figure, as the functional units of the processing unit 11, the functional units related to the abnormality detection processing of the target object 100 are illustrated, and the functional units related to other processing are omitted.

撮影画像取得部11aは、通信部13にてカメラ3との間でデータの送受信を行うことによって、カメラ3が撮影した対象物100の撮影画像、即ち可視光線の波長帯で撮影した可視光線画像と、赤外線の波長帯で撮影した赤外線画像とを取得する処理を行う。撮影画像取得部11aは、取得した可視光線画像及び赤外線画像を記憶部12に一時的に記憶する。また撮影画像取得部11aは、カメラ3の撮影に関する制御、例えばシャッター速度の変更、明るさの調整及びピント合わせ等の制御を行ってもよい。 The photographed image acquisition unit 11a transmits and receives data to and from the camera 3 through the communication unit 13, thereby obtaining a photographed image of the object 100 photographed by the camera 3, that is, a visible light image photographed in the visible light wavelength band. and an infrared image taken in the infrared wavelength band. The captured image acquisition unit 11 a temporarily stores the acquired visible light image and infrared image in the storage unit 12 . The photographed image acquisition unit 11a may also perform controls related to photographing by the camera 3, such as shutter speed change, brightness adjustment, and focusing.

画像領域特定部11bは、撮影画像取得部11aがカメラ3から取得した可視光線画像を基に、学習モデル記憶部12bに記憶されたセグメンテーション処理を行う学習モデルを利用して、可視光線画像から対象物100が写された画像領域を特定する処理を行う。セグメンテーション処理を行う学習モデルは、例えば撮影画像を入力として受け付けて、撮影画像の各画素が対象物100のものであるか否かを示す情報を出力するように予め機械学習がなされた学習モデルである。セグメンテーション処理を行う学習モデルには、例えばCNN(Convolutional Neural Network)、FCN(Fully Convolutional Networks)、SegNet又はU-Net等の学習モデルが採用され得る。セグメンテーション処理を行う学習モデルは、既存の技術であるため、詳細な構成及び機械学習の手法等についての説明は省略する。 Based on the visible light image acquired by the captured image acquisition unit 11a from the camera 3, the image region specifying unit 11b uses a learning model for performing segmentation processing stored in the learning model storage unit 12b, and identifies an object from the visible light image. A process of specifying an image area in which the object 100 is photographed is performed. The learning model that performs the segmentation process is a learning model that has undergone machine learning in advance so as to receive, for example, a captured image as an input and output information indicating whether each pixel of the captured image belongs to the target object 100. be. A learning model such as CNN (Convolutional Neural Network), FCN (Fully Convolutional Networks), SegNet, or U-Net can be adopted as a learning model for segmentation processing. Since the learning model that performs the segmentation process is an existing technique, the detailed configuration, machine learning method, and the like will not be described.

また画像領域特定部11bは、可視光線画像における対象物100の位置の特定結果に基づいて、赤外線画像における対象物100の写された画像領域を特定する処理を行う。本実施の形態においては、カメラ3により撮影された可視光線画像及び赤外線画像には、対象物100が同じ位置に写されているものとする。よって本実施の形態において画像領域特定部11bは、可視光線画像における対象物100の位置の特定結果を、赤外線画像における対象物100の位置の特定結果とすることができる。ただしカメラ3により撮影された可視光線画像及び赤外線画像において対象物100の位置に差異が存在する場合、画像領域特定部11bは、この差異に応じた位置の修正を可視光線画像での特定結果に対して行うことで、赤外線画像における対象物100の位置の特定結果を得ることができる。 Further, the image area specifying unit 11b performs processing for specifying an image area in which the object 100 is captured in the infrared image based on the result of specifying the position of the object 100 in the visible light image. In this embodiment, it is assumed that the visible light image and the infrared image captured by the camera 3 show the object 100 at the same position. Therefore, in the present embodiment, the image area specifying unit 11b can use the result of specifying the position of the target object 100 in the visible light image as the result of specifying the position of the target object 100 in the infrared image. However, if there is a difference in the position of the target object 100 between the visible light image and the infrared image captured by the camera 3, the image area specifying unit 11b corrects the position according to this difference to the specified result of the visible light image. By doing so, it is possible to obtain the result of specifying the position of the target object 100 in the infrared image.

異常検出部11cは、画像領域特定部11bにより特定された対象物100が写された画像領域を赤外線画像から抽出し、抽出した画像領域に基づいて対象物100に関する異常の有無又は異常箇所等を検出する処理を行う。本実施の形態において異常検出部11cは、記憶部12の学習モデル記憶部12bに記憶された一又は複数の学習モデルを用いて異常検出の処理を行う。例えば学習モデルは、赤外線画像から抽出された画像領域の入力を受け付けて、この画像領域に写された対象物100に異常があるか否かを出力するよう予め機械学習がなされた学習モデルである。また例えば学習モデルは、画像領域の入力を受け付けて、この画像領域に写された対象物100に含まれる異物を検出し、検出した異物を囲む矩形枠(いわゆるバウンディングボックス)の情報を出力するよう予め機械学習がなされた学習モデルであってもよい。また例えば学習モデルは、画像領域の入力を受け付けて、この画像領域に写された対象物100に含まれる異物を検出し、検出した異物に相当する画像中の画素を特定する(いわゆるセグメンテーションを行う)よう予め機械学習がなされた学習モデルであってもよい。異常検出部11cが利用する学習モデルは、これら以外のどのようなものであってもよい。異常検出部11cは、赤外線画像から抽出した画像領域の情報を学習モデルへ入力し、学習モデルが出力する情報を取得し、取得した情報に基づいて対象物100の異常を検出する。 The abnormality detection unit 11c extracts from the infrared image an image area in which the object 100 identified by the image area identification unit 11b is photographed, and based on the extracted image area, determines whether or not there is an abnormality or an abnormal location with respect to the object 100. Perform detection processing. In the present embodiment, the abnormality detection unit 11 c performs abnormality detection processing using one or more learning models stored in the learning model storage unit 12 b of the storage unit 12 . For example, the learning model is a learning model that has undergone machine learning in advance so as to receive an input of an image area extracted from an infrared image and output whether or not there is an abnormality in the object 100 captured in this image area. . Further, for example, the learning model receives input of an image area, detects a foreign object contained in the target object 100 photographed in this image area, and outputs information of a rectangular frame (so-called bounding box) surrounding the detected foreign object. It may be a learning model that has undergone machine learning in advance. Further, for example, the learning model receives input of an image region, detects a foreign object contained in the object 100 photographed in this image region, and specifies pixels in the image corresponding to the detected foreign object (performs so-called segmentation). ), it may be a learning model that has undergone machine learning in advance. Any learning model other than these may be used by the abnormality detection unit 11c. The abnormality detection unit 11c inputs information of an image region extracted from the infrared image to the learning model, acquires information output by the learning model, and detects an abnormality of the target object 100 based on the acquired information.

異常検出部11cが用いる学習モデルは、例えば赤外線の波長帯で撮影した赤外線画像から抽出した対象物100の画像領域と、この画像領域に写された対象物100に異常が含まれているか否かを示す情報とを対応付けた学習用データを用いて、いわゆる教師ありの機械学習の手法により予め生成される。学習モデルには、例えばCNN(Convolutional Neural Network)等の構成の学習モデルが採用され得る。本実施の形態においては、情報処理装置1が学習モデルを生成するための学習処理を行うものとするが、これに限るものではなく、情報処理装置1とは異なる装置が学習モデルを生成し、この装置から学習済みの学習モデルの情報を情報処理装置1が取得して記憶部12の学習モデル記憶部12bに記憶して異常検出の処理に利用してもよい。 The learning model used by the abnormality detection unit 11c includes, for example, an image area of the object 100 extracted from an infrared image taken in an infrared wavelength band, and whether or not the object 100 photographed in this image area contains an abnormality. is generated in advance by a so-called supervised machine learning method using learning data associated with information indicating . For the learning model, for example, a learning model having a configuration such as a CNN (Convolutional Neural Network) can be adopted. In the present embodiment, the information processing device 1 performs learning processing for generating a learning model, but the present invention is not limited to this, and a device different from the information processing device 1 generates a learning model, The information processing apparatus 1 may acquire the information of the learned learning model from this device, store it in the learning model storage section 12b of the storage section 12, and use it for the abnormality detection process.

表示処理部11dは、画像及び文字等の種々の情報を表示装置5へ送信することにより、表示装置5に種々の情報を表示する処理を行う。本実施の形態において表示処理部11dは、異常検出部11cによる異常検出の結果に関する情報を表示装置5に表示する。表示処理部11dは、例えば検査の対象物100に含まれる異物又は対象物100の異常等が検出された場合にその旨を通知するメッセージを表示装置5に表示する。また表示処理部11dは、異物又は異常等が検出された対象物100の撮影画像(可視光線画像又は赤外線画像)を表示すると共に、検出された異物又は異常等の箇所を示す記号又は図形等を重畳して表示する。 The display processing unit 11 d performs processing for displaying various information on the display device 5 by transmitting various information such as images and characters to the display device 5 . In the present embodiment, the display processing unit 11d displays information on the result of abnormality detection by the abnormality detection unit 11c on the display device 5. FIG. The display processing unit 11d displays, on the display device 5, a message notifying that, for example, a foreign substance contained in the object 100 to be inspected or an abnormality of the object 100 is detected. In addition, the display processing unit 11d displays a photographed image (visible light image or infrared image) of the object 100 in which the foreign matter or abnormality is detected, and also displays a symbol or figure indicating the location of the detected foreign matter or abnormality. It is superimposed and displayed.

図3は、本実施の形態に係るカメラ3の構成を示す模式図である。本実施の形態に係るカメラ3は、制御部31、撮影部32、切替式フィルタ33、切替部34、赤外線LED(Light Emitting Diode)35及び通信部36等を備えて構成されている。制御部31は、CPU又はMPU等の演算処理装置、ROM及びRAM等を用いて構成されている。制御部31は、カメラ3が備える各部の動作を制御して、例えば対象物100の撮影、フィルタの切り替え、及び、撮影により得られた画像データの送信等の種々の処理を行う。 FIG. 3 is a schematic diagram showing the configuration of the camera 3 according to this embodiment. The camera 3 according to this embodiment includes a control section 31, an imaging section 32, a switchable filter 33, a switching section 34, an infrared LED (Light Emitting Diode) 35, a communication section 36, and the like. The control unit 31 is configured using an arithmetic processing unit such as a CPU or MPU, a ROM, a RAM, and the like. The control unit 31 controls the operation of each unit included in the camera 3, and performs various processes such as photographing the object 100, switching filters, and transmitting image data obtained by photographing.

撮影部32は、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子、及び、この撮像素子へ光を収束させるレンズ等の光学素子を有する。また本実施の形態に係る撮影部32が有する撮像素子は、可視光線のみでなく、赤外線に対する感度を有する。撮影部32は、切替式フィルタ33が有する第1フィルタ又は第2フィルタを通して撮影を行い、撮影により得られた画像のデータを制御部31へ出力する。 The imaging unit 32 has an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and an optical element such as a lens that converges light on the imaging element. In addition, the imaging device included in the photographing unit 32 according to the present embodiment has sensitivity not only to visible rays but also to infrared rays. The imaging unit 32 performs imaging through the first filter or the second filter of the switchable filter 33 and outputs image data obtained by imaging to the control unit 31 .

切替式フィルタ33は、第1フィルタ及び第2フィルタの2つの光学フィルタを有している。切替式フィルタ33は、例えばスライド機構又は回転機構等により第1フィルタ及び第2フィルタの位置を移動させることが可能である。この移動により切替式フィルタ33は、撮影部32による第1フィルタを介した撮影と、第2フィルタを介した撮影とを切り替えることができる。本実施の形態において切替式フィルタ33が有する第1フィルタは、可視光線領域の波長帯(例えば380nm~780nm)の光を透過し、赤外線領域の波長帯(例えば780nm~1000μm)の光を透過しない。第2フィルタは、赤外線領域の波長帯の光を透過し、可視光線領域の波長帯の光を透過しない。これにより撮影部32は、第1フィルタを介した可視光線による撮影と、第2フィルタを介した赤外線による撮影とを切り替えて行うことができる。 The switchable filter 33 has two optical filters, a first filter and a second filter. The switchable filter 33 can move the positions of the first filter and the second filter by, for example, a slide mechanism or a rotation mechanism. By this movement, the switchable filter 33 can switch between imaging by the imaging unit 32 via the first filter and imaging via the second filter. In the present embodiment, the first filter included in the switchable filter 33 transmits light in the wavelength band of the visible light region (eg, 380 nm to 780 nm) and does not transmit light in the wavelength band of the infrared region (eg, 780 nm to 1000 μm). . The second filter transmits light in the infrared wavelength band and does not transmit light in the visible light wavelength band. Accordingly, the photographing unit 32 can switch between photographing with visible light through the first filter and photographing with infrared light through the second filter.

切替部34は、例えばアクチュエータ又はモータ等の駆動機構の動作を制御することによって、切替式フィルタ33が有する第1フィルタ及び第2フィルタの位置を切り替える。切替部34は、例えばカメラ3が可視光線による撮影を行う第1モードと赤外線による撮影を行う第2モードとの2つのモードで動作する場合に、現在のモードがいずれであるかを示す情報が制御部31から入力される。切替部34は、制御部31から入力されるモードの情報に応じて駆動機構を動作させ、切替式フィルタ33の切り替えを行う。 The switching unit 34 switches the positions of the first filter and the second filter included in the switchable filter 33 by controlling the operation of a driving mechanism such as an actuator or a motor. For example, when the camera 3 operates in two modes, that is, a first mode for photographing with visible rays and a second mode for photographing with infrared rays, the switching unit 34 receives information indicating which mode is the current mode. Input from the control unit 31 . The switching unit 34 operates the driving mechanism according to the mode information input from the control unit 31 to switch the switching filter 33 .

赤外線LED35は、赤外線領域の波長帯の光を発する発光素子である。赤外線LED35は、制御部31の制御に基づいて点灯及び消灯が行われる。本実施の形態においては、カメラ3が赤外線による撮影を行う場合に赤外線LED35が点灯され、カメラ3が可視光線による撮影を行う場合に赤外線LED35が消灯される。 The infrared LED 35 is a light-emitting element that emits light in a wavelength band in the infrared region. The infrared LED 35 is turned on and off under the control of the controller 31 . In this embodiment, the infrared LED 35 is turned on when the camera 3 performs infrared photography, and the infrared LED 35 is turned off when the camera 3 performs visible light photography.

なお、赤外線LED35は、1種類の発光素子で構成されるのではなく、例えば異なる波長帯の赤外線を発する複数の発光素子を含んで構成されてよい。カメラ3は、複数の発光素子を、例えば同時的に発光してもよく、また例えば個別に発光するよう切り替えを行ってもよい。またカメラ3は、特定の波長帯の赤外線を透過するフィルタを用い、赤外線LED35が発する広い波長帯の赤外線を、狭い波長帯の赤外線となるよう制限して対象物100への照射を行ってもよい。カメラ3は、このようなフィルタを複数備えて、適宜に切り替えてもよい。またカメラ3は、赤外線LED35に代えて、例えば赤外線レーザーを備えていてもよく、赤外線レーザーが発する光を拡大して対象物100へ照射するレンズ等の光学素子を更に備えてもよい。またカメラ3は、赤外線LED35等の赤外線を発する機構を備えていなくてもよい。 Note that the infrared LED 35 may not be composed of one type of light emitting element, but may be composed of a plurality of light emitting elements that emit infrared rays in different wavelength bands, for example. The camera 3 may cause a plurality of light emitting elements to emit light simultaneously, for example, or may be switched to emit light individually, for example. Further, the camera 3 uses a filter that transmits infrared rays in a specific wavelength band, and limits the infrared rays in a wide wavelength band emitted by the infrared LED 35 to infrared rays in a narrow wavelength band to irradiate the object 100. good. The camera 3 may include a plurality of such filters and switch them as appropriate. Further, the camera 3 may include an infrared laser, for example, instead of the infrared LED 35, and may further include an optical element such as a lens that magnifies the light emitted by the infrared laser and irradiates the object 100 with the light. Also, the camera 3 may not have a mechanism for emitting infrared rays such as the infrared LED 35 .

通信部36は、例えば通信ケーブルを介して情報処理装置1に接続され、情報処理装置1との通信を行う。通信部36は、例えばUSB又はLAN等の通信規格に基づいて通信を行ってよい。また通信部36は、通信ケーブルを介すことなく、無線通信により情報処理装置1との通信を行ってもよい。通信部36は、例えば情報処理装置1から送信される命令等を受信して制御部31へ与えると共に、制御部31から与えられたデータ(例えば撮影部32が撮影した画像のデータ)を情報処理装置1へ送信する。 The communication unit 36 is connected to the information processing device 1 via a communication cable, for example, and communicates with the information processing device 1 . The communication unit 36 may perform communication based on a communication standard such as USB or LAN, for example. Alternatively, the communication unit 36 may communicate with the information processing device 1 by wireless communication without using a communication cable. The communication unit 36 receives, for example, a command or the like transmitted from the information processing device 1 and provides it to the control unit 31, and also processes data provided from the control unit 31 (for example, data of an image captured by the imaging unit 32). Send to device 1.

<状態検出処理>
本実施の形態に係る情報処理システムでは、例えば検査の作業を行うユーザが対象物100を検査台7に載置し、情報処理装置1の操作部14にて検査開始の操作を行うことによって、対象物100の状態検出処理が開始される。情報処理装置1はカメラ3に対象物100の撮影を行う命令を送信し、この命令に応じてカメラ3が対象物100の撮影を行う。カメラ3は、まず切替式フィルタ33の第1フィルタを介した撮影部32による対象物100の撮影を行うことで、可視光による対象物100の撮影を行う。次いでカメラ3は、切替部34にて切替式フィルタ33の切り替えを行い、赤外線LED35を点灯し、第2フィルタを介した撮影部32による対象物100の撮影を行うことで、赤外線による対象物100の撮影を行う。カメラ3は、撮影により得られた対象物100の可視光線画像及び赤外線画像を情報処理装置1へ送信する。
<Status detection processing>
In the information processing system according to the present embodiment, for example, when the user who performs inspection work places the object 100 on the inspection table 7 and performs an inspection start operation on the operation unit 14 of the information processing apparatus 1, A state detection process of the object 100 is started. The information processing apparatus 1 transmits an instruction to photograph the object 100 to the camera 3, and the camera 3 photographs the object 100 in response to this instruction. The camera 3 first captures an image of the target object 100 using visible light by capturing an image of the target object 100 using the imaging unit 32 through the first filter of the switchable filter 33 . Next, the camera 3 switches the switchable filter 33 by the switching unit 34, turns on the infrared LED 35, and shoots the object 100 by the imaging unit 32 via the second filter. to shoot. The camera 3 transmits a visible light image and an infrared image of the object 100 obtained by photographing to the information processing device 1 .

図4は、カメラ3が撮影した対象物100の可視光線画像及び赤外線画像の一例を示す画像である。図4の上段には対象物100として2つのアボガドを撮影した可視光線画像の一例を示し、図4の下段には同じ対象物100を撮影した赤外線画像の一例を示している。可視光線画像ではアボガドは表面が暗い色で撮影されるため、人の目視で異常の有無等の状態を判定することは難しく、機械学習がなされた学習モデルによる判定も容易ではない。 FIG. 4 is an image showing an example of a visible light image and an infrared image of the object 100 photographed by the camera 3 . The upper part of FIG. 4 shows an example of a visible light image of two avocados taken as the object 100, and the lower part of FIG. 4 shows an example of an infrared image of the same object 100 taken. In the visible light image, the surface of the avocado is photographed with a dark color, so it is difficult for a human to visually determine whether there are any abnormalities or not, and it is also difficult to make a determination using a machine-learning model.

これに対して赤外線画像では、アボガドの表面が明るい色で撮影される。例示した赤外線画像に写された右側のアボガドは表面が均一な明るい色であるのに対し、左側のアボガドは表面に斑に暗い模様が存在している。本例において右側のアボガドは正常な(新鮮な、腐っていない)ものであり、左側のアボガドは異常な(熟した、腐った)ものである。左側のアボガドの表面にある黒い模様の部分が、アボガドの異常箇所(熟している箇所、腐っている箇所)である。このように赤外線画像では、例えばアボガドのような暗い色の食品であっても、その表面の色の違い等を観測することで異常の有無等の状態を判定することができる。アボガドの赤外線画像に基づいて、機械学習がなされた学習モデルを用いた異常判定を行うことは、可視光線画像を用いる場合と比較して、容易且つ高精度な結果を得ることが期待できる。 An infrared image, on the other hand, shows the surface of the avocado in bright colors. The avocado on the right in the exemplary infrared image has a uniformly bright color on the surface, whereas the avocado on the left has a mottled dark pattern on the surface. In this example, the avocado on the right is normal (fresh, not rotten) and the avocado on the left is abnormal (ripe, rotten). The black patterned portions on the surface of the avocado on the left are abnormal portions (ripe portions and rotten portions) of the avocado. In this way, with an infrared image, it is possible to determine the presence or absence of an abnormality, etc., by observing the difference in color on the surface of a dark-colored food such as avocado. Abnormality determination using a machine-learned learning model based on an infrared image of an avocado can be expected to obtain an easy and highly accurate result compared to the case of using a visible light image.

ただし、例えば撮影画像に写された対象物100の検出又は識別等の処理を機械学習による学習モデルで行う場合、対象物100の色の有無が処理精度に影響を与える場合があり得る。そこで本実施の形態に係る情報処理システムでは、カメラ3にて可視光線画像及び赤外線画像の2種類の撮影を行い、情報処理装置1は、可視光線画像に基づいて対象物100が撮影された領域の検出(セグメンテーション)を行い、赤外線画像に基づいて異常の有無等の状態判定を行う。 However, for example, when processing such as detection or identification of the object 100 captured in the captured image is performed using a learning model based on machine learning, the presence or absence of color of the object 100 may affect processing accuracy. Therefore, in the information processing system according to the present embodiment, the camera 3 captures two types of images, a visible light image and an infrared image. is detected (segmentation), and the presence or absence of an abnormality is determined based on the infrared image.

図5は、情報処理装置1が行うセグメンテーション処理を説明するための模式図である。本実施の形態に係る情報処理装置1は、カメラ3が対象物100を可視光線によって撮影した可視光線画像と、赤外線によって撮影した赤外線画像との2種類の撮影画像を取得する。情報処理装置1は、予め機械学習がなされたセグメンテーション処理を行う学習モデル(セグメンテーションモデル)を備えており、カメラ3から取得した可視光線画像をセグメンテーションモデルへ入力する。 FIG. 5 is a schematic diagram for explaining the segmentation processing performed by the information processing device 1. As shown in FIG. The information processing apparatus 1 according to the present embodiment acquires two types of captured images, a visible light image captured by the camera 3 of the object 100 using visible light, and an infrared image captured using infrared rays. The information processing apparatus 1 is provided with a learning model (segmentation model) that performs machine learning in advance and performs segmentation processing, and inputs a visible light image acquired from the camera 3 to the segmentation model.

セグメンテーションモデルは、入力された画像の各画素に対してラベル付けを行う学習モデルである。本実施の形態においてセグメンテーションモデルは、入力された画像の各画素に対象物100(本例ではアボガド)が写されているか否かを示す2値のラベル付けを行うよう、予め機械学習がなされた学習モデルである。入力画像が例えばM画素×N画素のサイズである場合、セグメンテーションモデルが出力する情報はM×Nの配列(ベクトル、行列)であり、この情報を本実施の形態においてはマスクデータと呼ぶ。M×Nの配列のマスクデータには、入力画像の対応する位置の画素に対して付されたラベル値(例えば対象物100が写されている画素に対してラベル”1”、写されていない画素に対してラベル”0”)が設定される。 A segmentation model is a learning model that labels each pixel of an input image. In this embodiment, the segmentation model is machine-learned in advance so as to perform binary labeling indicating whether or not the object 100 (avocado in this example) is shown in each pixel of the input image. Learning model. When the input image has a size of M pixels×N pixels, for example, the information output by the segmentation model is an M×N array (vector, matrix), and this information is called mask data in the present embodiment. The mask data in the M×N array contains label values assigned to pixels at corresponding positions in the input image (for example, label "1" for pixels where the object 100 is shown, A label "0") is set for the pixel.

図5上段の可視光線画像をセグメンテーションモデルへ入力した場合に、セグメンテーションモデルが出力するマスクデータの一例が図5下段に示されている。図5下段のマスクデータは、対象物100が写されていることを示すラベルが付された画素を灰色とし、対象物100が写されていないことを示すラベルが付された画素を黒色として、マスクデータを画像として表示したものである。情報処理装置1は、カメラ3から取得した可視光線画像をセグメンテーションモデルへ入力し、セグメンテーションモデルが出力するマスクデータを取得する。 An example of mask data output by the segmentation model when the visible light image in the upper part of FIG. 5 is input to the segmentation model is shown in the lower part of FIG. The mask data in the lower part of FIG. The mask data is displayed as an image. The information processing device 1 inputs the visible light image acquired from the camera 3 to the segmentation model, and acquires the mask data output by the segmentation model.

次いで、本実施の形態に係る情報処理装置1は、可視光線画像を基に取得したマスクデータを用いて、この可視光線画像と共に取得した赤外線画像から、対象物100が写されている画像領域を抽出する処理を行う。図6は、情報処理装置1が行う画像領域抽出処理を説明するための模式図である。なお、図6上段には、図5下段のマスクデータと同じものが示されている。本実施の形態に係る情報処理システムにおいて、カメラ3が対象物100を撮影した可視光線画像と赤外線画像とには、同じ位置に対象物100が写されている。情報処理装置1は、可視光線画像を基に取得したマスクデータを基に、対象物100が写されていることを示すラベルが付された位置に対応する赤外線画像の画素を抽出していくことで、赤外線画像から対象物100が写されている画像領域を抽出することができる。図6下段には、マスクデータに基づいて赤外線画像から抽出された対象物100(アボガド)の画像領域が示されている。 Next, the information processing apparatus 1 according to the present embodiment uses the mask data acquired based on the visible light image to extract an image area in which the object 100 is captured from the infrared image acquired together with the visible light image. Perform extraction processing. FIG. 6 is a schematic diagram for explaining image region extraction processing performed by the information processing apparatus 1. As shown in FIG. The upper part of FIG. 6 shows the same mask data as the lower part of FIG. In the information processing system according to the present embodiment, the visible light image and the infrared image of the object 100 photographed by the camera 3 show the object 100 at the same position. The information processing apparatus 1 extracts the pixels of the infrared image corresponding to the positions labeled to indicate that the object 100 is captured, based on the mask data acquired based on the visible light image. , an image region in which the object 100 is shown can be extracted from the infrared image. The lower part of FIG. 6 shows the image area of the object 100 (avocado) extracted from the infrared image based on the mask data.

なお赤外線画像から抽出される対象物100の画像領域は、そのサイズ及び形状等が様々なものとなり得る。このため情報処理装置1は、例えば赤外線画像において対象物100が写されていない画素の画素値を所定値(例えば”0”)に置き換えた画像を、赤外線画像からの対象物100の抽出結果として以降の処理で用いてよい。例えば情報処理装置1は、対象物100が写されている画素に対してラベル”1”、写されていない画素に対してラベル”0”が設定されたマスクデータを用いる場合、赤外線画像の各画素の画素値と、対応するマスクデータの値との積を算出することで、赤外線画像から対象物100の画像領域を抽出したデータを取得することができる。 Note that the image area of the object 100 extracted from the infrared image can have various sizes, shapes, and the like. For this reason, the information processing apparatus 1, for example, replaces the pixel values of the pixels in the infrared image in which the object 100 is not shown with a predetermined value (for example, "0") as the extraction result of the object 100 from the infrared image. It may be used in subsequent processing. For example, when using mask data in which the label "1" is set for pixels in which the object 100 is captured and the label "0" is set for pixels in which the target object 100 is not captured, the information processing apparatus 1 uses each of the infrared images. By calculating the product of the pixel value of the pixel and the value of the corresponding mask data, data obtained by extracting the image area of the object 100 from the infrared image can be obtained.

次いで、本実施の形態に係る情報処理装置1は、赤外線画像から抽出した対象物100の画像領域を基に、対象物100の異常を検出する処理を行う。図7は、情報処理装置1が行う異常検出処理を説明するための模式図である。なお、図7上段には、図6下段と同じ赤外線画像から抽出された対象物100の画像領域が示されている。本実施の形態に係る情報処理装置1は、予め機械学習がなされた対象物100の異常検出を行う学習モデル(異常検出モデル)を備えている。情報処理装置1は、赤外線画像からマスクデータに基づいて対象物100の画像領域を抽出し、抽出した画像領域のデータを異常検出モデルへ入力する。 Next, the information processing apparatus 1 according to the present embodiment performs processing for detecting abnormality of the object 100 based on the image area of the object 100 extracted from the infrared image. FIG. 7 is a schematic diagram for explaining anomaly detection processing performed by the information processing device 1. As shown in FIG. Note that the upper part of FIG. 7 shows the image area of the object 100 extracted from the same infrared image as the lower part of FIG. The information processing apparatus 1 according to the present embodiment includes a learning model (abnormality detection model) for detecting anomalies in the target object 100 for which machine learning has been performed in advance. The information processing apparatus 1 extracts the image area of the object 100 from the infrared image based on the mask data, and inputs data of the extracted image area to the abnormality detection model.

本実施の形態に係る異常検出モデルは、入力された画像に写された対象物100の異常箇所を特定し、特定した異常箇所の位置及び大きさ等の情報を出力する。また本実施の形態に係る異常検出モデルは、入力された画像(画像領域)の各画素に対して、異常箇所であるか否かを示す2値のラベル付けを行うよう、予め機械学習がなされた学習モデルである。図7の下段には、異常検出モデルへ入力した対象物100の画像領域に対して、異常検出モデルが特定した異常箇所を囲む太線を重畳したものを、異常検出モデルの出力情報として示している。この異常検出の結果によれば、2つの対象物100のうち、右側の対象物100には異常箇所があり、左側の対象物100には異常箇所が存在しないことがわかる。なお異常検出モデルは、例えば対象物100に異常があるか否かを判定し、異常の有無を示す2値の情報又は異常である可能性を示す数値等を出力する構成であってもよい。 The anomaly detection model according to the present embodiment identifies an anomalous portion of the object 100 depicted in the input image, and outputs information such as the position and size of the identified anomalous portion. Further, the anomaly detection model according to the present embodiment is machine-learned in advance so that each pixel of an input image (image region) is labeled with a binary value indicating whether or not it is an anomaly. learning model. In the lower part of FIG. 7, the image area of the object 100 input to the anomaly detection model is superimposed with a thick line surrounding an anomaly location specified by the anomaly detection model, which is shown as output information of the anomaly detection model. . According to the result of this abnormality detection, it can be seen that the object 100 on the right side of the two objects 100 has an abnormal portion, and the object 100 on the left side does not have an abnormal portion. For example, the abnormality detection model may be configured to determine whether or not there is an abnormality in the object 100 and output binary information indicating the presence or absence of an abnormality or a numerical value indicating the possibility of an abnormality.

情報処理装置1は、赤外線画像から抽出した対象物100の画像領域を異常検出モデルへ入力し、異常検出モデルが出力する異常箇所の特定結果を取得する。情報処理装置1は、取得した特定結果に基づいて、異常箇所をユーザに通知する画面を表示装置5に表示する。図8は、異常箇所の通知画面の一例を示す模式図である。本実施の形態に係る情報処理装置1は、例えば異常検出モデルにより特定された対象物100の異常箇所を囲む太線を、対応する可視光線画像に重畳して表示装置5に表示する。このために情報処理装置1は、例えば表示する可視光線画像及びこの可視光線画像に重畳する太線の位置情報等の情報を表示装置5へ送信する。 The information processing apparatus 1 inputs the image area of the target object 100 extracted from the infrared image to the abnormality detection model, and acquires the identification result of the abnormality location output by the abnormality detection model. The information processing device 1 displays on the display device 5 a screen for notifying the user of the location of the abnormality based on the acquired identification result. FIG. 8 is a schematic diagram showing an example of a notification screen of an abnormal location. The information processing apparatus 1 according to the present embodiment displays, on the display device 5, a thick line surrounding an abnormal portion of the object 100 specified by the abnormality detection model, for example, superimposed on the corresponding visible light image. For this purpose, the information processing device 1 transmits to the display device 5 information such as a visible light image to be displayed and position information of a thick line superimposed on the visible light image.

なお本例において情報処理装置1は、可視光線画像に異常箇所を囲む太線を重畳して表示しているが、これに限るものではなく、赤外線画像に異常箇所を囲む太線を重畳して表示してもよい。また情報処理装置1は、可視光線画像に異常箇所を囲む太線を重畳したものと、赤外線画像に異常箇所を囲む太線を重畳したものとを並べて表示してもよい。また情報処理装置1による状態検出結果の表示は、異常箇所を太線で囲む表示に限らず、種々の態様での表示が行われてよい。また情報処理装置1は、予め機械学習がなされた異常検出モデルを用いて赤外線画像から対象物100の異常検出を行っているが、これに限るものではない。情報処理装置1は、例えば赤外線画像の各画素の濃淡に基づいて、所定の閾値より濃い画素を異常箇所として検出してもよい。 In this example, the information processing apparatus 1 superimposes a thick line surrounding the abnormal portion on the visible light image and displays it. However, the present invention is not limited to this. may Further, the information processing apparatus 1 may display a visible light image superimposed with a thick line surrounding an abnormal location and an infrared image superimposed with a thick line surrounding an abnormal location side by side. Further, the display of the state detection result by the information processing device 1 is not limited to the display surrounding the abnormal portion with a thick line, and may be displayed in various forms. In addition, the information processing apparatus 1 performs abnormality detection of the target object 100 from the infrared image using an abnormality detection model machine-learned in advance, but the present invention is not limited to this. The information processing apparatus 1 may detect pixels darker than a predetermined threshold value as abnormal locations, for example, based on the shading of each pixel in the infrared image.

また情報処理装置1は、異常検出の結果を表示装置5に表示するのではなく、例えば電子音又は音声メッセージ等をスピーカから出力することで異常検出の結果をユーザに通知してもよい。情報処理装置1は、異常検出の結果をどのような方法でユーザに通知してもよい。 Instead of displaying the result of abnormality detection on the display device 5, the information processing apparatus 1 may notify the user of the result of abnormality detection by outputting, for example, an electronic sound or a voice message from a speaker. The information processing device 1 may notify the user of the result of abnormality detection by any method.

図9は、本実施の形態に係る情報処理装置1が行う状態検出処理の手順を示すフローチャートである。本実施の形態に係る情報処理装置1の処理部11の撮影画像取得部11aは、例えばユーザの操作に応じて検査台7に載置された対象物100の撮影をカメラ3に行わせ、カメラ3が可視光線による撮影行った対象物100の可視光線画像と、赤外線による撮影を行った対象物100の赤外線画像とを取得する(ステップS1)。 FIG. 9 is a flow chart showing the procedure of state detection processing performed by the information processing apparatus 1 according to the present embodiment. The captured image acquisition unit 11a of the processing unit 11 of the information processing apparatus 1 according to the present embodiment causes the camera 3 to capture an image of the object 100 placed on the inspection table 7 according to the user's operation, for example. 3 obtains a visible light image of the object 100 photographed with visible light and an infrared image of the object 100 photographed with infrared light (step S1).

次いで、処理部11の画像領域特定部11bは、ステップS1にて取得した画像のうちの可視光線画像を、予め機械学習がなされたセグメンテーションモデルへ入力する(ステップS2)。可視光線画像の入力に応じてセグメンテーションモデルは、可視光線画像の各画素に対象物100が写されているか否かをラベル付けしたマスクデータを出力する。画像領域特定部11bは、セグメンテーションモデルが出力するこのマスクデータを取得する(ステップS3)。画像領域特定部11bは、ステップS3にて取得したマスクデータを基に、ステップS1にて取得した赤外線画像から対象物100が写されている画像領域を抽出する(ステップS4)。 Next, the image region specifying unit 11b of the processing unit 11 inputs the visible light image among the images acquired in step S1 to the segmentation model that has undergone machine learning in advance (step S2). In response to the input of the visible light image, the segmentation model outputs mask data labeled as to whether or not the object 100 is shown in each pixel of the visible light image. The image region specifying unit 11b acquires this mask data output by the segmentation model (step S3). Based on the mask data acquired in step S3, the image area specifying unit 11b extracts an image area in which the object 100 is shown from the infrared image acquired in step S1 (step S4).

次いで、処理部11の異常検出部11cは、ステップS4にて抽出した対象物100の画像領域のデータを、予め機械学習がなされた異常検出モデルへ入力する(ステップS5)。画像領域の入力に応じて異常検出モデルは、画像領域に写された対象物100の異常箇所を特定し、特定した異常箇所の位置及び大きさ等の情報を異常検出結果として出力する。異常検出部11cは、異常検出モデルが出力する異常検出結果を取得する(ステップS6)。異常検出部11cは、ステップS6にて取得した異常検出結果に基づいて、対象物100の異常の有無を判定する(ステップS7)。対象物100に異常がない場合(S7:NO)、異常検出部11cは、処理を終了する。 Next, the abnormality detection unit 11c of the processing unit 11 inputs the data of the image region of the target object 100 extracted in step S4 to an abnormality detection model that has undergone machine learning in advance (step S5). According to the input of the image area, the abnormality detection model identifies an abnormal location of the object 100 captured in the image area, and outputs information such as the position and size of the identified abnormal location as an abnormality detection result. The abnormality detection unit 11c acquires the abnormality detection result output by the abnormality detection model (step S6). The abnormality detection unit 11c determines whether or not there is an abnormality in the object 100 based on the abnormality detection result obtained in step S6 (step S7). If there is no abnormality in the object 100 (S7: NO), the abnormality detection section 11c terminates the process.

対象物100に異常がある場合(S7:YES)、処理部11の表示処理部11dは、例えばステップS1にて取得した可視光線画像と、ステップS6にて取得した異常検出結果とを表示装置5へ送信することにより、対象物100の可視光線画像に検出された異常箇所を囲む太線等を重畳した画像を表示装置5に表示させて(ステップS8)、処理を終了する。 If there is an abnormality in the object 100 (S7: YES), the display processing unit 11d of the processing unit 11 displays, for example, the visible light image acquired in step S1 and the abnormality detection result acquired in step S6 on the display device 5. , the display device 5 displays an image in which a thick line surrounding the detected abnormal portion is superimposed on the visible light image of the object 100 (step S8), and the process ends.

<まとめ>
以上の構成の本実施の形態に係る情報処理システムでは、情報処理装置1が対象物100を第1波長帯(第1特性)の光(可視光線)に基づいてカメラ3が撮影した第1画像(可視光線画像)を取得し、対象物100を第2波長帯(第2特性)の光(赤外線)に基づいてカメラ3が撮影した第2画像(赤外線画像)を取得する。情報処理装置1は、可視光線画像に対するセグメンテーションを行って対象物100が写された画像領域を特定し、特定結果に基づいて赤外線画像から対象物100の状態を検出する。これにより情報処理システムは、可視光線画像を用いて精度のよいセグメンテーションの処理を行うことが期待でき、赤外線画像を用いて精度のよい状態検出の処理を行うことが期待できる。
<Summary>
In the information processing system according to the present embodiment configured as described above, the information processing apparatus 1 captures the first image of the target object 100 with the camera 3 based on the light (visible light) in the first wavelength band (first characteristic). (visible light image) is acquired, and a second image (infrared image) of the object 100 captured by the camera 3 based on the light (infrared rays) of the second wavelength band (second characteristic) is acquired. The information processing apparatus 1 performs segmentation on the visible light image to identify an image region in which the object 100 is captured, and detects the state of the object 100 from the infrared image based on the identification result. As a result, the information processing system can be expected to perform highly accurate segmentation processing using the visible light image, and can be expected to perform highly accurate state detection processing using the infrared image.

なお本実施の形態においては、第1波長帯として可視光線の波長帯を用い、第2波長として赤外線の波長帯を用いたが、これは一例であって、第1波長帯及び第2波長帯は対象物100の種類等に応じて適宜に選択されてよい。例えば紫外線の波長帯又はX線の波長帯等が用いられてもよく、可視光線のうちの赤色光の波長帯又は青色光の波長帯等が用いられてもよい。また第1波長帯及び第2波長帯の組み合わせも適宜に選択されてよく、例えば第1波長帯を赤外線の波長帯とし、第2波長帯を可視光線の波長帯としてもよく、可視光線又は赤外線の波長帯以外の波長帯が適宜に組み合わされてよい。また例えば第1波長帯を可視光線の波長帯とし、第2波長帯を可視光線の中の青色光の波長帯としてもよく、第1波長帯及び第2波長帯はその一部が重複してもよい。 In the present embodiment, the wavelength band of visible light is used as the first wavelength band, and the wavelength band of infrared rays is used as the second wavelength. may be appropriately selected according to the type of the object 100 or the like. For example, an ultraviolet wavelength band or an X-ray wavelength band may be used, or a red light wavelength band or a blue light wavelength band among visible rays may be used. The combination of the first wavelength band and the second wavelength band may also be selected as appropriate. For example, the first wavelength band may be an infrared wavelength band, and the second wavelength band may be a visible light wavelength band. Wavebands other than the wavelength bands of may be appropriately combined. Further, for example, the first wavelength band may be the wavelength band of visible light, and the second wavelength band may be the wavelength band of blue light in the visible light. good too.

また情報処理装置1は、第1画像(可視光線画像)に対するセグメンテーションを行うのみでなく、第1画像に基づく対象物100の状態検出を、第2画像(赤外線画像)に基づく対象物100の状態検出と共に行ってもよい。第1画像に基づく状態検出を行うか否かは、例えば対象物100の種類等により選択され得る。 Further, the information processing apparatus 1 not only performs segmentation on the first image (visible light image), but also detects the state of the object 100 based on the first image and detects the state of the object 100 based on the second image (infrared image). It may be done in conjunction with detection. Whether or not to perform state detection based on the first image can be selected depending on the type of the target object 100, for example.

また本実施の形態においては、カメラ3にて2種類の波長帯での撮影を行って対象物100の2種類の撮影画像を情報処理装置1が取得しているが、これに限るものではなく、カメラ3にて3種類以上の波長帯で撮影を行った対象物100の3種類以上の撮影画像を取得してもよい。情報処理装置1は、例えば3種類の撮影画像を取得する場合に、第1画像に基づいて対象物100が写された画像領域を特定し、特定結果に基づいて第2画像及び第3画像から対象物100が写された画像領域を抽出して状態検出を行うことができる。また例えば情報処理装置1は、第1画像に基づいて対象物100が写された画像領域を特定し、第2画像及び第3画像を合成した合成画像から対象物100が写された画像領域を抽出してもよい。また例えば情報処理装置1は、第1画像及び第2画像を合成した合成画像に基づいて対象物が写された画像領域を特定してもよい。情報処理装置1は、カメラ3が複数の波長帯でそれぞれ撮影した複数の撮影画像を適宜に利用して、対象物100が写された画像領域の特定、特定結果に基づく撮影画像からの画像領域の抽出、及び、抽出した画像領域に基づく対象物100の状態検出の処理を行うことができる。 In the present embodiment, the camera 3 captures images in two types of wavelength bands, and the information processing apparatus 1 obtains two types of captured images of the object 100. However, the present invention is not limited to this. , three or more types of captured images of the object 100 captured by the camera 3 in three or more wavelength bands may be obtained. For example, when acquiring three types of photographed images, the information processing apparatus 1 identifies an image region in which the target object 100 is captured based on the first image, and based on the identification result, selects the image area from the second image and the third image. State detection can be performed by extracting an image region in which the object 100 is captured. Further, for example, the information processing device 1 identifies an image region in which the object 100 is shown based on the first image, and then identifies an image region in which the object 100 is shown from a synthesized image obtained by synthesizing the second image and the third image. may be extracted. Further, for example, the information processing device 1 may specify an image region in which the target object is captured based on a synthesized image obtained by synthesizing the first image and the second image. The information processing apparatus 1 appropriately utilizes a plurality of captured images respectively captured by the camera 3 in a plurality of wavelength bands to identify an image region in which the target object 100 is captured, and to identify the image region from the captured image based on the identification result. and state detection of the object 100 based on the extracted image area.

また本実施の形態に係る情報処理システムは、対象物100の状態検出として、対象物100の異常を検出したが、これに限るものではなく、例えば対象物100の熟成度合、傷の有無、又は、異物混入の有無等の様々な状態を検出してよい。また対象物100としてアボガドを例示したが、対象物100は例えばリンゴ、ブルーベリー、イチゴ、オレンジ等の様々な食品であってよく、また例えば食品以外の様々な物品であってよく、また例えば人又はペット等の様々な動物であってよく、これら以外のどのようなものであってもよい。 In addition, the information processing system according to the present embodiment detects an abnormality of the object 100 as the state detection of the object 100, but is not limited to this. , presence or absence of foreign matter, etc. may be detected. In addition, although avocado is exemplified as the object 100, the object 100 may be various foods such as apples, blueberries, strawberries, oranges, etc., or may be various articles other than foods, and may be human or human. It may be various animals such as pets, or anything else.

また本実施の形態に係る情報処理システムでは、1つのカメラ3が複数の波長帯での撮影を行う構成としたが、これに限るものではなく、複数のカメラを用いて複数の波長帯での撮影を行ってもよい。例えば、可視光線での撮影を行う第1カメラと、赤外線での撮影を行う第2カメラとを並べて配置し、第1カメラ及び第2カメラにて同時的に対象物100を撮影してもよい。例えば対象物100がベルトコンベアで移動している場合、第1カメラ及び第2カメラをベルトコンベアの移動方向に並べて配置し、ベルトコンベアの移動速度を考慮した時間差で第1カメラ及び第2カメラが撮影を行うことにより、第1カメラによる第1撮影画像と、第2カメラによる第2撮影画像とで略同じ位置に対象物100を撮影することができる。 In addition, in the information processing system according to the present embodiment, one camera 3 is configured to capture images in a plurality of wavelength bands, but the present invention is not limited to this. You can take pictures. For example, a first camera that captures images with visible light and a second camera that captures images with infrared rays may be arranged side by side, and the object 100 may be captured simultaneously by the first camera and the second camera. . For example, when the object 100 is moving on a belt conveyor, the first camera and the second camera are arranged side by side in the moving direction of the belt conveyor, and the first camera and the second camera are arranged with a time difference in consideration of the moving speed of the belt conveyor. By photographing, the object 100 can be photographed at approximately the same position in the first photographed image by the first camera and the second photographed image by the second camera.

また本実施の形態に係る情報処理システムでは、光の特性として波長帯が異なる複数の光に基づいて撮影した複数の撮影画像が用いられているが、これに限るものではなく、光の特性として例えば偏光の向きが異なる複数の光に基づいて撮影した複数の撮影画像が用いられてもよい。例えばカメラ3の切替式フィルタ33が有する複数のフィルタの1つを偏光フィルタとし、可視光線による撮影等と、偏光フィルタを介した撮影とをカメラ3が行う構成としてもよい。カメラ3の切替式フィルタ33には、向きが異なる複数の偏光フィルタが切替可能に設けられていてよく、所定波長の光を透過するフィルタと所定の向きの光を透過する偏光フィルタとが混在していてもよい。情報処理装置1は、例えば可視光線画像に基づいて対象物100の画像領域を特定し、偏光フィルタを介して撮影した偏光画像に基づいて対象物100の状態検出を行うことができる。 In addition, in the information processing system according to the present embodiment, a plurality of photographed images photographed based on a plurality of lights having different wavelength bands are used as light characteristics. For example, a plurality of captured images captured based on a plurality of lights with different polarization directions may be used. For example, one of a plurality of filters included in the switchable filter 33 of the camera 3 may be a polarizing filter, and the camera 3 may perform both imaging using visible light and imaging via the polarizing filter. The switchable filter 33 of the camera 3 may be switchably provided with a plurality of polarizing filters having different directions, and a filter that transmits light of a predetermined wavelength and a polarizing filter that transmits light of a predetermined direction are mixed. may be The information processing device 1 can specify the image area of the object 100 based on the visible light image, for example, and detect the state of the object 100 based on the polarized image captured through the polarizing filter.

<実施の形態2>
実施の形態2に係る情報処理システムは、対象物100として複数種類の物がカメラ3により撮影され、撮影画像に複数種類の物が混在して写されている場合に、各物の状態検出を行うことが可能なシステムである。実施の形態2に係る情報処理システムの情報処理装置1は、可視光線画像に写された各対象物100の種類を判定するよう予め機械学習がなされた学習モデル、いわゆるクラス分類を行う分類モデルを有している。情報処理装置1は、カメラ3から取得した可視光線画像を基に、セグメンテーションモデルを用いて対象物100が写された画像領域を特定すると共に、分類モデルを用いて可視光線画像に写された各対象物100の種類を分類する。情報処理装置1は、セグメンテーション及びクラス分類のうちいずれの処理を先に行ってもよく、この2つの処理を同時的に行ってもよい。なお情報処理装置1は、セグメンテーションモデル及び分類モデルをそれぞれ個別に有するのではなく、セグメンテーション及びクラス分類を行う学習モデルを有していてもよい。この場合に学習モデルは、可視光線画像の各画素に対して、この画素に写されている対象物100の種類を示すラベル値を付した配列等のデータを、セグメンテーション及びクラス分類の結果として出力する。
<Embodiment 2>
The information processing system according to the second embodiment detects the state of each object when a plurality of types of objects are photographed by the camera 3 as the target object 100 and a plurality of types of objects are mixed in the photographed image. It is a system that can The information processing device 1 of the information processing system according to the second embodiment uses a learning model that has undergone machine learning in advance so as to determine the type of each object 100 captured in the visible light image, that is, a classification model that performs so-called class classification. have. Based on the visible light image acquired from the camera 3, the information processing device 1 uses a segmentation model to specify an image region in which the target object 100 is captured, and uses a classification model to identify each image captured in the visible light image. Classify the type of object 100 . The information processing apparatus 1 may perform either of segmentation and class classification first, or may perform these two processes at the same time. Note that the information processing apparatus 1 may have a learning model that performs segmentation and class classification instead of having the segmentation model and the classification model separately. In this case, the learning model outputs, for each pixel of the visible light image, data such as an array with a label value indicating the type of the object 100 captured in this pixel as a result of segmentation and class classification. do.

次いで情報処理装置1は、可視光線画像に基づく対象物100のセグメンテーション及びクラス分類の結果に基づいて、赤外線画像から対象物100が写された画像領域の抽出を行う。実施の形態2に係る情報処理装置1は、クラス分類の結果に基づいて、対象物100の種類毎に画像領域の抽出を行う。例えば可視光線画像に3つの果物が写されており、そのうち2つがリンゴであり、残りの1つがミカンである場合、情報処理装置1は、赤外線画像から2つのリンゴが写された画像領域と、1つのミカンが写された画像領域とをそれぞれ抽出する。 Next, the information processing device 1 extracts an image region in which the object 100 is captured from the infrared image based on the results of segmentation and class classification of the object 100 based on the visible light image. The information processing apparatus 1 according to Embodiment 2 extracts an image region for each type of the object 100 based on the result of class classification. For example, if three fruits are photographed in the visible light image, two of which are apples and the remaining one is a mandarin orange, the information processing device 1 detects an image region in which two apples are photographed from the infrared image, An image region in which one mandarin orange is photographed is extracted.

また実施の形態2に係る情報処理装置1は、対象物100の種類別に異常検出を行う複数の異常検出モデルを有している。情報処理装置1は、可視光線画像に基づく対象物100の分類結果に応じて、複数の異常検出モデルの中から分類結果に応じた一又は複数の異常検出モデルを選択する。情報処理装置1は、赤外線画像から対象物100の種類毎に抽出した画像領域を、それぞれ対応する異常検出モデルへ入力し、各異常検出モデルが出力する異常検出結果を取得する。情報処理装置1は、対象物100の種類毎の異常検出結果を統合し、可視光線画像に異常箇所を囲む太線等を重畳した画像を表示装置5に表示する。 Further, the information processing apparatus 1 according to Embodiment 2 has a plurality of abnormality detection models for performing abnormality detection for each type of the object 100 . The information processing device 1 selects one or a plurality of abnormality detection models according to the classification result from among the plurality of abnormality detection models, according to the classification result of the target object 100 based on the visible light image. The information processing apparatus 1 inputs the image regions extracted for each type of the target object 100 from the infrared image to the corresponding abnormality detection models, and acquires the abnormality detection results output by each abnormality detection model. The information processing device 1 integrates the abnormality detection results for each type of the object 100 and displays on the display device 5 an image in which a thick line or the like surrounding the abnormal portion is superimposed on the visible light image.

また実施の形態2に係る情報処理装置1は、予め機械学習がなされた異常検出モデルを用いて赤外線画像から対象物100の異常検出を行っているが、これに限るものではない。情報処理装置1は、例えば赤外線画像の各画素の濃淡に基づいて、所定の閾値より濃い画素を異常箇所として検出してもよい。この場合に情報処理装置1は、対象物100の種類毎に濃淡を比較するための閾値を記憶しており、対象物100の分類結果に応じて閾値を選択して異常検出を行うことができる。 Further, the information processing apparatus 1 according to the second embodiment detects an abnormality of the target object 100 from the infrared image using an abnormality detection model machine-learned in advance, but the present invention is not limited to this. The information processing apparatus 1 may detect pixels darker than a predetermined threshold value as abnormal locations, for example, based on the shading of each pixel in the infrared image. In this case, the information processing apparatus 1 stores a threshold value for comparing shades for each type of the target object 100, and can select a threshold value according to the classification result of the target object 100 to perform anomaly detection. .

図10は、実施の形態2に係る情報処理装置1が行う状態検出処理の手順を示すフローチャートである。実施の形態2に係る情報処理装置1の処理部11の撮影画像取得部11aは、検査台7に載置された対象物100をカメラ3が可視光線により撮影した可視光線画像と、赤外線により撮影した赤外線画像とを取得する(ステップS21)。処理部11の画像領域特定部11bは、ステップS21にて取得した可視光線画像を、予め機械学習がなされたセグメンテーションモデルへ入力する(ステップS22)。画像領域特定部11bは、セグメンテーションモデルがセグメンテーション処理の結果として出力するマスクデータを取得する(ステップS23)。 FIG. 10 is a flowchart showing the procedure of state detection processing performed by the information processing apparatus 1 according to the second embodiment. The captured image acquisition unit 11a of the processing unit 11 of the information processing apparatus 1 according to the second embodiment acquires a visible light image of the object 100 placed on the inspection table 7 captured by the camera 3 using visible light and an infrared image. Then, an infrared image is acquired (step S21). The image region specifying unit 11b of the processing unit 11 inputs the visible light image acquired in step S21 to the segmentation model that has undergone machine learning in advance (step S22). The image region identifying unit 11b acquires mask data output by the segmentation model as a result of segmentation processing (step S23).

画像領域特定部11bは、ステップS21にて取得した可視光線画像を、予め機械学習がなされた分類モデルへ入力する(ステップS24)。分類モデルは、対象物100の撮影画像を入力として受け付けて、対象物100の種類等の分類結果を出力するよう予め機械学習がなされた学習モデルである。画像領域特定部11bは、分類モデルが出力する分類結果を取得する(ステップS25)。また画像領域特定部11bは、ステップS23にて取得したマスクデータを基に、ステップS21にて取得した赤外線画像から対象物100が写されている画像領域を抽出する(ステップS26)。 The image region specifying unit 11b inputs the visible light image acquired in step S21 to a classification model that has undergone machine learning in advance (step S24). The classification model is a learning model that has undergone machine learning in advance so as to accept a photographed image of the object 100 as an input and output classification results such as the type of the object 100 . The image region specifying unit 11b acquires the classification results output by the classification model (step S25). Based on the mask data acquired in step S23, the image area specifying unit 11b extracts an image area in which the object 100 is shown from the infrared image acquired in step S21 (step S26).

次いで、処理部11の異常検出部11cは、ステップS25にて取得した対象物100の分類結果に応じて、対象物100の異常を検出するための異常検出モデルを選択する(ステップS27)。異常検出部11cは、ステップS26にて抽出した対象物100の画像領域のデータを、ステップS27にて選択した異常検出モデルへ入力する(ステップS28)。異常検出部11cは、異常検出モデルが出力する異常検出結果を取得する(ステップS29)。異常検出部11cは、ステップS29にて取得した異常検出結果に基づいて、対象物100の異常の有無を判定する(ステップS30)。対象物100に異常がない場合(S30:NO)、異常検出部11cは、処理を終了する。対象物100に異常がある場合(S30:YES)、処理部11の表示処理部11dは、例えばステップS21にて取得した可視光線画像と、ステップS29にて取得した異常検出結果とを表示装置5へ送信することにより、対象物100の可視光線画像に検出された異常箇所を囲む太線等を重畳した画像を表示装置5に表示させて(ステップS31)、処理を終了する。 Next, the abnormality detection unit 11c of the processing unit 11 selects an abnormality detection model for detecting an abnormality of the object 100 according to the classification result of the object 100 acquired in step S25 (step S27). The abnormality detection unit 11c inputs the data of the image area of the object 100 extracted in step S26 to the abnormality detection model selected in step S27 (step S28). The abnormality detection unit 11c acquires the abnormality detection result output by the abnormality detection model (step S29). The abnormality detection unit 11c determines whether or not there is an abnormality in the object 100 based on the abnormality detection result obtained in step S29 (step S30). If there is no abnormality in the object 100 (S30: NO), the abnormality detection section 11c terminates the process. If there is an abnormality in the object 100 (S30: YES), the display processing unit 11d of the processing unit 11 displays, for example, the visible light image acquired in step S21 and the abnormality detection result acquired in step S29 on the display device 5. , the display device 5 displays an image in which a thick line surrounding the detected abnormal portion is superimposed on the visible light image of the object 100 (step S31), and the process ends.

以上の構成の実施の形態2に係る情報処理システムでは、カメラ3が撮影した可視光線画像に基づいて情報処理装置1が対象物100のクラス分類を行う。情報処理装置1は、分類結果に基づいて対象物100の異常検出を行う条件(例えば複数の異常検出モデルのうちいずれを用いるか、又は、複数の閾値のうちいずれを用いるか等)を選択する。情報処理装置1は、例えば分類結果に基づいて対象物100の種類別に備えられた複数の異常検出モデルから1つを選択し、選択した異常検出モデルに赤外線画像から抽出した対象物100の画像領域を入力し、異常検出モデルが出力する異常検出結果を取得することにより、対象物100の異常検出を行う。これにより情報処理システムは、複数種類の対象物が混在している場合であってもカメラ3の撮影画像に基づく異常検出を精度よく行うことが期待できる。 In the information processing system according to Embodiment 2 having the above configuration, the information processing device 1 performs class classification of the target object 100 based on the visible light image captured by the camera 3 . The information processing apparatus 1 selects a condition (for example, which of a plurality of anomaly detection models to use, or which of a plurality of thresholds to use, etc.) for anomaly detection of the target object 100 based on the classification result. . The information processing apparatus 1 selects one from a plurality of anomaly detection models provided for each type of the target object 100 based on the classification result, for example, and assigns the image area of the target object 100 extracted from the infrared image to the selected anomaly detection model. is input and the abnormality detection result output by the abnormality detection model is obtained, thereby performing abnormality detection of the target object 100 . As a result, the information processing system can be expected to accurately detect an abnormality based on the image captured by the camera 3 even when a plurality of types of objects are mixed.

なお実施の形態2に係る情報処理システムでは、カメラ3が撮影した可視光線画像に基づいて対象物100のクラス分類を行っているが、これに限るものではなく、赤外線画像に基づいてクラス分類を行ってもよい。 In the information processing system according to Embodiment 2, the object 100 is classified into classes based on the visible light image captured by the camera 3. However, the present invention is not limited to this, and class classification is performed based on the infrared image. you can go

また、実施の形態2に係る情報処理システムのその他の構成は、実施の形態1に係る情報処理システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。 Further, other configurations of the information processing system according to the second embodiment are the same as those of the information processing system according to the first embodiment, so the same parts are denoted by the same reference numerals, and detailed description thereof will be omitted.

<実施の形態3>
実施の形態3に係る情報処理システムでは、カメラ3が可視光線による撮影と、波長帯が異なる複数の赤外線による撮影とを行うことが可能である。実施の形態3に係る情報処理システムでは、カメラ3がまず可視光線画像及び赤外線画像の撮影を行って両画像を情報処理装置1へ送信するのではなく、カメラ3がまず可視光線画像の撮影のみを行って可視光線画像のみを情報処理装置1へ送信する。実施の形態3に係る情報処理装置1は、カメラ3が撮影した可視光線画像に基づいて対象物100のクラス分類を行い、分類した対象物100の種類に応じて赤外線画像を撮影する波長帯を決定し、決定した波長帯に関する情報をカメラ3へ通知する。このため情報処理装置1は、例えば対象物100の種類と、赤外線画像を撮影する波長帯とを対応付けたテーブル等を予め備えている。
<Embodiment 3>
In the information processing system according to Embodiment 3, the camera 3 is capable of capturing images using visible light and capturing images using a plurality of infrared rays having different wavelength bands. In the information processing system according to Embodiment 3, instead of the camera 3 first capturing a visible light image and an infrared image and transmitting both images to the information processing apparatus 1, the camera 3 first captures only the visible light image. to transmit only the visible light image to the information processing apparatus 1 . The information processing apparatus 1 according to the third embodiment performs class classification of the target object 100 based on the visible light image captured by the camera 3, and selects a wavelength band for capturing an infrared image according to the type of the classified target object 100. It decides and notifies the camera 3 of information on the decided wavelength band. For this reason, the information processing apparatus 1 is provided in advance with a table or the like that associates, for example, the type of the target object 100 with the wavelength band for capturing the infrared image.

カメラ3は、例えば切替式フィルタ33にそれぞれ異なる波長帯の赤外線を透過する複数のフィルタを有しており、情報処理装置1から通知された波長帯に応じてフィルタの切り替えを行って、赤外線による対象物100の撮影を行う。カメラ3は、通知された波長帯の赤外線により撮影した対象物100の赤外線画像を情報処理装置1へ送信する。なお可視光線画像に種類が異なる複数の対象物100が写されている場合、情報処理装置1は複数の波長帯をカメラ3へ通知し、カメラ3は複数の波長帯の赤外線で撮影を行って複数の赤外線画像を情報処理装置1へ送信してもよい。 The camera 3 has, for example, a plurality of filters that transmit infrared rays of different wavelength bands in the switchable filter 33 . The object 100 is photographed. The camera 3 transmits to the information processing apparatus 1 an infrared image of the object 100 photographed by infrared rays in the notified wavelength band. Note that when a plurality of objects 100 of different types are captured in the visible light image, the information processing apparatus 1 notifies the camera 3 of the plurality of wavelength bands, and the camera 3 captures images using infrared light in the plurality of wavelength bands. A plurality of infrared images may be transmitted to the information processing device 1 .

情報処理装置1は、カメラ3から赤外線画像を取得し、可視光線画像に対するセグメンテーション処理の結果に基づいて、赤外線画像から対象物100が写されている画像領域を抽出する。情報処理装置1は、対象物100の種類に応じた異常検出モデルを選択し、抽出した画像領域を異常検出モデルへ入力して、異常検出モデルが出力する異常検出結果を取得することで、対象物100の異常検出を行うことができる。 The information processing device 1 acquires an infrared image from the camera 3, and extracts an image region in which the target object 100 is captured from the infrared image based on the result of segmentation processing for the visible light image. The information processing device 1 selects an anomaly detection model according to the type of the target object 100, inputs the extracted image region to the anomaly detection model, and obtains an anomaly detection result output by the anomaly detection model, thereby obtaining an Anomaly detection of the object 100 can be performed.

図11は、実施の形態3に係る情報処理装置1が行う状態検出処理の手順を示すフローチャートである。実施の形態3に係る情報処理装置1の処理部11の撮影画像取得部11aは、検査台7に載置された対象物100をカメラ3が可視光線により撮影した可視光線画像を取得する(ステップS41)。処理部11の画像領域特定部11bは、ステップS41にて取得した可視光線画像を、予め機械学習がなされたセグメンテーションモデルへ入力する(ステップS42)。画像領域特定部11bは、セグメンテーションモデルがセグメンテーション処理の結果として出力するマスクデータを取得する(ステップS43)。 FIG. 11 is a flowchart showing the procedure of state detection processing performed by the information processing apparatus 1 according to the third embodiment. The captured image acquisition unit 11a of the processing unit 11 of the information processing apparatus 1 according to the third embodiment acquires a visible light image of the object 100 placed on the inspection table 7 captured by the camera 3 using visible light (step S41). The image region specifying unit 11b of the processing unit 11 inputs the visible light image acquired in step S41 to the segmentation model that has undergone machine learning in advance (step S42). The image region specifying unit 11b acquires mask data output by the segmentation model as a result of segmentation processing (step S43).

画像領域特定部11bは、ステップS41にて取得した可視光線画像を、予め機械学習がなされた分類モデルへ入力する(ステップS44)。画像領域特定部11bは、分類モデルが出力する分類結果を取得する(ステップS45)。画像領域特定部11bは、例えば対象物100の種類と赤外線の波長帯との対応が記憶されたテーブルを参照して、ステップS45にて取得した分類結果に対応する赤外線の波長帯を選択する(ステップS46)。画像領域特定部11bは、ステップS46にて選択した赤外線の波長帯をカメラ3へ通知する(ステップS47)。撮影画像取得部11aは、ステップS47の通知に応じてカメラ3が撮影した赤外線画像を取得する(ステップS48)。画像領域特定部11bは、ステップS43にて取得したマスクデータを基に、ステップS48にて取得した赤外線画像から対象物100が写されている画像領域を抽出する(ステップS49)。 The image area specifying unit 11b inputs the visible light image acquired in step S41 to a classification model that has undergone machine learning in advance (step S44). The image region specifying unit 11b acquires the classification result output by the classification model (step S45). The image region specifying unit 11b selects the infrared wavelength band corresponding to the classification result obtained in step S45 by referring to a table storing, for example, the correspondence between the type of the target object 100 and the infrared wavelength band ( step S46). The image area specifying unit 11b notifies the infrared wavelength band selected in step S46 to the camera 3 (step S47). The captured image acquiring unit 11a acquires the infrared image captured by the camera 3 in response to the notification of step S47 (step S48). Based on the mask data acquired in step S43, the image area specifying unit 11b extracts an image area in which the object 100 is shown from the infrared image acquired in step S48 (step S49).

次いで、処理部11の異常検出部11cは、ステップS45にて取得した対象物100の分類結果に応じて、対象物100の異常を検出するための異常検出モデルを選択する(ステップS50)。異常検出部11cは、ステップS49にて抽出した対象物100の画像領域のデータを、ステップS50にて選択した異常検出モデルへ入力する(ステップS51)。異常検出部11cは、異常検出モデルが出力する異常検出結果を取得する(ステップS52)。異常検出部11cは、ステップS52にて取得した異常検出結果に基づいて、対象物100の異常の有無を判定する(ステップS53)。対象物100に異常がない場合(S53:NO)、異常検出部11cは、処理を終了する。対象物100に異常がある場合(S53:YES)、処理部11の表示処理部11dは、例えばステップS41にて取得した可視光線画像と、ステップS52にて取得した異常検出結果とを表示装置5へ送信することにより、対象物100の可視光線画像に検出された異常箇所を囲む太線等を重畳した画像を表示装置5に表示させて(ステップS54)、処理を終了する。 Next, the abnormality detection unit 11c of the processing unit 11 selects an abnormality detection model for detecting an abnormality of the object 100 according to the classification result of the object 100 acquired in step S45 (step S50). The abnormality detection unit 11c inputs the data of the image area of the object 100 extracted in step S49 to the abnormality detection model selected in step S50 (step S51). The abnormality detection unit 11c acquires the abnormality detection result output by the abnormality detection model (step S52). The abnormality detection unit 11c determines whether or not there is an abnormality in the object 100 based on the abnormality detection result acquired in step S52 (step S53). If there is no abnormality in the object 100 (S53: NO), the abnormality detection section 11c terminates the process. If there is an abnormality in the object 100 (S53: YES), the display processing unit 11d of the processing unit 11 displays, for example, the visible light image acquired in step S41 and the abnormality detection result acquired in step S52 on the display device 5. , the display device 5 displays an image in which a thick line surrounding the detected abnormal portion is superimposed on the visible light image of the object 100 (step S54), and the process ends.

以上の構成の実施の形態3に係る情報処理システムでは、カメラ3から取得した可視光線画像に基づいて情報処理装置1が対象物100の分類を行い、分類結果に応じて赤外線の波長帯を選択してカメラ3へ通知し、この通知に応じてカメラ3が選択された波長帯の赤外線での撮影を行う。カメラ3は通知に応じた波長帯の赤外線で対象物100を撮影した赤外線画像を情報処理装置1へ送信し、情報処理装置1はカメラ3から取得した赤外線画像を基に対象物100の異常検出を行う。これにより実施の形態3に係る情報処理システムでは、対象物100の種類等の異常検出に適した波長帯の赤外線でカメラ3が撮影を行うことができるため、対象物100の種類等に適した赤外線画像を基に異常検出を行うことができ、異常検出の精度を向上することが期待できる。 In the information processing system according to Embodiment 3 having the above configuration, the information processing device 1 classifies the target object 100 based on the visible light image acquired from the camera 3, and selects the infrared wavelength band according to the classification result. In response to this notification, the camera 3 performs photographing with infrared light in the selected wavelength band. The camera 3 transmits an infrared image of the object 100 photographed with infrared rays in the wavelength band corresponding to the notification to the information processing device 1, and the information processing device 1 detects an abnormality of the object 100 based on the infrared image acquired from the camera 3. I do. As a result, in the information processing system according to the third embodiment, the camera 3 can capture an infrared ray in a wavelength band suitable for detecting anomalies such as the type of the target object 100 . Anomaly detection can be performed based on the infrared image, and improvement in the accuracy of anomaly detection can be expected.

なお実施の形態3において情報処理装置1は、対象物100の種類に応じて赤外線の波長帯を選択しているが、これに限るものではない。例えば、カメラ3は可視光線の波長帯についても複数の波長帯に切り替えて撮影が可能な構成とし、情報処理装置1は、例えば赤外線画像に基づいてクラス分類を行い、分類結果に応じて可視光線の波長帯を選択してカメラ3に対象物100の撮影を行わせてもよい。 In the third embodiment, the information processing apparatus 1 selects the infrared wavelength band according to the type of the target object 100, but it is not limited to this. For example, the camera 3 is configured to be capable of photographing by switching the wavelength band of visible light to a plurality of wavelength bands. may be selected to cause the camera 3 to photograph the object 100 .

また、実施の形態3に係る情報処理システムのその他の構成は、実施の形態1、2に係る情報処理システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。 Further, other configurations of the information processing system according to Embodiment 3 are the same as those of the information processing systems according to Embodiments 1 and 2. Therefore, similar portions are denoted by the same reference numerals, and detailed description thereof is omitted. do.

<実施の形態4>
可視光線画像を基に対象物100のクラス分類を行う情報処理装置1が用いる学習モデルは、分類結果として例えば対象物100が各クラスである可能性を示す割合(確信度)の数値を出力する。例えば対象物100がA、B又はCのいずれのクラスのものであるかを分類する場合、学習モデルは、クラスAについて確信度0.7、クラスBについて確信度0.2、クラスCについて確信度0.1等のようにクラス毎の確信度の数値を出力するよう予め機械学習がなされる。情報処理装置1は、各クラスの確信度を比較して、最も大きい値に対応するクラスを対象物100のクラスとして分類する。
<Embodiment 4>
The learning model used by the information processing apparatus 1 that classifies the object 100 based on the visible light image outputs, as a classification result, a numerical value indicating the probability that the object 100 belongs to each class. . For example, when classifying whether the object 100 belongs to class A, B or C, the learning model has a confidence of 0.7 for class A, a confidence of 0.2 for class B, and a confidence of 0.2 for class C. Machine learning is performed in advance so as to output a numerical value of certainty for each class, such as 0.1. The information processing device 1 compares the confidence of each class and classifies the class corresponding to the largest value as the class of the object 100 .

実施の形態4に係る情報処理装置1は、カメラ3から取得した可視光線画像を基に、予め機械学習がなされた学習モデルを用いて対象物100のクラス分類を行う。情報処理装置1は、学習モデルが出力する各クラスの確信度を取得し、確信度の値が最も大きいクラスを対象物100のクラスと判断する。このときに実施の形態4に係る情報処理装置1は、確信度が最も大きいクラスと、2番目に大きいクラスとで確信度を比較し、2つのクラスの確信度の差が閾値未満である場合に、クラス分類の処理を再び行う。 The information processing apparatus 1 according to Embodiment 4 classifies the target object 100 into classes based on the visible light image acquired from the camera 3 using a learning model that has undergone machine learning in advance. The information processing apparatus 1 acquires the certainty factor of each class output by the learning model, and determines the class with the largest certainty factor value as the class of the object 100 . At this time, the information processing apparatus 1 according to Embodiment 4 compares the confidence in the class with the highest confidence and the class with the second highest confidence, and if the difference in confidence between the two classes is less than the threshold Then, the class classification process is performed again.

実施の形態4に係る情報処理装置1は、対象物100の分類対象となる2つのクラスの組み合わせに対応付けて、赤外線の波長帯の情報をテーブルなどに予め記憶している。この情報は、赤外線画像を用いて2つのクラスを分類することができる波長帯の情報であり、本実施の形態に係る情報処理システムの設計者等により予め波長帯が設定される。例えばA、B及びCの3クラスが存在する場合、A及びBのクラスを分類するための波長帯と、B及びCのクラスを分類するための波長帯と、C及びAのクラスを分類するための波長帯とが予め設定され得る。 The information processing apparatus 1 according to Embodiment 4 stores information on infrared wavelength bands in advance in a table or the like in association with a combination of two classes that are classification targets of the object 100 . This information is information of wavelength bands that can be classified into two classes using an infrared image, and the wavelength bands are set in advance by the designer or the like of the information processing system according to the present embodiment. For example, if there are three classes A, B and C, the wavelength band for classifying the classes A and B, the wavelength band for classifying the classes B and C, and the classes C and A are classified. A wavelength band for and can be set in advance.

学習モデルが出力した上位2クラスの確信度の差が閾値未満である場合、情報処理装置1は、上記のテーブルを参照することによって、この2つのクラスに対応付けられた赤外線の波長帯を取得する。情報処理装置1は、取得した赤外線の波長帯に関する情報をカメラ3へ通知する。実施の形態4に係るカメラ3は、実施の形態3に係るカメラ3と同様に、情報処理装置1から通知された波長帯に応じてフィルタの切り替えを行って、赤外線による対象物100の撮影を行う。カメラ3は、通知された波長帯の赤外線により撮影した対象物100の赤外線画像を情報処理装置1へ送信する。 When the difference in confidence between the top two classes output by the learning model is less than the threshold, the information processing device 1 acquires the infrared wavelength bands associated with these two classes by referring to the above table. do. The information processing device 1 notifies the camera 3 of the acquired information on the infrared wavelength band. The camera 3 according to the fourth embodiment switches the filter according to the wavelength band notified from the information processing device 1 in the same manner as the camera 3 according to the third embodiment, and captures the object 100 with infrared rays. conduct. The camera 3 transmits to the information processing apparatus 1 an infrared image of the object 100 photographed by infrared rays in the notified wavelength band.

情報処理装置1は、カメラ3から赤外線画像を取得し、取得した赤外線画像を基に、対象物100のクラス分類を再び行う。なおこのときに情報処理装置1がクラス分類に用いる学習モデルは、可視光線画像を基にクラス分類を行う学習モデルとは異なり、赤外線画像を基にクラス分類を行うよう予め機械学習がなされた学習モデルである。情報処理装置1は、赤外線画像を基にクラスの再分類を行った結果を学習モデルから取得し、この分類結果に基づいて異常検出モデルを選択し、赤外線画像(再分類に用いた赤外線画像と同じものであってもよく、異なるものであってもよい)から抽出した画像領域を異常検出モデルへ入力し、異常検出モデルが出力する異常検出結果を取得することにより、対象物100の異常検出を行う。 The information processing device 1 acquires the infrared image from the camera 3, and classifies the object 100 again based on the acquired infrared image. At this time, the learning model used by the information processing apparatus 1 for class classification is machine-learned in advance so as to perform class classification based on the infrared image, unlike the learning model that classifies the class based on the visible light image. is a model. The information processing device 1 acquires from the learning model the results of class reclassification based on the infrared image, selects an anomaly detection model based on the classification result, and generates the infrared image (the infrared image used for reclassification and (which may be the same or different) is input to the anomaly detection model, and the anomaly detection result output by the anomaly detection model is acquired to detect an anomaly of the object 100. I do.

図12及び図13は、実施の形態4に係る情報処理装置1が行う状態検出処理の手順を示すフローチャートである。実施の形態4に係る情報処理装置1の処理部11の撮影画像取得部11aは、カメラ3が可視光線による撮影行った対象物100の可視光線画像と、赤外線による撮影を行った対象物100の赤外線画像とを取得する(ステップS61)。処理部11の画像領域特定部11bは、ステップS61にて取得した可視光線画像を、予め機械学習がなされたセグメンテーションモデルへ入力する(ステップS62)。画像領域特定部11bは、セグメンテーションモデルがセグメンテーション処理の結果として出力するマスクデータを取得する(ステップS63)。 12 and 13 are flowcharts showing the procedure of state detection processing performed by the information processing apparatus 1 according to the fourth embodiment. The captured image acquisition unit 11a of the processing unit 11 of the information processing apparatus 1 according to the fourth embodiment obtains a visible light image of the target object 100 captured by the camera 3 using visible light and an image of the target object 100 captured using infrared light. An infrared image is obtained (step S61). The image region specifying unit 11b of the processing unit 11 inputs the visible light image acquired in step S61 to the segmentation model that has undergone machine learning in advance (step S62). The image region specifying unit 11b acquires mask data output by the segmentation model as a result of segmentation processing (step S63).

また画像領域特定部11bは、ステップS61にて取得した可視光線画像を、予め機械学習がなされた分類モデルへ入力する(ステップS64)。画像領域特定部11bは、分類モデルが出力する分類結果を取得する(ステップS65)。画像領域特定部11bは、ステップS65にて取得した分類結果に基づいて、上位2つのクラスに関する確信度の差が閾値未満であるか否かを判定する(ステップS66)。確信度の差が閾値以上である場合(S66:NO)、画像領域特定部11bは、ステップS65にて取得した分類結果において確信度が最も高いクラスを対象物100の種類とし、ステップS72へ処理を進める。 Further, the image region specifying unit 11b inputs the visible light image acquired in step S61 to a classification model that has undergone machine learning in advance (step S64). The image region specifying unit 11b acquires the classification result output by the classification model (step S65). Based on the classification results obtained in step S65, the image region specifying unit 11b determines whether the difference in confidence between the top two classes is less than a threshold (step S66). If the difference in certainty is equal to or greater than the threshold (S66: NO), the image region specifying unit 11b determines the class with the highest certainty in the classification result acquired in step S65 as the type of the object 100, and proceeds to step S72. proceed.

確信度の差が閾値未満である場合(S66:YES)、画像領域特定部11bは、例えば対象物100の種類の組み合わせと赤外線の波長帯との対応が記憶されたテーブルを参照して、ステップS65にて取得した分類結果において上位2つのクラスの組み合わせに対応する赤外線の波長帯を選択する(ステップS67)。画像領域特定部11bは、ステップS67にて選択した赤外線の波長帯をカメラ3へ通知する(ステップS68)。撮影画像取得部11aは、ステップS68の通知に応じてカメラ3が撮影した赤外線画像を取得する(ステップS69)。画像領域特定部11bは、ステップS69にて取得した赤外線画像を、予め機械学習がなされた分類モデルへ入力する(ステップS70)。画像領域特定部11bは、分類モデルが出力する分類結果を取得し(ステップS71)、ステップS72へ処理を進める。 If the confidence factor difference is less than the threshold (S66: YES), the image region specifying unit 11b refers to a table that stores, for example, combinations of types of the target object 100 and infrared wavelength bands, and performs step Infrared wavelength bands corresponding to the combination of the top two classes in the classification results obtained in S65 are selected (step S67). The image area specifying unit 11b notifies the camera 3 of the infrared wavelength band selected in step S67 (step S68). The captured image acquisition unit 11a acquires the infrared image captured by the camera 3 in response to the notification of step S68 (step S69). The image region specifying unit 11b inputs the infrared image acquired in step S69 to a classification model that has undergone machine learning in advance (step S70). The image region specifying unit 11b acquires the classification result output by the classification model (step S71), and advances the process to step S72.

次いで画像領域特定部11bは、ステップS63にて取得したマスクデータを基に、ステップS61にて取得した赤外線画像から対象物100が写されている画像領域を抽出する(ステップS72)。処理部11の異常検出部11cは、ステップS65にて取得した分類結果、又は、ステップS71にて取得した再分類の結果に応じて、対象物100の異常を検出するための異常検出モデルを選択する(ステップS73)。異常検出部11cは、ステップS72にて抽出した対象物100の画像領域のデータを、ステップS73にて選択した異常検出モデルへ入力する(ステップS74)。異常検出部11cは、異常検出モデルが出力する異常検出結果を取得する(ステップS75)。 Next, the image area specifying unit 11b extracts an image area including the object 100 from the infrared image acquired in step S61 based on the mask data acquired in step S63 (step S72). The abnormality detection unit 11c of the processing unit 11 selects an abnormality detection model for detecting an abnormality of the object 100 according to the classification result obtained in step S65 or the reclassification result obtained in step S71. (step S73). The abnormality detection unit 11c inputs the data of the image area of the object 100 extracted in step S72 to the abnormality detection model selected in step S73 (step S74). The abnormality detection unit 11c acquires the abnormality detection result output by the abnormality detection model (step S75).

異常検出部11cは、ステップS75にて取得した異常検出結果に基づいて、対象物100の異常の有無を判定する(ステップS76)。対象物100に異常がない場合(S76:NO)、異常検出部11cは、処理を終了する。対象物100に異常がある場合(S76:YES)、処理部11の表示処理部11dは、例えばステップS61にて取得した可視光線画像と、ステップS75にて取得した異常検出結果とを表示装置5へ送信することにより、対象物100の可視光線画像に検出された異常箇所を囲む太線等を重畳した画像を表示装置5に表示させて(ステップS77)、処理を終了する。 The abnormality detection unit 11c determines whether or not there is an abnormality in the object 100 based on the abnormality detection result obtained in step S75 (step S76). If there is no abnormality in the object 100 (S76: NO), the abnormality detection section 11c terminates the process. If there is an abnormality in the object 100 (S76: YES), the display processing unit 11d of the processing unit 11 displays, for example, the visible light image acquired in step S61 and the abnormality detection result acquired in step S75 on the display device 5. , the display device 5 displays an image in which a thick line surrounding the detected abnormal portion is superimposed on the visible light image of the object 100 (step S77), and the process ends.

以上の構成の実施の形態4に係る情報処理装置1は、可視光線画像に基づいて対象物100のクラス分類を行い、上位2つのクラスについて分類の確信度が低い場合(2つのクラスの確信度の差が閾値未満の場合)に、この2つのクラスに応じた赤外線の波長帯を選択し、選択した波長帯に基づく対象物100の撮影をカメラ3が行った赤外線画像を取得し、取得した赤外線画像を基に対象物100のクラスの再分類を行う。これにより情報処理システムは、可視光線画像に基づくクラス分類について確信度が低い場合に、赤外線画像に基づくクラス分類を行って精度を高めることが期待できる。 The information processing apparatus 1 according to Embodiment 4 having the above configuration classifies the object 100 into classes based on the visible light image, and when the confidence of classification is low for the top two classes (the confidence of the two classes When the difference is less than the threshold), an infrared wavelength band corresponding to these two classes is selected, and an infrared image obtained by imaging the object 100 based on the selected wavelength band by the camera 3 is acquired and acquired. Based on the infrared image, the object 100 is reclassified into classes. As a result, the information processing system can be expected to perform class classification based on the infrared image to improve accuracy when the degree of confidence in the class classification based on the visible light image is low.

なお、実施の形態4に係る情報処理システムのその他の構成は、実施の形態1、2、3に係る情報処理システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。 Since other configurations of the information processing system according to Embodiment 4 are the same as those of the information processing systems according to Embodiments 1, 2, and 3, similar portions are denoted by the same reference numerals, and detailed descriptions thereof are omitted. omitted.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

各実施形態に記載した事項は相互に組み合わせることが可能である。また、特許請求の範囲に記載した独立請求項及び従属請求項は、引用形式に関わらず全てのあらゆる組み合わせにおいて、相互に組み合わせることが可能である。さらに、特許請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。マルチクレームを少なくとも1つ引用するマルチクレーム(マルチマルチクレーム)を記載する形式を用いて記載してもよい。 The matters described in each embodiment can be combined with each other. Also, the independent claims and dependent claims described in the claims can be combined with each other in all possible combinations regardless of the form of citation. Furthermore, although the scope of claims uses a format in which claims refer to two or more other claims (multi-claim format), it is not limited to this. It may also be described using a format for describing multiple claims (multi-multiclaim) that refers to at least one multiple claim.

1 情報処理装置(コンピュータ)
3 カメラ
5 表示装置
7 検査台
11 処理部
11a 撮影画像取得部(第1取得部、第2取得部)
11b 画像領域特定部(特定部)
11c 異常検出部(検出部)
11d 表示処理部
12 記憶部
12a プログラム(コンピュータプログラム)
12b 学習モデル記憶部
13 通信部
14 操作部
31 制御部
32 撮影部
33 切替式フィルタ(第1フィルタ、第2フィルタ)
34 切替部
35 赤外線LED(光源)
36 通信部
100 対象物
1 Information processing device (computer)
3 camera 5 display device 7 inspection table 11 processing unit 11a captured image acquisition unit (first acquisition unit, second acquisition unit)
11b Image area specifying unit (specifying unit)
11c Abnormality detection unit (detection unit)
11d display processing unit 12 storage unit 12a program (computer program)
12b learning model storage unit 13 communication unit 14 operation unit 31 control unit 32 imaging unit 33 switchable filter (first filter, second filter)
34 switching unit 35 infrared LED (light source)
36 communication unit 100 object

Claims (8)

情報処理装置が、
対象物を第1波長帯の光に基づいて撮影した第1画像を取得し、
前記対象物を第2波長帯の光に基づいて撮影した第2画像を取得し、
前記第1画像に対するセグメンテーションを行って前記対象物が写された画像領域を特定し、
特定結果に基づいて、前記第2画像から前記対象物の画像領域を抽出し、
前記第1画像に基づいて前記対象物を分類し、
前記第2画像から抽出された画像領域の入力に対して前記対象物の状態に関する情報を出力するよう機械学習がなされた複数の学習モデルの中から、分類結果に応じて一の学習モデルを選択し、
抽出した前記画像領域及び選択した学習モデルに基づいて前記対象物の状態を検出する、
情報処理方法。
The information processing device
Acquiring a first image of an object photographed based on light in a first wavelength band;
Acquiring a second image of the object photographed based on light in a second wavelength band;
segmenting the first image to identify an image region in which the object is captured;
extracting an image region of the object from the second image based on the identification result;
classifying the object based on the first image;
Selecting one learning model according to a classification result from among a plurality of learning models subjected to machine learning so as to output information regarding the state of the object in response to the input of the image region extracted from the second image. death,
detecting the state of the object based on the extracted image region and the selected learning model;
Information processing methods.
前記第1波長帯は、可視光線の波長帯であり、
前記第2波長帯は、赤外線の波長帯である、
請求項1に記載の情報処理方法。
The first wavelength band is a wavelength band of visible light,
The second wavelength band is an infrared wavelength band,
The information processing method according to claim 1 .
前記情報処理装置が、
前記分類結果に応じて前記第2波長帯を選択し、
選択した前記第2波長帯の光に基づいて撮影した前記第2画像を取得する、
請求項1に記載の情報処理方法。
The information processing device
selecting the second wavelength band according to the classification result;
Acquiring the second image taken based on the selected light in the second wavelength band;
The information processing method according to claim 1 .
前記情報処理装置が、
前記対象物について2つのクラスへの分類の確信度が低い場合に、当該2つのクラスに応じた前記第2波長帯を選択し、
選択した前記第2波長帯の光に基づいて撮影した前記第2画像を取得し、
取得した前記第2画像に基づいて、前記対象物の再分類を行う、
請求項1に記載の情報処理方法。
The information processing device
selecting the second wavelength band according to the two classes when the confidence in the classification of the object into two classes is low;
Acquiring the second image captured based on the selected light in the second wavelength band;
reclassifying the object based on the acquired second image;
The information processing method according to claim 1 .
前記情報処理装置が、
複数種類の複数の食品を撮影した前記第1画像及び前記第2画像を取得し、
前記特定結果に基づいて、各食品の種類を分類し、
分類結果に基づいて、各食品の状態検出を行う、
請求項1に記載の情報処理方法。
The information processing device
Acquiring the first image and the second image of a plurality of types of food,
Based on the identification result, classify each food type,
Detect the state of each food based on the classification results,
The information processing method according to claim 1 .
コンピュータに、
対象物を第1波長帯の光に基づいて撮影した第1画像を取得し、
前記対象物を第2波長帯の光に基づいて撮影した第2画像を取得し、
前記第1画像に対するセグメンテーションを行って前記対象物が写された画像領域を特定し、
特定結果に基づいて、前記第2画像から前記対象物の画像領域を抽出し、
前記第1画像に基づいて前記対象物を分類し、
前記第2画像から抽出された画像領域の入力に対して前記対象物の状態に関する情報を出力するよう機械学習がなされた複数の学習モデルの中から、分類結果に応じて一の学習モデルを選択し、
抽出した前記画像領域及び選択した学習モデルに基づいて前記対象物の状態を検出する、
処理を実行させる、コンピュータプログラム。
to the computer,
Acquiring a first image of an object photographed based on light in a first wavelength band;
Acquiring a second image of the object photographed based on light in a second wavelength band;
segmenting the first image to identify an image region in which the object is captured;
extracting an image region of the object from the second image based on the identification result;
classifying the object based on the first image;
Selecting one learning model according to a classification result from among a plurality of learning models subjected to machine learning so as to output information regarding the state of the object in response to the input of the image region extracted from the second image. death,
detecting the state of the object based on the extracted image region and the selected learning model;
A computer program that causes a process to be performed.
対象物を第1波長帯の光に基づいて撮影した第1画像を取得する第1取得部と、
前記対象物を第2波長帯の光に基づいて撮影した第2画像を取得する第2取得部と、
前記第1画像に対するセグメンテーションを行って前記対象物が写された画像領域を特定する特定部と、
特定結果に基づいて、前記第2画像から前記対象物の画像領域を抽出する抽出部と、
前記第1画像に基づいて前記対象物を分類する分類部と、
前記第2画像から抽出された画像領域の入力に対して前記対象物の状態に関する情報を出力するよう機械学習がなされた複数の学習モデルの中から、分類結果に応じて一の学習モデルを選択する選択部と、
抽出した前記画像領域及び選択した学習モデルに基づいて前記対象物の状態を検出する検出部と
を備える情報処理装置。
a first acquisition unit that acquires a first image of an object captured based on light in a first wavelength band;
a second acquisition unit that acquires a second image of the object captured based on light in a second wavelength band;
a specifying unit that performs segmentation on the first image to specify an image region in which the object is captured;
an extraction unit that extracts an image area of the object from the second image based on the identification result;
a classifying unit that classifies the object based on the first image;
Selecting one learning model according to a classification result from among a plurality of learning models subjected to machine learning so as to output information regarding the state of the object in response to the input of the image region extracted from the second image. a selection unit to
An information processing apparatus comprising: a detection unit that detects the state of the object based on the extracted image area and the selected learning model.
第1波長帯の光を透過して第2波長帯の光を遮断する第1フィルタ、前記第2波長帯の光を透過して前記第1波長帯の光を遮断する第2フィルタ、前記第2波長帯の光を発する光源、前記第1フィルタ又は前記第2フィルタを介して撮影を行う撮影部、前記撮影部に対する前記第1フィルタ及び前記第2フィルタの切り替えを行う切替部、前記撮影部が前記第2フィルタを介して撮影する際に前記光源を発光させる制御部を有する撮影装置と、
前記撮影装置が対象物を第1波長帯の光に基づいて撮影した第1画像を取得する第1取得部、前記撮影装置が前記対象物を第2波長帯の光に基づいて撮影した第2画像を取得する第2取得部、前記第1画像に対するセグメンテーションを行って前記対象物が写された画像領域を特定する特定部、特定結果に基づいて、前記第2画像から前記対象物の画像領域を抽出する抽出部、前記第1画像に基づいて前記対象物を分類する分類部、前記第2画像から抽出された画像領域の入力に対して前記対象物の状態に関する情報を出力するよう機械学習がなされた複数の学習モデルの中から、分類結果に応じて一の学習モデルを選択する選択部、並びに、抽出した前記画像領域及び選択した学習モデルに基づいて前記対象物の状態を検出する検出部を有する情報処理装置と
を備える、情報処理システム。
a first filter that transmits light in a first wavelength band and blocks light in a second wavelength band; a second filter that transmits light in the second wavelength band and blocks light in the first wavelength band; A light source that emits light in two wavelength bands, an imaging unit that performs imaging via the first filter or the second filter, a switching unit that switches the imaging unit between the first filter and the second filter, and the imaging unit a photographing device having a control unit that causes the light source to emit light when photographing through the second filter;
a first acquisition unit that acquires a first image obtained by the imaging device capturing an object based on light in a first wavelength band; a second acquisition unit that acquires an image; an identification unit that performs segmentation on the first image to identify an image area in which the object is captured; and an image area of the object from the second image based on identification results. a classification unit for classifying the object based on the first image; machine learning to output information about the state of the object in response to input of the image region extracted from the second image a selection unit that selects one learning model according to a classification result from among the plurality of learning models subjected to the above; and a detection that detects the state of the object based on the extracted image region and the selected learning model. An information processing system comprising: an information processing device having a unit;
JP2022087026A 2022-05-27 2022-05-27 Information processing method, computer program, information processing device and information processing system Active JP7223194B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022087026A JP7223194B1 (en) 2022-05-27 2022-05-27 Information processing method, computer program, information processing device and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022087026A JP7223194B1 (en) 2022-05-27 2022-05-27 Information processing method, computer program, information processing device and information processing system

Publications (2)

Publication Number Publication Date
JP7223194B1 true JP7223194B1 (en) 2023-02-15
JP2023174268A JP2023174268A (en) 2023-12-07

Family

ID=85221699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022087026A Active JP7223194B1 (en) 2022-05-27 2022-05-27 Information processing method, computer program, information processing device and information processing system

Country Status (1)

Country Link
JP (1) JP7223194B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012513302A (en) 2008-12-23 2012-06-14 ビューラー ソーテックス リミテッド Classification method and apparatus
JP2016504574A (en) 2012-11-26 2016-02-12 フリト−レイ ノース アメリカ インコーポレイテッドFrito−Lay North America,Inc. Method and apparatus for scoring and controlling food quality
JP2017194300A (en) 2016-04-19 2017-10-26 日立マクセル株式会社 Operation support device and operation support system
JP2017215239A (en) 2016-06-01 2017-12-07 ティー・エス・ビー株式会社 Solar cell inspection system
WO2019151393A1 (en) 2018-01-31 2019-08-08 株式会社ニチレイフーズ Food inspection system, food inspection program, food inspection method and food production method
JP2020156860A (en) 2019-03-27 2020-10-01 学校法人兵庫医科大学 Vessel recognition apparatus, vessel recognition method and vessel recognition system
JP6902652B1 (en) 2020-04-17 2021-07-14 エヌ・ティ・ティ・コムウェア株式会社 Road defect detection device, road defect detection method and road defect detection program
JP2021149309A (en) 2020-03-17 2021-09-27 ソニーグループ株式会社 Information processing device, information processing method, and computer program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3506161B2 (en) * 1995-08-30 2004-03-15 株式会社エフ・エフ・シー Agricultural and fishery product appearance inspection device
JP2005201636A (en) * 2004-01-13 2005-07-28 Shizuoka Prefecture Method and device for judging putrid part
JP2011160221A (en) * 2010-02-01 2011-08-18 Casio Computer Co Ltd Apparatus and method for processing image, and program
JP6442942B2 (en) * 2014-09-11 2018-12-26 株式会社デンソー Driver status determination device
JP2017083584A (en) * 2015-10-26 2017-05-18 京セラ株式会社 Imaging device
JP2020051982A (en) * 2018-09-28 2020-04-02 Jfeテクノリサーチ株式会社 Image inspection device and inspection model construction system
JP7075068B2 (en) * 2018-12-27 2022-05-25 日本電気株式会社 measuring device
JP2021043149A (en) * 2019-09-13 2021-03-18 日世株式会社 Detection system and detection method
JP2022024969A (en) * 2020-07-28 2022-02-09 Assest株式会社 Device for estimating quality of fruits and vegetables

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012513302A (en) 2008-12-23 2012-06-14 ビューラー ソーテックス リミテッド Classification method and apparatus
JP2016504574A (en) 2012-11-26 2016-02-12 フリト−レイ ノース アメリカ インコーポレイテッドFrito−Lay North America,Inc. Method and apparatus for scoring and controlling food quality
JP2017194300A (en) 2016-04-19 2017-10-26 日立マクセル株式会社 Operation support device and operation support system
JP2017215239A (en) 2016-06-01 2017-12-07 ティー・エス・ビー株式会社 Solar cell inspection system
WO2019151393A1 (en) 2018-01-31 2019-08-08 株式会社ニチレイフーズ Food inspection system, food inspection program, food inspection method and food production method
JP2020156860A (en) 2019-03-27 2020-10-01 学校法人兵庫医科大学 Vessel recognition apparatus, vessel recognition method and vessel recognition system
JP2021149309A (en) 2020-03-17 2021-09-27 ソニーグループ株式会社 Information processing device, information processing method, and computer program
JP6902652B1 (en) 2020-04-17 2021-07-14 エヌ・ティ・ティ・コムウェア株式会社 Road defect detection device, road defect detection method and road defect detection program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Khalid El Amraoui et al.,Machine learning algorithm for Avocado image segmentation based on quantum enhancement and Random forest,2022 2nd International Conference on Innovative Research in Applied Science Engineering and Technology ,2022年03月
福岡 知隆ら,ドローンと画像処理と赤外線画像による水圧鉄管点検業務の省力化の研究,AI・データサイエンス論文集,2020年11月,第1巻J1号 ,PP.606-612

Also Published As

Publication number Publication date
JP2023174268A (en) 2023-12-07

Similar Documents

Publication Publication Date Title
AU2017233723B2 (en) System and method for training object classifier by machine learning
US20190295712A1 (en) Optically active article identification system
CN110678875A (en) System and method for guiding user to take self-photo
KR20210030351A (en) Real-time video processing from medical imaging device and system and method for detecting objects from the video
TWI502189B (en) Training data verification apparatus, training data generation apparatus, image classification apparatus, training data verification method, training data generation method, and image classification method
Huang et al. Real-time classification of green coffee beans by using a convolutional neural network
JP6401648B2 (en) Defect classification apparatus and defect classification method
RU2669527C2 (en) Network of intelligent machines
WO2018179361A1 (en) Image-processing device, image-processing method, and recording medium
KR101969368B1 (en) Color-based foreign object detection system
JP7223194B1 (en) Information processing method, computer program, information processing device and information processing system
KR20200139616A (en) Apparatus and method for detecting abnormal objects
CN113228049B (en) Milk analyzer for classifying milk
US11275947B2 (en) Image processing system, image processing method, and image processing program
KR102476496B1 (en) Method for identify product through artificial intelligence-based barcode restoration and computer program recorded on record-medium for executing method therefor
JP2021009581A (en) Information processing device and lights-out lamp confirmation program
Hanson et al. Occluded object detection and exposure in cluttered environments with automated hyperspectral anomaly detection
KR20200084164A (en) Farm environment management appratus
KR102390058B1 (en) Data generation device and method for led panel defect detection
KR102476493B1 (en) Apparatus for product identification and method using the same
US11244439B2 (en) Vision system for status detection of wrapped packages
JP7195467B1 (en) LEARNING MODEL GENERATION METHOD, LEARNING DATA GENERATION METHOD, COMPUTER PROGRAM, AND INFORMATION PROCESSING APPARATUS
US20240046622A1 (en) Information processing apparatus, information processing system, information processing method, and program
KR102619829B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20240047578A (en) Apparatus and method for reading barcode

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230203

R150 Certificate of patent or registration of utility model

Ref document number: 7223194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150