JP2020144001A - Sensor system - Google Patents

Sensor system Download PDF

Info

Publication number
JP2020144001A
JP2020144001A JP2019040602A JP2019040602A JP2020144001A JP 2020144001 A JP2020144001 A JP 2020144001A JP 2019040602 A JP2019040602 A JP 2019040602A JP 2019040602 A JP2019040602 A JP 2019040602A JP 2020144001 A JP2020144001 A JP 2020144001A
Authority
JP
Japan
Prior art keywords
data
unit
optical sensors
learning
sensor system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019040602A
Other languages
Japanese (ja)
Other versions
JP7137761B2 (en
Inventor
英義 中村
Hideyoshi Nakamura
英義 中村
雄介 飯田
Yusuke Iida
雄介 飯田
典大 蓬郷
Norihiro Hogo
典大 蓬郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2019040602A priority Critical patent/JP7137761B2/en
Publication of JP2020144001A publication Critical patent/JP2020144001A/en
Priority to JP2022095747A priority patent/JP7382015B2/en
Application granted granted Critical
Publication of JP7137761B2 publication Critical patent/JP7137761B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a sensor system that can reduce a burden on introduction and perform comprehensive determination with a plurality of optical sensors.SOLUTION: A sensor system 1 comprises: a plurality of optical sensors 30 that receive light with which an object is irradiated to measure the state of the object; a learning data creation unit 12 that associates a plurality of pieces of received light data measured by the plurality of optical sensors 30 with data indicating the state of the object to create learning data; and a learning model creation unit 13 that, by machine learning using the learning data, creates a learned model for outputting the data indicating the state of the object, with the plurality of pieces of received light data measured by the plurality of optical sensors 30 as input.SELECTED DRAWING: Figure 1

Description

本発明は、センサシステムに関する。 The present invention relates to a sensor system.

従来、例えばファイバセンサ等の光センサを複数配置して、対象物の有無だけでなく、対象物の形状を測定することがある。 Conventionally, a plurality of optical sensors such as a fiber sensor may be arranged to measure not only the presence or absence of an object but also the shape of the object.

例えば、下記特許文献1には、検査対象物の画像を撮像する一以上の撮像手段、及び/又は検査対象物に対して光を投光するための一以上の投光手段を計3台以上備え、撮像手段で撮像された複数の画像に基づいて、各計測系の距離画像を複数生成し、生成された複数の距離画像を比較した結果に基づいて、正常な状態からの状態変化の度合いを判定する三次元画像処理装置が記載されている。 For example, in Patent Document 1 below, a total of three or more image pickup means for capturing an image of an inspection object and / or one or more light projection means for projecting light on an inspection object. In preparation, a plurality of distance images of each measurement system are generated based on a plurality of images captured by the imaging means, and the degree of state change from the normal state is based on the result of comparing the generated plurality of distance images. A three-dimensional image processing device for determining the above is described.

また、下記特許文献2には、果菜物の階級に略対応して複数配列された検知センサによる検知に基づいて、支持ローラ上に載置された果菜物の大きさを判定する判定装置が記載されている。 Further, Patent Document 2 below describes a determination device for determining the size of a fruit vegetable placed on a support roller based on detection by a plurality of detection sensors arranged substantially corresponding to the class of the fruit vegetable. Has been done.

特開2015−045587号公報Japanese Unexamined Patent Publication No. 2015-045587 特開2000−288480号公報Japanese Unexamined Patent Publication No. 2000-288480

複数の光センサによって一つの対象物を測定し、その測定結果を総合して判定を行う場合、複数の光センサの特性を理解した上で、複数の光センサを適切に配置する必要がある。 When one object is measured by a plurality of optical sensors and the measurement results are comprehensively determined, it is necessary to appropriately arrange the plurality of optical sensors after understanding the characteristics of the plurality of optical sensors.

ここで、複数の光センサによって対象物に関する総合判定を行うためには、測定環境や対象物の種類に応じて複数の光センサの配置を調整する必要が生じることがある。そのため、複数の光センサを含むセンサシステムを導入する負担が大きくなってしまうことがある。 Here, in order to make a comprehensive judgment on an object by a plurality of optical sensors, it may be necessary to adjust the arrangement of the plurality of optical sensors according to the measurement environment and the type of the object. Therefore, the burden of introducing a sensor system including a plurality of optical sensors may increase.

そこで、本発明は、導入負担を軽減して複数の光センサによる総合判定を行うことができるセンサシステムを提供する。 Therefore, the present invention provides a sensor system capable of reducing the introduction burden and performing comprehensive determination by a plurality of optical sensors.

本開示の一態様に係るセンサシステムは、対象物に照射した光を受光して対象物の状態を測定する複数の光センサと、複数の光センサにより測定された複数の受光データに対象物の状態を示すデータを関連付けて、学習データを生成する学習データ生成部と、学習データを用いた機械学習により、複数の光センサにより測定された複数の受光データを入力として、対象物の状態を示すデータを出力する学習済みモデルを生成する学習モデル生成部と、を備える。 The sensor system according to one aspect of the present disclosure includes a plurality of optical sensors that receive light radiated to the object and measure the state of the object, and a plurality of light receiving data measured by the plurality of optical sensors. The state of an object is shown by inputting a plurality of received light data measured by a plurality of optical sensors by a learning data generator that generates training data by associating data indicating a state and machine learning using the training data. It includes a training model generation unit that generates a trained model that outputs data.

この態様によれば、任意に配置した複数の光センサにより測定された複数の受光データと、対象物の状態を示すデータとを関連付けて学習データを生成し、複数の受光データから対象物の状態を識別する学習済みモデルを生成することで、測定環境や対象物の種類に応じて複数の光センサの配置を調整する負担が軽減され、導入負担を軽減して複数の光センサによる総合判定を行うことができる。 According to this aspect, learning data is generated by associating a plurality of received light data measured by a plurality of arbitrarily arranged optical sensors with data indicating the state of the object, and the state of the object is generated from the plurality of received data. By generating a trained model that identifies the data, the burden of adjusting the arrangement of multiple optical sensors according to the measurement environment and the type of object is reduced, and the burden of introduction is reduced to make a comprehensive judgment using multiple optical sensors. It can be carried out.

上記態様において、学習モデル生成部は、複数の光センサの配置に対応した学習済みモデルを生成してもよい。 In the above aspect, the learning model generation unit may generate a trained model corresponding to the arrangement of a plurality of optical sensors.

この態様によれば、複数の光センサの個別の配置に適した学習済みモデルが生成され、複数の光センサによって適切な総合判定を行うことができる。 According to this aspect, a trained model suitable for individual arrangement of a plurality of optical sensors is generated, and an appropriate comprehensive determination can be made by the plurality of optical sensors.

上記態様において、学習データ生成部は、複数の受光データに対象物の形状が正常か否かを示すデータを関連付けて、学習データを生成し、学習モデル生成部は、学習データを用いた機械学習により、複数の光センサにより測定された複数の受光データを入力として、対象物の形状が正常か否かを示すデータを出力する学習済みモデルを生成してもよい。 In the above aspect, the training data generation unit generates training data by associating a plurality of light receiving data with data indicating whether or not the shape of the object is normal, and the learning model generation unit performs machine learning using the training data. As a result, a trained model may be generated in which a plurality of received light data measured by a plurality of optical sensors are input and data indicating whether or not the shape of the object is normal is output.

この態様によれば、測定環境や対象物の種類に応じて複数の光センサの配置を調整する負担を軽減して、複数の光センサによって対象物の形状を総合判定することができる。 According to this aspect, the burden of adjusting the arrangement of the plurality of optical sensors according to the measurement environment and the type of the object can be reduced, and the shape of the object can be comprehensively determined by the plurality of optical sensors.

上記態様において、学習データ生成部は、複数の受光データに対象物の種類を示すデータを関連付けて、学習データを生成し、学習モデル生成部は、学習データを用いた機械学習により、複数の光センサにより測定された複数の受光データを入力として、対象物の種類を示すデータを出力する学習済みモデルを生成してもよい。 In the above embodiment, the training data generation unit generates training data by associating a plurality of light receiving data with data indicating the type of the object, and the learning model generation unit performs machine learning using the training data to generate a plurality of lights. A trained model may be generated in which a plurality of received data measured by the sensor is input and data indicating the type of the object is output.

この態様によれば、測定環境や対象物の種類に応じて複数の光センサの配置を調整する負担を軽減して、複数の光センサによって対象物の種類を総合判定することができる。 According to this aspect, the burden of adjusting the arrangement of the plurality of optical sensors according to the measurement environment and the type of the object can be reduced, and the type of the object can be comprehensively determined by the plurality of optical sensors.

上記態様において、学習済みモデルの出力に対する複数の受光データの貢献度を算出する貢献度算出部と、貢献度に基づいて、複数の光センサのうち除外可能な光センサを推薦する推薦部と、をさらに備えてもよい。 In the above aspect, a contribution calculation unit that calculates the contribution of a plurality of received light data to the output of the trained model, a recommendation unit that recommends an excluding optical sensor from the plurality of optical sensors based on the contribution, and a recommendation unit. May be further provided.

この態様によれば、総合判定の性能を保ちながら、複数の光センサの数を減らすことができる。 According to this aspect, the number of a plurality of optical sensors can be reduced while maintaining the performance of the comprehensive determination.

上記態様において、推薦部は、貢献度に基づいて、新たな光センサの追加を推薦してもよい。 In the above aspect, the recommendation unit may recommend the addition of a new optical sensor based on the degree of contribution.

この態様によれば、光センサの追加によってより適切に対象物を測定できるようにして、総合判定の性能を向上させることができる。 According to this aspect, the performance of the comprehensive determination can be improved by making it possible to measure the object more appropriately by adding the optical sensor.

上記態様において、推薦部は、複数の受光データの相関に基づいて、複数の光センサの配置変更を推薦してもよい。 In the above aspect, the recommendation unit may recommend the rearrangement of the plurality of optical sensors based on the correlation of the plurality of received light data.

この態様によれば、複数の光センサをより効率的に用いるように配置変更して、総合判定の性能を向上させることができる。 According to this aspect, the arrangement of the plurality of optical sensors can be changed so as to be used more efficiently, and the performance of the comprehensive determination can be improved.

本発明によれば、導入負担を軽減して複数の光センサによる総合判定を行うことができるセンサシステムを提供することができる。 According to the present invention, it is possible to provide a sensor system capable of performing comprehensive determination by a plurality of optical sensors while reducing the introduction burden.

本発明の実施形態に係るセンサシステムの概要を示す図である。It is a figure which shows the outline of the sensor system which concerns on embodiment of this invention. 本実施形態に係るセンサシステムの機能ブロックを示す図である。It is a figure which shows the functional block of the sensor system which concerns on this embodiment. 本実施形態に係るセンサシステムの物理的構成を示す図である。It is a figure which shows the physical structure of the sensor system which concerns on this embodiment. 本実施形態に係るセンサシステムにより実行される学習済みモデル生成処理のフローチャートである。It is a flowchart of the trained model generation processing executed by the sensor system which concerns on this embodiment. 本実施形態に係るセンサシステムにより実行される推薦処理のフローチャートである。It is a flowchart of the recommendation process executed by the sensor system which concerns on this embodiment. 本実施形態の変形例に係るセンサシステムの概要を示す図である。It is a figure which shows the outline of the sensor system which concerns on the modification of this embodiment. 本実施形態の変形例に係るセンサシステムの機能ブロックを示す図である。It is a figure which shows the functional block of the sensor system which concerns on the modification of this embodiment.

添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Embodiments of the present invention will be described with reference to the accompanying drawings. In each figure, those having the same reference numerals have the same or similar configurations.

図1は、本発明の実施形態に係るセンサシステム1の概要を示す図である。センサシステム1は、マスタユニット10、第1スレーブユニット20a、第2スレーブユニット20b、第3スレーブユニット20c、第1光センサ30a、第2光センサ30b、第3光センサ30c及びPLC40を備える。ここで、第1光センサ30a、第2光センサ30b及び第3光センサ30cは、ラインLに配置され、ラインL上を搬送される対象物に照射した光を受光して、対象物の状態を測定する。第1光センサ30a、第2光センサ30b及び第3光センサ30cは、例えばファイバセンサであってよい。また、対象物は、例えば製品を構成する部品であってよい。なお、対象物は、必ずしもラインL上を搬送されるものでなくてもよく、例えば所定の経路を落下する錠剤であってもよい。 FIG. 1 is a diagram showing an outline of a sensor system 1 according to an embodiment of the present invention. The sensor system 1 includes a master unit 10, a first slave unit 20a, a second slave unit 20b, a third slave unit 20c, a first optical sensor 30a, a second optical sensor 30b, a third optical sensor 30c, and a PLC 40. Here, the first optical sensor 30a, the second optical sensor 30b, and the third optical sensor 30c are arranged on the line L, receive the light irradiating the object transported on the line L, and receive the state of the object. To measure. The first optical sensor 30a, the second optical sensor 30b, and the third optical sensor 30c may be, for example, a fiber sensor. Further, the object may be, for example, a component constituting the product. The object does not necessarily have to be transported on the line L, and may be, for example, a tablet that falls on a predetermined path.

第1スレーブユニット20a、第2スレーブユニット20b及び第3スレーブユニット20cは、複数の光センサそれぞれに接続され、複数の光センサにより測定されるデータを取得する。より具体的には、第1スレーブユニット20aは第1光センサ30aに接続され、第2スレーブユニット20bは第2光センサ30bに接続され、第3スレーブユニット20cは第3光センサ30cに接続されている。PLC40は、制御装置に相当する。そして、マスタユニット10は、複数のスレーブユニット及びPLC40と接続され、複数のスレーブユニットからデータを収集して、そのデータを表示部16に表示したり、PLC40に送信したりする。本明細書では、第1スレーブユニット20a、第2スレーブユニット20b、第3スレーブユニット20cをスレーブユニット20と総称し、第1光センサ30a、第2光センサ30b、第3光センサ30cを光センサ30と総称する。 The first slave unit 20a, the second slave unit 20b, and the third slave unit 20c are connected to each of the plurality of optical sensors, and acquire data measured by the plurality of optical sensors. More specifically, the first slave unit 20a is connected to the first optical sensor 30a, the second slave unit 20b is connected to the second optical sensor 30b, and the third slave unit 20c is connected to the third optical sensor 30c. ing. The PLC 40 corresponds to a control device. Then, the master unit 10 is connected to a plurality of slave units and the PLC 40, collects data from the plurality of slave units, displays the data on the display unit 16, and transmits the data to the PLC 40. In the present specification, the first slave unit 20a, the second slave unit 20b, and the third slave unit 20c are collectively referred to as the slave unit 20, and the first optical sensor 30a, the second optical sensor 30b, and the third optical sensor 30c are optical sensors. Collectively referred to as 30.

なお、本実施形態に係るセンサシステム1の構成は一例であり、センサシステム1が備える複数の光センサの数、複数のスレーブユニットの数は任意である。また、制御装置は、必ずしもPLC40でなくてもよい。 The configuration of the sensor system 1 according to the present embodiment is an example, and the number of a plurality of optical sensors and the number of a plurality of slave units included in the sensor system 1 are arbitrary. Further, the control device does not necessarily have to be PLC40.

マスタユニット10は、LAN(Local Area Network)等の通信ネットワークを介してPLC40に接続されてよい。スレーブユニット20は、マスタユニット10に物理的かつ電気的に接続される。本実施形態において、マスタユニット10は、スレーブユニット20から受信した情報を記憶部に記憶し、記憶された情報をPLC40に送信する。従って、スレーブユニット20により取得されたデータは、マスタユニット10によって一元化されてPLC40に伝送される。 The master unit 10 may be connected to the PLC 40 via a communication network such as a LAN (Local Area Network). The slave unit 20 is physically and electrically connected to the master unit 10. In the present embodiment, the master unit 10 stores the information received from the slave unit 20 in the storage unit, and transmits the stored information to the PLC 40. Therefore, the data acquired by the slave unit 20 is unified by the master unit 10 and transmitted to the PLC 40.

一例として、スレーブユニット20からマスタユニット10には、判定信号及び検出情報が伝送される。判定信号とは、光センサ30により測定されたデータに基づき、スレーブユニット20によって判定された、ワークに関する判定結果を示す信号である。判定信号は、例えば、光センサ30により測定された受光量と、所定の閾値とをスレーブユニット20によって比較して得られるオン信号又はオフ信号であってよい。検出情報は、スレーブユニット20の検出動作によって得られる検出値である。検出動作は、例えば、投光及び受光の動作であり、検出情報は、受光量であってよい。本明細書では、判定信号及び検出情報を含む、スレーブユニット20から取得されるデータを受光データと総称する。 As an example, a determination signal and detection information are transmitted from the slave unit 20 to the master unit 10. The determination signal is a signal indicating a determination result regarding the work, which is determined by the slave unit 20 based on the data measured by the optical sensor 30. The determination signal may be, for example, an on signal or an off signal obtained by comparing the received light amount measured by the optical sensor 30 with a predetermined threshold value by the slave unit 20. The detection information is a detection value obtained by the detection operation of the slave unit 20. The detection operation is, for example, the operation of projecting light and receiving light, and the detection information may be the amount of light received. In the present specification, the data acquired from the slave unit 20 including the determination signal and the detection information are collectively referred to as light receiving data.

スレーブユニット20は、マスタユニット10の側面に取り付けられてよい。マスタユニット10とスレーブユニット20との通信には、パラレル通信又はシリアル通信が用いられてよい。すなわち、マスタユニット10と、スレーブユニット20とがシリアル伝送路及びパラレル伝送路で物理的に接続されてよい。例えば、パラレル伝送路上でスレーブユニット20からマスタユニット10に判定信号が送信され、シリアル伝送路上で、スレーブユニット20からマスタユニット10に検出情報が送信されてよい。なお、マスタユニット10とスレーブユニット20とを、シリアル伝送路及びパラレル伝送路のうちのいずれか一方で接続してもよい。 The slave unit 20 may be attached to the side surface of the master unit 10. Parallel communication or serial communication may be used for communication between the master unit 10 and the slave unit 20. That is, the master unit 10 and the slave unit 20 may be physically connected by a serial transmission line and a parallel transmission line. For example, a determination signal may be transmitted from the slave unit 20 to the master unit 10 on the parallel transmission line, and detection information may be transmitted from the slave unit 20 to the master unit 10 on the serial transmission line. The master unit 10 and the slave unit 20 may be connected to either a serial transmission line or a parallel transmission line.

図2は、本実施形態に係るマスタユニット10の機能ブロックを示す図である。マスタユニット10は、記憶部11、学習データ生成部12、学習モデル生成部13、貢献度算出部14、推薦部15、表示部16及び通信部17を備える。 FIG. 2 is a diagram showing a functional block of the master unit 10 according to the present embodiment. The master unit 10 includes a storage unit 11, a learning data generation unit 12, a learning model generation unit 13, a contribution calculation unit 14, a recommendation unit 15, a display unit 16, and a communication unit 17.

記憶部11は、受光データ11a、学習データ11b及び学習済みモデル11cを記憶している。受光データ11aは、複数の光センサ30により測定された受光量(検出情報)と、複数のスレーブユニット20により生成された判定信号を含んでよい。学習データ11b及び学習済みモデル11cについては、次に説明する。 The storage unit 11 stores the light receiving data 11a, the learning data 11b, and the learned model 11c. The light receiving data 11a may include the light receiving amount (detection information) measured by the plurality of optical sensors 30 and the determination signal generated by the plurality of slave units 20. The training data 11b and the trained model 11c will be described below.

記憶部11は、複数のスレーブユニット20から取得したデータを記憶してよい。マスタユニット10は、パラレル伝送路によってスレーブユニット20から対象物の通過状況を示す判定信号を取得したり、シリアル伝送路によってスレーブユニット20から複数の光センサ30により測定された検出情報を取得したりしてよい。 The storage unit 11 may store data acquired from the plurality of slave units 20. The master unit 10 acquires a determination signal indicating the passage status of an object from the slave unit 20 by a parallel transmission line, and acquires detection information measured by a plurality of optical sensors 30 from the slave unit 20 by a serial transmission line. You can do it.

学習データ生成部12は、複数の光センサ30により測定された複数の受光データ11aに対象物の状態を示すデータを関連付けて、学習データを生成する。学習データ生成部12は、例えば、複数の受光データ11aに対象物の形状が正常か否かを示すデータを関連付けて、学習データを生成してよい。また、学習データ生成部12は、複数の受光データ11aに対象物の種類を示すデータを関連付けて、学習データを生成してもよい。 The learning data generation unit 12 generates learning data by associating the plurality of light receiving data 11a measured by the plurality of optical sensors 30 with data indicating the state of the object. The learning data generation unit 12 may generate learning data by associating a plurality of light receiving data 11a with data indicating whether or not the shape of the object is normal. Further, the learning data generation unit 12 may generate learning data by associating a plurality of light receiving data 11a with data indicating the type of the object.

学習モデル生成部13は、学習データ11bを用いた機械学習により、複数の光センサ30により測定された複数の受光データ11aを入力として、対象物の状態を示すデータを出力する学習済みモデル11cを生成する。学習モデル生成部13は、例えば、複数の隠れ層を含むニューラルネットワークの重みを誤差逆伝播法により所定の損失関数について最適化することで、学習済みモデル11cを生成してよい。 The learning model generation unit 13 inputs a plurality of light receiving data 11a measured by the plurality of optical sensors 30 by machine learning using the learning data 11b, and outputs a trained model 11c that outputs data indicating the state of the object. Generate. The learning model generation unit 13 may generate the trained model 11c by, for example, optimizing the weight of the neural network including the plurality of hidden layers for a predetermined loss function by the backpropagation method.

このように、任意に配置した複数の光センサ30により測定された複数の受光データ11aと、対象物の状態を示すデータとを関連付けて学習データ11bを生成し、複数の受光データ11aから対象物の状態を識別する学習済みモデル11cを生成することで、測定環境や対象物の種類に応じて複数の光センサ30の配置を調整する負担が軽減され、導入負担を軽減して複数の光センサ30による総合判定を行うことができる。 In this way, the learning data 11b is generated by associating the plurality of light receiving data 11a measured by the plurality of arbitrarily arranged optical sensors 30 with the data indicating the state of the object, and the object is generated from the plurality of light receiving data 11a. By generating the trained model 11c that identifies the state of, the burden of adjusting the arrangement of the plurality of optical sensors 30 according to the measurement environment and the type of the object is reduced, the burden of introduction is reduced, and the plurality of optical sensors are reduced. A comprehensive judgment according to 30 can be made.

学習モデル生成部13は、複数の光センサ30の配置に対応した学習済みモデル11cを生成してよい。例えば、光センサ30を3台配置して一つの対象物の状態を識別する場合、学習モデル生成部13は、3台の光センサ30の特定の配置に対して一つの学習済みモデル11cを生成してよい。このようにして、複数の光センサ30の個別の配置に適した学習済みモデル11cが生成され、複数の光センサ30によって適切な総合判定を行うことができる。 The learning model generation unit 13 may generate a learned model 11c corresponding to the arrangement of the plurality of optical sensors 30. For example, when three optical sensors 30 are arranged to identify the state of one object, the learning model generation unit 13 generates one learned model 11c for a specific arrangement of the three optical sensors 30. You can do it. In this way, the trained model 11c suitable for the individual arrangement of the plurality of optical sensors 30 is generated, and an appropriate comprehensive determination can be made by the plurality of optical sensors 30.

学習モデル生成部13は、学習データ11bを用いた機械学習により、複数の光センサ30により測定された複数の受光データ11aを入力として、対象物の形状が正常か否かを示すデータを出力する学習済みモデル11cを生成してもよい。光センサ30は、単体では対象物の有無を判定することができるだけだが、複数の光センサ30を配置して、様々な方向から一つの対象物を測定することで、対象物の形状を判定することができる。本実施形態に係るセンサシステム1によれば、測定環境や対象物の種類に応じて複数の光センサ30の配置を調整する負担を軽減して、複数の光センサ30によって対象物の形状を総合判定することができる。 The learning model generation unit 13 inputs a plurality of light receiving data 11a measured by the plurality of optical sensors 30 by machine learning using the learning data 11b, and outputs data indicating whether or not the shape of the object is normal. The trained model 11c may be generated. The optical sensor 30 can determine the presence or absence of an object by itself, but the shape of the object is determined by arranging a plurality of optical sensors 30 and measuring one object from various directions. be able to. According to the sensor system 1 according to the present embodiment, the burden of adjusting the arrangement of the plurality of optical sensors 30 according to the measurement environment and the type of the object is reduced, and the shapes of the objects are integrated by the plurality of optical sensors 30. Can be determined.

学習モデル生成部13は、学習データ11bを用いた機械学習により、複数の光センサ30により測定された複数の受光データ11aを入力として、対象物の種類を示すデータを出力する学習済みモデル11cを生成してもよい。光センサ30は、単体では対象物の有無を判定することができるだけだが、複数の光センサ30を配置して、様々な方向から一つの対象物を測定することで、対象物の種類を判定することができる。本実施形態に係るセンサシステム1によれば、測定環境や対象物の種類に応じて複数の光センサ30の配置を調整する負担を軽減して、複数の光センサ30によって対象物の種類を総合判定することができる。 The learning model generation unit 13 inputs a plurality of light receiving data 11a measured by a plurality of optical sensors 30 by machine learning using the learning data 11b, and outputs a trained model 11c that outputs data indicating the type of the object. It may be generated. The optical sensor 30 can determine the presence or absence of an object by itself, but it determines the type of the object by arranging a plurality of optical sensors 30 and measuring one object from various directions. be able to. According to the sensor system 1 according to the present embodiment, the burden of adjusting the arrangement of the plurality of optical sensors 30 according to the measurement environment and the type of the object is reduced, and the types of the objects are integrated by the plurality of optical sensors 30. Can be determined.

貢献度算出部14は、学習済みモデル11cの出力に対する複数の受光データ11aの貢献度を算出する。本実施形態の場合、貢献度算出部14は、学習済みモデル11cの出力に対する第1光センサ30aにより測定された受光データの貢献度と、学習済みモデル11cの出力に対する第2光センサ30bにより測定された受光データの貢献度と、学習済みモデル11cの出力に対する第3光センサ30cにより測定された受光データの貢献度と、を算出してよい。 The contribution calculation unit 14 calculates the contribution of the plurality of light receiving data 11a to the output of the trained model 11c. In the case of the present embodiment, the contribution calculation unit 14 measures the contribution of the received light data measured by the first optical sensor 30a to the output of the trained model 11c and the second optical sensor 30b to the output of the trained model 11c. The degree of contribution of the received light received data and the degree of contribution of the received light data measured by the third optical sensor 30c to the output of the trained model 11c may be calculated.

推薦部15は、貢献度に基づいて、複数の光センサ30のうち除外可能な光センサ30を推薦する。推薦部15は、例えば、第1光センサ30aにより測定された受光データの貢献度と、第2光センサ30bにより測定された受光データの貢献度と、第3光センサ30cにより測定された受光データの貢献度と、をそれぞれ閾値と比較して、閾値以下の貢献度が算出されている光センサ30を除外可能と判定してよい。推薦部15は、除外可能な光センサ30を特定する情報を表示部16に表示したり、外部機器に出力したりしてよい。このようにして、総合判定の性能を保ちながら、複数の光センサ30の数を減らすことができる。例えば、テスト段階では、光センサ30をN台配置して一つの対象物の状態を示す複数の受光データを測定し(Nは0より大きい自然数)、推薦部15による推薦に従って光センサ30を間引いていき、判定精度を所定値以上としつつ、光センサ30の台数がM台となるように(Mは、0<M<Nを満たす自然数)、光センサ30の台数を減らすことができる。 The recommendation unit 15 recommends an optical sensor 30 that can be excluded from the plurality of optical sensors 30 based on the degree of contribution. The recommendation unit 15 is, for example, the contribution degree of the received light data measured by the first optical sensor 30a, the contribution degree of the received light data measured by the second optical sensor 30b, and the received light data measured by the third optical sensor 30c. The degree of contribution of is compared with the threshold value, and it may be determined that the optical sensor 30 for which the degree of contribution below the threshold value is calculated can be excluded. The recommendation unit 15 may display information identifying the excludeable optical sensor 30 on the display unit 16 or output it to an external device. In this way, the number of the plurality of optical sensors 30 can be reduced while maintaining the performance of the comprehensive determination. For example, in the test stage, N optical sensors 30 are arranged to measure a plurality of light receiving data indicating the state of one object (N is a natural number larger than 0), and the optical sensors 30 are thinned out according to the recommendation by the recommendation unit 15. The number of optical sensors 30 can be reduced so that the number of optical sensors 30 is M (M is a natural number satisfying 0 <M <N) while keeping the determination accuracy at least a predetermined value.

推薦部15は、貢献度に基づいて、新たな光センサの追加を推薦してもよい。推薦部15は、例えば、第1光センサ30aにより測定された受光データの貢献度と、第2光センサ30bにより測定された受光データの貢献度と、第3光センサ30cにより測定された受光データの貢献度と、をそれぞれ閾値と比較して、いずれの貢献度も閾値以下である場合に、新たな光センサ30の追加を推薦することとしてよい。推薦部15は、新たな光センサを追加する推薦を表示部16に表示したり、外部機器に出力したりしてよい。この場合、推薦部15は、新たな光センサ30の配置を推薦してもよい。このようにして、光センサ30の追加によってより適切に対象物を測定できるようにして、総合判定の性能を向上させることができる。例えば、テスト段階では、光センサ30をK台配置して一つの対象物の状態を示す複数の受光データを測定し(Kは0より大きい自然数)、推薦部15による推薦に従って光センサ30を追加していき、判定精度を所定値以上とし、光センサ30の台数をL台として(Lは、0<K<Lを満たす自然数)、総合判定の性能を向上させることができる。 The recommendation unit 15 may recommend the addition of a new optical sensor based on the degree of contribution. The recommendation unit 15 is, for example, the contribution degree of the received light data measured by the first optical sensor 30a, the contribution degree of the received light data measured by the second optical sensor 30b, and the received light data measured by the third optical sensor 30c. It may be recommended to add a new optical sensor 30 when the contributions of the above are compared with the thresholds and both contributions are equal to or less than the thresholds. The recommendation unit 15 may display a recommendation for adding a new optical sensor on the display unit 16 or output it to an external device. In this case, the recommendation unit 15 may recommend the arrangement of a new optical sensor 30. In this way, the addition of the optical sensor 30 makes it possible to measure the object more appropriately, and the performance of the comprehensive determination can be improved. For example, in the test stage, K units of optical sensors 30 are arranged to measure a plurality of light receiving data indicating the state of one object (K is a natural number larger than 0), and the optical sensors 30 are added according to the recommendation by the recommendation unit 15. By doing so, the determination accuracy is set to a predetermined value or more, the number of optical sensors 30 is set to L units (L is a natural number satisfying 0 <K <L), and the performance of comprehensive determination can be improved.

推薦部15は、複数の受光データ11aの相関に基づいて、複数の光センサ30の配置変更を推薦してもよい。推薦部15は、第1光センサ30aにより測定された受光データと、第2光センサ30bにより測定された受光データと、第3光センサ30cにより測定された受光データと、の間の3通りの相関を算出して、相関が高い光センサ30を異なる配置にするように配置変更を推薦してよい。ここで、推薦部15は、配置変更を推薦する光センサ30を示すだけでもよいし、配置の候補を推薦してもよい。このようにして、複数の光センサ30をより効率的に用いるように配置変更して、総合判定の性能を向上させることができる。 The recommendation unit 15 may recommend changing the arrangement of the plurality of optical sensors 30 based on the correlation of the plurality of light receiving data 11a. The recommendation unit 15 has three types of light receiving data between the light receiving data measured by the first optical sensor 30a, the light receiving data measured by the second optical sensor 30b, and the light receiving data measured by the third optical sensor 30c. The correlation may be calculated and the arrangement may be changed so that the highly correlated optical sensors 30 are arranged differently. Here, the recommendation unit 15 may only indicate the optical sensor 30 that recommends the arrangement change, or may recommend the arrangement candidate. In this way, the arrangement of the plurality of optical sensors 30 can be changed so as to be used more efficiently, and the performance of the comprehensive determination can be improved.

表示部16は、学習済みモデル11cの出力を表示したり、推薦部15による推薦内容を表示したりする。表示部16は、例えば対象物に関する異常の有無を示す2値のランプを含んでよい。また、表示部16は、学習済みモデル11cの出力や推薦部15による推薦内容を詳細に表示する液晶表示装置であってもよい。 The display unit 16 displays the output of the trained model 11c and displays the content recommended by the recommendation unit 15. The display unit 16 may include, for example, a binary lamp indicating the presence or absence of an abnormality related to the object. Further, the display unit 16 may be a liquid crystal display device that displays in detail the output of the learned model 11c and the content recommended by the recommendation unit 15.

通信部17は、PLC40との通信を行うインターフェースである。通信部17は、PLC40以外の外部機器との通信を行うものであってもよい。 The communication unit 17 is an interface for communicating with the PLC 40. The communication unit 17 may communicate with an external device other than the PLC 40.

図3は、本実施形態に係るセンサシステム1の物理的構成を示す図である。マスタユニット10は、PLC40との接続に用いられる入力/出力コネクタ101,102と、スレーブユニット20との接続に用いられる接続コネクタ106と、電源入力コネクタとを備える。 FIG. 3 is a diagram showing a physical configuration of the sensor system 1 according to the present embodiment. The master unit 10 includes input / output connectors 101 and 102 used for connection with the PLC 40, a connection connector 106 used for connection with the slave unit 20, and a power input connector.

また、マスタユニット10は、MPU(Micro Processing Unit)110、通信ASIC(Application Specific Integrated Circuit)112、パラレル通信回路116、シリアル通信回路118及び電源回路を備える。 Further, the master unit 10 includes an MPU (Micro Processing Unit) 110, a communication ASIC (Application Specific Integrated Circuit) 112, a parallel communication circuit 116, a serial communication circuit 118, and a power supply circuit.

MPU110は、マスタユニット10における全ての処理を統括して実行するように動作する。通信ASIC112は、PLC40との通信を管理する。パラレル通信回路116は、マスタユニット10とスレーブユニット20との間でのパラレル通信に用いられる。同様に、シリアル通信回路118は、マスタユニット10とスレーブユニット20との間でのシリアル通信に用いられる。 The MPU 110 operates so as to collectively execute all the processes in the master unit 10. Communication ASIC 112 manages communication with PLC 40. The parallel communication circuit 116 is used for parallel communication between the master unit 10 and the slave unit 20. Similarly, the serial communication circuit 118 is used for serial communication between the master unit 10 and the slave unit 20.

スレーブユニット20は、両側壁部分に、マスタユニット10又は他のスレーブユニット20との接続コネクタ304,306が設けられている。スレーブユニット20は、マスタユニット10に対して一列に複数接続することが可能である。複数のスレーブユニット20からの信号は、隣り合うスレーブユニット20に伝送され、マスタユニット10に伝送される。 The slave unit 20 is provided with connector 304, 306 for connecting to the master unit 10 or another slave unit 20 on both side wall portions. A plurality of slave units 20 can be connected to the master unit 10 in a row. The signals from the plurality of slave units 20 are transmitted to the adjacent slave units 20 and transmitted to the master unit 10.

スレーブユニット20の両側面には、赤外線による光通信用の窓が設けられ、接続コネクタ304,306を利用して複数のスレーブユニット20を一つずつ連結して一列に配置すると、互いに対向する光通信用の窓により、隣り合うスレーブユニット20間で赤外線を利用した双方向光通信が可能となる。 Windows for optical communication by infrared rays are provided on both side surfaces of the slave unit 20, and when a plurality of slave units 20 are connected one by one using the connector 304 and 306 and arranged in a row, the light facing each other The communication window enables bidirectional optical communication using infrared rays between adjacent slave units 20.

スレーブユニット20は、CPU(Central Processing Unit)400によって実現される各種の処理機能と、専用の回路によって実現される各種の処理機能とを有する。 The slave unit 20 has various processing functions realized by a CPU (Central Processing Unit) 400 and various processing functions realized by a dedicated circuit.

CPU400は、投光制御部403を制御し、発光素子(LED)401から赤外線を放出させる。受光素子(PD)402が受光することによって生じた信号は、増幅回路404を介して増幅された後、A/Dコンバータ405を介してデジタル信号に変換されて、CPU400に取り込まれる。CPU400では、受光データ、すなわち受光量をそのまま検出情報としてマスタユニット10に向けて送信する。また、CPU400では、受光量が予め設定された閾値よりも大きいか否かを判定することによって得られるオン信号又はオフ信号を、判定信号としてマスタユニット10に向けて送信する。 The CPU 400 controls the light projection control unit 403 to emit infrared rays from the light emitting element (LED) 401. The signal generated by receiving light from the light receiving element (PD) 402 is amplified via the amplifier circuit 404, converted into a digital signal via the A / D converter 405, and incorporated into the CPU 400. The CPU 400 transmits the received light data, that is, the received light amount as it is as detection information toward the master unit 10. Further, the CPU 400 transmits an on signal or an off signal obtained by determining whether or not the received light amount is larger than a preset threshold value toward the master unit 10 as a determination signal.

さらにCPU400は、左右の投光回路411,413を制御することにより、左右の通信用発光素子(LED)407,409から隣接するスレーブユニット20に対して赤外線を放出する。隣接する左右のスレーブユニット20から到来する赤外線は左右の受光素子(PD)406,408で受光された後、受光回路410,412を介しCPU400へと到来する。CPU400では、所定のプロトコルに基づいて、送受信信号を制御することにより、左右の隣接するスレーブユニット20との間で光通信を行なう。 Further, the CPU 400 emits infrared rays from the left and right communication light emitting elements (LEDs) 407 and 409 to the adjacent slave unit 20 by controlling the left and right floodlight circuits 411 and 413. Infrared rays arriving from the adjacent left and right slave units 20 are received by the left and right light receiving elements (PD) 406 and 408, and then reach the CPU 400 via the light receiving circuits 410 and 412. The CPU 400 controls the transmission / reception signals based on a predetermined protocol to perform optical communication with the left and right adjacent slave units 20.

受光素子406、通信用発光素子409、受光回路410、投光回路413は、スレーブユニット20間の相互干渉を防止するための同期信号を送受信するために利用される。具体的には、各スレーブユニット20において、受光回路410と投光回路413とは直接結線される。この構成により、受信した同期信号が、CPU400による遅延処理が施されずに速やかに投光回路413を経て通信用発光素子409から隣接する別のスレーブユニット20に送信される。 The light receiving element 406, the light emitting element 409 for communication, the light receiving circuit 410, and the light emitting circuit 413 are used to transmit and receive a synchronization signal for preventing mutual interference between the slave units 20. Specifically, in each slave unit 20, the light receiving circuit 410 and the light emitting circuit 413 are directly connected. With this configuration, the received synchronization signal is quickly transmitted from the communication light emitting element 409 to another adjacent slave unit 20 via the floodlight circuit 413 without being delayed by the CPU 400.

CPU400は、さらに、表示部414を点灯制御する。また、CPU400は、設定スイッチ415からの信号を処理する。CPU400の動作に必要な各種のデータは、EEPROM(Electrically Erasable Programmable Read Only Memory)416等の記録媒体に記憶される。リセット部417から得られた信号は、CPU400へと送られ、計測制御のリセットが行われる。発振器(OSC)418からCPU400には、基準クロックが入力される。 The CPU 400 further controls the lighting of the display unit 414. Further, the CPU 400 processes the signal from the setting switch 415. Various data necessary for the operation of the CPU 400 are stored in a recording medium such as an EEPROM (Electrically Erasable Programmable Read Only Memory) 416. The signal obtained from the reset unit 417 is sent to the CPU 400 to reset the measurement control. A reference clock is input to the oscillator (OSC) 418 to the CPU 400.

出力回路419は、受光量を閾値と比較して得られた判定信号の送信処理を行なう。前述したように、本実施の形態において、判定信号はパラレル通信によってマスタユニット10に向けて送信される。 The output circuit 419 performs a transmission process of the determination signal obtained by comparing the received light amount with the threshold value. As described above, in the present embodiment, the determination signal is transmitted to the master unit 10 by parallel communication.

パラレル通信用の伝送路は、マスタユニット10と各スレーブユニット20とが個別に接続された伝送路である。すなわち、複数のスレーブユニット20は、それぞれ、別々のパラレル通信線によって、マスタユニット10に接続される。ただし、マスタユニット10に隣接するスレーブユニット20以外のスレーブユニット20と、マスタユニット10とを接続するパラレル通信線は、他のスレーブユニット20を通過し得る。 The transmission line for parallel communication is a transmission line in which the master unit 10 and each slave unit 20 are individually connected. That is, the plurality of slave units 20 are connected to the master unit 10 by separate parallel communication lines. However, the parallel communication line connecting the master unit 10 and the slave unit 20 other than the slave unit 20 adjacent to the master unit 10 may pass through the other slave unit 20.

シリアル通信ドライバ420は、マスタユニット10から送信されたコマンド等の受信処理、検出情報(受光量)の送信処理を行なう。本実施形態においては、シリアル通信にRS−422プロトコルが用いられる。シリアル通信にRS−485プロトコルを利用してもよい。 The serial communication driver 420 performs reception processing of commands and the like transmitted from the master unit 10 and transmission processing of detection information (light reception amount). In this embodiment, the RS-422 protocol is used for serial communication. The RS-485 protocol may be used for serial communication.

シリアル通信用の伝送路は、マスタユニット10及び全てのスレーブユニット20が接続された伝送路である。すなわち、全てのスレーブユニット20は、マスタユニット10に対して、シリアル通信線によってバス形式で信号伝達可能に接続される。 The transmission line for serial communication is a transmission line to which the master unit 10 and all slave units 20 are connected. That is, all slave units 20 are connected to the master unit 10 by a serial communication line so as to be able to transmit signals in a bus format.

図4は、本実施形態に係るセンサシステム1により実行される学習済みモデル生成処理のフローチャートである。はじめに、センサシステム1に含まれる複数のスレーブユニット20は、複数の光センサ30の受光データを取得する(S10)。その後、受光データは、マスタユニット10に集約される。 FIG. 4 is a flowchart of the trained model generation process executed by the sensor system 1 according to the present embodiment. First, the plurality of slave units 20 included in the sensor system 1 acquire the light receiving data of the plurality of optical sensors 30 (S10). After that, the received light data is collected in the master unit 10.

マスタユニット10は、受光データに対象物の形状が正常か否かを示すデータ及び対象物の種類を示すデータを関連付けて、学習データを生成する(S11)。十分な量の学習データが蓄積された後、マスタユニット10は、学習データを用いた機械学習により、複数の光センサ30の配置に対応した学習済みモデルを生成する(S12)。 The master unit 10 generates learning data by associating the received light data with data indicating whether or not the shape of the object is normal and data indicating the type of the object (S11). After a sufficient amount of training data is accumulated, the master unit 10 generates a trained model corresponding to the arrangement of the plurality of optical sensors 30 by machine learning using the training data (S12).

その後、マスタユニット10は、複数の光センサ30により測定される受光データを学習済みモデルに入力し、対象物の形状が正常か否かを判定したり、対象物の種類を判定したりしてよい。以上により、学習済みモデル生成処理が終了する。 After that, the master unit 10 inputs the received light data measured by the plurality of optical sensors 30 into the trained model, determines whether or not the shape of the object is normal, and determines the type of the object. Good. As a result, the trained model generation process is completed.

図5は、本実施形態に係るセンサシステム1により実行される推薦処理のフローチャートである。はじめに、センサシステム1に含まれるマスタユニット10は、学習済みモデルの出力に対する複数の受光データの貢献度を算出する(S20)。 FIG. 5 is a flowchart of the recommendation process executed by the sensor system 1 according to the present embodiment. First, the master unit 10 included in the sensor system 1 calculates the contribution of a plurality of received light data to the output of the trained model (S20).

その後、光センサ30を減らす場合(S21:YES)、マスタユニット10は、貢献度に基づいて、複数の光センサ30のうち除外可能な光センサ30を推薦する(S22)。一方、光センサ30を減らさず(S21:NO)、追加する場合、マスタユニット10は、貢献度に基づいて、新たな光センサ30の追加を推薦する(S23)。光センサ30を減らすか追加するかは、ユーザにより指定されてよいが、学習済みモデルの判定精度に基づいてマスタユニット10により判定してもよい。 After that, when the number of optical sensors 30 is reduced (S21: YES), the master unit 10 recommends the optical sensors 30 that can be excluded from the plurality of optical sensors 30 based on the degree of contribution (S22). On the other hand, when adding the optical sensor 30 without reducing it (S21: NO), the master unit 10 recommends adding a new optical sensor 30 based on the degree of contribution (S23). Whether to reduce or add the optical sensor 30 may be specified by the user, but may be determined by the master unit 10 based on the determination accuracy of the trained model.

その後、マスタユニット10は、必要に応じて、複数の受光データの相関に基づいて、複数の光センサ30の配置変更を推薦する(S24)。以上により、推薦処理が終了する。 After that, the master unit 10 recommends the rearrangement of the plurality of optical sensors 30 based on the correlation of the plurality of received light data, if necessary (S24). This completes the recommendation process.

図6は、本実施形態の変形例に係るセンサシステム1Aの概要を示す図である。変形例に係るセンサシステム1Aは、マスタユニット10Aが表示部を備えておらず、コンピュータ50に接続されている点で、本実施形態に係るセンサシステム1と相違する。その他の構成について、変形例に係るセンサシステム1Aは、本実施形態に係るセンサシステム1と同様の構成を有する。 FIG. 6 is a diagram showing an outline of the sensor system 1A according to the modified example of the present embodiment. The sensor system 1A according to the modified example is different from the sensor system 1 according to the present embodiment in that the master unit 10A does not have a display unit and is connected to the computer 50. Regarding other configurations, the sensor system 1A according to the modified example has the same configuration as the sensor system 1 according to the present embodiment.

図7は、本実施形態の変形例に係るセンサシステム1Aの機能ブロックを示す図である。変形例に係るマスタユニット10Aは、記憶部11及び通信部17を備えるが、学習データ生成部12、学習モデル生成部13、貢献度算出部14、推薦部15及び表示部16を備えない点で、本実施形態に係るマスタユニット10と相違する。 FIG. 7 is a diagram showing a functional block of the sensor system 1A according to a modified example of the present embodiment. The master unit 10A according to the modified example includes a storage unit 11 and a communication unit 17, but does not include a learning data generation unit 12, a learning model generation unit 13, a contribution calculation unit 14, a recommendation unit 15, and a display unit 16. , Different from the master unit 10 according to this embodiment.

変形例に係るマスタユニット10Aは、記憶部11に受光データ11a及び学習済みモデル11cを記憶する。マスタユニット10Aは、複数のスレーブユニット20から受光データ11aを収集し、記憶部11に記憶するとともに、通信部17を介してコンピュータ50に転送する。また、マスタユニット10Aは、学習済みモデル11cをコンピュータ50から受信して、記憶部11に記憶する。マスタユニット10Aは、学習済みモデル11cを用いて対象物の状態を判定する。 The master unit 10A according to the modified example stores the received light data 11a and the learned model 11c in the storage unit 11. The master unit 10A collects the received light data 11a from the plurality of slave units 20, stores it in the storage unit 11, and transfers it to the computer 50 via the communication unit 17. Further, the master unit 10A receives the trained model 11c from the computer 50 and stores it in the storage unit 11. The master unit 10A determines the state of the object using the trained model 11c.

コンピュータ50は、通信部51、記憶部52、学習データ生成部53、学習モデル生成部54、貢献度算出部55、推薦部56及び表示部57を備える。 The computer 50 includes a communication unit 51, a storage unit 52, a learning data generation unit 53, a learning model generation unit 54, a contribution calculation unit 55, a recommendation unit 56, and a display unit 57.

通信部51は、マスタユニット10A及びPLC40との通信を行うインターフェースである。通信部51は、マスタユニット10A及びPLC40以外の外部機器との通信を行うものであってもよい。 The communication unit 51 is an interface for communicating with the master unit 10A and the PLC 40. The communication unit 51 may communicate with an external device other than the master unit 10A and the PLC 40.

記憶部52は、受光データ52a、学習データ52b及び学習済みモデル52cを記憶している。受光データ52aは、複数の光センサ30により測定された受光量(検出情報)と、複数のスレーブユニット20により生成された判定信号を含んでよく、マスタユニット10Aから転送されたものであってよい。学習データ52b及び学習済みモデル52cについては、次に説明する。 The storage unit 52 stores the light receiving data 52a, the learning data 52b, and the learned model 52c. The light receiving data 52a may include the light receiving amount (detection information) measured by the plurality of optical sensors 30 and the determination signal generated by the plurality of slave units 20, and may be transferred from the master unit 10A. .. The training data 52b and the trained model 52c will be described below.

学習データ生成部53は、複数の光センサ30により測定された複数の受光データ52aに対象物の状態を示すデータを関連付けて、学習データを生成する。学習データ生成部53は、学習データ生成部12と同様の構成であってよい。 The learning data generation unit 53 generates learning data by associating the plurality of light receiving data 52a measured by the plurality of optical sensors 30 with data indicating the state of the object. The learning data generation unit 53 may have the same configuration as the learning data generation unit 12.

学習モデル生成部54は、学習データ52bを用いた機械学習により、複数の光センサ30により測定された複数の受光データ52aを入力として、対象物の状態を示すデータを出力する学習済みモデル52cを生成する。学習モデル生成部54は、学習モデル生成部13と同様の構成であってよい。 The learning model generation unit 54 inputs a plurality of light receiving data 52a measured by the plurality of optical sensors 30 by machine learning using the learning data 52b, and outputs a trained model 52c that outputs data indicating the state of the object. Generate. The learning model generation unit 54 may have the same configuration as the learning model generation unit 13.

貢献度算出部55は、学習済みモデル52cの出力に対する複数の受光データ52aの貢献度を算出する。貢献度算出部55は、貢献度算出部14と同様の構成であってよい。 The contribution calculation unit 55 calculates the contribution of the plurality of light receiving data 52a to the output of the trained model 52c. The contribution calculation unit 55 may have the same configuration as the contribution calculation unit 14.

推薦部56は、貢献度に基づいて、複数の光センサ30のうち除外可能な光センサ30を推薦したり、新たな光センサの追加を推薦したり、複数の受光データ52aの相関に基づいて、複数の光センサ30の配置変更を推薦したりしてよい。推薦部56は、推薦部15と同様の構成であってよい。 The recommendation unit 56 recommends the photosensor 30 that can be excluded from the plurality of optical sensors 30 based on the degree of contribution, recommends the addition of a new optical sensor, and based on the correlation of the plurality of received light data 52a. , It may be recommended to change the arrangement of the plurality of optical sensors 30. The recommendation unit 56 may have the same configuration as the recommendation unit 15.

表示部57は、学習済みモデル52cの出力を表示したり、推薦部56による推薦内容を表示したりする。表示部57は、例えば対象物に関する異常の有無を示す2値のランプを含んでよい。また、表示部57は、学習済みモデル52cの出力や推薦部56による推薦内容を詳細に表示する液晶表示装置であってもよい。 The display unit 57 displays the output of the trained model 52c and displays the content recommended by the recommendation unit 56. The display unit 57 may include, for example, a binary lamp indicating the presence or absence of an abnormality related to the object. Further, the display unit 57 may be a liquid crystal display device that displays in detail the output of the learned model 52c and the content recommended by the recommendation unit 56.

変形例に係るセンサシステム1Aによれば、任意に配置した複数の光センサ30により測定された複数の受光データ52aと、対象物の状態を示すデータとを関連付けて学習データ52bを生成し、複数の受光データ52aから対象物の状態を識別する学習済みモデル52cを生成することで、測定環境や対象物の種類に応じて複数の光センサ30の配置を調整する負担が軽減され、導入負担を軽減して複数の光センサ30による総合判定を行うことができる。 According to the sensor system 1A according to the modified example, learning data 52b is generated by associating a plurality of light receiving data 52a measured by a plurality of arbitrarily arranged optical sensors 30 with data indicating a state of an object, and a plurality of them. By generating the trained model 52c that identifies the state of the object from the received light data 52a of the above, the burden of adjusting the arrangement of the plurality of optical sensors 30 according to the measurement environment and the type of the object is reduced, and the introduction burden is reduced. It is possible to reduce the amount and make a comprehensive judgment by a plurality of optical sensors 30.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are for facilitating the understanding of the present invention, and are not for limiting and interpreting the present invention. Each element included in the embodiment and its arrangement, material, condition, shape, size, etc. are not limited to those exemplified, and can be changed as appropriate. In addition, the configurations shown in different embodiments can be partially replaced or combined.

[付記1]
対象物に照射した光を受光して前記対象物の状態を測定する複数の光センサ(30)と、
前記複数の光センサ(30)により測定された複数の受光データに前記対象物の状態を示すデータを関連付けて、学習データを生成する学習データ生成部(12)と、
前記学習データを用いた機械学習により、前記複数の光センサ(30)により測定された複数の受光データを入力として、前記対象物の状態を示すデータを出力する学習済みモデルを生成する学習モデル生成部(13)と、
を備えるセンサシステム(1)。
[Appendix 1]
A plurality of optical sensors (30) that receive light radiated to the object and measure the state of the object.
A learning data generation unit (12) that generates learning data by associating data indicating the state of the object with a plurality of light receiving data measured by the plurality of optical sensors (30).
By machine learning using the learning data, a learning model generation that generates a trained model that outputs data indicating the state of the object by inputting a plurality of light receiving data measured by the plurality of optical sensors (30). Part (13) and
Sensor system (1).

[付記2]
前記学習モデル生成部(13)は、前記複数の光センサ(30)の配置に対応した前記学習済みモデルを生成する、
付記1に記載のセンサシステム(1)。
[Appendix 2]
The learning model generation unit (13) generates the trained model corresponding to the arrangement of the plurality of optical sensors (30).
The sensor system (1) according to Appendix 1.

[付記3]
前記学習データ生成部(12)は、前記複数の受光データに前記対象物の形状が正常か否かを示すデータを関連付けて、前記学習データを生成し、
前記学習モデル生成部(13)は、前記学習データを用いた機械学習により、前記複数の光センサ(30)により測定された複数の受光データを入力として、前記対象物の形状が正常か否かを示すデータを出力する前記学習済みモデルを生成する、
付記1又は2に記載のセンサシステム(1)。
[Appendix 3]
The learning data generation unit (12) generates the learning data by associating the plurality of light receiving data with data indicating whether or not the shape of the object is normal.
The learning model generation unit (13) receives a plurality of light receiving data measured by the plurality of optical sensors (30) by machine learning using the learning data as input, and determines whether or not the shape of the object is normal. Generate the trained model that outputs data indicating
The sensor system (1) according to Appendix 1 or 2.

[付記4]
前記学習データ生成部(12)は、前記複数の受光データに前記対象物の種類を示すデータを関連付けて、前記学習データを生成し、
前記学習モデル生成部(13)は、前記学習データを用いた機械学習により、前記複数の光センサ(30)により測定された複数の受光データを入力として、前記対象物の種類を示すデータを出力する前記学習済みモデルを生成する、
付記1又は2に記載のセンサシステム(1)。
[Appendix 4]
The learning data generation unit (12) generates the learning data by associating the plurality of received light data with data indicating the type of the object.
The learning model generation unit (13) inputs a plurality of light receiving data measured by the plurality of optical sensors (30) by machine learning using the learning data, and outputs data indicating the type of the object. To generate the trained model,
The sensor system (1) according to Appendix 1 or 2.

[付記5]
前記学習済みモデルの出力に対する前記複数の受光データの貢献度を算出する貢献度算出部(14)と、
前記貢献度に基づいて、前記複数の光センサ(30)のうち除外可能な光センサ(30)を推薦する推薦部(15)と、をさらに備える、
付記1から4のいずれか一項に記載のセンサシステム(1)。
[Appendix 5]
The contribution calculation unit (14) for calculating the contribution of the plurality of received light data to the output of the trained model, and
A recommendation unit (15) that recommends an excluding optical sensor (30) from the plurality of optical sensors (30) based on the degree of contribution is further provided.
The sensor system (1) according to any one of Appendix 1 to 4.

[付記6]
前記推薦部(15)は、前記貢献度に基づいて、新たな光センサ(30)の追加を推薦する、
付記5に記載のセンサシステム(1)。
[Appendix 6]
The recommendation unit (15) recommends the addition of a new optical sensor (30) based on the degree of contribution.
The sensor system (1) according to Appendix 5.

[付記7]
前記推薦部(15)は、前記複数の受光データの相関に基づいて、前記複数の光センサ(30)の配置変更を推薦する、
付記5又は6に記載のセンサシステム(1)。
[Appendix 7]
The recommendation unit (15) recommends the rearrangement of the plurality of optical sensors (30) based on the correlation of the plurality of received light data.
The sensor system (1) according to Appendix 5 or 6.

1…センサシステム、1A…変形例に係るセンサシステム、10…マスタユニット、10A…変形例に係るマスタユニット、11…記憶部、11a…受光データ、11b…学習データ、11c…学習済みモデル、12…学習データ生成部、13…学習モデル生成部、14…貢献度算出部、15…推薦部、16…表示部、17…通信部、20a…第1スレーブユニット、20b…第2スレーブユニット、20c…第3スレーブユニット、30a…第1光センサ、30b…第2光センサ、30c…第3光センサ、40…PLC、50…コンピュータ、51…通信部、52…記憶部、52a…受光データ、52b…学習データ、52c…学習済みモデル、53…学習データ生成部、54…学習モデル生成部、55…貢献度算出部、56…推薦部、57…表示部、101,102…入力/出力コネクタ、106…接続コネクタ、110…MPU、112…通信ASIC、116…パラレル通信回路、118…シリアル通信回路、304,306…接続コネクタ、400…CPU、401…発光素子、402,406,408…受光素子、403…投光制御部、404…増幅回路、405…A/Dコンバータ、407,409…通信用発光素子、410,412…受光回路、411,413…投光回路、419…出力回路、420…シリアル通信ドライバ 1 ... Sensor system, 1A ... Sensor system related to modified example, 10 ... Master unit, 10A ... Master unit related to modified example, 11 ... Storage unit, 11a ... Light receiving data, 11b ... Learning data, 11c ... Learned model, 12 ... Learning data generation unit, 13 ... Learning model generation unit, 14 ... Contribution calculation unit, 15 ... Recommendation unit, 16 ... Display unit, 17 ... Communication unit, 20a ... First slave unit, 20b ... Second slave unit, 20c ... 3rd slave unit, 30a ... 1st optical sensor, 30b ... 2nd optical sensor, 30c ... 3rd optical sensor, 40 ... PLC, 50 ... computer, 51 ... communication unit, 52 ... storage unit, 52a ... light receiving data, 52b ... Learning data, 52c ... Trained model, 53 ... Learning data generation unit, 54 ... Learning model generation unit, 55 ... Contribution calculation unit, 56 ... Recommendation unit, 57 ... Display unit, 101, 102 ... Input / output connector , 106 ... connection connector, 110 ... MPU, 112 ... communication ASIC, 116 ... parallel communication circuit, 118 ... serial communication circuit, 304, 306 ... connection connector, 400 ... CPU, 401 ... light emitting element, 402, 406, 408 ... light receiving Element, 403 ... flood control unit, 404 ... amplification circuit, 405 ... A / D converter, 407,409 ... communication light emitting element, 410,412 ... light receiving circuit, 411,413 ... floodlight circuit, 419 ... output circuit, 420 ... Serial communication driver

Claims (7)

対象物に照射した光を受光して前記対象物の状態を測定する複数の光センサと、
前記複数の光センサにより測定された複数の受光データに前記対象物の状態を示すデータを関連付けて、学習データを生成する学習データ生成部と、
前記学習データを用いた機械学習により、前記複数の光センサにより測定された複数の受光データを入力として、前記対象物の状態を示すデータを出力する学習済みモデルを生成する学習モデル生成部と、
を備えるセンサシステム。
A plurality of optical sensors that receive light emitted from an object and measure the state of the object,
A learning data generation unit that generates learning data by associating data indicating the state of the object with a plurality of light receiving data measured by the plurality of optical sensors.
A learning model generation unit that generates a trained model that outputs data indicating the state of the object by inputting a plurality of light receiving data measured by the plurality of optical sensors by machine learning using the learning data.
Sensor system with.
前記学習モデル生成部は、前記複数の光センサの配置に対応した前記学習済みモデルを生成する、
請求項1に記載のセンサシステム。
The learning model generation unit generates the learned model corresponding to the arrangement of the plurality of optical sensors.
The sensor system according to claim 1.
前記学習データ生成部は、前記複数の受光データに前記対象物の形状が正常か否かを示すデータを関連付けて、前記学習データを生成し、
前記学習モデル生成部は、前記学習データを用いた機械学習により、前記複数の光センサにより測定された複数の受光データを入力として、前記対象物の形状が正常か否かを示すデータを出力する前記学習済みモデルを生成する、
請求項1又は2に記載のセンサシステム。
The learning data generation unit generates the learning data by associating the plurality of light receiving data with data indicating whether or not the shape of the object is normal.
The learning model generation unit receives a plurality of light receiving data measured by the plurality of optical sensors by machine learning using the learning data, and outputs data indicating whether or not the shape of the object is normal. Generate the trained model,
The sensor system according to claim 1 or 2.
前記学習データ生成部は、前記複数の受光データに前記対象物の種類を示すデータを関連付けて、前記学習データを生成し、
前記学習モデル生成部は、前記学習データを用いた機械学習により、前記複数の光センサにより測定された複数の受光データを入力として、前記対象物の種類を示すデータを出力する前記学習済みモデルを生成する、
請求項1又は2に記載のセンサシステム。
The learning data generation unit generates the learning data by associating the plurality of light receiving data with data indicating the type of the object.
The learning model generation unit receives the plurality of light receiving data measured by the plurality of optical sensors by machine learning using the learning data, and outputs the data indicating the type of the object. Generate,
The sensor system according to claim 1 or 2.
前記学習済みモデルの出力に対する前記複数の受光データの貢献度を算出する貢献度算出部と、
前記貢献度に基づいて、前記複数の光センサのうち除外可能な光センサを推薦する推薦部と、をさらに備える、
請求項1から4のいずれか一項に記載のセンサシステム。
A contribution calculation unit that calculates the contribution of the plurality of received data to the output of the trained model,
A recommendation unit that recommends an excluding optical sensor from the plurality of optical sensors based on the degree of contribution is further provided.
The sensor system according to any one of claims 1 to 4.
前記推薦部は、前記貢献度に基づいて、新たな光センサの追加を推薦する、
請求項5に記載のセンサシステム。
The recommendation unit recommends the addition of a new optical sensor based on the contribution.
The sensor system according to claim 5.
前記推薦部は、前記複数の受光データの相関に基づいて、前記複数の光センサの配置変更を推薦する、
請求項5又は6に記載のセンサシステム。
The recommendation unit recommends the rearrangement of the plurality of optical sensors based on the correlation of the plurality of received light data.
The sensor system according to claim 5 or 6.
JP2019040602A 2019-03-06 2019-03-06 sensor system Active JP7137761B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019040602A JP7137761B2 (en) 2019-03-06 2019-03-06 sensor system
JP2022095747A JP7382015B2 (en) 2019-03-06 2022-06-14 sensor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019040602A JP7137761B2 (en) 2019-03-06 2019-03-06 sensor system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022095747A Division JP7382015B2 (en) 2019-03-06 2022-06-14 sensor system

Publications (2)

Publication Number Publication Date
JP2020144001A true JP2020144001A (en) 2020-09-10
JP7137761B2 JP7137761B2 (en) 2022-09-15

Family

ID=72354025

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019040602A Active JP7137761B2 (en) 2019-03-06 2019-03-06 sensor system
JP2022095747A Active JP7382015B2 (en) 2019-03-06 2022-06-14 sensor system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022095747A Active JP7382015B2 (en) 2019-03-06 2022-06-14 sensor system

Country Status (1)

Country Link
JP (2) JP7137761B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022121472A (en) * 2019-03-06 2022-08-19 オムロン株式会社 sensor system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749945A (en) * 1993-08-04 1995-02-21 Mitsubishi Electric Corp Discriminating device
JPH1062132A (en) * 1996-08-19 1998-03-06 Mase:Kk Device for detecting chipping-off and method therefor
JPH1183461A (en) * 1997-09-09 1999-03-26 Mitsubishi Electric Corp Article assortment recognition system
JP2000146847A (en) * 1998-11-16 2000-05-26 Kett Electric Laboratory Grain judgment device using neural network using clustering and voronoi division
JP2005083775A (en) * 2003-09-05 2005-03-31 Seirei Ind Co Ltd Grain classifier
JP2017122580A (en) * 2014-04-08 2017-07-13 株式会社日立ハイテクノロジーズ Inspecting device and inspection condition determining method
JP2019028515A (en) * 2017-07-25 2019-02-21 ファナック株式会社 Information processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6098106B2 (en) * 2012-10-23 2017-03-22 オムロン株式会社 Sensor system and communication device
JP2018092489A (en) * 2016-12-06 2018-06-14 オムロン株式会社 Classification apparatus, classification method and program
JP7137761B2 (en) * 2019-03-06 2022-09-15 オムロン株式会社 sensor system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749945A (en) * 1993-08-04 1995-02-21 Mitsubishi Electric Corp Discriminating device
JPH1062132A (en) * 1996-08-19 1998-03-06 Mase:Kk Device for detecting chipping-off and method therefor
JPH1183461A (en) * 1997-09-09 1999-03-26 Mitsubishi Electric Corp Article assortment recognition system
JP2000146847A (en) * 1998-11-16 2000-05-26 Kett Electric Laboratory Grain judgment device using neural network using clustering and voronoi division
JP2005083775A (en) * 2003-09-05 2005-03-31 Seirei Ind Co Ltd Grain classifier
JP2017122580A (en) * 2014-04-08 2017-07-13 株式会社日立ハイテクノロジーズ Inspecting device and inspection condition determining method
JP2019028515A (en) * 2017-07-25 2019-02-21 ファナック株式会社 Information processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022121472A (en) * 2019-03-06 2022-08-19 オムロン株式会社 sensor system
JP7382015B2 (en) 2019-03-06 2023-11-16 オムロン株式会社 sensor system

Also Published As

Publication number Publication date
JP7382015B2 (en) 2023-11-16
JP7137761B2 (en) 2022-09-15
JP2022121472A (en) 2022-08-19

Similar Documents

Publication Publication Date Title
US20220058525A1 (en) Model integration apparatus, model integration method, computer-readable storage medium storing a model integration program, inference system, inspection system, and control system
US9451675B2 (en) Configuration of operating devices for lighting means
JP6579450B2 (en) Smart lighting system, method for controlling lighting and lighting control system
CN105100638A (en) Optical area monitoring with spot matrix illumination
KR20060043298A (en) Sensor controller
JP2007082098A (en) Transmission data allocation method and optical communication system
CN1983488A (en) Sensor device
US11737193B2 (en) System and method for adaptive fusion of data from multiple sensors using context-switching algorithm
JP7382015B2 (en) sensor system
JP6528040B2 (en) Intelligent machine network
JP6261200B2 (en) Optical coupler test system
US9279848B2 (en) Test apparatus
JP2010165273A5 (en)
US11881013B2 (en) Video system
CN111448848B (en) System, method and apparatus for distributed detection of luminaire anomalies
JP7372607B2 (en) sensor system
JP2009222400A (en) Sensor system
US9992838B1 (en) Automated luminaire identification and group assignment devices, systems, and methods using dimming function
JP7068654B2 (en) Sensor system
JP7386724B2 (en) Inspection system and light emission controller used therein
JP6887314B2 (en) Cell culture monitoring system
JP2020091653A (en) Sensor system
TWI390188B (en) Distributed multi-point illumination detection system on illuminated plane
CN110311730A (en) Visible light communication method and device, system, electronic equipment, storage medium
TWI697775B (en) Modularization monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220614

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220614

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220622

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220817

R150 Certificate of patent or registration of utility model

Ref document number: 7137761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150