JP2019028515A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2019028515A
JP2019028515A JP2017143977A JP2017143977A JP2019028515A JP 2019028515 A JP2019028515 A JP 2019028515A JP 2017143977 A JP2017143977 A JP 2017143977A JP 2017143977 A JP2017143977 A JP 2017143977A JP 2019028515 A JP2019028515 A JP 2019028515A
Authority
JP
Japan
Prior art keywords
sensor data
data
information processing
processing apparatus
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017143977A
Other languages
English (en)
Other versions
JP6523379B2 (ja
Inventor
健文 後藤
Takefumi Goto
健文 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017143977A priority Critical patent/JP6523379B2/ja
Priority to US16/038,486 priority patent/US10664754B2/en
Priority to DE102018005652.0A priority patent/DE102018005652A1/de
Priority to CN201810828164.1A priority patent/CN109297974B/zh
Publication of JP2019028515A publication Critical patent/JP2019028515A/ja
Application granted granted Critical
Publication of JP6523379B2 publication Critical patent/JP6523379B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/54Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable using means specified in two or more of groups G01D5/02, G01D5/12, G01D5/26, G01D5/42, and G01D5/48
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/34Testing dynamo-electric machines
    • G01R31/343Testing dynamo-electric machines in operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/129Using chemometrical methods
    • G01N2201/1296Using chemometrical methods using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming

Abstract

【課題】機械学習装置に入力する複数のセンサデータの寄与度を評価し、センサ構成を最適化することが可能な情報処理装置を提供する。
【解決手段】情報処理装置100は、異なる複数のセンサデータを入力して機械学習を行う機械学習装置300と、1以上のセンサデータの組合せを作成するための選択規則を設定する入力データ制御部140と、選択規則にしたがってセンサデータの組合せを複数作成し、センサデータの組合せを機械学習装置300に入力して、センサデータの組合せそれぞれに対応する認識器を生成する入力データ選択部110と、認識器に求められる期待性能を設定する期待性能設定部120と、期待性能にしたがって認識器の性能を評価し、期待性能を満足する認識器に対応するセンサデータの組合せを出力する性能評価部130と、を有する。
【選択図】図2

Description

本発明は情報処理装置に関し、特に機械学習装置に入力する複数のセンサデータの寄与度を評価し、センサ構成を最適化することが可能な情報処理装置に関する。
工作機械等の制御やその周辺において、機械学習装置が広く用いられるようになっている。機械学習装置によれば、例えばワークを複数のカメラで撮像して得た画像データを入力して、傷の有無を判定することが可能である。また、マイク、電流の外乱値、加速度センサ等の出力値を機械学習装置に入力して、モータの異常検知を行うことも可能である。
センサ等から取得される複数の入力データを、分類、回帰、クラスタリング等の機械学習手法を用いて認識する機械学習装置がある。このように複数のセンサデータを組み合わせて機械学習を行う技術をセンサフュージョンという。センサフュージョンを実現する機械学習装置には、センサ等が直接出力するデータ(以下、生データと称する)から抽出されたSIFT、SURF等に代表される特徴量を入力して機械学習を行うもののほか、生データを直接入力して深層学習により機械学習を行うもの等がある。
例えば特許文献1には、センサフュージョン技術の一例として、複数のガスセンサの出力信号をニューラルネットワークに取り込み、予めニューラルネットワークに学習されている識別パターンに基づいてガス種を識別する装置が記載されている。
特許第3130679号
センサフュージョンによれば、様々なセンサデータを組み合わせて入力することで、高精度な学習、認識又は推定等の処理を実現できる。しかしながら、複数のセンサデータのうち、学習、認識又は推定結果への寄与度の大きい又は小さいセンサデータを体系的に特定し、要求性能を満足するようにセンサ構成を最適化する手法は現在のところ提供されていない。例えば、結果への寄与度が小さいセンサデータを特定できれば、センサ本体やセンサデータ取得に要する金銭コスト等を削減できるだけでなく、データの計測、取得及び処理にかかる時間や負荷等を抑制し、高速に結果を出力することが可能になる。
本発明はこのような問題を解決するためになされたものであって、機械学習装置に入力する複数のセンサデータの寄与度を評価し、センサ構成を最適化することが可能な情報処理装置を提供することを目的とする。
本発明の一実施の形態にかかる情報処理装置は、異なる複数のセンサデータを入力して機械学習を行う機械学習装置を有する情報処理装置において、1以上の前記センサデータの組合せを作成するための選択規則を設定する入力データ制御部と、前記選択規則にしたがって前記センサデータの組合せを複数作成し、前記センサデータの組合せを前記機械学習装置に入力して、前記センサデータの組合せそれぞれに対応する認識器を生成する入力データ選択部と、前記認識器に求められる期待性能を設定する期待性能設定部と、前記期待性能にしたがって前記認識器の性能を評価し、前記期待性能を満足する前記認識器に対応する前記センサデータの組合せを出力する性能評価部と、を有する。
本発明の一実施の形態にかかる情報処理装置は、前記期待性能は、前記センサデータの取得コストによって定義され、前記センサデータの取得コストは、前記センサデータを取得するセンサの価格、前記センサの設置の難易度、あるいは前記センサデータの取得又は処理に要する費用、時間又は処理負荷に基づいて計算される。
本発明の一実施の形態にかかる情報処理装置は、前記期待性能は、前記認識器の正答率、適合率、再現率又はF値によって定義される。
本発明の一実施の形態にかかる情報処理装置は、前記センサデータは、温度、変位、圧力、電流、速度、加速度、画像、照度、音声、匂い、長さに関するものである。
本発明の一実施の形態にかかる情報処理装置は、前記性能評価部は、前記期待性能を満足する前記センサデータの組合せを複数提示し、ユーザに所望の前記センサデータの組合せを選択させるインタフェースを有する。
本発明の一実施の形態にかかる情報処理装置は、前記認識器はニューラルネットワークにより構成される。
本発明の一実施の形態にかかる情報処理装置は、前記入力データ制御部は、前記ニューラルネットワークの中間層の構成の設定規則をさらに設定する。
本発明の一実施の形態にかかる情報処理装置は、前記入力データ制御部は、前記ニューラルネットワークにおいて入力層から中間層への結合係数が小さい前記センサデータを削除する前記選択規則を有する。
本発明の一実施の形態にかかる情報処理装置は、前記入力データ制御部は、前記ニューラルネットワークにおいて認識時の中間層の発火への寄与率が小さい前記センサデータを削除する前記選択規則を有する。
本発明の一実施の形態にかかる情報処理装置は、前記センサデータは、通信ネットワークを介して1以上のセンサから収集される。
本発明によれば、機械学習装置に入力する複数のセンサデータの寄与度を評価し、センサ構成を最適化することが可能な情報処理装置を提供することができる。
情報処理装置100の構成を示すブロック図である。 情報処理装置100の構成を示すブロック図である。 機械学習装置300の構成を示すブロック図である。 ニューロンを説明する図である。 ニューラルネットワークを説明する図である。 情報処理装置100の動作を示すフローチャートである。 実施例1の概要を示す図である。 実施例2の概要を示す図である。 情報処理装置100の動作を示すフローチャートである。
本発明の実施の形態について、図面を用いて説明する。
<実施の形態1>
図1は、本発明の実施の形態1にかかる情報処理装置100のハードウェア構成を示すブロック図である。CPU11は、情報処理装置100を全体的に制御するプロセッサである。CPU11は、ROM12に格納されたシステム・プログラムをバス20を介して読み出し、該システム・プログラムに従って情報処理装置100全体を制御する。RAM13には一時的な計算データや表示データ及び外部から入力された各種データ等が一時的に格納される。
不揮発性メモリ14は、例えば図示しないバッテリでバックアップされるなどして、情報処理装置100の電源がオフされても記憶状態が保持されるメモリとして構成される。図示しないインタフェースを介して入力された各種プログラムやデータが記憶されている。不揮発性メモリ14に記憶されたプログラムやデータは、実行時/利用時にはRAM13に展開されても良い。また、ROM12には、各種のシステム・プログラムがあらかじめ書き込まれている。
センサデータ60は、センサが環境の様々な状態を測定して出力する測定値(センサデータ)である。例えば、温度センサ、変位センサ、圧力センサ、電流センサ、速度センサ、加速度センサ、カメラ、照度センサ、マイク、匂いセンサ、長さ測定器等がセンサデータ60を出力する。本実施の形態では、センサは複数存在し、複数のセンサがそれぞれ異なるセンサデータを出力するものとする。例えばセンサデータ60は、マイクが出力する音声データ、加速度センサが出力する加速度データ、ワーク上面の画像を撮像するカメラが出力する画像データ、ワーク側面の画像を撮像するカメラが出力する画像データの組み合わせであり得る。情報処理装置100は、インタフェース18を介してセンサデータ60を受信し、CPU11に引き渡す。
判定データ70は、機械学習においてセンサデータ60と関連付けられて学習されるデータである。例えばセンサデータ60を使用してモータの異常検知を行う機械学習モデルを生成する場合、センサデータ60がインタフェース18に入力されるとき、判定データ70としてモータの正常又は異常を示すデータがインタフェース19に入力される。例えば、作業員がモータの正常又は異常を認識した結果をキーボードに入力する場合、情報処理装置100は、インタフェース19を介してキーボードからの出力データを判定データ70として受信し、CPU11に引き渡す。
インタフェース21は、情報処理装置100と機械学習装置300とを接続するためのインタフェースである。機械学習装置300は、機械学習装置300全体を統御するプロセッサ301と、システム・プログラム等を記憶したROM302、機械学習に係る各処理における一時的な記憶を行うためのRAM303、及び学習モデル等の記憶に用いられる不揮発性メモリ304を備える。機械学習装置300は、インタフェース21を介して情報処理装置100で取得可能な様々なセンサデータを観測することができる。なお、機械学習装置300のプロセッサやROMは情報処理装置100と同じものでも良い。さらに、プロセッサがGPUやFPGAを保持しており、処理の高速化が行われる構成になっていても良い。
図2は、情報処理装置100の概略的な機能ブロック図である。情報処理装置100は、機械学習装置300、入力データ選択部110、期待性能設定部120、性能評価部130、入力データ制御部140を有する。
機械学習装置300は、センサデータ60と判定データ70との相関関係を、いわゆる機械学習により自ら学習するためのソフトウェア(学習アルゴリズム等)及びハードウェア(プロセッサ301等)を含む。情報処理装置100が備える機械学習装置300が学習するものは、センサデータ60と判定データ70との相関性を表すモデル構造に相当する。
情報処理装置100が備える機械学習装置300は、センサデータ60を環境の現在状態を表す状態変数Sとして観測する状態観測部306と、判定データ70を判定データDとして取得する判定データ取得部308と、状態変数Sと判定データDとを用いて、センサデータ60と判定データ70とを関連付けて学習する学習部310とを備える。
状態観測部306は、例えばプロセッサ301の一機能として構成できる。或いは状態観測部306は、例えばプロセッサ301を機能させるためのROM302に記憶されたソフトウェアとして構成できる。また判定データ取得部308は、例えばプロセッサ301の一機能として構成できる。或いは判定データ取得部308は、例えばプロセッサ301を機能させるためのROM302に記憶されたソフトウェアとして構成できる。
学習部310は、例えばプロセッサ301の一機能として構成できる。或いは学習部310は、例えばプロセッサ301を機能させるためのROM302に記憶されたソフトウェアとして構成できる。学習部310は、機械学習と総称される任意の学習アルゴリズムに従い、センサデータ60と判定データ70との相関関係を学習する。学習部310は、前述した状態変数Sと判定データDとを含むデータ集合に基づく学習を反復実行することができる。
このような学習サイクルを繰り返すことにより、学習部310はセンサデータ60と判定データ70との相関性を暗示する特徴を自動的に識別することができる。学習アルゴリズムの開始時にはセンサデータ60と判定データ70との相関性は実質的に未知であるが、学習部310は、学習を進めるに従い徐々に特徴を識別して相関性を解釈する。センサデータ60と判定データ70との相関性が、ある程度信頼できる水準まで解釈されると、学習部310が反復出力する学習結果は、現在状態(センサデータ60)に対して、判定データ70がどのようなものとなるべきかという推定を行うために使用できるものとなる。つまり学習部310は、学習アルゴリズムの進行に伴い、センサデータ60と判定データ70との相関性を最適解に徐々に近づけることができる。
上記したように、情報処理装置100が備える機械学習装置300は、状態観測部306が観測した状態変数Sと判定データ取得部308が取得した判定データDとを用いて、学習部310が機械学習アルゴリズムに従い、センサデータ60と判定データ70との相関関係を学習するものである。状態変数Sは外乱の影響を受け難いデータで構成され、また判定データDは一義的に求められる。したがって、情報処理装置100が備える機械学習装置300によれば、学習部310の学習結果を用いることで、センサデータ60に対応する判定データ70を、演算や目算によらずに自動的に、しかも正確に求めることができるようになる。
上記構成を有する機械学習装置300では、学習部310が実行する学習アルゴリズムは特に限定されず、機械学習として公知の学習アルゴリズムを採用できる。図3は、図2に示す情報処理装置100の一形態であって、学習アルゴリズムの一例として教師あり学習を実行する学習部310を備えた構成を示す。教師あり学習は、入力とそれに対応する出力との既知のデータセット(教師データと称する)が予め大量に与えられ、それら教師データから入力と出力との相関性を暗示する特徴を識別することで、新たな入力に対する所要の出力(センサデータ60に対応する判定データ70)を推定するための相関性モデルを学習する手法である。
図3に示す機械学習装置300において、学習部310は、状態変数Sから判定データ70を導く相関性モデルMと予め用意された教師データTから識別される相関性特徴との誤差Eを計算する誤差計算部311と、誤差Eを縮小するように相関性モデルMを更新するモデル更新部312とを備える。学習部310は、モデル更新部312が相関性モデルMの更新を繰り返すことによってセンサデータ60と判定データ70との相関関係を学習する。
相関性モデルMは、回帰分析、強化学習、深層学習などで構築することができる。相関性モデルMの初期値は、例えば、状態変数Sと判定データDとの相関性を単純化して表現したものとして、教師あり学習の開始前に学習部310に与えられる。教師データTは、例えば、過去のセンサデータ60と判定データ70との対応関係を記録することで蓄積された経験値(センサデータ60と判定データ70との既知のデータセット)によって構成でき、教師あり学習の開始前に学習部310に与えられる。誤差計算部311は、学習部310に与えられた大量の教師データTからセンサデータ60と判定データ70との相関性を暗示する相関性特徴を識別し、この相関性特徴と、現在状態における状態変数Sに対応する相関性モデルMとの誤差Eを求める。モデル更新部312は、例えば予め定めた更新ルールに従い、誤差Eが小さくなる方向へ相関性モデルMを更新する。
次の学習サイクルでは、誤差計算部311は、更新後の相関性モデルMに従って工作機械等を動作させるなどにより得られた状態変数S及び判定データDを用いて、それら状態変数S及び判定データDに対応する相関性モデルMに関し誤差Eを求め、モデル更新部312が再び相関性モデルMを更新する。このようにして、未知であった環境の現在状態(センサデータ60)とそれに対応する状態(判定データ70)との相関性が徐々に明らかになる。つまり相関性モデルMの更新により、センサデータ60と判定データ70との関係が、最適解に徐々に近づけられる。
前述した教師あり学習を進める際に、例えばニューラルネットワークを用いることができる。図4Aは、ニューロンのモデルを模式的に示す。図4Bは、図4Aに示すニューロンを組み合わせて構成した三層のニューラルネットワークのモデルを模式的に示す。ニューラルネットワークは、例えば、ニューロンのモデルを模した演算装置や記憶装置等によって構成できる。
図4Aに示すニューロンは、複数の入力x(ここでは一例として、入力x1〜入力x3)に対する結果yを出力するものである。各入力x1〜x3には、この入力xに対応する重みw(w1〜w3)が掛けられる。これにより、ニューロンは、次の数1式により表現される出力yを出力する。なお、数2式において、入力x、出力y及び重みwは、すべてベクトルである。また、θはバイアスであり、fkは活性化関数である。
Figure 2019028515
図4Bに示す三層のニューラルネットワークは、左側から複数の入力x(ここでは一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは一例として、結果y1〜結果y3)が出力される。図示の例では、入力x1、x2、x3のそれぞれに対応の重み(総称してw1で表す)が乗算されて、個々の入力x1、x2、x3がいずれも3つのニューロンN11、N12、N13に入力されている。
図4Bでは、ニューロンN11〜N13の各々の出力を、総称してz1で表す。z1は、入カベクトルの特徴量を抽出した特徴ベクトルと見なすことができる。図示の例では、特徴ベクトルz1のそれぞれに対応の重み(総称してw2で表す)が乗算されて、個々の特徴ベクトルz1がいずれも2つのニューロンN21、N22に入力されている。特徴ベクトルz1は、重みw1と重みw2との間の特徴を表す。
図4Bでは、ニューロンN21〜N22の各々の出力を、総称してz2で表す。z2は、特徴ベクトルz1の特徴量を抽出した特徴ベクトルと見なすことができる。図示の例では、特徴ベクトルz2のそれぞれに対応の重み(総称してw3で表す)が乗算されて、個々の特徴ベクトルz2がいずれも3つのニューロンN31、N32、N33に入力されている。特徴ベクトルz2は、重みw2と重みw3との間の特徴を表す。最後にニューロンN31〜N33は、それぞれ結果y1〜y3を出力する。
機械学習装置300は、状態変数Sを入力xとして、学習部310が上記したニューラルネットワークに従う多層構造の演算を行うことで、判定データ70を推定値(結果y)として出力することができる。なおニューラルネットワークの動作モードには、学習モードと判定モードとがあり、例えば学習モードで学習データセットを用いて重みwを学習し、学習した重みwを用いて判定モードで形状データの判定を行うことができる。なお判定モードでは、検出、分類、推論等を行うこともできる。
再び図2を用いて、情報処理装置100の他の構成要素について説明する。入力データ選択部110、期待性能設定部120、性能評価部130、入力データ制御部140は、本発明に特有の構成要素であって、複数のセンサデータそれぞれの寄与度を評価するための処理を行う。
期待性能設定部120は、機械学習装置300に求められる期待性能の設定を保持する。期待性能設定部120は、ユーザが期待性能の設定を入力するためのユーザインタフェースと、設定内容を保持するための記憶領域とを備えていても良い。期待性能は、客観的に評価可能な様々な指標等を用いて設定され得る。典型的な期待性能として、正答率、再現率、適合率、F値がある。正答率は、実際の事象がAであるか否かについて、機械学習装置300が正しく判定した事例の割合をいう。再現率は、実際の事象がAである事例の数に対する、機械学習装置300がAという回答を出力した事例の数の割合をいう。適合率は、機械学習装置300がAという回答を出力した事例の数に対する、実際の事象がAである事例の数の割合をいう。F値は、適合率と再現率の調和平均をいう。例えば再現率が99.99%以上であること、適合率が99%以上であることを期待性能として設定することができる。
期待性能は、他の様々な指標でも定義できる。例えばセンサ構成を実現するためのコストも重要な性能指標である。コストには、金銭的コストのほかセンサデータ取得の手間や時間なども含まれる。例えばセンサ本体の価格、センサ設置の難易度、センサデータの取得にかかる計測時間等もコストの構成要素である。これらの構成要素を用いて、例えば、再現率及び適合率が所定のしきい値以上であることに加え、センサ本体のコストや画像の取得コスト等を勘案した総コストが最も小さいことを期待性能として設定しても良い。この場合、まず総コストを評価するための評価式を定義する。例えば総コストが小さくなるほど高評価とみなされる評価値を出力するような評価式である。そして、評価値が所定のしきい値以上であることを期待性能として設定できる。あるいは評価値が他のセンサ構成との比較において最高であることを期待性能として設定しても良い。例えば高解像度カメラ(センサ本体の価格が比較的高く、画像処理に要する時間や負荷が大きい)が出力するセンサデータを使用した場合は+20、低解像度カメラ(センサ本体の価格が比較的低く、画像処理に要する時間や負荷も小さい)が出力するセンサデータを使用した場合は+10、1枚撮像する(画像処理の時間や負荷が発生する)毎に+1の重みを累積加算値を評価値とし、この評価値が最も小さいことを期待性能として設定することができる。
入力データ制御部140は、機械学習装置300に入力するセンサデータの選択規則を決定し、決定した選択規則を入力データ選択部110に与える。入力データ制御部140は、予め幾つかの代表的な選択規則を保持し、ユーザがその中から所望の選択規則を採用するためのユーザインタフェースを備えていても良い。選択規則とは、情報処理装置100に入力されるn種類のセンサデータ60からm(m≦n)種類のセンサデータを選択して、複数の異なる組み合わせを作成する際の規則をいう。最も単純な選択規則は、ランダムにセンサデータの組合せを決定することである。この際、後述する性能評価の結果を基に、遺伝的アルゴリズムを用いて、組合わせ最適化を行っても良い。また、機械学習装置300の学習部310がニューラルネットワークで構成される場合、例えば一度全てのセンサデータを使用して学習を行った後に、入力層から次の中間層への結合係数を評価し、その結合係数の和が小さい入力データを優先的に除外して、センサデータの組合せを作成しても良い。また、同様に一度全てのセンサデータを使用して学習を行った後に、テスト用のセンサデータを使用してニューラルネットワークによる認識を試行し、その際の中間層の発火への寄与率が小さい入力データを優先的に除外して、センサデータの組合せを作成しても良い。
入力データ選択部110は、入力データ制御部140が決定した選択規則にしたがってセンサデータの組合せを決定し、組合せごとに機械学習を実行する。例えば選択規則がランダムであれば、入力データ選択部110は、情報処理装置100に入力してくるn種類のセンサデータ60を基に、m(m≦n)種類のセンサデータからなるユニークな組み合わせを複数定義する。入力データ選択部110は、情報処理装置100に入力してくるセンサデータ60のなかから、定義された組合せにしたがってセンサデータを抽出し、機械学習装置300に入力していく。機械学習装置300は、入力されたセンサデータを状態変数Sとして用いて学習を行い、学習モデルを構築する。入力データ選択部110は、定義した複数の組合せ全てについて順次この学習プロセスを実行し、それぞれの組合せに対応する学習モデルを構築する。入力データ選択部110がセンサデータの組み合わせをp個定義したならば、p個の学習結果が得られる。
性能評価部130は、入力データ選択部110が定義したセンサデータの組合せに応じて得られた学習結果をそれぞれ評価する。評価は、期待性能設定部120において設定された期待性能が達成されたか否かを内容とする。具体的には、学習器としての機械学習装置300が十分な数の学習データを得て学習プロセスを完了したならば、性能評価部130は認識器としての機械学習装置300にテストデータ(テスト用のセンサデータ)を入力する。性能評価部130は、機械学習装置300が出力する認識結果を、上記期待性能に照らして評価する。例えば期待性能設定部120において期待性能が正答率99%以上と定義されており、性能評価部130が機械学習装置300に100個のテストデータを入力した場合、性能評価部130は99個以上のテストデータについて正答が得られているか否かを判定する。得られていれば期待性能を満たしている。性能評価部130は、入力データ選択部110が定義したセンサデータの組合せ全てについて、このような性能評価を行う。センサデータの組み合わせをp個定義したならば、p個の学習結果全てについてそれぞれ性能評価が行われる。
性能評価部130は、性能評価の結果を出力する。例えば、期待性能を満足したセンサデータの組合せのうち、最も評価が優れていたものを自動的に選択して出力しても良い。期待性能を満足したセンサデータの組合せが複数ある場合、それらをユーザに提示して任意の1つを選択させるユーザインタフェースを備えても良い。
図5のフローチャートを用いて、情報処理装置100の動作について説明する。
S1:期待性能設定部120が機械学習装置300に求められる期待性能を設定する。
S2:入力データ制御部140がセンサデータの選択規則を設定する。
S3:入力データ選択部110が、S2で設定された選択規則にしたがってセンサデータの組合せを決定し、機械学習装置300に入力する。機械学習装置300が、入力されたセンサデータの組合せを用いて学習を行う。
なお、選択規則に適合するセンサデータの組合せが複数存在する場合は、全ての組合せについて順にS3にかかる学習を実行する。
S4:性能評価部130が、テストデータを使用し、S1で設定された期待性能に基づいて、S3で学習を行った機械学習装置300の性能評価を行う。
なお、S3においてセンサデータの組合せを複数用いて学習を行った場合は、当該センサデータの組合せに対応する学習モデル全てについて順にS4にかかる性能評価を実行する。
性能評価部130は、性能評価の結果、期待性能に適合すると判定されたセンサデータの組合せを出力する。
本実施の形態によれば、入力データ制御部140が設定した選択規則にしたがって、入力データ選択部110がセンサデータの組合せを複数定義し、組合せごとに機械学習装置300による機械学習を試行する。性能評価部130は、センサデータの組合せごとに得られた学習結果のうち、期待性能設定部120が設定した期待性能を満たす組合せを出力する。性能評価部130が出力するセンサデータの組合せは、当初情報処理装置100に入力されていたセンサデータの種類数よりも少ないセンサデータの種類数で構成されている。したがって、今後工作機械等の制御やその周辺において機械学習装置300を使用する場合は、性能評価部130が出力するセンサデータの組合せを入力するようにすれば、センサ本体やセンサデータ取得に要する金銭コスト等を削減できるだけでなく、データの計測、取得及び処理にかかる時間や負荷等を抑制し、高速に結果を出力することが可能となる。
(実施例1)
情報処理装置100をワークのキズ検査に適用した例を示す。図6は、本検査の概要を示す模式図である。情報処理装置100としてのロボット制御装置が、ロボット、カメラ(高解像度カメラ及び低解像度カメラ)、照明を制御する。ロボットはハンドによりワークを把持し、様々な方向にワークを回転させる。ロボット制御装置の指令に応じて高解像度カメラ又は低解像度カメラが選択され、様々な方向からワークを撮像する。照明は撮像時、ロボット制御装置の指令に応じてワークを照明する。本実施例では、カメラは高解像度カメラ及び低解像度カメラの2種類、照明は有りと無しの2種類、カメラに対するワークの把持姿勢は100候補あるものとする。
本実施例における機械学習装置300は、カメラが撮像した画像データをセンサデータ60として使用し、傷の有無を示すデータを判定データ70として使用して教師あり学習を行う。学習過程では、予め傷の有無が分かっているワークを様々な撮像条件で撮像した様々な枚数の画像の組合せを与えるものとする。
まず期待性能設定部120において期待性能を設定する。本実施例では、再現率が99.99%以上であること、適合率が99%以上であること、及びコスト性能を評価するための独自の評価式において評価値が最も優れていることを期待性能として設定する。この期待性能によれば、再現率および適合率が要件を満たし、かつコスト性能が最も優れた撮像条件の組合せを得ることができる。コスト性能を評価するための評価式は、高解像度カメラを用いて撮像した場合+20、低解像度カメラを用いて撮像した場合+10、撮像枚数1枚毎に+1の重みの和を計算するものとする。この評価式は、計算値(重みの総和)が小さいほどコスト性能が優れていることを示す。
次に入力データ制御部140においてセンサデータの組合せの選択規則を設定する。本実施例では、撮像条件の組合せ(カメラの解像度の高低、照明の有無、ワークの把持姿勢の種類と数)をランダムに選択するものとする。
続いて入力データ選択部110が、撮像条件の組合せ(カメラの解像度の高低、照明の有無、ワークの把持姿勢の種類と数)をランダムに決定する。入力データ選択部110は、決定した撮像条件の組合せで様々なワークの画像を撮像し、画像データを状態変数S、当該ワークの傷の有無を判定データDとして、学習器としての機械学習装置300に多数入力していく。これにより、当該撮像条件の組合せにおいて、画像データに基づいて傷の有無を推定することができる学習モデルが生成される。
入力データ選択部110は、ランダムに作成される撮像条件の組合せの全てについて同様に学習を行う。これにより、ランダムに作成される撮像条件の組合せの数だけ学習モデルが生成されることになる。なおこの際、撮像条件の組合せごとに個別に学習モデルを生成するのではなく、状態変数Sに撮像条件の組合せの識別子を加えることなどして撮像条件の組合せの数だけ次元数が増加するような学習モデルを1つ生成することも可能である。いずれの手法をとるかは任意であるが、本実施例では前者の手法をとったものとして説明を行う。また、学習および性能評価に使用する画像データは事前に全て撮像しておき、撮像条件の組合せに応じて全画像データの中から使用する画像データを選別するようにしても良い。
最後に性能評価部130が、生成された全ての学習モデルの性能評価を行う。すなわち全ての学習モデルに対して、それぞれ、学習時に与えたものと同じ撮像条件の組合せで撮像されたテスト画像を多数入力し、認識結果(すなわち傷の有無の推定結果)を出力させる。性能評価部130はこの認識結果と正解(傷の有無)とを照合して、再現率、適合率及びコスト性能(上述の評価式の計算値)を計算する。性能評価部130は全ての学習モデルの再現率、適合率及びコスト性能(上述の評価式の計算値)を計算し終えたならば、再現率が99.99%以上であり、適合率が99%以上であり、かつコスト性能の評価式の計算値が最小である学習モデルを特定する。性能評価部130は、こうして特定された学習モデルにおける撮像条件の組合せを、最も優れた性能を有する撮像条件の組合せとして出力する。例えば、低解像度カメラで、照明有り、所定の50の把持姿勢で撮像すること、といった撮像条件を出力できる。
仮に従来、高解像度カメラで、照明有り及び無し、100の把持姿勢で撮像した200枚の画像を使用して傷の有無を認識していたとする。そして本実施例により、低解像度カメラで、照明有り、所定の50の把持姿勢で撮像することで所定の認識精度を達成できることが分かったものとする。この場合、カメラを高解像から低解像度に切り替えることで金銭コストを節減しつつ、同等の認識精度を維持できることになる。また、撮像や画像処理に要する時間や処理負荷も大幅に削減される。
(実施例2)
情報処理装置100をモータの異常検知に適用した例を示す。図7は、本検査の概要を示す模式図である。情報処理装置100としてのロボット制御装置が、ロボットを制御する。このとき、指向性マイクにより音声データが、加速度センサにより加速度データが取得され、情報処理装置100に入力される。このほか、情報処理装置100は図示しないセンサにより電流の外乱値を入力できる。情報処理装置100はこれら3つのセンサを用いて、機械学習によるモータの異常検知を行うものとする。
センサとしてマイクを使用するのは、モータに異常があると異音が発生することが期待できるためである。但しマイクは設置位置などに課題が多く、取付コスト(設置の手間や時間、難易度)が高い。加速度センサは、ロボットのアーム先端に取り付ける。ロボットのアームを動かすモータに異常がある場合、振動が発生したり、加速度の発生傾向に変化が生じることが期待できる。加速度センサも、一定の取付コストが生じる。電流の外乱値は、モータに異常がある場合に上昇することが期待できる。電流の外乱値については、計測するためのコストはほぼ無い。
機械学習装置300は、オートエンコーダを使った異常値検知を行う。異常発生時のデータは、正常時のデータに比べて取得できる件数が圧倒的に少ない。そのため実施例1のような2値分類モデルは適用が困難である。そこで本実施例では、学習段階においては正常時のデータのみを与えてオートエンコーダにより学習モデルを生成する。オートエンコーダは教師なし学習を行う多層ニューラルネットワークであり、入力を再現するような出力を得ることが可能である。オートエンコーダは、入力層と出力層は同じ次元数であるが、中間層において入力が圧縮されて次元数が削減される構成を持つ。オートエンコーダは学習が進むにつれて、入力層と出力層の誤差ができるだけ小さくなるようなニューロンの重みを決定していく。正常データのみを用いて学習を行ったオートエンコーダに異常データを入力すると、オートエンコーダは入力をうまく再現して出力することができない。すなわち、入力と出力との誤差が大きくなる。このようなオートエンコーダの性質を利用することで、正常時のデータのみを用いて学習を行ったオートエンコーダに入力を与え、入力と出力との誤差が所定のしきい値を超えたときに、入力を異常データと判定することができる。
本実施の形態の機械学習装置300は、正常時に指向性マイクにより取得された音声データ、加速度センサにより取得された加速度データ、図示しないセンサにより取得された電流の外乱値の3つのセンサデータのうち、1以上のセンサデータの組合せを入力し、学習モデルを生成するものとする。この際、センサが出力する生データに対し、高速フーリエ変換などの前処理を適宜実施することができる。
期待性能設定部120において期待性能を設定する。本実施例では、再現率が99.99%以上であること、適合率が99%以上であること、及びコスト性能を評価するための独自の評価式において評価値が最も優れていることを期待性能として設定する。この期待性能によれば、再現率および適合率が要件を満たし、かつコスト性能が最も優れた撮像条件の組合せを得ることができる。コスト性能を評価するための評価式は、指向性マイクを用いた場合+20、加速度センサを使用した場合+10、電流の外乱値を用いた場合+0の重みの和を計算するものとする。この評価式は、計算値(重みの総和)が小さいほどコスト性能が優れていることを示す。
次に入力データ制御部140においてセンサデータの組合せの選択規則を設定する。本実施例では、センサ(指向性マイク、加速度センサ、電流の外乱値)の組合せをランダムに選択するものとする。
続いて入力データ選択部110が、センサ(指向性マイク、加速度センサ、電流の外乱値)の組合せをランダムに決定する。入力データ選択部110は、決定したセンサの組合せでセンサデータを多数取得し、学習器としての機械学習装置300に入力していく。これにより、当該センサデータの組合せによって異常検知を行うための学習モデルが生成される。入力データ選択部110は、ランダムに作成されるセンサの組合せの全てについて同様に学習を行う。
最後に性能評価部130が、生成された全ての学習モデルの性能評価を行う。すなわち全ての学習モデルに対して、それぞれ、学習時に与えたものと同じセンサの組合せで取得されるテストデータを多数入力し、認識結果(すなわち異常検知の有無)を出力させる。性能評価部130はこの認識結果と正解(異常データか否か)とを照合して、再現率、適合率及びコスト性能(上述の評価式の計算値)を計算する。性能評価部130は全ての学習モデルの再現率、適合率及びコスト性能(上述の評価式の計算値)を計算し終えたならば、再現率が99.99%以上であり、適合率が99%以上であり、かつコスト性能の評価式の計算値が最小である学習モデルを特定する。性能評価部130は、こうして特定された学習モデルにおけるセンサの組合せを、最も優れた性能を有する撮像条件の組合せとして出力する。
本実施例によれば、例えばラインシステム導入前に、異常検知のために必要なセンサを特定できるので、実際のラインシステムを安価かつ安定した状態で構築することが可能となる。
<実施の形態2>
実施の形態1では、入力データ制御部140が設定した選択規則にしたがって、入力データ選択部110がセンサデータの組合せを複数定義し、それぞれの組合せについて機械学習装置300による機械学習を行った。
実施の形態2では、入力データ制御部140はさらに、ニューラルネットワークの中間層の構成も変化させる。すなわち、ニューラルネットワークのハイパーパラメータを変化させることができる。入力データ制御部140はニューラルネットワークのハイパーパラメータの設定規則について、予め複数の候補を保持する。そして入力データ制御部140は、使用すべきニューラルネットワークのハイパーパラメータの設定規則を入力データ選択部110に対して指定する。
入力データ選択部110は、指定されたハイパーパラメータの設定規則に従って、機械学習装置300のハイパーパラメータを変更する。その後、実施の形態1に示した学習プロセスを実行する。
最も典型的なハイパーパラメータの設定規則は、ハイパーパラメータをランダムに設定することである。実施の形態1においてセンサデータの組合せに対して行ったように、遺伝的アルゴリズムを用いて、組合わせ最適化を行っても良い。この場合、図8に示すように、入力データ選択部110は、ランダムに選択されたニューラルネットワークのハイパーパラメータで構成される学習器それぞれについて、順次、実施の形態1に示した学習プロセスを実行する。性能評価部130もまた、当該ハイパーパラメータで構成される認識器それぞれについて、順次、実施の形態1に示した性能評価プロセスを実行する。
本実施の形態によれば、最適なセンサデータの組合せだけでなく、最適なニューラルネットワークのハイパーパラメータも特定することができる。これにより、センサデータの組合せをより最適化することができる。本来必要なセンサデータを全部与えていても、ニューラルネットワークの設計が悪いために十分な認識結果が得られない場合がある。このような場合であっても、本実施の形態によりニューラルネットワークの構造も網羅的に変化させるならば、探索空間が広がり、最適なセンサデータの組合せを発見することが可能となる。
以上、本発明の実施の形態について説明したが、本発明は上述した実施の形態の例のみに限定されることなく、適宜の変更を加えることにより様々な態様で実施することができる。
例えば上述の実施の形態では、情報処理装置100が、ロボット制御装置などの1つの装置として実現され、ロボットなど1つの制御対象からセンサデータを取得する例を主に説明した。しかしながら、本発明はこれに限定されるものではない。例えば情報処理装置100は、汎用の通信ネットワークや工場内ネットワーク等の専用通信ネットワーク上に設置され、当該通信ネットワークを介して制御対象からセンサデータを取得しても良い。情報処理装置100は1台のコンピュータであっても良い、複数のコンピュータが分散的に処理を行うことにより実現されても良い。学習又はテスト用のセンサデータは、1つの制御対象から取得しても良く、同種の複数の制御対象から取得しても良い。学習又はテスト用のセンサデータは、リアルタイムに収集されたものを使用しても良く、収集されたデータを所定の記憶領域に蓄積したものを使用しても良い。
また上述の実施の形態では、情報処理装置100において、入力データ選択部110が全てのセンサデータの組み合わせについて学習プロセスを実行し、その後、性能評価部130が得られた全ての学習モデルの性能評価プロセスを実行する例を示した。しかしながら、例えば入力データ選択部110が1つのセンサデータの組合せについて学習プロセスを実行したならば、その後、性能評価部130がその学習モデルの性能評価プロセスを実行することとしても良い。すなわち、入力データ選択部110による学習と、それに続く性能評価部130による性能評価と、からなる処理プロセスが、センサデータの組合せの数だけ反復される。この場合、例えば性能評価部130において良好な性能を発揮する選択規則が発見されたならば、その時点で反復処理を中断しても良い。
100 情報処理装置
110 入力データ選択部
120 期待性能設定部
130 性能評価部
140 入力データ制御部
11 CPU
12 ROM
13 RAM
14 不揮発性メモリ
18,19,21 インタフェース
20 バス
60 センサデータ
70 判定データ
300 機械学習装置
301 プロセッサ
302 ROM
303 RAM
304 不揮発性メモリ
306 状態観測部
308 判定データ取得部
310 学習部
311 誤差計算部
312 モデル更新部
320 判定出力部
330 データ取得部

Claims (10)

  1. 異なる複数のセンサデータを入力して機械学習を行う機械学習装置を有する情報処理装置において、
    1以上の前記センサデータの組合せを作成するための選択規則を設定する入力データ制御部と、
    前記選択規則にしたがって前記センサデータの組合せを複数作成し、前記センサデータの組合せを前記機械学習装置に入力して、前記センサデータの組合せそれぞれに対応する認識器を生成する入力データ選択部と、
    前記認識器に求められる期待性能を設定する期待性能設定部と、
    前記期待性能にしたがって前記認識器の性能を評価し、前記期待性能を満足する前記認識器に対応する前記センサデータの組合せを出力する性能評価部と、を有する
    情報処理装置。
  2. 前記期待性能は、前記センサデータの取得コストによって定義され、
    前記センサデータの取得コストは、前記センサデータを取得するセンサの価格、前記センサの設置の難易度、あるいは前記センサデータの取得又は処理に要する費用、時間又は処理負荷に基づいて計算される
    請求項1記載の情報処理装置。
  3. 前記期待性能は、前記認識器の正答率、適合率、再現率又はF値によって定義される
    請求項1記載の情報処理装置。
  4. 前記センサデータは、温度、変位、圧力、電流、速度、加速度、画像、照度、音声、匂い、長さに関するものである
    請求項1記載の情報処理装置。
  5. 前記性能評価部は、前記期待性能を満足する前記センサデータの組合せを複数提示し、ユーザに所望の前記センサデータの組合せを選択させるインタフェースを有する
    請求項1記載の情報処理装置。
  6. 前記認識器はニューラルネットワークにより構成される
    請求項1記載の情報処理装置。
  7. 前記入力データ制御部は、前記ニューラルネットワークの中間層の構成の設定規則をさらに設定する
    請求項6記載の情報処理装置。
  8. 前記入力データ制御部は、前記ニューラルネットワークにおいて入力層から中間層への結合係数が小さい前記センサデータを削除する前記選択規則を有する
    請求項6記載の情報処理装置。
  9. 前記入力データ制御部は、前記ニューラルネットワークにおいて認識時の中間層の発火への寄与率が小さい前記センサデータを削除する前記選択規則を有する
    請求項6記載の情報処理装置。
  10. 前記センサデータは、通信ネットワークを介して1以上のセンサから収集される
    請求項1記載の情報処理装置。
JP2017143977A 2017-07-25 2017-07-25 情報処理装置 Active JP6523379B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017143977A JP6523379B2 (ja) 2017-07-25 2017-07-25 情報処理装置
US16/038,486 US10664754B2 (en) 2017-07-25 2018-07-18 Information processing apparatus
DE102018005652.0A DE102018005652A1 (de) 2017-07-25 2018-07-18 Informationsverarbeitungsvorrichtung
CN201810828164.1A CN109297974B (zh) 2017-07-25 2018-07-25 信息处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143977A JP6523379B2 (ja) 2017-07-25 2017-07-25 情報処理装置

Publications (2)

Publication Number Publication Date
JP2019028515A true JP2019028515A (ja) 2019-02-21
JP6523379B2 JP6523379B2 (ja) 2019-05-29

Family

ID=65004382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143977A Active JP6523379B2 (ja) 2017-07-25 2017-07-25 情報処理装置

Country Status (4)

Country Link
US (1) US10664754B2 (ja)
JP (1) JP6523379B2 (ja)
CN (1) CN109297974B (ja)
DE (1) DE102018005652A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144001A (ja) * 2019-03-06 2020-09-10 オムロン株式会社 センサシステム
JP2020160344A (ja) * 2019-03-27 2020-10-01 株式会社 日立産業制御ソリューションズ 音響特徴量変換装置、音響モデル学習装置、音響認識装置、音響特徴量変換方法、および音響特徴量変換プログラム
JP2021012633A (ja) * 2019-07-09 2021-02-04 日立金属株式会社 異常度算出方法、及び、異常度算出用コンピュータプログラム
CN112985467A (zh) * 2019-12-16 2021-06-18 西克斯特格曼有限公司 用于确定运动学变量的编码器设备和方法
JP7332654B2 (ja) 2021-06-29 2023-08-23 株式会社かんでんエンジニアリング 架空線損傷判定システム
JP7407889B2 (ja) 2022-01-27 2024-01-04 株式会社日立製作所 単一エッジデバイスにおける複数の機械学習モデルの実行の最適化

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6898371B2 (ja) * 2019-02-28 2021-07-07 ファナック株式会社 加工条件調整装置及び加工条件調整システム
US11443137B2 (en) 2019-07-31 2022-09-13 Rohde & Schwarz Gmbh & Co. Kg Method and apparatus for detecting signal features
CN110543944B (zh) * 2019-09-11 2022-08-02 北京百度网讯科技有限公司 神经网络结构搜索方法、装置、电子设备和介质
DE102020101490A1 (de) 2020-01-22 2021-07-22 Endress+Hauser Conducta Gmbh+Co. Kg Sensorsystem und Verfahren
US11237942B2 (en) 2020-03-12 2022-02-01 International Business Machines Corporation Model comparison with unknown metric importance
US11379991B2 (en) * 2020-05-29 2022-07-05 National Technology & Engineering Solutions Of Sandia, Llc Uncertainty-refined image segmentation under domain shift
US11720417B2 (en) 2020-08-06 2023-08-08 Micron Technology, Inc. Distributed inferencing using deep learning accelerators with integrated random access memory
US20220044107A1 (en) * 2020-08-06 2022-02-10 Micron Technology, Inc. Optimized sensor fusion in deep learning accelerator with integrated random access memory
CN112475904B (zh) * 2020-11-12 2021-09-28 安徽江机重型数控机床股份有限公司 一种基于热分析的数控铣镗床加工精度预测方法
CN113059402B (zh) * 2021-03-31 2022-07-12 南昌大学 一种数控铣床铣削颤振智能监测系统
CN114952419B (zh) * 2022-05-11 2023-12-22 深圳吉兰丁智能科技有限公司 一种基于多特征融合的断刀监控方法及电子设备
CN115409133B (zh) * 2022-10-31 2023-02-03 中科航迈数控软件(深圳)有限公司 基于跨模态数据融合的数控机床操作意图识别方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102217A (ja) * 1992-09-17 1994-04-15 Nok Corp ガス識別方法とガス識別装置
JPH06119291A (ja) * 1992-10-06 1994-04-28 Toshiba Corp 配水量予測装置
JPH0749945A (ja) * 1993-08-04 1995-02-21 Mitsubishi Electric Corp 識別装置
JP2008293178A (ja) * 2007-05-23 2008-12-04 Nippon Telegr & Teleph Corp <Ntt> シーン管理装置及びシーン管理方法ならびにそのプログラム
JP2016114986A (ja) * 2014-12-11 2016-06-23 株式会社Ihi センサ組合せ決定装置及びセンサ組合せ決定方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4554420A (en) 1984-05-01 1985-11-19 Westinghouse Electric Corp. Electrical switch
US9760914B2 (en) * 2009-08-31 2017-09-12 International Business Machines Corporation Determining cost and processing of sensed data
JP6201792B2 (ja) 2014-02-06 2017-09-27 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
CN106844403B (zh) 2015-12-07 2020-04-14 北京国双科技有限公司 信息处理方法和装置
US20190026630A1 (en) * 2016-03-28 2019-01-24 Sony Corporation Information processing apparatus and information processing method
US10733534B2 (en) * 2016-07-15 2020-08-04 Microsoft Technology Licensing, Llc Data evaluation as a service

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102217A (ja) * 1992-09-17 1994-04-15 Nok Corp ガス識別方法とガス識別装置
JPH06119291A (ja) * 1992-10-06 1994-04-28 Toshiba Corp 配水量予測装置
JPH0749945A (ja) * 1993-08-04 1995-02-21 Mitsubishi Electric Corp 識別装置
JP2008293178A (ja) * 2007-05-23 2008-12-04 Nippon Telegr & Teleph Corp <Ntt> シーン管理装置及びシーン管理方法ならびにそのプログラム
JP2016114986A (ja) * 2014-12-11 2016-06-23 株式会社Ihi センサ組合せ決定装置及びセンサ組合せ決定方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144001A (ja) * 2019-03-06 2020-09-10 オムロン株式会社 センサシステム
JP2022121472A (ja) * 2019-03-06 2022-08-19 オムロン株式会社 センサシステム
JP7137761B2 (ja) 2019-03-06 2022-09-15 オムロン株式会社 センサシステム
JP7382015B2 (ja) 2019-03-06 2023-11-16 オムロン株式会社 センサシステム
JP2020160344A (ja) * 2019-03-27 2020-10-01 株式会社 日立産業制御ソリューションズ 音響特徴量変換装置、音響モデル学習装置、音響認識装置、音響特徴量変換方法、および音響特徴量変換プログラム
JP7208846B2 (ja) 2019-03-27 2023-01-19 株式会社 日立産業制御ソリューションズ 音響特徴量変換装置、音響特徴量変換方法、および音響特徴量変換プログラム
JP7268509B2 (ja) 2019-07-09 2023-05-08 株式会社プロテリアル 異常度算出方法、及び、異常度算出用コンピュータプログラム
JP2021012633A (ja) * 2019-07-09 2021-02-04 日立金属株式会社 異常度算出方法、及び、異常度算出用コンピュータプログラム
CN112985467A (zh) * 2019-12-16 2021-06-18 西克斯特格曼有限公司 用于确定运动学变量的编码器设备和方法
US11698386B2 (en) 2019-12-16 2023-07-11 Sick Ag Encoder device and method of determining a kinematic value
CN112985467B (zh) * 2019-12-16 2023-01-24 西克股份公司 用于确定运动学变量的编码器设备和方法
JP7332654B2 (ja) 2021-06-29 2023-08-23 株式会社かんでんエンジニアリング 架空線損傷判定システム
JP7407889B2 (ja) 2022-01-27 2024-01-04 株式会社日立製作所 単一エッジデバイスにおける複数の機械学習モデルの実行の最適化

Also Published As

Publication number Publication date
US10664754B2 (en) 2020-05-26
CN109297974A (zh) 2019-02-01
US20190034803A1 (en) 2019-01-31
CN109297974B (zh) 2021-03-02
DE102018005652A1 (de) 2019-01-31
JP6523379B2 (ja) 2019-05-29

Similar Documents

Publication Publication Date Title
JP6523379B2 (ja) 情報処理装置
JP6693938B2 (ja) 外観検査装置
JP6560707B2 (ja) 加工面品位評価装置
JP6810087B2 (ja) 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP6693919B2 (ja) 制御装置及び機械学習装置
JP6506245B2 (ja) 組付動作を学習する機械学習装置および部品組付システム
Borgi et al. Data analytics for predictive maintenance of industrial robots
JP2020168719A (ja) ロボットシステムおよびロボットの制御方法
CN111684474B (zh) 运算装置、运算方法及记录介质
JP6595555B2 (ja) 仕分けシステム
JP2018156151A (ja) 異常検知装置及び機械学習装置
JP6680750B2 (ja) 制御装置及び機械学習装置
CN111767930A (zh) 物联网时序数据异常检测方法及其相关设备
US10852710B2 (en) Thermal displacement compensation apparatus
JP2019030941A (ja) 制御装置及び学習装置
JP2018086715A (ja) テレスコピックカバーの異常発生推定装置及び異常発生推定方法
JP6603260B2 (ja) 数値制御装置
CN109308051B (zh) 数值控制装置
JP6823025B2 (ja) 検査装置及び機械学習方法
CN116361191A (zh) 一种基于人工智能的软件兼容性处理方法
JP2020107248A (ja) 異常判定装置および異常判定方法
JP2020086786A (ja) 検出装置及び機械学習方法
JP2019136818A (ja) 制御装置及び機械学習装置
Ribeiro Machado da Silva et al. Convolutional Neural Networks Applied to Flexible Pipes for Fatigue Calculations
CN115398442A (zh) 用于评估传感器测量值的设备和自动化方法和该设备的应用

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181211

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190425

R150 Certificate of patent or registration of utility model

Ref document number: 6523379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150