JP2017224264A - Data processing system - Google Patents

Data processing system Download PDF

Info

Publication number
JP2017224264A
JP2017224264A JP2016177109A JP2016177109A JP2017224264A JP 2017224264 A JP2017224264 A JP 2017224264A JP 2016177109 A JP2016177109 A JP 2016177109A JP 2016177109 A JP2016177109 A JP 2016177109A JP 2017224264 A JP2017224264 A JP 2017224264A
Authority
JP
Japan
Prior art keywords
data
ontology
sensor
assembly
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016177109A
Other languages
Japanese (ja)
Other versions
JP6772692B2 (en
Inventor
雅夫 渡部
Masao Watabe
雅夫 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to US15/374,191 priority Critical patent/US10747768B2/en
Priority to EP16204743.5A priority patent/EP3258395B1/en
Priority to CN201710073918.2A priority patent/CN107506364B/en
Publication of JP2017224264A publication Critical patent/JP2017224264A/en
Application granted granted Critical
Publication of JP6772692B2 publication Critical patent/JP6772692B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data processing system capable of flexible data processing and improving a processing speed as compared to stream reasoning and the like.SOLUTION: A data processing system comprises a sensor actuator control module 14 and a service module 18. The sensor actuator control module 14 assigns unique key information to a data stream from a sensor 10, and stores the data stream in a Redis data store 16. The service module 18 infers key information corresponding to a query using ontology data stored in an RDF store 22, and selects a data stream having the corresponding key information as a first step. The service module performs data processing using the selected data as a second step.SELECTED DRAWING: Figure 1

Description

本発明は、データ処理システムに関する。   The present invention relates to a data processing system.

近年、ストリームデータミドルウェア(Stream Data Middleware)、複合イベント処理(CEP:Complex Event Processing)、ストリームリーズニング(Stream Reasoning)等の各種データ処理方法が開発・提案されている。ストリームデータミドルウェアや複合イベント処理では、事前に定義した分析シナリオに、リアルタイムにデータを流し込むことでリアルタイム処理しているが、1つのデータに1つのコンテキストを割り付ける、すなわちRAWデータに対して直接処理テンプレートを適用して処理するため、フレキシビリティがない欠点がある。ストリームリーズニングでは、RDF(Resource Description Framework)とオントロジー(Ontology)をベースとしてデータを推論しながら処理する、すなわちRAWデータを推論可能が可能なデータに加工した上で処理するため、1つのデータに複数のオントロジーを割り付けることが可能で、データ処理にフレキシビリティがある。但し、RAWデータに対して後ろ向き及び前向き推論を行うと、データ処理量が増加してリアルタイム性が低下する場合がある。   In recent years, various data processing methods such as stream data middleware, composite event processing (CEP), and stream reasoning have been developed and proposed. In stream data middleware and complex event processing, real-time processing is performed by flowing data into a predefined analysis scenario in real time, but one context is assigned to one data, that is, a direct processing template for RAW data Since the process is applied, there is a disadvantage that there is no flexibility. In Stream Reasoning, processing is performed while inferring data based on RDF (Resource Description Framework) and Ontology, that is, RAW data is processed into data that can be inferred and processed into one data. Multiple ontologies can be assigned and data processing is flexible. However, if backward and forward inference is performed on RAW data, the amount of data processing increases and real-time performance may be reduced.

特許文献1には、ユーザアプリケーションと、存在論ベースの検索システムを使用する位置ベースのサービスを使用するモバイルデバイスのためのユーザアプリケーションの作成を単純化するために検索されるべき様々なコンテンツデータベースとの間に位置する、ミドルウェアシステムが記載されている。ミドルウェアシステムは、ユーザアプリケーションに1つ又は複数のサービスを提示する。例えば、サービスは、ユーザが既知の意味的な位置に注釈をつけ及び/又はタグ付けすることを可能にするサービスを提示する。提案される意味的なPOIはユーザの位置及びコンテキスト依存の情報に基づいて選択される。   In US Pat. No. 6,057,059, a user application and various content databases to be searched to simplify the creation of a user application for a mobile device that uses a location-based service that uses an ontology-based search system. A middleware system located between the two is described. The middleware system presents one or more services to the user application. For example, the service presents a service that allows a user to annotate and / or tag a known semantic location. The proposed semantic POI is selected based on the user's location and context-dependent information.

特表2013−507695号公報Special table 2013-507695 gazette

本発明の目的は、フレキシブルなデータ処理を可能とするとともに、ストリームリーズニング等の従来技術と比べて処理速度が改善されたデータ処理システムを提供することにある。   An object of the present invention is to provide a data processing system that enables flexible data processing and has an improved processing speed compared to conventional techniques such as stream reasoning.

請求項1に記載の発明は、オントロジーデータを記憶する記憶手段と、センサデータに対して一意に付与されたkey情報を含むデータストリームに対し、記憶手段に記憶されたオントロジーデータを用いてクエリーに対応するkey情報を有するデータストリームを選択する選択手段と、選択されたデータストリームを処理する処理手段とを備えるデータ処理システムである。   According to the first aspect of the present invention, a storage means for storing ontology data and a data stream including key information uniquely assigned to the sensor data are used for a query using the ontology data stored in the storage means. A data processing system including a selection unit that selects a data stream having corresponding key information, and a processing unit that processes the selected data stream.

請求項2に記載の発明は、選択手段は、クエリーを受け付ける受付部と、記憶手段からオントロジーデータを取得する取得部と、クエリーとオントロジーデータを用いてkey情報を推論する推論部と、推論されたkey情報を用いてデータストリームを選択する選択部とを備える請求項1に記載のデータ処理システムである。   According to the second aspect of the present invention, the selection unit is inferred from a receiving unit that receives a query, an acquisition unit that acquires ontology data from a storage unit, and an inference unit that infers key information using the query and ontology data. The data processing system according to claim 1, further comprising: a selection unit that selects a data stream using the key information.

請求項3に記載の発明は、処理手段は、選択されたデータストリームを抽象化する抽象化部と、抽象化されたデータストリームを構造化する構造化部と、記憶手段に記憶されたオントロジーデータを用いて構造化されたデータストリームを処理する処理部とを備える請求項1,2のいずれかに記載のデータ処理システムである。   According to a third aspect of the present invention, the processing means includes an abstraction section that abstracts the selected data stream, a structuring section that structures the abstracted data stream, and ontology data stored in the storage means. The data processing system according to claim 1, further comprising: a processing unit that processes a structured data stream using the data.

請求項4に記載の発明は、記憶手段は、オントロジーデータに関連付けられたデータ処理ルーチンテンプレートを記憶し、処理手段は、選択されたデータストリームをデータ処理ルーチンテンプレートで処理する請求項1,2のいずれかに記載のデータ処理システムである。   According to a fourth aspect of the present invention, the storage means stores a data processing routine template associated with ontology data, and the processing means processes the selected data stream with the data processing routine template. A data processing system according to any one of the above.

請求項5に記載の発明は、オントロジーデータは、作業手順書のオントロジーデータである請求項1〜4のいずれかに記載のデータ処理システムである。   The invention according to claim 5 is the data processing system according to any one of claims 1 to 4, wherein the ontology data is ontology data of a work procedure manual.

請求項6に記載の発明は、オントロジーデータは、製品組立に関するオントロジーデータであり、センサデータは、製品組立に関するセンサデータであり、推論部は、クエリーを用いて製品組立の組立動作要素を抽出し、抽出した組立動作要素からkey情報を推論する請求項2に記載のデータ処理システムである。   In the invention described in claim 6, the ontology data is ontology data related to product assembly, the sensor data is sensor data related to product assembly, and the inference unit extracts an assembly operation element of product assembly using a query. The data processing system according to claim 2, wherein key information is inferred from the extracted assembly operation element.

請求項7に記載の発明は、key情報には、製品組立の組立工程に配置され、センサデータを受信するセンサハブを一意に特定するIDが含まれ、推論部は、抽出した組立動作要素からIDを推論することでkey情報を推論する請求項1に記載のデータ処理システムである。   In the invention according to claim 7, the key information includes an ID that is arranged in the assembly process of the product assembly and uniquely identifies the sensor hub that receives the sensor data, and the inference unit identifies the ID from the extracted assembly operation element. The data processing system according to claim 1, wherein key information is inferred by inferring.

請求項8に記載の発明は、処理手段は、センサデータを所定時間幅のウィンドウで切り取って得られるデータと、機械学習して得られた学習結果とを用いて処理する請求項1に記載のデータ処理システムである。   The invention according to claim 8 is the processing means according to claim 1, wherein the processing means performs processing using data obtained by cutting the sensor data with a window having a predetermined time width and a learning result obtained by machine learning. A data processing system.

請求項9に記載の発明は、オントロジーデータは、製品組立に関するオントロジーデータであり、センサデータは、製品組立に関するセンサデータであり、処理手段は、センサデータを処理して得られる製品組立シーケンス情報と、オントロジーデータから得られる製品組立シーケンス情報とを用いて、製品組立の異常を検出する請求項8に記載のデータ処理システムである。   According to a ninth aspect of the present invention, the ontology data is ontology data relating to product assembly, the sensor data is sensor data relating to product assembly, and the processing means includes product assembly sequence information obtained by processing the sensor data. 9. The data processing system according to claim 8, wherein an abnormality in product assembly is detected using product assembly sequence information obtained from ontology data.

請求項10に記載の発明は、センサデータを所定時間幅のウィンドウで切り取って得られるデータには時間情報が含まれ、処理手段は、センサデータを処理して得られるシーケンス情報と、オントロジーデータから得られるシーケンス情報とを用いて、製品組立時間の異常を検出する請求項9に記載のデータ処理システムである。   According to the tenth aspect of the present invention, the time information is included in the data obtained by cutting out the sensor data with a window having a predetermined time width, and the processing means includes sequence information obtained by processing the sensor data, and ontology data. The data processing system according to claim 9, wherein abnormality of product assembly time is detected using the obtained sequence information.

請求項1に記載の発明によれば、フレキシブルなデータ処理を可能とするとともに、ストリームリーズニング等の従来技術と比べて処理速度を改善することができる。   According to the first aspect of the present invention, flexible data processing can be performed, and the processing speed can be improved as compared with conventional techniques such as stream reasoning.

請求項2に記載の発明によれば、さらに、該当するkey情報をフレキシブルに選択することができる。   According to the second aspect of the present invention, the corresponding key information can be selected flexibly.

請求項3に記載の発明によれば、さらに、推論しながらデータ処理することができる。   According to the third aspect of the present invention, it is possible to further process data while inferring.

請求項4に記載の発明によれば、さらに、テンプレートを用いて迅速にデータ処理することができる。   According to the fourth aspect of the present invention, it is possible to quickly process data using a template.

請求項5に記載の発明によれば、さらに、作業手順のデータ処理が可能となる。
請求項6〜8に記載の発明によれば、さらに、製品組立に関するセンサデータを処理することができる。
According to the fifth aspect of the present invention, the data processing of the work procedure can be further performed.
According to the sixth to eighth aspects of the present invention, sensor data relating to product assembly can be further processed.

請求項9に記載の発明によれば、さらに、センサデータを処理して製品組立の異常を検出することができる。   According to the ninth aspect of the present invention, the sensor data can be further processed to detect abnormality in product assembly.

請求項10に記載の発明によれば、さらに、センサデータを処理して製品組立時間の異常を検出することができる。   According to the tenth aspect of the present invention, the sensor data can be further processed to detect an abnormality in the product assembly time.

実施形態のシステム構成図である。It is a system configuration figure of an embodiment. 実施形態のシステム構成図(その2)である。It is a system configuration figure (2) of an embodiment. 実施形態のリアルタイムデータ取得部の処理説明図である。It is processing explanatory drawing of the real-time data acquisition part of embodiment. 実施形態のリアルタイムデータ取得部の機能ブロック図である。It is a functional block diagram of the real-time data acquisition part of an embodiment. 実施形態のリアルタイムデータ処理部の機能ブロック図である。It is a functional block diagram of the real time data processing part of an embodiment. オントロジーデータの概念説明図である。It is a conceptual explanatory view of ontology data. オントロジーデータを用いたデータ処理システムの概念図である。It is a conceptual diagram of the data processing system using ontology data. 組立動作要素のオントロジー説明図である。It is ontology explanatory drawing of an assembly operation | movement element. センサ・アクチュエータハブの配置説明図である。It is arrangement | positioning explanatory drawing of a sensor and an actuator hub. key値の付与説明図である。FIG. 11 is an explanatory diagram for giving a key value. 組立工程と組立説明書の関係を示す図である。It is a figure which shows the relationship between an assembly process and an assembly manual. key値の推論を示す説明図である。It is explanatory drawing which shows the inference of a key value. センサデータの分割説明図である。It is division | segmentation explanatory drawing of sensor data. センサデータの学習説明図である。It is learning explanatory drawing of sensor data. センサデータの詳細学習説明図である。It is detailed learning explanatory drawing of sensor data. センサデータと学習データの比較説明図である。It is comparison explanatory drawing of sensor data and learning data. RAWデータとオントロジーデータのシーケンス情報比較説明図(その1)である。It is sequence information comparison explanatory drawing (the 1) of RAW data and ontology data. RAWデータとオントロジーデータのシーケンス情報比較説明図(その2)である。It is sequence information comparison explanatory drawing (the 2) of RAW data and ontology data. 組立手順書の具体例を示す図である。It is a figure which shows the specific example of an assembly procedure manual. 組立手順書のオントロジーデータ説明図である。It is ontology data explanatory drawing of an assembly procedure manual. 作業手順のオントロジーデータ説明図(その1)である。It is ontology data explanatory drawing (the 1) of a work procedure. 作業手順のオントロジーデータ説明図(その2)である。It is ontology data explanatory drawing (the 2) of a work procedure.

以下、図面に基づき本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、本実施形態について前提となるオントロジーについて説明する。   First, an ontology that is a prerequisite for this embodiment will be described.

オントロジーは、情報を組織化する構造的フレームワークであり、エンティティ、アイデア、およびイベントに関する特性と関係とともに、それらをある分類システムに沿って表現することを意味する。   Ontology is a structural framework for organizing information, and means representing them along a certain classification system, along with properties and relationships about entities, ideas, and events.

図6は、オントロジーを概念的に示す。標準的なデータ50、領域毎に作成されたデータ52、個別情報54を収集し、概念レベル、ドメインレベル、個別情報レベルの各レベルで関係性を記述するとともに各レベルで構造化する。構造化データを用いることで、人間が考えているようにコンピュータが判断し、データを処理することが可能となる。オントロジーを構築するには、辞書や標準データ、ドキュメント等の非構造化データを構造化する技術が必要であり、自然言語処理や機械学習が用いられる。   FIG. 6 conceptually shows the ontology. Standard data 50, data 52 created for each area, and individual information 54 are collected, and relationships are described at the concept level, domain level, and individual information level, and structured at each level. By using structured data, it is possible for a computer to make judgments and process data as a human thinks. To build an ontology, a technique for structuring unstructured data such as dictionaries, standard data, and documents is required, and natural language processing and machine learning are used.

図7は、オントロジーを用いた一般的な処理システムの概念構成を示す。   FIG. 7 shows a conceptual configuration of a general processing system using an ontology.

辞書や標準データ、作業手順書60、あるいはドメイン知識等は、自然言語処理及び機械学習により知識情報構造化データ、すなわちオントロジーデータ68に変換される。   The dictionary, standard data, work procedure manual 60, domain knowledge, and the like are converted into knowledge information structured data, that is, ontology data 68 by natural language processing and machine learning.

他方、ドキュメント62等の非構造化データ、データベースデータ64等の構造化データ、センサ66からのセンサデータ等は、それぞれドキュメントデータ構造化モジュール、データベースデータ変換モジュール、センサデータ構造化モジュールにより構造化され、構造化データ(RDF)67に変換される。ここで、RDF(Resource Description Framework)は、メタデータの表現方法についての枠組みである。   On the other hand, unstructured data such as the document 62, structured data such as the database data 64, sensor data from the sensor 66, and the like are structured by a document data structuring module, a database data conversion module, and a sensor data structuring module, respectively. , Converted into structured data (RDF) 67. Here, RDF (Resource Description Framework) is a framework for a method of expressing metadata.

構造化データ67とオントロジーデータ68は、推論エンジンに供給されて構造化データ67とオントロジーデータ68とのマッチングが行われ、これにより知識情報を付与した構造化データ70が得られる。知識情報が付与された構造化データ70は、データベース72に格納され、各種処理に供される。各種処理は、知識情報を付与することで可能となる処理であり、例えば、コンテキスト(プログラムの実行に必要な各種情報)抽出により知識情報見える化ツール74を生成し、データ統合により状況に合わせた二次データ76を生成し、意味推論により意味検索78を行い、属性統合により顧客データベース用データ80を再構築する等である。   The structured data 67 and ontology data 68 are supplied to the inference engine, and the structured data 67 and the ontology data 68 are matched, thereby obtaining structured data 70 to which knowledge information is added. The structured data 70 to which the knowledge information is given is stored in the database 72 and used for various processes. Various types of processing can be performed by adding knowledge information. For example, a knowledge information visualization tool 74 is generated by extracting context (various information necessary for program execution), and data integration is performed according to the situation. For example, secondary data 76 is generated, semantic retrieval 78 is performed by semantic inference, and customer database data 80 is reconstructed by attribute integration.

このような処理システムにおいて、構造化データ67とオントロジーデータ68を用いた推論としては、RAWデータを推論処理が可能なデータに加工し、推論しながら処理するストリームリーズニング処理が公知であるが、既述したようにデータ処理量が増大してリアルタイム性が低下する問題がある。   In such a processing system, as a reasoning using the structured data 67 and the ontology data 68, stream reasoning processing is known in which RAW data is processed into data that can be inferred and processed while inferencing. As described above, there is a problem that the amount of data processing increases and the real-time property decreases.

そこで、本実施形態では、推論処理とRAWデータの処理を分け、第1ステップで推論処理を実行して必要なRAWデータを選択し、第2ステップで選択したRAWデータを処理する方式を用いる。   Therefore, in the present embodiment, a method is used in which inference processing and RAW data processing are separated, inference processing is executed in the first step, necessary RAW data is selected, and RAW data selected in the second step is processed.

次に、本実施形態のデータ処理システムについて、各種センサからのセンサデータを例にとり具体的に説明する。なお、かかるデータ処理システムは、いわゆるIoT(Internet of Things)に適用し得るものであるが、必ずしもこれに限定されない。   Next, the data processing system of the present embodiment will be specifically described by taking sensor data from various sensors as an example. In addition, although this data processing system is applicable to what is called IoT (Internet of Things), it is not necessarily limited to this.

本実施形態において、「モジュール」あるいは「エンジン」とは、論理的に分離可能なソフトウェア、ハードウェア等の部品を意味する。従って、本実施形態におけるモジュールはコンピュータプログラムにおけるモジュールのみならず、ハードウェア構成におけるモジュールも意味する。モジュールは機能に対して1:1に対応してもよいが、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよい。また、複数モジュールは1つのプロセッサないしコンピュータによって実行されてもよいし、分散又は並列環境における複数のプロセッサないしコンピュータによって実行されてもよい。各モジュールによる処理では、対象となる情報を記憶装置から読み込み、CPU等のプロセッサで処理を行った後に、処理結果を記憶装置に出力して書き込む。記憶装置は、HDD、RAM、CPU内のレジスタ等が含まれる。   In the present embodiment, “module” or “engine” means components such as software and hardware that can be logically separated. Therefore, the module in this embodiment means not only a module in a computer program but also a module in a hardware configuration. The module may correspond to the function 1: 1, but one module may be configured by one program, or a plurality of modules may be configured by one program. The plurality of modules may be executed by a single processor or computer, or may be executed by a plurality of processors or computers in a distributed or parallel environment. In the processing by each module, target information is read from the storage device, processed by a processor such as a CPU, and the processing result is output to the storage device and written. The storage device includes an HDD, a RAM, a register in the CPU, and the like.

また、本実施形態における「推論」とは、オントロジーデータとのマッチングを行うことで知識情報、すなわち意味を構造化データに付与することをいう。   Also, “inference” in the present embodiment refers to giving knowledge information, that is, meaning to structured data by matching with ontology data.

<システム構成>
図1は、本実施形態におけるデータ処理システムの構成図を示す。センサやアクチュエータからの信号を受信して処理するシステムである。データ処理システムは、センサ・アクチュエータ制御モジュール14、Redisデータストア16、サービスモジュール18、メタデータ抽出モジュール20、及びRDFストア22を備える。センサ・アクチュエータ制御モジュール14、サービスモジュール18及びメタデータ抽出モジュール20は、例えば単一のコンピュータのコンピュータプログラムとして実現される。あるいは、それぞれ別のコンピュータのコンピュータプログラムとして実現されてもよい。Redisデータストア16及びRDFストア22は、コンピュータがアクセス可能なデータベースとして実現される。
<System configuration>
FIG. 1 shows a configuration diagram of a data processing system in the present embodiment. This system receives and processes signals from sensors and actuators. The data processing system includes a sensor / actuator control module 14, a Redis data store 16, a service module 18, a metadata extraction module 20, and an RDF store 22. The sensor / actuator control module 14, the service module 18, and the metadata extraction module 20 are realized as a computer program of a single computer, for example. Or you may implement | achieve as a computer program of a respectively different computer. The Redis data store 16 and the RDF store 22 are realized as databases accessible by a computer.

センサ・アクチュエータ制御モジュール14は、センサ10やアクチュエータ12と有線あるいは無線でデータ送受可能に接続される。センサ・アクチュエータ制御モジュール14は、センサ10やアクチュエータ12を制御するための制御ライブラリ、及び受け取ったデータに対してリアルタイムにkey/Valueの形態に変換してRedisデータストア16に格納するRedisAPIを備える。ここで、Redis(Remote dictionary server)とは、メモリ上にkey−valueストア(KVS)を構築することができるソフトウェアであり、KVSは、任意の保存したいデータ(value)に対し、対応する一意の標識(key)を設定し、これらをペアで保存するデータベースである。Redisは、コンピュータのメインメモリ上にKVSを構築し、外部のプログラムからデータの保存と読み出しを可能とする。RedisAPIは、具体的には、時刻とデバイスIDを基に、予め定められたアルゴリズムを用いてkey情報ビット列を生成してデータに付与することで、key/valueの形態に変換してRedisデータストア16に格納する。RedisAPIは、生成したkey情報とデバイスIDとの対応関係をテーブルとして記憶する。なお、RedisAPIは、これ以外にも、DECやMD5ハッシュ、SHA−1ハッシュ等の暗号化プロトコルを用いてkey情報ビット列を生成してデータに付与してもよく、さらにはランダムにkey情報ビット列を生成してデータに付与してもよい。   The sensor / actuator control module 14 is connected to the sensor 10 and the actuator 12 so as to be able to transmit and receive data by wire or wirelessly. The sensor / actuator control module 14 includes a control library for controlling the sensor 10 and the actuator 12, and a Redis API that converts received data into a key / Value format in real time and stores it in the Redis data store 16. Here, Redis (Remote dictionary server) is software that can build a key-value store (KVS) on a memory, and KVS has a unique corresponding to any data (value) to be stored. This is a database in which signs are set and these are stored in pairs. Redis constructs KVS on the main memory of a computer, and enables data to be saved and read from an external program. Specifically, the Redis API generates a key information bit string using a predetermined algorithm based on the time and the device ID, and assigns the data to the data, thereby converting the data into a key / value format and using the Redis data store. 16. The Redis API stores a correspondence relationship between the generated key information and the device ID as a table. In addition, RedisAPI may generate a key information bit string using an encryption protocol such as DEC, MD5 hash, and SHA-1 hash, and add the key information bit string to the data. It may be generated and attached to the data.

Redisデータストア16は、センサ・アクチュエータ制御モジュール14からの、key/valueの形態に変換されたデータ(RAWデータ)を順次格納する。   The Redis data store 16 sequentially stores data (RAW data) converted from the sensor / actuator control module 14 into the key / value format.

メタデータ抽出モジュール20は、key/valueのRAWデータからメタデータを抽出して構造化する。メタデータ抽出モジュール20は、RAWデータを、主体情報、主体属性情報、対象情報、対象属性情報、環境情報に構造化する。主体情報は、一意に付与されたkey情報である。構造化されたデータは、RDFストア22に格納される。   The metadata extraction module 20 extracts metadata from key / value RAW data and structures it. The metadata extraction module 20 structures the RAW data into subject information, subject attribute information, target information, target attribute information, and environment information. The subject information is key information uniquely assigned. The structured data is stored in the RDF store 22.

RDFストア22は、オントロジーデータを記憶する記憶手段として機能し、別途構築されたオントロジーデータを格納する。オントロジーデータは、辞書や作業手順書を自然言語処理及び機械学習により構造化して作成される。自然言語処理には形態素解析及び係り受け解析が含まれる。オントロジーデータには、大別して2つの領域のデータがある。第1は、人間の基本動作等の情報あるいはセンサの属性ライブラリ等の個別アプリケーションに対して共通で利用し得る共通オントロジーデータであり、第2は、個別の情報(作業手順書等から作成されたもの)から構成されたローカルオントロジーデータである。RDFストア22は、センサ・アクチュエータ制御モジュール14が保持しているkey情報とデバイスIDの対応関係を規定するテーブルを取得し、key情報とオントロジーデータを関連付ける。   The RDF store 22 functions as storage means for storing ontology data, and stores ontology data separately constructed. Ontology data is created by structuring a dictionary or work procedure manual by natural language processing and machine learning. Natural language processing includes morphological analysis and dependency analysis. The ontology data is roughly divided into two areas of data. The first is common ontology data that can be used in common for individual applications such as basic human behavior information or sensor attribute libraries, and the second is individual information (created from work procedure manuals, etc.) Local ontology data composed of The RDF store 22 acquires a table that defines the correspondence between the key information and the device ID held by the sensor / actuator control module 14 and associates the key information with ontology data.

サービスモジュール18は、クエリーを受け付けて、RDFストア22に格納されているオントロジーデータに従い、RAWデータを2ステップで処理する。サービスモジュール18は、データストリームを選択する第1ステップを実行するリアルタイムデータ取得部181と、選択されたデータストリームを処理する第2ステップを実行するリアルタイムデータ処理部182を備える。   The service module 18 receives the query and processes the RAW data in two steps according to ontology data stored in the RDF store 22. The service module 18 includes a real-time data acquisition unit 181 that executes a first step of selecting a data stream, and a real-time data processing unit 182 that executes a second step of processing the selected data stream.

リアルタイムデータ取得部181は、Redisデータストア16に格納されたRAWデータから、任意のタイミングでストリームデータチャンネルを切り取って取得する。リアルタイムデータ取得部181は、クエリー受付部、クエリー書き換え部、RedisAPI、推論エンジン、RDFAPIを備える。   The real-time data acquisition unit 181 cuts out and acquires the stream data channel from the RAW data stored in the Redis data store 16 at an arbitrary timing. The real-time data acquisition unit 181 includes a query reception unit, a query rewrite unit, a Redis API, an inference engine, and an RDF API.

クエリー受付部は、クエリーを受け付ける。   The query receiving unit receives a query.

RDFAPIは、RDFストア22にアクセスして、オントロジーデータを取得する。   The RDF API accesses the RDF store 22 and acquires ontology data.

推論エンジンは、クエリーとオントロジーデータからkey情報を推論する。すなわち、リアルタイム処理したいクエリー、例えばある特定機種の動作分析と基本動作オントロジーデータとをマッチングさせ、基本動作オントロジーにマッチングするkey情報を抽出する。クエリー書き換え部は、推論したkey情報を基にクエリーから不要な情報を取り除いてクエリーをリライト(書き換え)する。クエリー・リライトは公知であり、クエリーをプリミティブなクエリーに展開する技術である。   The inference engine infers key information from the query and ontology data. That is, a query desired to be processed in real time, for example, a motion analysis of a specific model and basic motion ontology data are matched, and key information matching the basic motion ontology is extracted. The query rewriting unit removes unnecessary information from the query based on the inferred key information and rewrites (rewrites) the query. Query rewrite is well known and is a technique for expanding a query into a primitive query.

RedisAPIは、リライトクエリーを用いてRedisデータストア16から、該当するkey情報を有するストリームデータチャンネルを選択する。   The Redis API selects a stream data channel having corresponding key information from the Redis data store 16 using a rewrite query.

リアルタイムデータ処理部182は、選択されたRAWデータをデータ処理する。   The real-time data processing unit 182 performs data processing on the selected RAW data.

本実施形態のシステムでは、センサ・アクチュエータ制御モジュール14とサービスモジュール18でデータ処理するが、これらのモジュールは複数存在してもよく、複数のセンサ・アクチュエータ制御モジュール14及び複数のサービスモジュール18が存在する場合に、これらのモジュールが並列・非同期で動作してもよい。   In the system of this embodiment, data processing is performed by the sensor / actuator control module 14 and the service module 18. However, a plurality of these modules may exist, and a plurality of sensor / actuator control modules 14 and a plurality of service modules 18 exist. In this case, these modules may operate in parallel or asynchronously.

図2は、複数のセンサ・アクチュエータ制御モジュール14及び複数のサービスモジュール18が存在する場合のシステム構成例を示す。   FIG. 2 shows a system configuration example in the case where a plurality of sensor / actuator control modules 14 and a plurality of service modules 18 exist.

センサ・アクチュエータ制御モジュール14として、センサ・アクチュエータ制御モジュール14−1(センサ・アクチュエータ制御モジュール1)及びセンサ・アクチュエータ制御モジュール14−2(センサ・アクチュエータ制御モジュール2)が設けられる。センサ10−1(センサ1)からのデータはセンサ・アクチュエータ制御モジュール14−1に供給され、センサ10−2(センサ2)からのデータはセンサ・アクチュエータ制御モジュール14−2(センサ・アクチュエータ制御モジュール2)に供給される。   As the sensor / actuator control module 14, a sensor / actuator control module 14-1 (sensor / actuator control module 1) and a sensor / actuator control module 14-2 (sensor / actuator control module 2) are provided. Data from the sensor 10-1 (sensor 1) is supplied to the sensor / actuator control module 14-1, and data from the sensor 10-2 (sensor 2) is supplied to the sensor / actuator control module 14-2 (sensor / actuator control module). 2).

また、Redisデータストア16もマスタスレーブ接続形式で複数設けられ、Redisデータストア16−1(マスタRedis)、Redisデータストア16−2(スレーブRedis1)、Redisデータストア16−3(スレーブRedis2)、Redisデータストア16−4(スレーブRedis3)、Redisデータストア16−5(スレーブRedis4)が設けられる。Redisデータストア16−2〜Redisデータストア16−5はいずれもRedisデータストア16−1に接続される。センサ・アクチュエータ制御モジュール14−1は、例えばRedisデータストア16−2にRAWデータを登録し、センサ・アクチュエータ制御モジュール14−2は、例えばRedisデータストア16−3にRAWデータを登録する。   A plurality of Redis data stores 16 are also provided in a master-slave connection format. Redis data store 16-1 (master Redis), Redis data store 16-2 (slave Redis1), Redis data store 16-3 (slave Redis2), Redis. A data store 16-4 (slave Redis3) and a Redis data store 16-5 (slave Redis4) are provided. The Redis data store 16-2 to Redis data store 16-5 are all connected to the Redis data store 16-1. The sensor / actuator control module 14-1 registers RAW data, for example, in the Redis data store 16-2, and the sensor / actuator control module 14-2 registers, for example, the RAW data in the Redis data store 16-3.

他方、サービスモジュール18として、サービスモジュール18−1(サービスモジュール1)及びサービスモジュール18−2(サービスモジュール2)が設けられる。サービスモジュール18−1は、Redisデータストア16−4にアクセスして、他のモジュールと並列・非同期にデータ処理し、サービスモジュール18−2も、Redisデータストア16−5にアクセスして他のモジュールと並列・非同期にデータ処理する。   On the other hand, as the service module 18, a service module 18-1 (service module 1) and a service module 18-2 (service module 2) are provided. The service module 18-1 accesses the Redis data store 16-4 and processes data in parallel and asynchronously with the other modules. The service module 18-2 also accesses the Redis data store 16-5 to access the other modules. And parallel / asynchronous data processing.

次に、リアルタイムデータ取得部181で実行される第1ステップと、リアルタイムデータ処理部182で実行される第2ステップについて、より詳細に説明する。   Next, the first step executed by the real-time data acquisition unit 181 and the second step executed by the real-time data processing unit 182 will be described in more detail.

<第1ステップ>
図3は、サービスモジュール18のリアルタイムデータ取得部181における処理の流れを示す。クエリーに対応するkey情報を推論し、推論されたkey情報に該当するデータストリームを選択する処理である。
<First step>
FIG. 3 shows the flow of processing in the real-time data acquisition unit 181 of the service module 18. This is a process of inferring key information corresponding to a query and selecting a data stream corresponding to the inferred key information.

Redisデータストア16には、key/valueのRawデータが格納される。図において、格納されるRAWデータの一例として、
key1/データストリーム1
key2/データストリーム2
key3/データストリーム3
key4/データストリーム4
を示す。key1は、データストリーム1に対して一意に付与されたkey情報であり、例えば時刻とデバイスIDを基に作成される。key2、key3、key4についても同様である。
The Redis data store 16 stores key / value Raw data. In the figure, as an example of stored RAW data,
key1 / data stream 1
key2 / data stream 2
key3 / data stream 3
key4 / data stream 4
Indicates. The key 1 is key information uniquely assigned to the data stream 1, and is created based on, for example, time and device ID. The same applies to key2, key3, and key4.

リアルタイムデータ取得部181は、受け付けたクエリーに応じて該当するkey情報を有するデータストリームを切り取る。例えば、クエリーがある特定機種の動作分析である場合、このコンテキストに含まれる基本動作オントロジーデータと一致するkey情報を推論し、推論して得られたkey情報を有するデータストリームを選択する。上記のRAWデータのうち、key1及びkey4が該当するkey情報であるとすると、リアルタイムデータ取得部181は、Redisデータストア16から、
key1/データストリーム1
key4/データストリーム4
を選択する。図3には、選択されたRAWデータをデータ17として示す。
The real-time data acquisition unit 181 cuts out the data stream having the corresponding key information according to the accepted query. For example, when the query is a motion analysis of a specific model, key information that matches the basic motion ontology data included in this context is inferred, and a data stream having the key information obtained by the inference is selected. Of the above RAW data, if key1 and key4 are the corresponding key information, the real-time data acquisition unit 181 reads from the Redis data store 16,
key1 / data stream 1
key4 / data stream 4
Select. FIG. 3 shows the selected RAW data as data 17.

図4は、リアルタイムデータ取得部181の機能ブロック図を示す。   FIG. 4 shows a functional block diagram of the real-time data acquisition unit 181.

クエリー受付部で受け付けた所望のクエリーは、推論エンジンに供給される。また、RDFAPIでRDFストア22から取得したオントロジーデータは、推論エンジンに供給される。推論エンジンは、クエリーとオントロジーデータに基づき、オントロジーデータにマッチングするkey情報を推論する。クエリー書き換え部は、推論したkey情報からノイズを除去してクエリーをリライトする。RedisAPIは、リライトクエリーを用いて、KVDB(keyーvalueデータベース)としてのRedisデータストア16から該当するkey情報を有するデータストリームを取得する。   The desired query received by the query receiving unit is supplied to the inference engine. Ontology data acquired from the RDF store 22 using the RDF API is supplied to the inference engine. The inference engine infers key information that matches ontology data based on the query and ontology data. The query rewriting unit removes noise from the inferred key information and rewrites the query. The Redis API uses a rewrite query to acquire a data stream having corresponding key information from the Redis data store 16 as a KVDB (key-value database).

<第2ステップ>
図5は、サービスモジュール18のリアルタイムデータ処理部182の機能ブロック図を示す。第1ステップで選択されたRAWデータ17を処理するステップである。
<Second step>
FIG. 5 shows a functional block diagram of the real-time data processing unit 182 of the service module 18. In this step, the RAW data 17 selected in the first step is processed.

リアルタイムデータ処理部182は、RAWデータ17を推論処理が可能なデータに一旦変換してデータ処理する。このため、リアルタイムデータ処理部182は、CEPエンジンを備え、CEPエンジンは、さらに、データウィンドウ切り出しモジュール、データ抽象化モジュール、データパターンマッチングモジュール、データラベリング/タイムスタンプモジュールを備える。   The real-time data processing unit 182 temporarily converts the RAW data 17 into data that can be inferred and processes the data. Therefore, the real-time data processing unit 182 includes a CEP engine, and the CEP engine further includes a data window cutout module, a data abstraction module, a data pattern matching module, and a data labeling / time stamp module.

CEPエンジンには、リアルタイムデータ取得部181で選択されたkey1/データストリーム1、及びkey4/データストリーム4が供給される。   The CEP engine is supplied with key1 / data stream 1 and key4 / data stream 4 selected by the real-time data acquisition unit 181.

データウィンドウ切り出しモジュールは、時間軸上でウィンドウ(窓)を順次移動しながら設定し、ウィンドウ内のデータをデータ抽象化モジュールに順次供給する。   The data window cut-out module sets the windows (windows) while sequentially moving on the time axis, and sequentially supplies the data in the windows to the data abstraction module.

データ抽象化モジュールは、周波数成分抽出モジュール、データ平均化モジュール、機械学習モジュールを備え、ウィンドウ内のデータに対して、周波数成分変換(フーリエ変換)、平均変換等の変換処理を行い抽象化データを生成する。1つのRAWデータから複数の抽象化データを生成してもよい。機械学習モジュールは、抽出されたデータを基に、4元のファクトデータに構造化する。4元のファクトデータは、具体的には時間情報/主体情報/属性情報/センサデータである。時間情報は、タイムスタンプ情報を割り付ける。主体情報は、センサ取付主体の情報(ID等)を割り付ける。属性情報は、センサに対して予め定義された属性情報あるいはデータ変換処理に付けられた属性を割り付ける。センサデータは、抽象化されたデータそのものである。   The data abstraction module includes a frequency component extraction module, a data averaging module, and a machine learning module, and performs conversion processing such as frequency component conversion (Fourier transform) and average conversion on the data in the window to obtain the abstract data. Generate. A plurality of abstract data may be generated from one RAW data. The machine learning module is structured into four-factor fact data based on the extracted data. The quaternary fact data is specifically time information / subject information / attribute information / sensor data. As time information, time stamp information is assigned. As the main body information, information (ID or the like) of the sensor mounting main body is assigned. As the attribute information, attribute information defined in advance for the sensor or an attribute attached to the data conversion process is assigned. The sensor data is the abstracted data itself.

データパターンマッチングモジュールは、構造化された抽象化データと、RDFストア22から取得したオントロジーデータとのマッチングを行うことで推論する。   The data pattern matching module infers by performing matching between structured abstract data and ontology data acquired from the RDF store 22.

推論を行う際のオントロジーデータの生成は、例えば作業手順書を例にとると、以下の通りである。   The generation of ontology data for inference is as follows, for example, using a work procedure manual as an example.

まず、作業手順書をOCR処理等により電子化する。次に、作業手順書を自然言語処理し、4元のルールデータに変換する。すなわち、作業手順書の形態素分解を行い、名詞、動詞等に分解し、係り受けを考慮して、作業手順書に出現した順番に順序ID/主語/述語/目的語の形に割り付けて変換する。このとき、ルールデータの出現頻度を評価して5元目のデータとして付与してもよい。   First, the work procedure manual is digitized by OCR processing or the like. Next, the work procedure manual is subjected to natural language processing and converted into four-way rule data. That is, morphological decomposition of the work procedure manual is performed, and it is decomposed into nouns, verbs, etc., and in consideration of dependency, it is assigned and converted into the order ID / subject / predicate / object form in the order of appearance in the work procedure manual . At this time, the appearance frequency of the rule data may be evaluated and given as the fifth element data.

次に、一連の順序の作業を作業手順書順に属性で接続し、複数の手順をまとめて上位概念でラベル付けして作業手順オントロジーデータを作成する。   Next, a series of operations are connected by attributes in the order of the work procedure, and a plurality of procedures are collected and labeled with a superordinate concept to create work procedure ontology data.

データラベリング/タイムスタンプモジュールは、データパターンマッチングモジュールでマッチング処理されたデータにラベル及びタイムスタンプを付与してデータベース70に登録する。データベース70に登録されたデータ、すなわちオントロジーデータにより知識情報が付与された構造化データは、各種処理に供される。   The data labeling / time stamp module adds a label and a time stamp to the data matched by the data pattern matching module and registers the data in the database 70. Data registered in the database 70, that is, structured data to which knowledge information is given by ontology data is subjected to various processes.

このように、リアルタイムデータ処理部182は、RAWデータを推論可能なデータに一旦変換した上でデータ処理しているが、これに代えて、RAWデータを処理するデータ処理ルーチンテンプレートをオントロジーデータに関連付けてRDFストア22に格納し、第1ステップでRAWデータを選ぶと同時にデータ処理ルーチンのテンプレートも選んでRDFストア22から取得し、第2ステップでは選択したデータ処理ルーチンテンプレートでRAWデータを処理してもよい。あるいは両者を適宜組み合わせて実行してもよい。   As described above, the real-time data processing unit 182 converts the RAW data into data that can be inferred and then processes the data. Instead, the data processing routine template that processes the RAW data is associated with the ontology data. In the first step, the RAW data is selected in the first step and at the same time the data processing routine template is selected and acquired from the RDF store 22, and in the second step, the RAW data is processed by the selected data processing routine template. Also good. Or you may perform combining both suitably.

第2ステップでのデータ処理の方式をまとめると、以下の通りである。
(A)RAWデータを推論処理が可能なデータに一旦変換し、推論を進めながらデータ処理
(B)RAWデータを選択されたデータ処理ルーチンテンプレートでデータ処理
(C)上記の(A)と(B)の組合せ
The data processing method in the second step is summarized as follows.
(A) RAW data is converted into data that can be inferred, and data processing is performed while advancing the inference (B) RAW data is processed with the selected data processing routine template (C) (A) and (B ) Combinations

本実施形態では、第1ステップとして、key情報を用いて処理すべきデータストリームを選択し(リアルタイムデータ取得)、第2ステップとして、選択されたデータストリームについてデータ処理する(リアルタイムデータ処理)という2つのステップで処理を行い、リアルタイム処理すべきデータストリームを絞り込んで効率的にデータを処理するので、オントロジーデータとして作業手順書のオントロジーデータを用いた場合には生産現場のデータをリアルタイムに分析して異常発生をリアルタイムに検出でき、これにより迅速な対応が可能となる。また、異常発生時に発生までのデータを遡ってトレースすることで異常原因の分析も可能となる。また、人による作業の相違を抽出し、作業改善を図ることもできる。さらに、作業の状態を作業者にフィードバックすることで作業の継続的な向上を図ることもできる。   In this embodiment, as a first step, a data stream to be processed is selected using key information (real time data acquisition), and as a second step, data processing is performed on the selected data stream (real time data processing). The process is performed in one step, and the data stream to be processed in real time is narrowed down to efficiently process the data. Therefore, if the ontology data in the work procedure manual is used as the ontology data, the production site data is analyzed in real time. Abnormalities can be detected in real time, which makes it possible to respond quickly. In addition, the cause of the abnormality can be analyzed by tracing back the data up to the occurrence of the abnormality. Also, it is possible to extract work differences between people and improve work. Furthermore, the work can be continuously improved by feeding back the work state to the worker.

次に、本実施形態の処理について、より具体的に説明する。   Next, the process of this embodiment will be described more specifically.

図8は、オントロジーデータの一例として、ある製品、例えばコピー、プリンタ、ファックス等の機能を備える画像形成装置の組立動作要素のオントロジーデータを示す。
組立動作要素は、何を(What)、どこに(Where)、どうやって(How)から構成され、何を(What)には部品名、どこに(Where)には位置、どうやって(How)には動きが対応する。これらのそれぞれにセンサデータが存在し得る。
FIG. 8 shows ontology data of an assembling operation element of an image forming apparatus having functions of a certain product, for example, a copy, a printer, and a fax machine, as an example of ontology data.
The assembly operation element is composed of what, where, and how. How, what is the part name, where is where, and how is movement. Correspond. There may be sensor data for each of these.

他方、オントロジーデータとして、画像形成装置の部品の情報を記述した画像形成装置構成部品オントロジー30、画像形成装置の一般的な構成を記述した標準書オントロジー32、画像形成装置の部品の配置情報を記述した画像形成装置内配置構成オントロジー34、画像形成装置の3DCADデータ36、画像形成装置を組み立てる際の組立作業者の基本動作を記述した基本動作オントロジー38が用意され、画像形成装置構成部品オントロジー30及び標準書オントロジー32を用いて組立動作要素の部品名を推論し、これに該当するセンサデータを抽出する。また、画像形成装置内配置構成オントロジー34と3DCADデータ36を用いて組立動作要素の位置を推論し、これに該当するセンサデータを抽出する。さらに、基本動作オントロジー38を用いて組立動作要素の動きを推論し、これに該当するセンサデータを抽出する。   On the other hand, as ontology data, an image forming apparatus component part ontology 30 describing information on parts of the image forming apparatus, a standard book ontology 32 describing a general configuration of the image forming apparatus, and arrangement information of parts of the image forming apparatus are described. The image forming apparatus arrangement configuration ontology 34, the 3D CAD data 36 of the image forming apparatus, and the basic operation ontology 38 describing the basic operation of the assembly operator when assembling the image forming apparatus are prepared. The part name of the assembly operation element is inferred using the standard book ontology 32, and corresponding sensor data is extracted. Further, the position of the assembly operation element is inferred using the arrangement configuration ontology 34 in the image forming apparatus and the 3D CAD data 36, and the corresponding sensor data is extracted. Furthermore, the motion of the assembly operation element is inferred using the basic operation ontology 38, and sensor data corresponding to this is extracted.

図9は、センサ・アクチュエータ制御モジュール14の一例としてのセンサ・アクチュエータハブの物理的配置を示す。   FIG. 9 shows a physical arrangement of a sensor / actuator hub as an example of the sensor / actuator control module 14.

画像形成装置の組立ラインは、複数の組立工程から構成されており、図では組立工程1、組立工程2,組立工程3のみを例示的に示す。組立工程1、組立工程2、組立工程3のそれぞれにはセンサ10が設置される。他方、各組立工程には組立作業者が存在し、この組立作業者を検出するセンサ10も設置される。これらのセンサで検出されたデータは、複数の工程毎に設置されたセンサ・アクチュエータハブ141に供給される。なお、センサ・アクチュエータハブ141は、工程毎に設置されていてもよい。センサ・アクチュエータハブ141には、一意のアドレスが付与されており、このアドレスにより複数のセンサ・アクチュエータハブ141が存在する場合においてもいずれのセンサ・アクチュエータハブ141であるかを特定し得る。   The assembly line of the image forming apparatus is composed of a plurality of assembly processes, and only the assembly process 1, the assembly process 2, and the assembly process 3 are illustrated in the drawing. A sensor 10 is installed in each of the assembly process 1, the assembly process 2, and the assembly process 3. On the other hand, an assembly worker exists in each assembly process, and a sensor 10 for detecting the assembly worker is also installed. Data detected by these sensors is supplied to a sensor / actuator hub 141 installed for each of a plurality of processes. The sensor / actuator hub 141 may be installed for each process. A unique address is given to the sensor / actuator hub 141, and it is possible to specify which sensor / actuator hub 141 is present when there are a plurality of sensor / actuator hubs 141.

センサ・アクチュエータハブ141は、各センサ10からのデータを受信すると、受け取ったデータに対してリアルタイムにkey/valueの形態に変換してKVSに格納する。   Upon receiving data from each sensor 10, the sensor / actuator hub 141 converts the received data into a key / value format in real time and stores it in the KVS.

図10は、センサ・アクチュエータハブ141の処理を模式的に示す。センサ10からのRAWデータは、センサ・アクチュエータハブ141に送信され、センサ・アクチュエータハブ141は、key値としてタイムスタンプ(timestamp)及びID(センサ・アクチュエータハブ141のアドレス)を付与し、value値としてRAWデータとするkey−valueの形態に変換してKVS142に格納する。KVS142は、既述したように、任意の保存したいデータに対し、対応する一意の標識(key)をペアで保存するデータベースであり、RedisAPIによりコンピュータメモリ上に構成される。   FIG. 10 schematically shows processing of the sensor / actuator hub 141. The RAW data from the sensor 10 is transmitted to the sensor / actuator hub 141. The sensor / actuator hub 141 gives a timestamp (timestamp) and ID (address of the sensor / actuator hub 141) as a key value, and as a value value. The RAW data is converted into a key-value format and stored in the KVS 142. As described above, the KVS 142 is a database that stores a pair of unique markers (keys) corresponding to arbitrary data to be stored, and is configured on a computer memory by a Redis API.

図11は、組立工程と組立説明書の関係を模式的に示す。図9に示すように、ラインは複数の組立工程1,組立工程2、組立工程3、・・から構成されるが、例えば組立工程1には、この組立工程において実行されるべき組立説明書が対応する。組立説明書は、図に示すように複数存在し得る。組立説明書では、複数の組立動作要素が時系列で記述されている。   FIG. 11 schematically shows the relationship between the assembly process and the assembly instructions. As shown in FIG. 9, the line is composed of a plurality of assembly steps 1, assembly step 2, assembly step 3,..., For example, assembly step 1 includes an assembly instruction to be executed in this assembly step. Correspond. There may be a plurality of assembly instructions as shown in the figure. In the assembly manual, a plurality of assembly operation elements are described in time series.

組立動作要素1→組立動作要素2→組立動作要素3
等である。それぞれの組立動作要素は、図8に示すように、何を(What)、どこに(Where)、どのように(How)を規定し、これらにはそれぞれ部品名、位置、動作が対応している。
Assembly operation element 1 → assembly operation element 2 → assembly operation element 3
Etc. As shown in FIG. 8, each assembly operation element defines what (Where), where (Where), and how (How), and these correspond to the part name, position, and operation, respectively. .

このことは、組立動作要素が得られれば、その組立動作要素に該当する組立説明書が得られ、組立説明書が得られれば、その組立説明書に該当する組立工程が得られることを意味する。そして、組立工程には、1対1、あるいは多対1でセンサ・アクチュエータハブ141が設置されているから(図9参照)、該当する組立工程が得られれば、その組立工程に該当するセンサ・アクチュエータハブ141が得られることになる。   This means that if an assembly operation element is obtained, an assembly instruction corresponding to the assembly operation element is obtained, and if an assembly instruction is obtained, an assembly process corresponding to the assembly instruction is obtained. . In the assembly process, the sensor / actuator hub 141 is installed one-to-one or many-to-one (see FIG. 9), and if the corresponding assembly process is obtained, the sensor / actuator hub 141 corresponding to the assembly process is obtained. The actuator hub 141 is obtained.

図12は、リアルタイムデータ取得部181の推論エンジンで実行されるKey値の推論を模式的に示す。   FIG. 12 schematically shows the inference of the Key value executed by the inference engine of the real-time data acquisition unit 181.

必要となる技術標準、部品、3DCADでの領域、動作から、SPARQL等を用いて組立動作要素を検出し抽出する(S1)。ここで、SPARQLは、RDF(Resource Description Framework)で記述されたデータを検索/操作するクエリー言語である。   Assembling operation elements are detected and extracted from the required technical standards, parts, and regions and operations in 3D CAD using SPARQL (S1). Here, SPARQL is a query language for searching / manipulating data described in RDF (Resource Description Framework).

次に、検索/抽出された組立動作要素から、これに該当する組立説明書を抽出する(S2)。   Next, an assembly manual corresponding to the retrieved assembly operation element is extracted (S2).

次に、抽出された組立説明書から、これに該当する組立工程を抽出する(S3)。   Next, the assembly process corresponding to this is extracted from the extracted assembly manual (S3).

次に、抽出された組立工程から、これに該当するセンサ・アクチュエータハブ141のアドレスを特定する(S4)。   Next, the address of the sensor / actuator hub 141 corresponding to the extracted assembly process is specified (S4).

次に、特定されたアドレスから、Key値を抽出する(S5)。既述したように、key値はタイムスタンプとID(アドレス)から構成されているから、アドレスを指定することで、それに対応するkey値を一意に得ることができる。   Next, a key value is extracted from the specified address (S5). As described above, since the key value is composed of a time stamp and an ID (address), the key value corresponding to the key value can be uniquely obtained by designating the address.

以上のようにしてkey値を推論すると、リアルタイムデータ取得部181は、Redisデータストア16から、該当するKey値を有するデータストリームを切り取ってリアルタイムデータ処理部182に供給する。   When the key value is inferred as described above, the real-time data acquisition unit 181 cuts out the data stream having the corresponding key value from the Redis data store 16 and supplies the data stream to the real-time data processing unit 182.

図13及び図14は、リアルタイムデータ処理部182における処理を模式的に示す。組立説明書は、複数の組立動作要素
組立動作要素1→組立動作要素2→組立動作要素3
を規定する。他方、各組立動作要素に対応するビデオ等の情報が存在する場合に、これを用いてセンサ10から得られるセンサデータを分割し、各組立動作要素とセンサデータとを関連付ける。例えば、ビデオを用いてセンサデータをセンサデータ1、センサデータ2、センサデータ3に分割し、
組立動作要素1・・・センサデータ1
組立動作要素2・・・センサデータ2
組立動作要素3・・・センサデータ3
と関連付ける。
13 and 14 schematically show processing in the real-time data processing unit 182. The assembly instructions include a plurality of assembly operation elements Assembly operation element 1 → assembly operation element 2 → assembly operation element 3
Is specified. On the other hand, when there is information such as video corresponding to each assembly operation element, the sensor data obtained from the sensor 10 is divided by using this information, and each assembly operation element is associated with the sensor data. For example, the sensor data is divided into sensor data 1, sensor data 2, and sensor data 3 using video,
Assembly operation element 1 ... Sensor data 1
Assembly operation element 2 ... sensor data 2
Assembly operation element 3 ... sensor data 3
Associate with.

次に、図14に示すように、分割されたセンサデータ(センサデータ1、センサデータ2、センサデータ3)を教師データ190として用いて機械学習して、複数のカテゴリーに分類した学習データ192を得る。具体的には、ベクトルデータとして、それぞれの分類結果との類似度を算出する。例えば、分類1,分類2、分類3に分類し、分類1は、
分類1=[:組立動作要素1[0.1,0.2],:組立動作要素2[0.3,0.2],:組立動作要素[0.8,0.7]]
等である。ここで、組立動作要素1との類似度は、ベクトル[0.1,0.2]として示されている。組立動作要素2,3との類似度についても同様である。機械学習して得られた学習データ192は、実際のセンサデータの比較対象となる。
Next, as shown in FIG. 14, learning data 192 classified into a plurality of categories is obtained by machine learning using the divided sensor data (sensor data 1, sensor data 2, sensor data 3) as teacher data 190. obtain. Specifically, the similarity with each classification result is calculated as vector data. For example, class 1, class 2, and class 3 are classified.
Classification 1 = [: Assembly operation element 1 [0.1, 0.2],: Assembly operation element 2 [0.3, 0.2],: Assembly operation element [0.8, 0.7]]
Etc. Here, the degree of similarity with the assembly operation element 1 is shown as a vector [0.1, 0.2]. The same applies to the degree of similarity with the assembly operation elements 2 and 3. Learning data 192 obtained by machine learning is a comparison target of actual sensor data.

図15は、機械学習の方法をより詳細に示す。センサデータ1、センサデータ2、センサデータ3、・・・からなる教師データ190は、予め設定されたウィンドウWを時間軸上でスライドさせることで所定の時間幅のセンサデータに切り取られる。   FIG. 15 shows the machine learning method in more detail. The teacher data 190 including the sensor data 1, the sensor data 2, the sensor data 3,... Is cut into sensor data having a predetermined time width by sliding a preset window W on the time axis.

次に、所定の時間幅に切り取られたセンサデータは、プリプロセッシング部191−1に供給され、フィルタ処理(高周波フィルタ、低周波フィルタ等)、微分/積分処理、エッジ検出等の各種前処理が実行されて、特徴抽出部191−2に供給される。特徴抽出部191−2は、FFT(高速フーリエ変換)、ピーク検出、ゼロクロスカウント等によりセンサデータ波形の特徴を抽出する。抽出された特徴は、さらに学習アルゴリズム部191−3に供給される。学習アルゴリズム部191−3では、公知の機械学習アルゴリズム、例えば、ニューラルネットワーク、ディープニューラルネットワーク、再帰ニューラルネットワーク等を用いることができる。また、分類手法としては、
・ Adaptive Naive Bayes Classifier
・ K-Nearest Neighbor
・ AdaBoost(アダブースト)
・ Decision Trees(決定木)
・ Dynamic Time Wrapping(動的時間伸縮)
・ Support Vector Machine(サポートベクターマシン)
・ Hidden Markov Model(隠れマルコフモデル)
Gaussian Mixture Model(混合ガウスモデル)
等を用いることができる。学習アルゴリズム部191−3で機械学習することで、学習データ192が得られる。
Next, the sensor data cut out in a predetermined time width is supplied to the preprocessing unit 191-1 and subjected to various preprocessing such as filter processing (high frequency filter, low frequency filter, etc.), differentiation / integration processing, edge detection, and the like. It is executed and supplied to the feature extraction unit 191-2. The feature extraction unit 191-2 extracts features of the sensor data waveform by FFT (Fast Fourier Transform), peak detection, zero cross count, and the like. The extracted features are further supplied to the learning algorithm unit 191-3. In the learning algorithm unit 191-3, a known machine learning algorithm, for example, a neural network, a deep neural network, a recurrent neural network, or the like can be used. As a classification method,
Adaptive Naive Bayes Classifier
・ K-Nearest Neighbor
・ AdaBoost
・ Decision Trees
・ Dynamic Time Wrapping
・ Support Vector Machine
・ Hidden Markov Model
Gaussian Mixture Model
Etc. can be used. Learning data 192 is obtained by machine learning in the learning algorithm unit 191-3.

図16は、センサ10から順次得られるセンサデータと学習データ192との比較処理を模式的に示す。センサデータは、教師データ190と同様に、予め設定されたウィンドウWを時間軸上でスライドさせることで所定の時間幅のセンサデータに切り取られる。そして、切り取られたセンサデータを学習データ192と比較し、ベクトルデータを生成する。   FIG. 16 schematically shows a comparison process between the sensor data sequentially obtained from the sensor 10 and the learning data 192. Similar to the teacher data 190, the sensor data is cut into sensor data having a predetermined time width by sliding a preset window W on the time axis. Then, the cut sensor data is compared with the learning data 192 to generate vector data.

例えば、切り取られたセンサデータと学習データ192とを比較し、各分類の比率が
[:分類1 0.3:分類2 0.1:分類3 0.6]
である場合、各分類における組立動作要素との類似度を用いて、切り取られたセンサデータは、
[:組立動作要素1[0.3,0.2]:組立動作要素2[0.1,0.2]:組立動作要素3[0.6,0.7]]
等と算出する。
For example, the cut sensor data is compared with the learning data 192, and the ratio of each classification is [: Category 1 0.3: Category 2 0.1: Category 3 0.6]
The sensor data clipped using the similarity to the assembly motion element in each category is
[: Assembly operation element 1 [0.3, 0.2]: assembly operation element 2 [0.1, 0.2]: assembly operation element 3 [0.6, 0.7]]
And so on.

このようにしてベクトルデータを生成し、切り取られたセンサデータに対して順次ベクトルデータを生成することで、これらの集合としてのマトリクスが生成される。
例えば、切り取られたセンサデータの3つから、
[:組立動作要素1 [0.3,0.2] :組立動作要素2 [0.1 0.2] :組立動作要素3[ 0.6, 0.7]]
[:組立動作要素1 [0.3,0.2] :組立動作要素2 [0.1 0.2] :組立動作要素3[ 0.6, 0.7]]
[:組立動作要素1 [0.3,0.2] :組立動作要素2 [0.1 0.2] :組立動作要素3[ 0.6, 0.7]]
のマトリクスが生成される。これらのマトリクスにおいて、最も類似度が高い組立動作要素を抽出する。
By generating vector data in this way and generating vector data sequentially for the cut sensor data, a matrix as a set of these is generated.
For example, from three of the cut sensor data,
[: Assembly motion element 1 [0.3,0.2]: Assembly motion element 2 [0.1 0.2]: Assembly motion element 3 [0.6, 0.7]]
[: Assembly motion element 1 [0.3,0.2]: Assembly motion element 2 [0.1 0.2]: Assembly motion element 3 [0.6, 0.7]]
[: Assembly motion element 1 [0.3,0.2]: Assembly motion element 2 [0.1 0.2]: Assembly motion element 3 [0.6, 0.7]]
A matrix is generated. In these matrices, the assembly operation element having the highest similarity is extracted.

[:組立動作要素1 [0.3,0.2] :組立動作要素2 [0.1 0.2] :組立動作要素3[ 0.6, 0.7]]の中で最も類似度が高いものは組立動作要素3[0.6,0.7]であるから、それぞれのベクトルデータから組立動作要素3が抽出される。そして、抽出された組立動作要素をシーケンス情報として再構成して、
組立動作要素3→組立動作要素3→組立動作要素3
が最終的に得られる。
[: Assembly motion element 1 [0.3, 0.2]: Assembly motion element 2 [0.1 0.2]: Assembly motion element 3 [0.6, 0.7]] The highest similarity is the assembly motion element 3 [0.6, 0.7], the assembly operation element 3 is extracted from each vector data. Then, the extracted assembly operation element is reconstructed as sequence information,
Assembly operation element 3 → assembly operation element 3 → assembly operation element 3
Is finally obtained.

以上のようにして、センサデータからシーケンス情報としての組立動作要素が抽出されると、これを画像形成装置組立のオントロジーデータから得られるシーケンス情報と比較することで、オントロジーデータに沿った組立動作となっているか否か、すなわち製品組立時の異常を検出できる。   As described above, when the assembly operation element as the sequence information is extracted from the sensor data, the assembly operation along the ontology data is compared with the sequence information obtained from the ontology data of the image forming apparatus assembly. It is possible to detect whether or not, that is, an abnormality during product assembly.

図17は、センサデータと組立情報とのマッチングを模式的に示す。センサ10からのセンサデータ(RAW)データをウィンドウWで切り取って得られるデータから再構成されたシーケンス情報200と、画像形成装置組立のオントロジーデータから再構成されたシーケンス情報202とを比較し、オントロジーデータから再構成されたシーケンス情報202の中から最も近いものを抽出する。図17の場合、RAWデータから再構成して得られたシーケンス情報200は、
組立動作要素3→組立動作要素3→組立動作要素3
であり、シーケンス情報202の中でこれに最も近いものは組立動作要素3である。従って、RAWデータは、オントロジーデータにおける組立動作要素3を意味するものであると決定し得る。図において、シーケンス情報200とシーケンス情報202の対応関係を破線で示す。
FIG. 17 schematically shows matching between sensor data and assembly information. The sequence information 200 reconstructed from the data obtained by cutting the sensor data (RAW) data from the sensor 10 in the window W is compared with the sequence information 202 reconstructed from ontology data of the image forming apparatus assembly, and the ontology is compared. The closest one is extracted from the sequence information 202 reconstructed from the data. In the case of FIG. 17, the sequence information 200 obtained by reconstructing from the RAW data is
Assembly operation element 3 → assembly operation element 3 → assembly operation element 3
The sequence information 202 that is closest to this is the assembly operation element 3. Therefore, the RAW data can be determined to mean the assembly operation element 3 in the ontology data. In the figure, the correspondence between the sequence information 200 and the sequence information 202 is indicated by a broken line.

他方、図18は、RAWデータから再構成されたシーケンス情報200の他の例を示す。この例では、
組立動作要素3→組立動作要素1→組立動作要素3
となっており、2つの組立動作要素3の間に組立動作要素1が含まれている。本来であれば、オントロジーデータから再構成して得られたシーケンス情報202と比較した結果、組立動作要素3であるべきところ、これとは異なる組立動作要素1が含まれている場合、RAWデータが意味する組立動作要素1は何らかの異常が生じていると推定し、異常を出力できる。
On the other hand, FIG. 18 shows another example of sequence information 200 reconstructed from RAW data. In this example,
Assembly operation element 3 → assembly operation element 1 → assembly operation element 3
The assembly operation element 1 is included between the two assembly operation elements 3. Originally, as a result of comparison with the sequence information 202 obtained by reconstructing from ontology data, the assembly operation element 3 should be included. If an assembly operation element 1 different from this is included, the RAW data is The meaning assembly operation element 1 can estimate that some abnormality has occurred and can output the abnormality.

また、ウィンドウWでセンサデータを切り取る際に、ウィンドウ毎にタイムスタンプを付与し、切り取られたセンサデータのそれぞれに時間情報を付与してもよく、これにより製品組立時間の異常を検出することもできる。図17に即して説明すると、RAWデータから再構成されたシーケンス情報200を構成する組立動作要素3のそれぞれに時間情報が付与されることになる。   In addition, when cutting sensor data in the window W, a time stamp may be given for each window, and time information may be given to each of the cut sensor data, thereby detecting an abnormality in the product assembly time. it can. Referring to FIG. 17, time information is given to each of the assembly operation elements 3 constituting the sequence information 200 reconstructed from the RAW data.

すると、シーケンス情報200には時間情報が付与されることになり、
組立動作要素3→組立動作要素3→組立動作要素3
の一連のシーケンスの所要時間が得られることになる。
Then, time information is given to the sequence information 200,
Assembly operation element 3 → assembly operation element 3 → assembly operation element 3
The time required for a series of sequences is obtained.

他方、オントロジーデータから再構成されたシーケンス情報202にも同様に時間情報が付与されていれば、両者の所要時間を比較し、RAWデータの所要時間のオントロジーデータの所要時間に対する長短、あるいはRAWデータの所要時間自体のバラツキの度合い等を評価することができる。RAWデータの所要時間が過度に長い場合には製品組立時間に異常があり、RAWデータの所要時間自体のバラツキが過度に大きい場合にも製品組立時間に異常があると判定できる。所要時間のバラツキについては、組立作業者毎の熟練度も評価し得る。   On the other hand, if time information is similarly given to the sequence information 202 reconstructed from ontology data, the time required for both is compared, and the time required for the ontology data is compared with the time required for the ontology data, or the RAW data. The degree of variation in the required time can be evaluated. When the required time of RAW data is excessively long, there is an abnormality in the product assembly time, and when the variation in the required time of RAW data itself is excessively large, it can be determined that the product assembly time is abnormal. About the variation in required time, the skill level for every assembly worker can also be evaluated.

以上のように、センサデータから得られる組立動作要素と、オントロジーデータから得られる組立動作要素を比較することで、組立作業者が正しい手順あるいは所望の所要時間で製品を組み立てているかを評価し、その結果を出力できる。このような出力を組立作業者にフィードバックすることで、より効率的かつ確実な製品組立を可能とし得る。   As described above, by comparing the assembly operation element obtained from the sensor data with the assembly operation element obtained from the ontology data, it is evaluated whether the assembly operator is assembling the product in the correct procedure or the desired required time. The result can be output. By feeding back such output to the assembly operator, more efficient and reliable product assembly can be achieved.

図19は、画像形成装置(製品A)の組立手順書の具体例を示す。概略図及び部品表が記述され、さらに作業手順が記述される。作業手順は、
1.図に示す、フレームの右側面の1-1位置に、部品-1を取り付け
2.部品-1をネジ2で仮止め
3.図に示す、フレームの右側面の1-2位置に、部品-2を取り付け
4.部品-2をネジ2で仮止め
5.部品位置調整
6.部品-1をネジ1で固定
7.部品-2をネジで固定
である。
FIG. 19 shows a specific example of an assembly procedure manual for the image forming apparatus (product A). A schematic diagram and a parts table are described, and a work procedure is further described. The work procedure is
1. Attach the part-1 to the 1-1 position on the right side of the frame as shown in the figure. 2. Temporarily fix the part-1 with the screw 2. 3. At the 1-2 position on the right side of the frame, as shown in the figure. Install part-2. 4. Fix part-2 temporarily with screw 2. 5. Adjust part position 6. Fix part-1 with screw 1. 7. Fix part-2 with screw.

図20は、図19に示す組立手順書のオントロジーデータを示す。
組立手順書のページ1(page1)には、概略図と部品表と作業手順が含まれており、概略図には元となる3DCADデータが含まれ、3DCADデータにはフレームと部品が含まれる。
FIG. 20 shows ontology data of the assembly procedure manual shown in FIG.
Page 1 (page 1) of the assembly procedure manual includes a schematic diagram, a parts table, and a work procedure. The schematic diagram includes original 3D CAD data, and the 3D CAD data includes a frame and components.

また、部品表には部品1−1、部品1−2、ネジ1,ネジ2が含まれる。   The parts table includes a part 1-1, a part 1-2, a screw 1, and a screw 2.

また、作業手順には、具体的な作業手順が含まれる。   The work procedure includes a specific work procedure.

図21は、作業手順のオントロジーデータを示す。   FIG. 21 shows ontology data of a work procedure.

作業手順には、手順テキストと手順が含まれる。手順には、1〜7の手順が含まれており、各手順は作業手順通りである。すなわち、
手順1:図に示す、フレームの右側面の1-1位置に、部品-1を取り付け
手順2:部品-1をネジ2で仮止め
手順3:図に示す、フレームの右側面の1-2位置に、部品-2を取り付け
手順4:部品-2をネジ2で仮止め
手順5:部品位置調整
手順6:部品-1をネジ1で固定
手順7:部品-2をネジで固定
である。
The work procedure includes a procedure text and a procedure. The procedure includes procedures 1 to 7, and each procedure is in accordance with the work procedure. That is,
Procedure 1: Attach part-1 to position 1-1 on the right side of the frame shown in the figure Procedure 2: Temporarily fix part-1 with screw 2 Procedure 3: 1-2 on the right side of the frame shown in the figure The part-2 is attached to the position Step 4: The part-2 is temporarily fixed with the screw 2. The part position adjustment procedure 6: The part-1 is fixed with the screw 1. The part-2 is fixed with the screw.

図22は、作業手順オントロジーデータのさらに他の例である。   FIG. 22 is still another example of work procedure ontology data.

手順1:図に示す、フレームの右側面の1-1位置に、部品-1を取り付け
を自然言語処理、すなわち形態素解析及び係り受け分析して、
フレーム/右側面/1−1位置に/部品−1/取り付け
と分析する。
Step 1: Install part-1 at position 1-1 on the right side of the frame shown in the figure, and perform natural language processing, that is, morphological analysis and dependency analysis.
Frame / right side / 1-1 position / part-1 / attachment analysis.

画像形成装置(製品A)の部品オントロジーデータとして「フレーム」及び「部品−1」が含まれる場合、このオントロジーデータの中の「フレーム」と自然言語処理して得られた「フレーム」とをマッチングさせ、オントロジーデータの中の「部品−1」と自然言語処理して得られた「部品−1」とをマッチングさせる。   When “frame” and “component-1” are included as the component ontology data of the image forming apparatus (product A), the “frame” in the ontology data is matched with the “frame” obtained by natural language processing. And “part-1” in the ontology data is matched with “part-1” obtained by natural language processing.

同様に、画像形成装置(製品A)の動作オントロジーデータとして「取り付け」及び「ネジ締め」が含まれる場合、このオントロジーデータの中の「取り付け」と自然言語処理して得られた「取り付け」とをマッチングさせる。   Similarly, when “installation” and “screw tightening” are included as the operation ontology data of the image forming apparatus (product A), “attachment” in this ontology data and “attachment” obtained by natural language processing To match.

また、画像形成装置(製品A)の位置オントロジーデータとして「フレーム」及び「右側面」並びに「1−1位置に」が含まれる場合、このオントロジーデータの中の「右側面」と自然言語処理して得られた「右側面」とをマッチングさせ、オントロジーデータの中の「1−1位置に」と自然言語処理して得られた「1−1位置に」とをマッチングさせる。図において、一点鎖線の矢印はこれらのマッチング処理を模式的に示す。   If the position ontology data of the image forming apparatus (product A) includes “frame”, “right side”, and “1-1 position”, natural language processing is performed on the “right side” in the ontology data. The “right side surface” obtained in the above is matched, and “in the 1-1 position” in the ontology data is matched with “1-1 position” obtained by natural language processing. In the figure, the dashed-dotted arrows schematically show these matching processes.

以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、種々の変形が可能である。   As mentioned above, although embodiment of this invention was described, this invention is not limited to this, A various deformation | transformation is possible.

例えば、本実施形態では、センサ・アクチュエータ制御モジュール14でセンサ10からのセンサデータに一意のkey情報を付与し、key/valueのRAWデータとしているが、センサ10において一意のkey情報を付与してセンサ・アクチュエータ制御モジュール14に有線あるいは無線で供給してもよい。センサ・アクチュエータ制御モジュール14は、受信したkey/valueのRAWデータをRedisデータストア16に格納する。   For example, in the present embodiment, the sensor / actuator control module 14 assigns unique key information to the sensor data from the sensor 10 to generate key / value RAW data. However, the sensor 10 assigns unique key information. The sensor / actuator control module 14 may be supplied by wire or wirelessly. The sensor / actuator control module 14 stores the received key / value RAW data in the Redis data store 16.

また、本実施形態では、1つのデータストリームに1つのkey情報を付与しているが、複数のデータストリームに1つのkey情報を付与してもよい。   In this embodiment, one key information is assigned to one data stream, but one key information may be assigned to a plurality of data streams.

また、本実施形態では、第2ステップにおいて、CEPエンジンでkey情報が付与されたデータストリームを処理しているが、key情報が付与されたデータストリームに加え、key情報が付与されていないデータストリームもCEPエンジンに供給し、CEPエンジンにて両者を併用して処理してもよい。   In this embodiment, in the second step, the CEP engine processes the data stream to which the key information is assigned. However, in addition to the data stream to which the key information is assigned, the data stream to which no key information is assigned. May also be supplied to the CEP engine and processed together in the CEP engine.

さらに、本実施形態では、サービスモジュール18においてkey情報を推論し、推論したkey情報に該当するkey情報を有するデータストリームを選択しているが、サービスモジュール18は受け付けたクエリーをRDFストア22に供給し、RDFストア22にてkey情報を推論してサービスモジュール18に返し、サービスモジュール18では取得したkey情報に該当するkey情報を有するデータストリームを選択してもよい。この場合、第1ステップは、サービスモジュール18とRDFストア22との協働で実行されるといえる。   Furthermore, in this embodiment, the service module 18 infers key information and selects a data stream having key information corresponding to the inferred key information. However, the service module 18 supplies the accepted query to the RDF store 22. Then, the key information may be inferred in the RDF store 22 and returned to the service module 18, and the service module 18 may select a data stream having the key information corresponding to the acquired key information. In this case, it can be said that the first step is executed in cooperation with the service module 18 and the RDF store 22.

10 センサ、12 アクチュエータ、14 センサ・アクチュエータ制御モジュール、16 Redisデータストア、18 サービスモジュール、20 メタデータ抽出モジュール、22 RDFストア、181 リアルタイムデータ取得部、182 リアルタイムデータ処理部。
10 sensors, 12 actuators, 14 sensor / actuator control modules, 16 Redis data stores, 18 service modules, 20 metadata extraction modules, 22 RDF stores, 181 real-time data acquisition units, 182 real-time data processing units.

Claims (10)

オントロジーデータを記憶する記憶手段と、
センサデータに対して一意に付与されたkey情報を含むデータストリームに対し、記憶手段に記憶されたオントロジーデータを用いてクエリーに対応するkey情報を有するデータストリームを選択する選択手段と、
選択されたデータストリームを処理する処理手段と、
を備えるデータ処理システム。
Storage means for storing ontology data;
Selecting means for selecting a data stream having key information corresponding to a query using ontology data stored in the storage means for a data stream including key information uniquely assigned to the sensor data;
Processing means for processing the selected data stream;
A data processing system comprising:
選択手段は、
クエリーを受け付ける受付部と、
記憶手段からオントロジーデータを取得する取得部と、
クエリーとオントロジーデータを用いてkey情報を推論する推論部と、
推論されたkey情報を用いてデータストリームを選択する選択部と、
を備える請求項1に記載のデータ処理システム。
The selection means is
A reception unit for receiving a query;
An acquisition unit for acquiring ontology data from the storage means;
An inference unit that infers key information using a query and ontology data;
A selector that selects a data stream using the inferred key information;
A data processing system according to claim 1.
処理手段は、
選択されたデータストリームを抽象化する抽象化部と、
抽象化されたデータストリームを構造化する構造化部と、
記憶手段に記憶されたオントロジーデータを用いて構造化されたデータストリームを処理する処理部と、
を備える請求項1,2のいずれかに記載のデータ処理システム。
The processing means is
An abstraction section that abstracts the selected data stream;
A structuring unit for structuring the abstracted data stream;
A processing unit for processing a structured data stream using ontology data stored in the storage means;
A data processing system according to any one of claims 1 and 2.
記憶手段は、オントロジーデータに関連付けられたデータ処理ルーチンテンプレートを記憶し、
処理手段は、選択されたデータストリームをデータ処理ルーチンテンプレートで処理する、
請求項1,2のいずれかに記載のデータ処理システム。
The storage means stores a data processing routine template associated with ontology data,
The processing means processes the selected data stream with a data processing routine template.
The data processing system according to claim 1.
オントロジーデータは、作業手順書のオントロジーデータである、
請求項1〜4のいずれかに記載のデータ処理システム。
Ontology data is the ontology data of the work procedure manual.
The data processing system in any one of Claims 1-4.
オントロジーデータは、製品組立に関するオントロジーデータであり、
センサデータは、製品組立に関するセンサデータであり、
推論部は、クエリーを用いて製品組立の組立動作要素を抽出し、
抽出した組立動作要素からkey情報を推論する
請求項2に記載のデータ処理システム。
Ontology data is ontology data related to product assembly,
Sensor data is sensor data related to product assembly,
The inference unit extracts the assembly operation element of the product assembly using the query,
The data processing system according to claim 2, wherein key information is inferred from the extracted assembly operation element.
key情報には、製品組立の組立工程に配置され、センサデータを受信するセンサハブを一意に特定するIDが含まれ、
推論部は、抽出した組立動作要素からIDを推論することでkey情報を推論する
請求項1に記載のデータ処理システム。
The key information includes an ID that uniquely identifies a sensor hub that is arranged in the assembly process of product assembly and receives sensor data.
The data processing system according to claim 1, wherein the inference unit infers key information by inferring an ID from the extracted assembly operation element.
処理手段は、センサデータを所定時間幅のウィンドウで切り取って得られるデータと、機械学習して得られた学習結果とを用いて処理する
請求項1に記載のデータ処理システム。
The data processing system according to claim 1, wherein the processing means performs processing using data obtained by cutting the sensor data with a window having a predetermined time width and a learning result obtained by machine learning.
オントロジーデータは、製品組立に関するオントロジーデータであり、
センサデータは、製品組立に関するセンサデータであり、
処理手段は、センサデータを処理して得られる製品組立シーケンス情報と、オントロジーデータから得られる製品組立シーケンス情報とを用いて、製品組立の異常を検出する
請求項8に記載のデータ処理システム。
Ontology data is ontology data related to product assembly,
Sensor data is sensor data related to product assembly,
The data processing system according to claim 8, wherein the processing means detects product assembly abnormality using product assembly sequence information obtained by processing sensor data and product assembly sequence information obtained from ontology data.
センサデータを所定時間幅のウィンドウで切り取って得られるデータには時間情報が含まれ、
処理手段は、センサデータを処理して得られるシーケンス情報と、オントロジーデータから得られるシーケンス情報とを用いて、製品組立時間の異常を検出する
請求項9に記載のデータ処理システム。





Time data is included in the data obtained by cutting out the sensor data in a window with a predetermined time width.
The data processing system according to claim 9, wherein the processing means detects abnormality in the product assembly time using sequence information obtained by processing sensor data and sequence information obtained from ontology data.





JP2016177109A 2016-06-14 2016-09-09 Data processing system Active JP6772692B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/374,191 US10747768B2 (en) 2016-06-14 2016-12-09 Data processing system and data processing method
EP16204743.5A EP3258395B1 (en) 2016-06-14 2016-12-16 Data processing system and data processing method
CN201710073918.2A CN107506364B (en) 2016-06-14 2017-02-10 Data processing system and data processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016118112 2016-06-14
JP2016118112 2016-06-14

Publications (2)

Publication Number Publication Date
JP2017224264A true JP2017224264A (en) 2017-12-21
JP6772692B2 JP6772692B2 (en) 2020-10-21

Family

ID=60686374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016177109A Active JP6772692B2 (en) 2016-06-14 2016-09-09 Data processing system

Country Status (1)

Country Link
JP (1) JP6772692B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109710737A (en) * 2018-12-21 2019-05-03 神思电子技术股份有限公司 A kind of intelligent inference method based on structuralized query
JP2020013561A (en) * 2018-07-17 2020-01-23 パロ アルト リサーチ センター インコーポレイテッド System and method for characterizing arbitrary-length time series using pre-selected signatures
CN110750539A (en) * 2019-10-16 2020-02-04 杭州安恒信息技术股份有限公司 Redis database-based information query method and device and electronic equipment
JP2021526270A (en) * 2018-09-21 2021-09-30 ▲蘇▼州瑞派▲寧▼科技有限公司Raycan Technology Co., Ltd. Medical image four-dimensional visualization method and equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022147406A (en) 2021-03-23 2022-10-06 キオクシア株式会社 Information processing device, information processing method, and generating method of learning model

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013561A (en) * 2018-07-17 2020-01-23 パロ アルト リサーチ センター インコーポレイテッド System and method for characterizing arbitrary-length time series using pre-selected signatures
JP7393883B2 (en) 2018-07-17 2023-12-07 パロ アルト リサーチ センター インコーポレイテッド System and method for characterizing time series of arbitrary length using preselected signatures
JP2021526270A (en) * 2018-09-21 2021-09-30 ▲蘇▼州瑞派▲寧▼科技有限公司Raycan Technology Co., Ltd. Medical image four-dimensional visualization method and equipment
JP7083047B2 (en) 2018-09-21 2022-06-09 ▲蘇▼州瑞派▲寧▼科技有限公司 Medical image 4D visualization method and equipment
CN109710737A (en) * 2018-12-21 2019-05-03 神思电子技术股份有限公司 A kind of intelligent inference method based on structuralized query
CN109710737B (en) * 2018-12-21 2021-01-22 神思电子技术股份有限公司 Intelligent reasoning method based on structured query
CN110750539A (en) * 2019-10-16 2020-02-04 杭州安恒信息技术股份有限公司 Redis database-based information query method and device and electronic equipment

Also Published As

Publication number Publication date
JP6772692B2 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
CN107506364B (en) Data processing system and data processing method
JP6772692B2 (en) Data processing system
CN108268600B (en) AI-based unstructured data management method and device
Hu et al. Web-scale responsive visual search at bing
JP5192475B2 (en) Object classification method and object classification system
CN102782678B (en) What associate for item combines embedding
KR101354755B1 (en) Annotation by search
JP6176017B2 (en) SEARCH DEVICE, SEARCH METHOD, AND PROGRAM
JP2020500371A (en) Apparatus and method for semantic search
CN105550190A (en) Knowledge graph-oriented cross-media retrieval system
US9251274B2 (en) Grouping search results into a profile page
US20150331859A1 (en) Method and system for providing multimedia content to users based on textual phrases
US11609942B2 (en) Expanding search engine capabilities using AI model recommendations
Tuarob et al. Improving algorithm search using the algorithm co-citation network
Eyal-Salman et al. Feature-to-code traceability in legacy software variants
US11847166B2 (en) Search engine functionality using shared AI models
JP2004110834A (en) Information storage retrieval system and method
CN113039535A (en) Search engine user interface AI skin
KR102119246B1 (en) System, method and program for searching image data by using deep-learning algorithm
CN113822039A (en) Method and related equipment for mining similar meaning words
Hamzaoui et al. Object-based visual query suggestion
Rashid et al. The browsing issue in multimodal information retrieval: a navigation tool over a multiple media search result space
Deepa SABC-SBC: a hybrid ontology based image and webpage retrieval for datasets
Kaur et al. Automated scientific document retrieval
Taveekarn et al. Data++: An automated tool for intelligent data augmentation using wikidata

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R150 Certificate of patent or registration of utility model

Ref document number: 6772692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350