JP6849312B2 - Work motion recognition system - Google Patents

Work motion recognition system Download PDF

Info

Publication number
JP6849312B2
JP6849312B2 JP2016039514A JP2016039514A JP6849312B2 JP 6849312 B2 JP6849312 B2 JP 6849312B2 JP 2016039514 A JP2016039514 A JP 2016039514A JP 2016039514 A JP2016039514 A JP 2016039514A JP 6849312 B2 JP6849312 B2 JP 6849312B2
Authority
JP
Japan
Prior art keywords
work
analysis
time
information
time stamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016039514A
Other languages
Japanese (ja)
Other versions
JP2017156978A (en
Inventor
洋登 永吉
洋登 永吉
修弘 掛布
修弘 掛布
敏広 山田
敏広 山田
祐貴 福山
祐貴 福山
卓馬 寺田
卓馬 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016039514A priority Critical patent/JP6849312B2/en
Priority to PCT/JP2017/004022 priority patent/WO2017150073A1/en
Publication of JP2017156978A publication Critical patent/JP2017156978A/en
Application granted granted Critical
Publication of JP6849312B2 publication Critical patent/JP6849312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Description

本発明は,作業動作を認識する技術に関する。 The present invention relates to a technique for recognizing a working motion.

組立加工の分野において,作業者は規定された標準動作に従って,製品の組立加工を行うことが求められる。標準動作は,製品の品質を保つために必要な動作として定義されているため,作業者が標準動作とは異なる動作(逸脱動作)を行った場合,そのときの作業対象となった製品には,品質に問題が発生する可能性が高くなる。そのため,各種センサを利用して取得した人の動き情報から,逸脱動作を自動的に検知する機能(逸脱動作検知機能)が必要とされる。逸脱動作検知機能によって逸脱動作が検知された場合,例えば,そのとき作業対象となった製品に再検査を実施したり,製品自体を廃棄したりといった方法で,品質を担保することができる。 In the field of assembly processing, workers are required to assemble products according to the specified standard operation. Since the standard operation is defined as the operation required to maintain the quality of the product, if the operator performs an operation different from the standard operation (deviation operation), the product targeted for work at that time will be affected. , There is a high possibility that quality problems will occur. Therefore, a function (deviation motion detection function) that automatically detects deviation motion from human motion information acquired by using various sensors is required. When the deviation motion is detected by the deviation motion detection function, the quality can be guaranteed by, for example, re-inspecting the product that is the work target at that time or discarding the product itself.

人の動作を自動解析する方法として,特許文献1記載の発明には,動画像を利用した方法が開示されている。前記方法では,まず,動画像から特徴データを算出し,特徴データの時系列変化,すなわち動作の変化を見つけることで動画像を分割する。分割された動画像から時系列の特徴データ,あるいは時系列の特徴データを表す記号列を取得し,それらを用いて動作を解析する,という手法である。これは,複雑な動作を,より単純な動作へ分割することを意味しており,複雑な動作であっても解析可能となるという利点がある。 As a method for automatically analyzing human movements, the invention described in Patent Document 1 discloses a method using moving images. In the above method, first, feature data is calculated from a moving image, and the moving image is divided by finding a time-series change of the feature data, that is, a change in motion. This is a method of acquiring time-series feature data or symbol strings representing time-series feature data from the divided moving images and analyzing the operation using them. This means that complex movements are divided into simpler movements, and there is an advantage that even complicated movements can be analyzed.

特許文献1では,「局所的な動き情報の統計量に基づき特徴データを算出し,当該データの時系列変化から動画像データを分割し,分割区間毎に時系列特徴データを算出する」という構成が開示されている。 Patent Document 1 has a configuration of "calculating feature data based on statistics of local motion information, dividing moving image data from time-series changes in the data, and calculating time-series feature data for each divided section". Is disclosed.

特開2009−205282JP-A-2009-205282

特許文献1記載の発明では,動作の変化を用いて動画を分割するが,作業開始と終了のタイミングと,動作の変化とが必ずしも同じタイミングとは限らないため,それらのタイミングを取得できないという課題がある。 In the invention described in Patent Document 1, the moving image is divided by using the change in the operation, but since the timing of the start and end of the work and the change in the operation are not always the same timing, there is a problem that these timings cannot be obtained. There is.

上記課題を解決するため,本発明に係る作業動作解析システムは,センサと,センサが発報した時刻を特定する複数のタイムスタンプを含む装置情報を生成する装置情報生成部と,装置情報を解析装置に送信する送信部と,を備える生産装置と,装置情報を受信する受信部と,撮像装置から取得した解析用情報を一時蓄積する解析用情報バッファと,受信した装置情報に含まれる複数のタイムスタンプが示す時刻それぞれにおいて取得された解析用情報が解析用情報バッファに蓄積されるまで待機し,複数のタイムスタンプが示す時刻を用いて特定された葉にについて,解析用情報の解析を行う解析部と,を備える解析装置と,を備える。 In order to solve the above problems, the work operation analysis system according to the present invention analyzes the device information, the sensor, the device information generator that generates device information including a plurality of time stamps that specify the time when the sensor issues a report, and the device information. A production device including a transmitter for transmitting to the device, a receiver for receiving device information, an analysis information buffer for temporarily storing analysis information acquired from the imaging device, and a plurality of devices included in the received device information. Wait until the analysis information acquired at each time indicated by the time stamp is accumulated in the analysis information buffer, and analyze the analysis information for the leaves specified using the times indicated by multiple time stamps. It is equipped with an analysis unit and an analysis device.

作業開始,終了あるいはその両方のタイミングを生産装置から取得することで,作業中の時間帯のみ,あるいは少なくとも作業を含んだ時間帯を対象として解析を実施することが可能となる。 By acquiring the timings of work start, end, or both from the production equipment, it is possible to perform analysis only during the work period, or at least the time zone including the work.

実施例1における作業動作認識システムの構成図である。It is a block diagram of the work motion recognition system in Example 1. FIG. 実施例1における生産装置の動作を表すフローチャートである。It is a flowchart which shows the operation of the production apparatus in Example 1. FIG. 実施例1における解析装置の動作を表すフローチャートである。It is a flowchart which shows the operation of the analysis apparatus in Example 1. FIG. 装置情報の構成要素を示した図である。It is a figure which showed the component of the device information. トリガ生成テーブルに保存されたデータの構成である。This is the structure of the data stored in the trigger generation table. トリガの構成要素を示した図である。It is a figure which showed the component of the trigger. 解析用情報バッファに保存されたデータの構成である。This is the structure of the data stored in the analysis information buffer. カメラIDテーブルに保存されたデータの構成である。This is the structure of the data stored in the camera ID table. 解析用情報分割部の動作の,第1の例である。This is the first example of the operation of the analysis information division unit. 解析用情報分割部の動作の,第2の例である。This is the second example of the operation of the analysis information division unit. 解析用情報分割部の動作の,第3の例である。This is a third example of the operation of the analysis information division unit. 動作モデル蓄積部に保存されたデータの構成である。This is the structure of the data stored in the operation model storage unit. ログ蓄積部に保存されたデータの構成である。This is the structure of the data saved in the log storage section. 表示部に表示される解析結果を通知するための画面例である。This is an example of a screen for notifying the analysis result displayed on the display unit.

以下,実施例を図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.

図1は,作業動作認識システム全体像を示すシステム構成図である。作業動作システムは,1以上の生産装置100および解析装置102から構成される。 FIG. 1 is a system configuration diagram showing an overall image of the work motion recognition system. The work operation system is composed of one or more production devices 100 and analysis devices 102.

生産装置100は,装置情報送信部110と,装置情報生成部111と,1以上のセンサ112と,制御部113と,生産部114と,からなる。 The production device 100 includes a device information transmission unit 110, a device information generation unit 111, one or more sensors 112, a control unit 113, and a production unit 114.

解析装置102は,装置情報受信部120と,トリガ生成部121と,トリガ生成テーブル123と,トリガバッファ131と,解析用情報分割部132と,解析用情報バッファ133と,カメラIDテーブル134と,動作モデル選択部135と,動作モデル蓄積部136と,解析部137と,ログ蓄積部138と,表示部139からなる。解析用情報バッファ133にはカメラ140が1以上の台数が接続される。解析装置102には,個人認証装置150と,スケジューラ151が接続される。 The analysis device 102 includes a device information receiving unit 120, a trigger generation unit 121, a trigger generation table 123, a trigger buffer 131, an analysis information division unit 132, an analysis information buffer 133, a camera ID table 134, and the like. It is composed of an operation model selection unit 135, an operation model storage unit 136, an analysis unit 137, a log storage unit 138, and a display unit 139. One or more cameras 140 are connected to the analysis information buffer 133. The personal authentication device 150 and the scheduler 151 are connected to the analysis device 102.

生産装置100の動作については図2で,解析装置102の動作については図3で,それぞれ後述する。 The operation of the production apparatus 100 will be described later with reference to FIG. 2, and the operation of the analysis apparatus 102 will be described with reference to FIG.

図2は,生産装置100の動作を示すフローチャートである。このフローチャートを,図4を参照しながら説明する。 FIG. 2 is a flowchart showing the operation of the production apparatus 100. This flowchart will be described with reference to FIG.

S200は,装置情報生成部111が,センサ112からセンサIDを取得する処理である。センサIDは,センサ112を特定可能な情報である。この処理により,いずれのセンサが発報したかが判明する。センサ112は,例えば接触センサであり,作業者が生産装置から製品を取りだしたタイミング,あるいは製品を投入したタイミングを取得できる。前者は,作業者の作業開始タイミングを意味し,後者は,作業者の作業終了タイミングを意味する。 S200 is a process in which the device information generation unit 111 acquires the sensor ID from the sensor 112. The sensor ID is information that can identify the sensor 112. By this process, it becomes clear which sensor issued the alarm. The sensor 112 is, for example, a contact sensor, and can acquire the timing when the worker takes out the product from the production device or the timing when the product is put in. The former means the work start timing of the worker, and the latter means the work end timing of the worker.

また,センサ112は,生産部114の起動スイッチであってもよい。その場合,起動スイッチとしてのセンサ112の発報を制御部113が受信し,生産部114を制御して生産に関する処理,例えば切削,かしめ,溶接,搬送などを行うこととなる。つまり,センサ112によって,作業者が生産装置に製品を投入し,生産装置を起動したタイミングを取得できる。これは,作業者の作業終了タイミングを意味する。 Further, the sensor 112 may be a start switch of the production unit 114. In that case, the control unit 113 receives the alarm of the sensor 112 as the start switch, and controls the production unit 114 to perform processing related to production, such as cutting, caulking, welding, and conveying. That is, the sensor 112 can acquire the timing at which the worker puts the product into the production device and starts the production device. This means the work end timing of the worker.

S201は,装置情報生成部111が,S200で取得したセンサIDに,少なくとも生産装置を特定可能な生産装置IDと,時刻を特定可能なタイムスタンプとを追加して,図4に示す装置情報400を生成する処理である。タイムスタンプは,センサ112の発報を装置情報生成部111が検知したタイミングを表す。あるいは,センサ112が時刻同期可能な時計を備えていれば,S200センサIDとセンサ112が発報したタイミングを受信しても良い。その場合は,S201においては,生産装置IDを追加するだけで良い。 In S201, the device information generation unit 111 adds at least a production device ID capable of identifying the production device and a time stamp capable of specifying the time to the sensor ID acquired in S200, and the device information 400 shown in FIG. Is the process of generating. The time stamp represents the timing at which the device information generation unit 111 detects the alarm of the sensor 112. Alternatively, if the sensor 112 includes a time-synchronized clock, the S200 sensor ID and the timing issued by the sensor 112 may be received. In that case, in S201, it is only necessary to add the production device ID.

S202は,装置情報送信部110が,装置情報400を解析装置102に送信する処理である。 図3は,解析装置102の動作を示すフローチャートである。このフローチャートを,図5〜図14を参照しながら説明する。 S202 is a process in which the device information transmission unit 110 transmits the device information 400 to the analysis device 102. FIG. 3 is a flowchart showing the operation of the analysis device 102. This flowchart will be described with reference to FIGS. 5 to 14.

S300は,装置情報受信部120が,装置情報送信部110から装置情報400を受け取る 処理である。
トリガ生成テーブル123に保存されているデータ500は,図5に示すように,生産装置IDと,センサIDと,作業IDと,作業開始/終了フラグであり,それらが関連付けられている。
S300 is a process in which the device information receiving unit 120 receives the device information 400 from the device information transmitting unit 110.
As shown in FIG. 5, the data 500 stored in the trigger generation table 123 is a production device ID, a sensor ID, a work ID, and a work start / end flag, which are associated with each other.

S301は,トリガ生成部121が,トリガ生成テーブル123を参照して,装置情報400に含まれるセンサIDおよび生産装置IDに対応する作業IDおよび作業開始/終了フラグを読みだす処理である。この処理の結果,少なくともそれらの作業IDおよび,作業開始/終了フラグと,装置情報に含まれるタイムスタンプから構成される,図6に示すトリガ600が生成されることとなる。なお,以降,トリガ600に含まれるタイムスタンプが示すタイミングを,簡単にトリガ600が示すタイミングと呼ぶ。 S301 is a process in which the trigger generation unit 121 refers to the trigger generation table 123 and reads out the work ID and the work start / end flag corresponding to the sensor ID and the production device ID included in the device information 400. As a result of this processing, the trigger 600 shown in FIG. 6 is generated, which is composed of at least those work IDs, the work start / end flags, and the time stamp included in the device information. Hereinafter, the timing indicated by the time stamp included in the trigger 600 is simply referred to as the timing indicated by the trigger 600.

作業開始/終了フラグは,トリガ600が示すタイミングが,作業開始あるいは終了のどちらのタイミングを表すのかを示す。前者を開始トリガ,後者を終了トリガと呼ぶ。なお,開始トリガ,終了トリガが両方生成される作業工程(ペアトリガあり),開始もしくは終了トリガのいずれかだけが生成される作業工程(ペアトリガなし)の2種類が想定されるため,作業開始/終了フラグは,ペアトリガあり/なしに関する情報も含む。 The work start / end flag indicates whether the timing indicated by the trigger 600 represents the work start or end timing. The former is called the start trigger and the latter is called the end trigger. Since two types of work processes are assumed, one is a work process in which both the start trigger and the end trigger are generated (with a pair trigger), and the other is a work process in which only one of the start and end triggers is generated (without a pair trigger). The flag also contains information about with / without pair triggers.

なお,生産装置IDとセンサIDの組み合わせによっては,トリガ生成テーブル123に情報がない場合もある。この場合は,該当する作業が存在しないことを意味し,トリガ600は生成しない。 Depending on the combination of the production device ID and the sensor ID, there may be no information in the trigger generation table 123. In this case, it means that the corresponding work does not exist, and the trigger 600 is not generated.

S310は,トリガ600をトリガバッファ131に一時保存する処理である。 S310 is a process of temporarily storing the trigger 600 in the trigger buffer 131.

S311は,カメラ140から読みだされた解析用情報を解析用バッファ133に一時蓄積する処理である。ここで保存される解析用情報は,動画像でも良いし,あるいは,動画像から抽出された人の姿勢を表す情報でも良い。さらに,人の姿勢情報は人の手,足,肩,頭といった部位の位置情報であっても良い。いずれの場合でも,図7に示すように,解析用情報バッファ133内のデータは,カメラIDごとの時系列の情報として保存されることとなる。 S311 is a process of temporarily storing the analysis information read from the camera 140 in the analysis buffer 133. The analysis information stored here may be a moving image or information representing the posture of a person extracted from the moving image. Further, the posture information of a person may be the position information of parts such as a person's hands, feet, shoulders, and head. In either case, as shown in FIG. 7, the data in the analysis information buffer 133 is stored as time-series information for each camera ID.

図7では,人の手,足,肩,頭といった部位の位置情報を,時系列情報として蓄積した場合の模擬図を,解析用情報の模擬図701として示す。 In FIG. 7, a simulated diagram when the position information of parts such as human hands, feet, shoulders, and head is accumulated as time-series information is shown as simulated diagram 701 of the analysis information.

S312は,解析用情報分割部132が,トリガバッファ131に保存されたトリガ600を読みだす処理である。読みだしたトリガが,ペアトリガありの場合は,ペアトリガが両方揃ってから読み込む。読みだしたトリガが,ペアトリガなしの場合は,そのまま読みこむ。 S312 is a process in which the analysis information dividing unit 132 reads out the trigger 600 stored in the trigger buffer 131. If the read trigger has a pair trigger, read it after both pair triggers are available. If the read trigger does not have a pair trigger, it is read as it is.

その後,解析用情報分割部132は,カメラIDテーブル134を参照して,トリガ600に含まれる作業IDから対応するカメラIDを取得する。 After that, the analysis information dividing unit 132 refers to the camera ID table 134 and acquires the corresponding camera ID from the work ID included in the trigger 600.

図8に示すように,カメラIDテーブル134内のデータ800は,作業IDとカメラIDとが,関連付けられたデータである。 As shown in FIG. 8, the data 800 in the camera ID table 134 is data in which the work ID and the camera ID are associated with each other.

S313は,解析用情報分割部132が,取得したカメラIDと,トリガに含まれるタイムスタンプに従い,解析用情報バッファ133から解析用情報を分割して読み込む処理である。以下,3パターンの分割処理につき,それぞれ図9〜図11を用いて説明する。 S313 is a process in which the analysis information dividing unit 132 divides and reads the analysis information from the analysis information buffer 133 according to the acquired camera ID and the time stamp included in the trigger. Hereinafter, the three patterns of division processing will be described with reference to FIGS. 9 to 11, respectively.

1つ目のパターンは,ペアトリガありの場合である。この場合,解析用情報分割部132は,開始トリガおよび終了トリガの示すタイミングに従い,解析用情報バッファ133から,両者のタイミングに挟まれた範囲の解析用情報を分割し,読み込む。 The first pattern is when there is a pair trigger. In this case, the analysis information dividing unit 132 divides and reads the analysis information in the range sandwiched between the timings from the analysis information buffer 133 according to the timings indicated by the start trigger and the end trigger.

図9で,1つ目のパターンについて説明する。すなわち,解析用情報の模擬図701において,開始トリガの示すタイミングの第1の例701と,終了トリガの示すタイミングの第1の例702に挟まれた範囲である分割対象の第1の例700を,分割する様子を示している。 FIG. 9 describes the first pattern. That is, in the simulated analysis information 701, the first example 700 of the division target, which is the range sandwiched between the first example 701 of the timing indicated by the start trigger and the first example 702 of the timing indicated by the end trigger. Is shown to be divided.

2つ目のパターンは,ペアトリガがない場合で,かつトリガが開始トリガであった場合である。この場合,開始トリガの示すタイミングと,開始トリガの示すタイミングに対して所定の時間後のタイミングに挟まれた範囲を分割して読み込む。 The second pattern is when there is no pair trigger and the trigger is the start trigger. In this case, the timing indicated by the start trigger and the range between the timing indicated by the start trigger and the timing after a predetermined time are divided and read.

図10で,2つ目のパターンについて説明する。すなわち,解析用情報の模擬図701において,開始トリガの示すタイミングの第2の例1001と,開始トリガの示すタイミングの第2の例から所定の時間後のタイミング1002に挟まれた範囲である,分割対象の第2の例1002を,分割する様子を示す。ここで,所定の範囲は,該当作業工程の標準作業時間にマージンを加えた値とするとよい。 The second pattern will be described with reference to FIG. That is, in the simulated analysis information 701, the range is sandwiched between the second example 1001 of the timing indicated by the start trigger and the timing 1002 after a predetermined time from the second example of the timing indicated by the start trigger. The state of dividing the second example 1002 of the division target is shown. Here, the predetermined range may be a value obtained by adding a margin to the standard working time of the corresponding work process.

3つ目のパターンは,ペアトリガがない場合で,かつトリガが終了トリガであった場合である。この場合,終了トリガの示すタイミングと,終了トリガの示すタイミングに対して所定の時間前のタイミングに挟まれた範囲を分割して読み込む。 The third pattern is when there is no pair trigger and the trigger is the end trigger. In this case, the range between the timing indicated by the end trigger and the timing indicated by the end trigger before the predetermined time is divided and read.

図11で,3つ目のパターンについて説明する。すなわち,解析用情報の模擬図701において,終了トリガの示すタイミングの第2の例1101と,終了トリガの示すタイミングの第2の例から所定の時間前のタイミング1102に挟まれた範囲である,分割対象の第3の例1100を,分割する様子を示す。ここで,所定の範囲は,該当作業工程の標準作業時間にマージンを加えた値とするとよい。 FIG. 11 describes the third pattern. That is, in the simulated analysis information 701, the range is sandwiched between the second example 1101 of the timing indicated by the end trigger and the timing 1102 before a predetermined time from the second example of the timing indicated by the end trigger. The state of dividing the third example 1100 of the division target is shown. Here, the predetermined range may be a value obtained by adding a margin to the standard working time of the corresponding work process.

ただし,上記3パターンいずれの場合でも,解析用情報の蓄積が間に合っていなかった場合は,読み込むべき範囲の解析用情報が蓄積されるまで,待機する。 However, in any of the above three patterns, if the analysis information is not accumulated in time, it waits until the analysis information in the range to be read is accumulated.

S314は,動作モデル選択部135が,トリガ600が含む作業IDに従い,動作モデル蓄積部136から作業IDに対応する動作モデルを選択する処理である。あるいは,トリガの作業IDと,個人認証装置150あるいはスケジューラ151から取得した該当作業を行っている人物を特定可能な個人IDとから,それらに対応する動作モデルを選択しても良い。個人認証装置150は,作業IDに対応した作業を実施している人物の個人IDを,生体情報を用いた認識,あるいは該当人物が保持する認証用のデバイスを用いて,個人IDを取得する。スケジューラ151は,各人物がいずれの作業工程にていつ作業を行うかの情報を持っており,トリガ600に含まれる作業IDおよびタイムスタンプによって,該当作業を行っている人物の個人IDを特定することができる。 S314 is a process in which the operation model selection unit 135 selects an operation model corresponding to the work ID from the operation model storage unit 136 according to the work ID included in the trigger 600. Alternatively, the operation model corresponding to the work ID of the trigger may be selected from the work ID of the trigger and the personal ID that can identify the person performing the corresponding work acquired from the personal authentication device 150 or the scheduler 151. The personal authentication device 150 acquires the personal ID of the person who is performing the work corresponding to the work ID by using the recognition device using biometric information or the authentication device held by the person concerned. The scheduler 151 has information on when each person performs work in which work process, and identifies the personal ID of the person who is performing the work by the work ID and the time stamp included in the trigger 600. be able to.

図12に示すように,動作モデル蓄積部136に保存されているデータ1200は,作業IDと,個人IDと,数値で表現された動作モデルとを関連付けたデータである。個人IDを利用しない場合は,作業ID毎に,動作モデルが保存されている。
動作モデルは,人の動き情報を画像上の動きベクトルの時系列情報あるいはその代表値として表したものでも良いし,人の姿勢に関する時系列情報あるいはその代表値であっても良い。さらに,それらに関する確率分布として表現されていても良い。確率分布として表現する場合は,パラメトリックに表現する方法であるガウス分布あるいはガウス混合分布として表現する方法,ノンパラメトリックに表現する方法である頻度分布を用いた方法や,パルゼン窓を用いた方法を利用することができる。
As shown in FIG. 12, the data 1200 stored in the operation model storage unit 136 is data in which the work ID, the personal ID, and the operation model expressed numerically are associated with each other. When the personal ID is not used, the operation model is saved for each work ID.
The motion model may represent the motion information of a person as the time series information of the motion vector on the image or its representative value, or may be the time series information regarding the posture of the person or its representative value. Furthermore, it may be expressed as a probability distribution related to them. When expressing as a probability distribution, use a method using a Gaussian distribution or a Gaussian mixture distribution, which is a parametric expression method, a method using a frequency distribution, which is a nonparametric expression method, or a method using a Parzen window. can do.

S315は,解析部137が,ステップS313にて分割された解析用情報と,S314にて選択された動作モデルを用いて解析を行う処理である。具体的には,分割された解析用情報によって示される動作が,選択された動作モデルからどの程度逸脱しているかを表す逸脱度を算出し,それを解析結果として出力する。逸脱度の算出方法として,選択された動作モデルが時系列情報で表されていれば動的プログラミング法を用いることができるし,代表値で表されていればユークリッド距離を用いることができる。また,動作モデルが確率分布として表現されている場合,確率分布がガウス分布であればマハラノビス距離を用いることができ,他の確率分布として表現されていれば分割された解析用情報の発生しうる確率を計算することで逸脱度を計算することができる。動作モデルが隠れマルコフモデルで表されている場合であっても,分割された解析用情報の発生しうる確率を計算でき,逸脱度を計算することができる。 S315 is a process in which the analysis unit 137 performs analysis using the analysis information divided in step S313 and the operation model selected in S314. Specifically, the degree of deviation, which indicates how much the motion indicated by the divided analysis information deviates from the selected motion model, is calculated and output as the analysis result. As a method of calculating the deviance, the dynamic programming method can be used if the selected motion model is represented by time series information, and the Euclidean distance can be used if it is represented by a representative value. Also, when the motion model is expressed as a probability distribution, the Mahalanobis distance can be used if the probability distribution is a Gaussian distribution, and if it is expressed as another probability distribution, divided analysis information can be generated. The degree of deviation can be calculated by calculating the probability. Even when the motion model is represented by a hidden Markov model, the probability that the divided analysis information can occur can be calculated, and the deviance can be calculated.

なお,解析結果は,複数の方法を用いて計算して得られた複数の値であっても良い。例えば,解析用情報のうち,全身,手,足,上半身,下半身といった,異なる人体の部位を選択的に利用して逸脱度を計算すれば,それぞれの部位に対応した解析結果を得られる。 The analysis result may be a plurality of values obtained by calculation using a plurality of methods. For example, if the deviance is calculated by selectively using different parts of the human body such as the whole body, hands, feet, upper body, and lower body of the analysis information, the analysis results corresponding to each part can be obtained.

S316は,このようにして得られた解析結果を,ログ蓄積部138に蓄積する処理である。図13に示すように,ログ蓄積部に保存するデータ1300は,タイムスタンプ,作業ID,個人ID,解析結果を関連付けたデータである。ここでタイムスタンプは,ステップS313で利用したトリガ600に対応して保存する。作業開始トリガを利用していれば,そのタイムスタンプ(作業開始タイムスタンプ),作業終了トリガを利用していれば,そのタイムスタンプ(作業終了タイムスタンプ)を保存する。両方利用している場合は,両方保存する。 S316 is a process of accumulating the analysis result obtained in this manner in the log accumulating unit 138. As shown in FIG. 13, the data 1300 stored in the log storage unit is data in which a time stamp, a work ID, an individual ID, and an analysis result are associated with each other. Here, the time stamp is saved corresponding to the trigger 600 used in step S313. If the work start trigger is used, the time stamp (work start time stamp) is saved, and if the work end trigger is used, the time stamp (work end time stamp) is saved. If you are using both, save both.

S317は,表示部139が,生産装置100にタイムスタンプ,作業ID,個人ID,解析結果を表示する処理である。ここでタイムスタンプは,ステップS313で利用したトリガ600に対応して保存する。作業開始トリガを利用していれば,そのタイムスタンプ(作業開始タイムスタンプ),作業終了トリガを利用していれば,そのタイムスタンプ(作業終了タイムスタンプ)を表示する。両方利用している場合は,両方表示する。 S317 is a process in which the display unit 139 displays the time stamp, the work ID, the personal ID, and the analysis result on the production apparatus 100. Here, the time stamp is saved corresponding to the trigger 600 used in step S313. If the work start trigger is used, the time stamp (work start time stamp) is displayed, and if the work end trigger is used, the time stamp (work end time stamp) is displayed. If both are used, both are displayed.

図14は,表示画面139に表示する画面の例1400を示す図である。いずれかの解析結果が,所定の閾値を超えていた場合には,図13に示すように逸脱動作が発生したメッセージを表示し,さらに,解析結果が特定の人体の部位の解析用情報を用いて計算されたものであれば,図13のようにその部位を同時に表示することで,よりわかりやすい表示となる。その後,表示画面139を見た作業員や監督員は,例えば該当逸脱動作発生時の製品を廃棄する,あるいは該当逸脱動作を行った作業員に対して適切な指導をする,といった対応が可能となる。 FIG. 14 is a diagram showing an example 1400 of a screen displayed on the display screen 139. If any of the analysis results exceeds a predetermined threshold value, a message that a deviation motion has occurred is displayed as shown in FIG. 13, and the analysis result uses information for analysis of a specific part of the human body. If it is calculated by the above, the display can be made easier to understand by displaying the parts at the same time as shown in FIG. After that, the worker or supervisor who sees the display screen 139 can take measures such as discarding the product when the corresponding deviant action occurs or giving appropriate guidance to the worker who performed the corresponding deviant action. Become.

100:生産装置 102:解析装置 110:装置情報送信部 111:装置情報生成部 112:センサ 113:制御部 114:生産部 120:装置情報受信部 121:トリガ生成部 123:トリガ生成テーブル 131:トリガバッファ 132:解析用情報分割部 133:解析用情報バッファ 134:カメラIDテーブル 135:動作モデル選択部 136:動作モデル蓄積部 137:解析部 138:ログ蓄積部 139:表示部 140:カメラ 150:個人認証装置 151:スケジューラ 400:装置情報 500:トリガ生成テーブルに保存されているデータ 600:トリガ 700:解析用情報バッファ内のデータ 701:解析用情報の模擬図 800:カメラIDテーブル内のデータ 900:分割対象の第1の例 901:開始トリガの示すタイミングの第1の例 902:終了トリガの示すタイミングの第1の例 1000:分割対象の第2の例 1001:開始トリガの示すタイミングの第2の例 1002:開始トリガの示すタイミングの第2の例から所定の時間後のタイミング 1100:分割対象の第3の例 1101:終了トリガの示すタイミングの第2の例 1102:終了トリガの示すタイミングの第2の例から所定の時間前のタイミング 1200:動作モデル蓄積部に保存されているデータ 1300:ログ蓄積部に保存されているデータ 1400:表示装置に表示する画面の例 100: Production equipment 102: Analysis equipment 110: Equipment information transmission unit 111: Equipment information generation unit 112: Sensor 113: Control unit 114: Production unit 120: Equipment information reception unit 121: Trigger generation unit 123: Trigger generation table 131: Trigger Buffer 132: Analysis information division unit 133: Analysis information buffer 134: Camera ID table 135: Operation model selection unit 136: Operation model storage unit 137: Analysis unit 138: Log storage unit 139: Display unit 140: Camera 150: Individual Authentication device 151: Scheduler 400: Device information 500: Data stored in the trigger generation table 600: Trigger 700: Data in the analysis information buffer 701: Simulated diagram of analysis information 800: Data in the camera ID table 900: First example of division target 901: First example of timing indicated by start trigger 902: First example of timing indicated by end trigger 1000: Second example of division target 1001: Second example of timing indicated by start trigger 1002: Timing after a predetermined time from the second example of the timing indicated by the start trigger 1100: Third example of the division target 1101: Second example of the timing indicated by the end trigger 1102: Timing indicated by the end trigger Timing before a predetermined time from the second example 1200: Data stored in the operation model storage unit 1300: Data stored in the log storage unit 1400: Example of a screen to be displayed on the display device

Claims (4)

生産装置と解析装置とを備えた作業動作解析システムであって,
前記生産装置は,センサと,前記センサが発報した時刻を特定する複数のタイムスタンプを含む装置情報を生成する装置情報生成部と,前記装置情報を前記解析装置に送信する送信部と,を備え,
前記解析装置は,前記装置情報を受信する受信部と,撮像装置から取得した解析用情報を一時蓄積する解析用情報バッファと,解析部と,を備え,
前記解析装置は、人の姿勢に関する時系列情報あるいはその代表値が確率分布として表現された動作モデルを,作業と,個人とに対応付けて保持し,
前記解析部は,受信した装置情報に含まれる複数のタイムスタンプが示す時刻それぞれにおいて取得された解析用情報が前記解析用情報バッファに蓄積されるまで待機し,前記複数のタイムスタンプが示す時刻を用いて特定された範囲について,前記範囲の作業及び前記作業を行っている個人に対応付けられている前記動作モデルと、前記解析用情報のうちの異なる人体の部位を選択的に用いることで逸脱度を算出し、
前記複数のタイムスタンプは,作業者の作業開始時点を示す第1のタイムスタンプと,作業者の作業終了時点を示す第2のタイムスタンプと,を含み,
前記範囲は,前記第1のタイムスタンプと,前記第2のタイムスタンプと,により特定された範囲である,ことを特徴とする作業動作解析システム。
It is a work operation analysis system equipped with a production device and an analysis device.
The production device includes a sensor, a device information generation unit that generates device information including a plurality of time stamps that specify a time when the sensor issues a report, and a transmission unit that transmits the device information to the analysis device. Prepare,
The analysis device includes a receiving unit that receives the device information, an analysis information buffer that temporarily stores analysis information acquired from the imaging device, and an analysis unit.
The analysis device holds a motion model in which time-series information on a person's posture or its representative value is expressed as a probability distribution, in association with a work and an individual.
The analysis unit waits until the analysis information acquired at each of the times indicated by the plurality of time stamps included in the received device information is accumulated in the analysis information buffer, and sets the times indicated by the plurality of time stamps. With respect to the range specified by using, the work in the range and the motion model associated with the individual performing the work and the different parts of the human body from the analysis information are selectively used to deviate from the range. Calculate the degree ,
The plurality of time stamps include a first time stamp indicating the work start time point of the worker and a second time stamp indicating the work end time point of the worker.
A work motion analysis system, characterized in that the range is a range specified by the first time stamp and the second time stamp.
請求項に記載の作業動作解析システムにおいて,
前記センサとして,接触センサと,起動スイッチと,を備え,
前記第1のタイムスタンプは,前記接触センサが発報した時刻を特定するタイムスタンプであり,前記第2のタイムスタンプは,前記起動スイッチが発報した時刻を特定するタイムスタンプである,ことを特徴とする作業動作解析システム。
In the work operation analysis system according to claim 1,
The sensor includes a contact sensor and a start switch.
The first time stamp is a time stamp that specifies the time when the contact sensor issues a report, and the second time stamp is a time stamp that specifies the time when the activation switch issues a report. A featured work motion analysis system.
センサが発報した時刻を特定可能な複数のタイムスタンプを含む装置情報を生成する手順と,
撮像装置から取得した解析用情報を解析用情報バッファに一時蓄積する手順と,
人の姿勢に関する時系列情報あるいはその代表値が確率分布として表現された動作モデルを,作業と,個人とに対応付けて保持する手順と,
前記複数のタイムスタンプが示す時刻それぞれにおいて取得された解析用情報が前記解析用情報バッファに蓄積されるまで待機する手順と,
前記複数のタイムスタンプが示す時刻を用いて特定された範囲について,前記範囲の作業及び前記作業を行っている個人に対応付けられている前記動作モデルと、前記解析用情報のうちの異なる人体の部位を選択的に用いることで逸脱度を算出する手順と,を有し、
前記複数のタイムスタンプは,作業者の作業開始時点を示す第1のタイムスタンプと,作業者の作業終了時点を示す第2のタイムスタンプと,を含み,
前記範囲は,前記第1のタイムスタンプと,前記第2のタイムスタンプと,により特定された範囲である,ことを特徴とする作業動作解析方法。
A procedure for generating device information including multiple time stamps that can identify the time when the sensor issued a report, and
The procedure for temporarily storing the analysis information acquired from the imaging device in the analysis information buffer, and
A procedure for holding a motion model in which time-series information on a person's posture or its representative value is expressed as a probability distribution in association with a work and an individual, and
A procedure of waiting until the analysis information acquired at each of the times indicated by the plurality of time stamps is accumulated in the analysis information buffer, and a procedure of waiting.
With respect to the range specified by using the times indicated by the plurality of time stamps, the operation model associated with the work in the range and the individual performing the work, and the different human body in the analysis information. possess a step of calculating a deviation degree by using a site-selectively, and
The plurality of time stamps include a first time stamp indicating the work start time point of the worker and a second time stamp indicating the work end time point of the worker.
A work motion analysis method, characterized in that the range is a range specified by the first time stamp and the second time stamp.
請求項に記載の作業動作解析方法を計算機に実行させる作業動作解析プログラム。 A work motion analysis program that causes a computer to execute the work motion analysis method according to claim 3.
JP2016039514A 2016-03-02 2016-03-02 Work motion recognition system Active JP6849312B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016039514A JP6849312B2 (en) 2016-03-02 2016-03-02 Work motion recognition system
PCT/JP2017/004022 WO2017150073A1 (en) 2016-03-02 2017-02-03 Work operation analysis system, work operation analysis method, and work operation analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039514A JP6849312B2 (en) 2016-03-02 2016-03-02 Work motion recognition system

Publications (2)

Publication Number Publication Date
JP2017156978A JP2017156978A (en) 2017-09-07
JP6849312B2 true JP6849312B2 (en) 2021-03-24

Family

ID=59742726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039514A Active JP6849312B2 (en) 2016-03-02 2016-03-02 Work motion recognition system

Country Status (2)

Country Link
JP (1) JP6849312B2 (en)
WO (1) WO2017150073A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7406441B2 (en) 2020-04-08 2023-12-27 株式会社日立製作所 Manufacturing defect factor search method and manufacturing defect factor search device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11848091B2 (en) 2018-04-26 2023-12-19 Nec Corporation Motion estimation system, motion estimation method, and motion estimation program
DE112018007522T5 (en) * 2018-05-31 2021-01-14 Mitsubishi Electric Corporation WORK ANALYSIS DEVICE
JP7061272B2 (en) * 2019-01-23 2022-04-28 オムロン株式会社 Motion analysis device, motion analysis method, motion analysis program and motion analysis system
JP7016936B1 (en) 2020-11-25 2022-02-07 日立建機株式会社 Operation grasp system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04259803A (en) * 1991-02-15 1992-09-16 Nissan Motor Co Ltd Working operation measuring instrument
JPH11120163A (en) * 1997-10-17 1999-04-30 Toyota Motor Corp Worker operation simulation device and production line studying device
JP4665719B2 (en) * 2005-10-28 2011-04-06 オムロン株式会社 Filter parameter setting device, filtering processing device, filter parameter setting method, working time measurement system, control program, and recording medium
JP2007243846A (en) * 2006-03-10 2007-09-20 Matsushita Electric Ind Co Ltd Image extraction analyzer, image extraction analyzing system, and image extraction analysis method
JP2010015205A (en) * 2008-07-01 2010-01-21 Meidensha Corp Failure diagnosing system and method for semiconductor manufacturing device
JP5284179B2 (en) * 2009-05-21 2013-09-11 トヨタ自動車東日本株式会社 Work determination system, work determination method, and recording medium recording the work determination method
JP5525202B2 (en) * 2009-07-30 2014-06-18 株式会社構造計画研究所 Motion analysis apparatus, motion analysis method, and motion analysis program
JP5730504B2 (en) * 2010-06-21 2015-06-10 株式会社構造計画研究所 Work analysis apparatus, work analysis method, and program
JP5498880B2 (en) * 2010-07-12 2014-05-21 株式会社構造計画研究所 Simulation apparatus, simulation method, and program
JP5830780B2 (en) * 2011-12-02 2015-12-09 株式会社日立製作所 Business analysis apparatus, business analysis system, and business analysis method
JP2015114761A (en) * 2013-12-10 2015-06-22 株式会社東芝 Information processing system, electronic equipment, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7406441B2 (en) 2020-04-08 2023-12-27 株式会社日立製作所 Manufacturing defect factor search method and manufacturing defect factor search device

Also Published As

Publication number Publication date
JP2017156978A (en) 2017-09-07
WO2017150073A1 (en) 2017-09-08

Similar Documents

Publication Publication Date Title
JP6849312B2 (en) Work motion recognition system
CN106055088B (en) The air of interactive wearable device writes and gesture system
US11134893B2 (en) Limb movement gesture judgment method and device
JP2020194608A (en) Living body detection device, living body detection method, and living body detection program
EP2123221A2 (en) Abnormal motion detector and monitor
US10713770B2 (en) Analysis apparatus and analysis method
JP2014211763A5 (en)
JP6736298B2 (en) Information processing apparatus, information processing method, and program
JP2019139570A (en) Determination device, determination method and program
CN111507246A (en) Method, device, system and storage medium for selecting marked object through gesture
JP6270488B2 (en) Operator monitoring control device and operator monitoring control method
JP2020177680A (en) Work analysis device, work analysis method, and program
JP2019096116A (en) Information processing device, information processing method, and program
US20180126561A1 (en) Generation device, control method, robot device, call system, and computer-readable recording medium
CN112149527A (en) Wearable device detection method and device, electronic device and storage medium
JP7165108B2 (en) Work training system and work training support method
CN104076926B (en) Set up the method and wearable electronic equipment of data transmission link
US20210335114A1 (en) Motion Evaluation System, Motion Evaluation Device, and Motion Evaluation Method
US20150019171A1 (en) Feature-quantity extracting apparatus
TWI515608B (en) Methods and systems for managing motion information for electronic devices, and related computer program products
JP2021056922A (en) Human movement support system and method thereof
JP2019169805A5 (en)
WO2022209638A1 (en) Work instruction system
CN113147176B (en) Method for detecting operation specification of silk-screen link
JP6867701B2 (en) Monitoring equipment, monitoring system, monitoring method and monitoring program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170111

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190403

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200408

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200408

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200422

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200428

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200529

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200602

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200929

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20201027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210105

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210209

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6849312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150