JP7157119B2 - 支援システム、支援方法及びプログラム - Google Patents
支援システム、支援方法及びプログラム Download PDFInfo
- Publication number
- JP7157119B2 JP7157119B2 JP2020181380A JP2020181380A JP7157119B2 JP 7157119 B2 JP7157119 B2 JP 7157119B2 JP 2020181380 A JP2020181380 A JP 2020181380A JP 2020181380 A JP2020181380 A JP 2020181380A JP 7157119 B2 JP7157119 B2 JP 7157119B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- time period
- unit
- state
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 131
- 238000001514 detection method Methods 0.000 claims description 138
- 238000003384 imaging method Methods 0.000 claims description 123
- 230000008569 process Effects 0.000 claims description 115
- 230000007704 transition Effects 0.000 claims description 6
- 230000004048 modification Effects 0.000 description 23
- 238000012986 modification Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0633—Workflow analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Primary Health Care (AREA)
- Game Theory and Decision Science (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
まず、本開示の第1の実施形態について説明する。
図1は、本開示の第1の実施形態に係る支援システム1の構成の例を表すブロック図である。
図1に示す例では、支援システム1は、支援装置100と、複数の撮像装置である撮像装置201、撮像装置202、・・・、撮像装置20Nと、ユーザ装置400とを含む。支援装置100は、撮像装置201、撮像装置202、・・・、撮像装置20Nの各々と、通信ネットワーク300によって、通信可能に接続されている。支援装置100は、さらに、ユーザ装置400と、通信可能に接続されている。以下では、撮像装置201、撮像装置202、・・・、撮像装置20Nの各々を区別しない説明において、撮像装置201、撮像装置202、・・・、撮像装置20Nを単に撮像装置と表記する。
まず、支援システム1の概要について説明する。支援装置100は、撮像装置によって撮像された複数の画像の作業領域において手の領域を検出し、手の領域の検出の結果に基づいて、作業の状態を判定する。本実施形態では、複数の撮像装置の各々が、異なる複数の工程の作業が行われる場所を撮影するよう構成される。作業領域は、例えば、ユーザ装置400のユーザによって、作業が行われる場所の領域を含むよう指定される。支援装置100は、判定した作業の状態を表す情報を、ユーザ装置400に出力する。ユーザ装置400は、出力された情報を受け取り、受け取った情報を表示する。ユーザ装置400は、ユーザによる指定に基づく時間帯の情報を支援装置100に送信する。支援装置100は、その時間帯に撮像された画像を、ユーザ装置400に送信する。ユーザ装置400は、注目時間帯に撮像された画像を支援装置100から受け取り、受け取った画像を表示する。以下では、支援システム1が含む装置について、更に詳しく説明する。
撮像装置201、撮像装置202、・・・、撮像装置20Nは、それぞれ、例えば工場の作業者が作業を行う、例えば作業台の上などの場所を撮影する。
支援装置100は、取得部110と、検出部120と、判定部130と、出力部140と、画像記憶部150と、受付部160とを含む。
取得部110は、撮像装置から、複数の画像と、それらの複数の画像の各々が撮像された時刻を表す情報と、を取得する。取得部110は、画像に、その画像を撮像した撮像装置の識別子と、その画像が撮像された時刻である撮像時刻を表す情報とを関連付ける。撮像時刻を表す情報は、画像が撮像された日付及び時刻を特定できる情報である。
検出部120は、まず、後で詳述する受付部160から、撮像装置の各々の、作業領域を特定する情報を受け取る。検出部120は、撮像装置の各々について、受け取った、作業領域を特定する情報によって特定される領域を、作業領域に設定する。作業領域は、撮像範囲を撮影した画像のうち、手の検出が行われる範囲を指す。作業領域は、ユーザ装置400のユーザによって設定される。作業領域は、例えば、ユーザ装置400のユーザによって指定される。作業領域を特定する情報は、ユーザ装置400から、受付部160を介して、検出部120に送信される。なお、撮像装置の作業領域を特定する情報を受け取らなかった場合、検出部120は、その撮像装置の作業領域を、所定の領域に設定するよう構成されていてよい。
判定部130は、検出部120から、手の検出の結果を表す情報を受け取る。判定部130は、手の検出の結果に基づいて、言い換えると、手の検出の結果を表す情報に基づいて、作業の状態を判定する。具体的には、判定部130は、画像の作業領域から手の領域が検出されたか否かを表す情報と、その画像が撮像された時刻と、その画像を撮像した撮像装置を特定する情報と、に基づいて、撮像装置ごとに、作業が行われていない時間帯を、作業の状態として判定する。なお、判定部130は、手の検出の結果を表す情報を検出部120から受け取るのではなく、画像記憶部150から読み出すよう構成されていてもよい。その場合、検出部120は、手の検出の結果を表す情報を判定部130に送出しなくてよい。
出力部140は、まず、撮像装置の各々が撮像範囲を撮像した画像を、ユーザ装置400に出力してもよい。その場合、出力部140は、例えば、取得部110が撮像装置の各々から取得し画像記憶部150に格納した画像を、画像記憶部150から読み出し、読み出した画像をユーザ装置400に送出してもよい。出力部140は、例えば、取得部110が撮像装置の各々から取得した画像を、取得部110から受け取り、受け取った画像をユーザ装置400に送出してもよい。なお、図1では、この場合の取得部110と出力部140とを結ぶ線は図の複雑化を防ぐために省略されている。ユーザ装置400は、受け取った画像を表示する。ユーザ装置400のユーザは、例えば、表示された画像において、上述の作業領域を指定する。ユーザ装置400は、指定された作業領域を表す情報を、後述の受付部160に送信する。
画像記憶部150は、検出部120によって格納された、撮像装置ごとに、画像と、画像が撮像された撮像時刻と、画像に設定された作業領域と、手の検出の結果とを記憶する。具体的には、画像記憶部150は、例えば、撮像装置の識別子と、その撮像装置によって撮像された画像と、その画像が撮像された撮像時刻と、その画像に設定された作業領域の情報と、その画像の作業領域における手の検出の結果を表す情報と、の組み合わせを、撮像装置ごとに記憶していてよい。
受付部160は、ユーザ装置400から、撮像装置の各々の作業領域を特定する情報を受け取る。受付部160は、受け取った、撮像装置の各々の作業領域を特定する情報を、検出部120に送出する。
ユーザ装置400は、例えば、表示部と入力部とを備えたコンピュータなどの装置である。
次に、本実施形態に係る支援装置100の動作について、図面を使用して詳細に説明する。
本実施形態には、作業工程における作業の停止の判定の正確さを向上できるという効果がある。その理由は、判定部130が、画像の作業領域における、検出部120による手の領域が検出の結果に基づく、作業の状態を判定し、出力部140が、その作業の状態を出力するからである。作業領域における手の領域の検出に基づいて作業の状態を判定するので、実際に作業が停止している時間の判定の正確性が向上する。
本開示の第1の実施形態には、以下で説明する変形例のいずれか1つ以上の組み合わせを適用することができる。
検出部120は、画像の作業領域から手の領域を抽出する。検出部120は、抽出した手の領域の範囲を表す情報と、その画像が撮像された時刻と、その画像を撮像した撮像装置を特定する情報と、の組み合わせを、手の検出の結果を表す情報として、判定部130に送出する。
判定部130は、撮像装置の各々が撮像した画像から抽出された非作業時間帯と、複数の撮像装置の各々が撮像する撮像範囲において行われる工程の情報とに基づいて、工程の各々における非作業時間帯を特定する。上述のように、判定部130を含む、支援装置100の各構成要素は、複数の工程の順番と、複数の撮像装置の各々が撮像する撮像範囲において行われる工程の情報とを参照できる。
ある工程における非作業時間帯が、その工程の直前の工程の作業の遅延等が原因ではない場合、直前の工程にも、対応する非作業時間帯が存在することが見込まれる。ある工程における非作業時間帯が、その工程の直前の工程の作業の遅延等が原因である場合、直前の工程には、対応する非作業時間帯が存在しないことが見込まれる。
検出部120は、作業領域から手の領域を抽出する。
1台の撮像装置の撮像範囲に、複数の作業領域が含まれていてもよい。また、複数の撮像装置の撮像範囲に、同一の工程の作業領域が含まれていてよい。この場合、複数の撮像装置によって撮像された同一の工程の作業領域のいずれかに手の領域が検出された場合に、検出部120は、その工程の作業領域に手の領域が含まれると判定してよい。
図8は、第6の変形例に係る支援システム1Aの構成を表すブロック図である。
図8は、第7の変形例に係る支援システム1Bの構成の例を表すブロック図である。図8に示す例では、支援システム1Bは、支援装置100Bと、ユーザ装置400Bとを含む。図8に示す例では、図が煩雑になるのを防ぐために、1つのユーザ装置400Bが描かれているが、支援システム1Bは、複数のユーザ装置400を含んでいてもよい。支援システム1Bは、以下で説明する相違点を除いて、第1の実施形態の支援システム1と同様である。
本変形例では非作業時間帯として検出する不検出時間帯の長さは、ユーザ装置400ごとに、ユーザ装置400のユーザによって、例えばユーザ装置400の入力部(例えば、キーボード、マウス、タッチパネルなど)を使用して設定されてよい。不検出割合を算出する時間帯の長さも、ユーザ装置400ごとに、ユーザ装置400のユーザによって、例えばユーザ装置400の入力部(例えば、キーボード、マウス、タッチパネルなど)を使用して設定されてよい。
次に、本開示の第2の実施形態について図面を参照して詳細に説明する。
図5は、本開示の第2の実施形態に係る支援システム101の構成の一例を表すブロック図である。図5に示す例では、支援システム101は、検出部120と、判定部130と、出力部140と、を備える。検出部120は、作業領域を撮像した映像から手を検出する。判定部130は、手の検出の結果に基づいて、作業の状態を判定する。出力部140は、前記作業の状態を表す情報を出力する。本実施形態の検出部120は、第1の実施形態の検出部120と同様に動作してよい。本実施形態の判定部130は、第1の実施形態の判定部130と同様に動作してよい。本実施形態の出力部140は、第1の実施形態の出力部140と同様に動作してよい。
図6は、本開示の第2の実施形態に係る支援システム101の動作の一例を表すフローチャートである。図6に示す例では、まず、検出部120が、作業領域を撮像した画像から手を検出する(ステップS201)。次に、判定部130が、手の検出の結果に基づいて、作業の状態を判定する(ステップS202)。そして、出力部140が、作業の状態を表す情報を出力する(ステップS203)。
以上で説明した本実施形態には、第1の実施形態の効果と同じ効果がある。その理由は、第1の実施形態の効果が生じる理由と同じである。
上述の支援装置100及び支援システム101は、記憶媒体から読み出されたプログラムがロードされたメモリと、そのプログラムを実行するプロセッサとを含むコンピュータによって実現することができる。支援装置100及び支援システム101は、専用のハードウェアによって実現することもできる。支援装置100及び支援システム101は、前述のコンピュータと専用のハードウェアとの組み合わせによって実現することもできる。
作業領域を撮像した映像から手を検出する検出手段と、
手の検出の結果に基づいて、作業の状態を判定する判定手段と、
前記作業の状態を表す情報を出力する出力手段と、
を備える支援システム。
前記検出手段は、複数の工程の作業がそれぞれなされる複数の作業領域を撮像した映像から手を検出し、
前記判定手段は、前記作業の状態として、前記複数の作業領域の各々において手が継続して検出されない時間帯である非作業時間帯を判定する
付記1に記載の支援システム。
前記判定手段は、前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、前記複数の工程から、作業が停滞している工程を、前記作業の状態として判定する
付記2に記載の支援システム。
前記判定手段は、前記複数の工程の関係と、前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、前記作業が停滞している工程の、非作業時間帯の発生の原因である時間帯を推定する
付記2または3に記載の支援システム。
前記出力手段は、前記作業の状態を表す情報として、時間の経過に伴う前記作業の状態の推移の表示を出力し、
前記支援システムは、
前記映像を記憶する映像記憶手段と、
時間帯の指定を受け付ける受付手段と、
をさらに備え、
前記出力手段は、前記指定に基づく注目時間帯に撮像された前記映像を出力する、
付記1乃至4のいずれか1項に記載の支援システム。
作業領域を撮像した映像から手を検出し、
手の検出の結果に基づいて、作業の状態を判定し、
前記作業の状態を表す情報を出力する、
支援方法。
複数の工程の作業がそれぞれなされる複数の作業領域を撮像した映像から手を検出し、
前記作業の状態として、前記複数の作業領域の各々において手が継続して検出されない時間帯である非作業時間帯を判定する
付記6に記載の支援方法。
前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、前記複数の工程から、作業が停滞している工程を、前記作業の状態として判定する
付記7に記載の支援方法。
前記複数の工程の関係と、前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、前記作業が停滞している工程の、非作業時間帯の発生の原因である時間帯を推定する
付記7または8に記載の支援方法。
前記作業の状態を表す情報として、時間の経過に伴う前記作業の状態の推移の表示を出力し、
時間帯の指定を受け付け、
前記指定に基づく注目時間帯に撮像された前記映像を出力する、
付記6乃至9のいずれか1項に記載の支援方法。
作業領域を撮像した映像から手を検出する検出処理と、
手の検出の結果に基づいて、作業の状態を判定する判定処理と、
前記作業の状態を表す情報を出力する出力処理と、
をコンピュータに実行させるプログラム。
前記検出処理は、複数の工程の作業がそれぞれなされる複数の作業領域を撮像した映像から手を検出し、
前記判定処理は、前記作業の状態として、前記複数の作業領域の各々において手が継続して検出されない時間帯である非作業時間帯を判定する
付記11に記載のプログラム。
前記判定処理は、前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、前記複数の工程から、作業が停滞している工程を、前記作業の状態として判定する
付記12に記載のプログラム。
前記判定処理は、前記複数の工程の関係と、前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、前記作業が停滞している工程の、非作業時間帯の発生の原因である時間帯を推定する
付記12または13に記載のプログラム。
前記出力処理は、前記作業の状態を表す情報として、時間の経過に伴う前記作業の状態の推移の表示を出力し、
前記プログラムは、
前記映像を記憶する映像記憶処理と、
時間帯の指定を受け付ける受付処理と、
をコンピュータにさらに実行させ、
前記出力処理は、前記指定に基づく注目時間帯に撮像された前記映像を出力する、
付記11乃至14のいずれか1項に記載のプログラム。
1A 支援システム
1B 支援システム
100 支援装置
100A 支援装置
100B 支援装置
101 支援システム
110 取得部
120 検出部
130 判定部
140 出力部
150 画像記憶部
160 受付部
201 撮像装置
202 撮像装置
20N 撮像装置
300 通信ネットワーク
400 ユーザ装置
400B ユーザ装置
410 出力部
420 入力部
1001 プロセッサ
1002 メモリ
1003 記憶装置
1004 I/Oインタフェース
1005 記憶媒体
Claims (7)
- 複数の工程の作業がそれぞれなされる複数の作業領域を撮像した映像から手を検出する検出手段と、
手の検出の結果に基づいて、作業の状態として、前記複数の作業領域の各々において手が継続して検出されない時間帯である非作業時間帯を判定し、前記複数の工程の関係と、前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、連続する工程の前記非作業時間帯の、発生時刻の差と長さの差とを用いて、前記作業が停滞している工程の、前記非作業時間帯の発生の原因である時間帯を推定する判定手段と、
前記作業の状態を表す情報として、推定された、前記非作業時間帯の発生の原因である時間帯を含む、時間の経過に伴う前記作業の状態の推移の表示を出力する出力手段と、
を備える支援システム。 - 前記判定手段は、前記複数の作業領域の各々において判定された前記非作業時間帯と前記複数の作業領域の各々において行われる工程の順序とに基づいて、前記複数の工程から、作業が停滞している工程を、前記作業の状態として判定する
請求項1に記載の支援システム。 - 前記映像を記憶する映像記憶手段と、
時間帯の指定を受け付ける受付手段と、
をさらに備え、
前記出力手段は、前記指定に基づく注目時間帯に撮像された前記映像を出力する、
請求項1又は2に記載の支援システム。 - 複数の工程の作業がそれぞれなされる複数の作業領域を撮像した映像から手を検出し、
手の検出の結果に基づいて、作業の状態として、前記複数の作業領域の各々において手が継続して検出されない時間帯である非作業時間帯を判定し、前記複数の工程の関係と、前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、連続する工程の前記非作業時間帯の、発生時刻の差と長さの差とを用いて、前記作業が停滞している工程の、前記非作業時間帯の発生の原因である時間帯を推定し、
前記作業の状態を表す情報として、推定された、前記非作業時間帯の発生の原因である時間帯を含む、時間の経過に伴う前記作業の状態の推移の表示を出力する、
支援方法。 - 前記複数の作業領域の各々において判定された前記非作業時間帯と前記複数の作業領域の各々において行われる工程の順序とに基づいて、前記複数の工程から、作業が停滞している工程を、前記作業の状態として判定する
請求項4に記載の支援方法。 - 時間帯の指定を受け付け、
前記指定に基づく注目時間帯に撮像された前記映像を出力する、
請求項4又は5に記載の支援方法。 - 複数の工程の作業がそれぞれなされる複数の作業領域を撮像した映像から手を検出する検出処理と、
手の検出の結果に基づいて、作業の状態として、前記複数の作業領域の各々において手が継続して検出されない時間帯である非作業時間帯を判定し、前記複数の工程の関係と、前記複数の作業領域の各々において判定された前記非作業時間帯に基づいて、連続する工程の前記非作業時間帯の、発生時刻の差と長さの差とを用いて、前記作業が停滞している工程の、前記非作業時間帯の発生の原因である時間帯を推定する判定処理と、
前記作業の状態を表す情報として、推定された、前記非作業時間帯の発生の原因である時間帯を含む、時間の経過に伴う前記作業の状態の推移の表示を出力する出力処理と、
をコンピュータに実行させるプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020181380A JP7157119B2 (ja) | 2020-10-29 | 2020-10-29 | 支援システム、支援方法及びプログラム |
US18/032,234 US20230394885A1 (en) | 2020-10-20 | 2021-10-21 | Assistance system, assistance method, and storage medium |
PCT/JP2021/038888 WO2022091924A1 (ja) | 2020-10-29 | 2021-10-21 | 支援システム、支援方法及び記憶媒体 |
EP21886043.5A EP4239542A1 (en) | 2020-10-29 | 2021-10-21 | Assistance system, assistance method, and storage medium |
CN202180071281.8A CN116324856A (zh) | 2020-10-29 | 2021-10-21 | 辅助系统、辅助方法和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020181380A JP7157119B2 (ja) | 2020-10-29 | 2020-10-29 | 支援システム、支援方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022072116A JP2022072116A (ja) | 2022-05-17 |
JP7157119B2 true JP7157119B2 (ja) | 2022-10-19 |
Family
ID=81382431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020181380A Active JP7157119B2 (ja) | 2020-10-20 | 2020-10-29 | 支援システム、支援方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230394885A1 (ja) |
EP (1) | EP4239542A1 (ja) |
JP (1) | JP7157119B2 (ja) |
CN (1) | CN116324856A (ja) |
WO (1) | WO2022091924A1 (ja) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246404A (ja) | 2003-02-10 | 2004-09-02 | Toyota Motor Corp | 生産ライン解析装置 |
JP2008112209A (ja) | 2006-10-27 | 2008-05-15 | Omron Corp | 稼働状態モニタリング装置、稼働状態モニタリング方法、およびプログラム |
JP2015075795A (ja) | 2013-10-04 | 2015-04-20 | 富士通株式会社 | 可視化方法、表示方法、表示装置及び表示プログラム |
JP2018165893A (ja) | 2017-03-28 | 2018-10-25 | 日本電気株式会社 | 作業支援装置、作業支援方法、及び作業支援プログラム |
JP2019016226A (ja) | 2017-07-07 | 2019-01-31 | 株式会社日立製作所 | 作業データ管理システム及び作業データ管理方法 |
JP2019023803A (ja) | 2017-07-24 | 2019-02-14 | 株式会社日立製作所 | 作業改善支援システムおよび方法 |
JP2019101919A (ja) | 2017-12-06 | 2019-06-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体 |
US20200125839A1 (en) | 2018-10-22 | 2020-04-23 | Robert Bosch Gmbh | Method and system for automatic repetitive step and cycle detection for manual assembly line operations |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7312009B2 (ja) | 2019-04-25 | 2023-07-20 | 株式会社日立製作所 | 異常予兆検知システム |
-
2020
- 2020-10-29 JP JP2020181380A patent/JP7157119B2/ja active Active
-
2021
- 2021-10-21 US US18/032,234 patent/US20230394885A1/en active Pending
- 2021-10-21 WO PCT/JP2021/038888 patent/WO2022091924A1/ja active Application Filing
- 2021-10-21 CN CN202180071281.8A patent/CN116324856A/zh active Pending
- 2021-10-21 EP EP21886043.5A patent/EP4239542A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246404A (ja) | 2003-02-10 | 2004-09-02 | Toyota Motor Corp | 生産ライン解析装置 |
JP2008112209A (ja) | 2006-10-27 | 2008-05-15 | Omron Corp | 稼働状態モニタリング装置、稼働状態モニタリング方法、およびプログラム |
JP2015075795A (ja) | 2013-10-04 | 2015-04-20 | 富士通株式会社 | 可視化方法、表示方法、表示装置及び表示プログラム |
JP2018165893A (ja) | 2017-03-28 | 2018-10-25 | 日本電気株式会社 | 作業支援装置、作業支援方法、及び作業支援プログラム |
JP2019016226A (ja) | 2017-07-07 | 2019-01-31 | 株式会社日立製作所 | 作業データ管理システム及び作業データ管理方法 |
JP2019023803A (ja) | 2017-07-24 | 2019-02-14 | 株式会社日立製作所 | 作業改善支援システムおよび方法 |
JP2019101919A (ja) | 2017-12-06 | 2019-06-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体 |
US20200125839A1 (en) | 2018-10-22 | 2020-04-23 | Robert Bosch Gmbh | Method and system for automatic repetitive step and cycle detection for manual assembly line operations |
Also Published As
Publication number | Publication date |
---|---|
EP4239542A1 (en) | 2023-09-06 |
CN116324856A (zh) | 2023-06-23 |
JP2022072116A (ja) | 2022-05-17 |
US20230394885A1 (en) | 2023-12-07 |
WO2022091924A1 (ja) | 2022-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3270134B1 (en) | Gas leak location estimating device, gas leak location estimating system, gas leak location estimating method and gas leak location estimating program | |
US8284991B2 (en) | Apparatus and method for counting number of objects | |
US20200019790A1 (en) | Methods and systems for image based anomaly detection | |
JP6270433B2 (ja) | 情報処理装置、情報処理方法、情報処理システム | |
EP3518146A1 (en) | Image processing apparatus and image processing method | |
JP2016157357A (ja) | 作業者品質管理方法及び作業者品質管理装置 | |
CN111369590A (zh) | 多目标跟踪方法、装置、存储介质及电子设备 | |
KR101125233B1 (ko) | 융합기술기반 보안방법 및 융합기술기반 보안시스템 | |
CN112528716B (zh) | 一种事件信息获取方法及装置 | |
US20110249862A1 (en) | Image display device, image display method, and image display program | |
CN109086725B (zh) | 手部跟踪方法及机器可读存储介质 | |
US20230388328A1 (en) | Threat detection network | |
JP7157119B2 (ja) | 支援システム、支援方法及びプログラム | |
CN114584836B (zh) | 电子产品使用行为检测方法、装置、系统及介质 | |
JP6504180B2 (ja) | 異常検出装置、異常検出方法および異常検出プログラム | |
CN110798618B (zh) | 一种动态追踪中的摄像头资源调度方法及装置 | |
CN112383741A (zh) | 一种视频显示方法及装置 | |
CN114846513A (zh) | 动作分析系统和动作分析程序 | |
JP2019220163A (ja) | ビジョンシステムでラインを検出するためのシステム及び方法 | |
EP4109362A1 (en) | Work rate measurement device and work rate measurement method | |
CN109800146B (zh) | 应用程序启动时间测试方法、装置、计算机设备及存储介质 | |
JP2021197623A5 (ja) | ||
JP5599228B2 (ja) | 繁忙検知システム及び繁忙検知プログラム | |
CN116304249B (zh) | 一种数据可视化分析方法以及系统 | |
KR102496462B1 (ko) | 비디오에서 키프레임 추출을 위한 알고리즘 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201029 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7157119 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |