JP2023132997A - 作業認識装置、作業認識方法、及び作業認識プログラム - Google Patents
作業認識装置、作業認識方法、及び作業認識プログラム Download PDFInfo
- Publication number
- JP2023132997A JP2023132997A JP2022038635A JP2022038635A JP2023132997A JP 2023132997 A JP2023132997 A JP 2023132997A JP 2022038635 A JP2022038635 A JP 2022038635A JP 2022038635 A JP2022038635 A JP 2022038635A JP 2023132997 A JP2023132997 A JP 2023132997A
- Authority
- JP
- Japan
- Prior art keywords
- worker
- work
- movement
- standing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012545 processing Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 102220184965 rs117987946 Human genes 0.000 description 2
- 102220037375 rs75383960 Human genes 0.000 description 2
- 102220139156 rs774350715 Human genes 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 1
- 238000002788 crimping Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Multimedia (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Manufacturing & Machinery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】作業者が複数の作業台を移動して複数の作業を行う場合に、各作業の区切りを容易に設定することができる。【解決手段】作業認識装置は、作業者の動きに関する動き情報を取得する動き情報取得部と、前記作業者が複数の作業台で行う一連の作業の予め定められた作業手順に関する作業手順情報を取得する作業手順取得部と、前記動き情報に基づいて、前記作業者の移動及び佇立を判定する移動佇立判定部と、前記作業手順情報及び前記作業者の移動及び佇立の判定結果に基づいて、前記一連の作業における作業間の区切りを設定する区切り設定部と、設定した作業間の区切りに関する区切り情報を出力する出力部と、を備える。【選択図】図1
Description
開示の技術は、作業認識装置、作業認識方法、及び作業認識プログラムに関する。
特許文献1には、正しい作業が行われているか否かを判定するための判定用データを生成する作業分析装置であって、作業者により複数の単位作業が所定の順番で行われる所定の作業の繰り返しを撮像する撮像部と、前記単位作業ごとに予め設定される所定の動作に基づいて、前記撮像部により撮像された作業動画を前記所定の動作の検出タイミングで前記単位作業ごとに区切るための区切情報を設定する設定部と、前記撮像部により撮像された作業動画と前記設定部により設定された前記区切情報とを含めるように前記判定用データを生成する生成部と、を備えることを特徴とする作業分析装置が開示されている。
特許文献2には、対象物に係る動作体の動作を認識するための動作認識システムであって、前記対象物の位置情報を取得する位置取得部と、位置情報とカメラを制御するためのパラメータとが対応付けられた第1の情報をもとに、前記対象物の位置情報に対応するパラメータを取得するパラメータ取得部と、前記パラメータ取得部により取得されたパラメータを前記カメラに送信するカメラ制御部と、前記カメラにより撮像された前記対象物の画像を取得する画像取得部と、位置情報と前記対象物の動作を認識するための領域を示す領域情報とが対応付けられた第2の情報をもとに、前記対象物の位置情報に対応する領域情報を取得する領域情報取得部と、前記画像取得部により取得された画像と、前記領域情報取得部により取得された領域情報とを出力する出力部と、を備える動作認識システムが開示されている。
工場の作業は、単一の作業台で完結することは稀であり、複数の作業台を移動して複数の作業を行う場合が多い。
しかしながら、特許文献1記載の技術は、単一の作業台で完結する作業のみを対象としており、複数の作業台を移動して複数の作業を行う場合に対しては適用が困難である、という問題があった。
また、特許文献2記載の技術は、広範囲に設置された複数のカメラを用いて作業者の大域的な位置を取得し、作業者の手及び物体にズームしたカメラで局所的な手及び物体の位置を捉えることで作業内容を認識する。
しかしながら、特許文献2記載の技術では、作業者の大局的な位置を捉えるカメラと、作業者の手及び物体にズームするカメラと、のそれぞれにおいて注視する領域を手動で設定する必要があり、手間がかかる、という問題があった。
開示の技術は、上記の点に鑑みてなされたものであり、作業者が複数の作業台を移動して複数の作業を行う場合に、各作業の区切りを容易に設定することができる作業認識装置、作業認識方法、及び作業認識プログラムを提供することを目的とする。
開示の第1態様は、作業認識装置であって、作業者の動きに関する動き情報を取得する動き情報取得部と、前記作業者が複数の作業台で行う一連の作業の予め定められた作業手順に関する作業手順情報を取得する作業手順取得部と、前記動き情報に基づいて、前記作業者の移動及び佇立を判定する移動佇立判定部と、前記作業手順情報及び前記作業者の移動及び佇立の判定結果に基づいて、前記一連の作業における作業間の区切りを設定する区切り設定部と、設定した作業間の区切りに関する区切り情報を出力する出力部と、を備える。
上記第1態様において、前記区切り設定部は、前記移動佇立判定部により前記作業者の状態が佇立から移動に切り替わったと判定した場合に、前記区切りの設定として前記作業の終了時間を前記区切り情報に記録し、前記移動佇立判定部により前記作業者の状態が移動から佇立に切り替わったと判定した場合に、前記区切りの設定として前記作業の開始時間を前記区切り情報に記録するようにしてもよい。
上記第1態様において、前記動き情報は、前記作業者を撮影した撮影画像であり、前記移動佇立判定部は、前記撮影画像に基づいて特定した前記作業者の関節の位置に基づいて、前記作業者の移動及び佇立を判定するようにしてもよい。
上記第1態様において、前記移動佇立判定部は、特定した前記作業者の全ての関節に外接する外接領域の中心位置の移動量に基づいて、前記作業者の移動及び佇立を判定するようにしてもよい。
上記第1態様において、前記移動佇立判定部は、特定した前記作業者の関節のうち体幹を示す関節の位置の移動量に基づいて、前記作業者の移動及び佇立を判定するようにしてもよい。
開示の第2態様は、作業認識方法であって、コンピュータが、作業者の動きに関する動き情報を取得し、前記作業者が複数の作業台で行う一連の作業の予め定められた作業手順に関する作業手順情報を取得し、前記動き情報に基づいて、前記作業者の移動及び佇立を判定し、前記作業手順情報及び前記作業者の移動及び佇立の判定結果に基づいて、前記一連の作業における作業間の区切りを設定し、設定した作業間の区切りに関する区切り情報を出力することを含む処理を実行する。
開示の第3態様は、作業認識プログラムであって、コンピュータに、作業者の動きに関する動き情報を取得し、前記作業者が複数の作業台で行う一連の作業の予め定められた作業手順に関する作業手順情報を取得し、前記動き情報に基づいて、前記作業者の移動及び佇立を判定し、前記作業手順情報及び前記作業者の移動及び佇立の判定結果に基づいて、前記一連の作業における作業間の区切りを設定し、設定した作業間の区切りに関する区切り情報を出力することを含む処理を実行させる。
開示の技術によれば、作業者が複数の作業台を移動して複数の作業を行う場合に、各作業の区切りを容易に設定することができる。
以下、本発明の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されている場合があり、実際の比率とは異なる場合がある。
図1は、作業認識システム10の構成を示す。作業認識システム10は、作業認識装置20及びカメラ30を備える。
作業認識装置20は、カメラ30で撮影された撮影画像に基づいて作業者Wが行う作業の作業内容を認識する。
作業者Wは、一例として作業台TBに載置された作業の対象物Mを取り出して、作業スペースS上で所定の作業を行う。
具体的には、図2に示すように、作業者Wは、複数の作業台TBを順次移動し、各作業台TBで所定の作業を行う。図2の例では、8個の作業台TB1~TB8が作業者Wを囲むように配置されている。作業者Wは、作業台TB1~TB8まで順次移動して、作業1~14を順次実行する。作業1~14は一例として以下の作業であるが、作業内容はこれらに限られるものではない。
作業1:部品Aと部品Bとを結合
作業2:ネジ締め
作業3:基板嵌め込み
作業4:圧着
作業5:電気検査
作業6:部品C装着
作業7:部品D装着
作業8:エアブラシ
作業9:検査
作業10:説明書梱包
作業11:製品箱詰め
作業12:ラベル印刷
作業13:ラベル貼り
作業14:運搬ボックスに格納
作業2:ネジ締め
作業3:基板嵌め込み
作業4:圧着
作業5:電気検査
作業6:部品C装着
作業7:部品D装着
作業8:エアブラシ
作業9:検査
作業10:説明書梱包
作業11:製品箱詰め
作業12:ラベル印刷
作業13:ラベル貼り
作業14:運搬ボックスに格納
図2に示すように、作業者Wは、作業台TB1で作業1、2を行い、作業台TB2で作業3、4を行い、作業台TB3で作業5を行い、作業台TB4で作業6、7を行い、作業台TB5で作業8、9を行い、作業台TB6で作業10、11を行い、作業台TB7で作業12、13を行い、作業台TB8で作業14を行う。
以下では、複数の作業台を区別しない場合は単に作業台TBと称する場合がある。なお、複数の作業台TBの配置及び作業台TBの数並びに作業の種類及び作業の数は図2の例に限られるものではない。
カメラ30は、例えばRGBのカラー動画像を撮影可能な撮影装置である。カメラ30は、作業者Wの動き及び作業台TB1~TB8全体を認識しやすい位置に設置される。具体的には、本実施形態では、一例として図2に示すように作業者W及び作業台TB1~TB8を上方から見下ろす位置にカメラ30が設置されている場合について説明する。なお、作業台TB1~TB8が横一列に配置されているような場合は、作業者W及び作業台TB1~TB8を正面から撮影可能な位置にカメラ30に配置してもよい。
また、本実施形態では、カメラ30が1台の場合について説明するが、複数台のカメラ30を設けた構成としてもよい。
図3は、本実施形態に係る作業認識装置20のハードウェア構成を示すブロック図である。図3に示すように、作業認識装置20は、コントローラ21を備える。コントローラ21は、一般的なコンピュータを含む装置で構成される。
図3に示すように、コントローラ21は、CPU(Central Processing Unit)21A、ROM(Read Only Memory)21B、RAM(Random Access Memory)21C、及び入出力インターフェース(I/O)21Dを備える。そして、CPU21A、ROM21B、RAM21C、及びI/O21Dがバス21Eを介して各々接続されている。バス21Eは、コントロールバス、アドレスバス、及びデータバスを含む。
また、I/O21Dには、操作部22、表示部23、通信部24、及び記憶部25が接続されている。
操作部22は、例えばマウス及びキーボードを含んで構成される。
表示部23は、例えば液晶ディスプレイ等で構成される。
通信部24は、カメラ30等の外部装置とデータ通信を行うためのインターフェースである。
記憶部25は、ハードディスク等の不揮発性の外部記憶装置で構成される。図3に示すように、記憶部25は、作業認識プログラム25A、作業手順情報25B、及び区切り情報25C等を記憶する。
CPU21Aは、コンピュータの一例である。ここでいうコンピュータとは、広義的なプロセッサを指し、汎用的なプロセッサ(例えば、CPU)、又は、専用のプロセッサ(例えば、GPU:Graphics Processing Unit、ASIC:Application Specific Integrated Circuit、FPGA:Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。
なお、作業認識プログラム25Aは、不揮発性の非遷移的(non-transitory)記録媒体に記憶して、又はネットワークを介して配布して、作業認識装置20に適宜インストールすることで実現してもよい。
不揮発性の非遷移的記録媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD(ハードディスクドライブ)、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。
図4は、作業認識装置20のCPU21Aの機能構成を示すブロック図である。図4に示すように、CPU21Aは、機能的には、動き情報取得部40、作業手順取得部41、移動佇立判定部の一例としての歩行静止判定部42、区切り設定部43、及び出力部44の各機能部を備える。CPU21Aは、記憶部25に記憶された作業認識プログラム25Aを読み込んで実行することにより各機能部として機能する。
動き情報取得部40は、作業者Wの動きに関する動き情報を取得する。具体的には、動き情報取得部40は、カメラ30が作業者W及び作業台TB1~TB8を撮影した撮影画像を動き情報として取得する。なお、カメラ30に代えて、モーションセンサ等を用いて作業者Wの動き情報を取得してもよい。
作業手順取得部41は、作業者Wが複数の作業台で行う一連の作業の予め定められた作業手順に関する作業手順情報25Bを記憶部25から読み出すことにより取得する。図5に示すように、作業手順情報25Bは、作業台TBと作業台TBで行われる作業内容との対応関係を表すテーブルデータである。作業手順情報25Bは、予め記憶部25に記憶される。
歩行静止判定部42は、動き情報に基づいて、作業者Wの歩行及び静止を判定する。なお、静止とは、歩行していない状態をいう。従って、作業者Wの歩行及び静止を判定するとは、具体的には作業者Wが歩行しているか否かを判定することであり、歩行していないと判定した場合は作業者Wが静止していると判定する。また、静止とは、作業者Wの身体全体が静止している状態を指すものではない。従って、作業者Wが同じ場所で作業を行っている状態は、作業者Wは静止している状態であるとする。なお、歩行は移動の一例であり、静止は佇立の一例である。ここで、移動とは、歩行の他に小走り等の状態も含む概念である。また、佇立とは、移動していない状態をいい、作業者Wの身体が全く動かない状態だけでなく、その場で動いている状態を含む概念である。
歩行静止判定部42は、動き情報取得部40が取得した動き情報としての撮影画像に基づいて、作業者Wの関節の位置を特定する。そして、特定した作業者Wの関節の位置に基づいて、作業者Wの歩行及び静止を判定する。
具体的には、歩行静止判定部42は、特定した作業者Wの全ての関節に外接する外接領域、すなわちバウンディングボックスの中心位置の移動量に基づいて、作業者Wの歩行及び静止を判定する。本実施形態では、バウンディングボックスは、作業者Wの全ての関節に外接する長方形又は正方形等の矩形形状をいうが、バウンディングボックスの形状はこれに限られるものではない。
作業者Wの関節を特定する方法としては、下記参考文献1に記載されたOpenPoseと呼ばれる公知の手法を用いることができる。OpenPoseでは、撮影画像から作業者Wの骨格情報を検出することが可能である。具体的には、骨格情報は、作業者Wの体の部位及び関節等の特徴点の座標と、各特徴点を接続するリンクが定義されたリンク情報と、特徴点の身体の部位を表すラベルと、を含む。例えば特徴点は、作業者Wの目及び鼻等の顔の部位、首、肩、肘、手首、腰、膝、及び足首等の関節等を含む。
OpenPoseでは、撮影画像を入力とし、骨格情報を出力とする学習モデルを、多数の撮影画像を教師データとして学習した学習済みモデルを用いる。このような学習済みモデルを得る学習方法としては、例えばCNN(Regions with Convolutional Neural Networks)等の公知の方法が用いられる。
(参考文献1) "OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", Zhe Cao, Student Member, IEEE, Gines Hidalgo, Student Member, IEEE, Tomas Simon, Shih-En Wei, and Yaser Sheikh, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE.
なお、歩行静止判定部42は、特定した作業者Wの関節のうち体幹を示す関節の位置の移動量に基づいて、作業者Wの歩行及び静止を判定するようにしてもよい。
区切り設定部43は、作業手順取得部41が取得した作業手順情報25B及び歩行静止判定部42による作業者Wの歩行及び静止の判定結果に基づいて、一連の作業における作業間の区切りを設定する。ここで、作業間の区切りとは、各作業の開始時間及び終了時間をいう。
出力部44は、設定した作業間の区切りに関する区切り情報25Cを出力する。区切り情報25Cは、作業内容、作業の開始時間、及び作業の終了時間の対応関係を表すテーブルデータである。区切り情報25Cの詳細については後述する。
次に、作業認識装置20のCPU21Aで実行される作業認識処理について、図6に示すフローチャートを参照して説明する。
ステップS100では、CPU21Aが、作業者Wが作業台TB1~TB8において一連の作業1~14を実行した様子をカメラ30が撮影した動画像を取得する。
ステップS101では、CPU21Aが、記憶部25に記憶された作業手順情報25Bを読み込むことにより取得する。
ステップS102では、CPU21Aが、ステップS100で取得した動画像に基づいて、一連の作業の開始時間を特定する。例えば、動画像を再生してオペレータに作業者Wが作業台TB1で作業1を開始した開始時間を指定させてもよいし、画像認識処理により作業者Wが作業台TB1で作業1を開始した開始時間を特定してもよい。
ステップS103では、CPU21Aが、ステップS100で取得した動画像に基づいて、作業者Wの歩行及び静止を判定する。すなわち作業者Wが歩行している状態なのか、静止している状態なのかを判定する。具体的には、ステップS100で取得した動画像から時間的に連続する複数のフレーム画像を取り出し、取り出した複数のフレーム画像の各々について、前述したOpenPoseを用いた処理を実行することにより作業者Wの関節の位置を特定する。そして、複数のフレーム画像の各々について、特定した作業者Wの全ての関節に外接するバウンディングボックスの中心位置の移動量に基づいて、作業者Wが複数のフレーム画像の中で歩行したか否かを判定する。なお、本実施形態では、前述したように、作業者が歩行していない状態を静止している状態とする。
以下では、図7に示すように、4フレーム分のフレーム画像F1~F4に基づいて作業者Wが歩行したか否かを判定する場合について説明する。また、以下では、説明を簡単にするために、図7に示すように作業台TB1とTB2がX方向に隣接して配置されている場合について説明する。なお、歩行したか否かの判定に用いるフレーム画像の数は4フレームに限られるものではない。
図7に示すように、フレーム画像F1~F4に対してOpenPoseを用いた処理を実行することにより作業者Wの関節Jの位置及び各関節Jを接続するリンクLの情報が得られる。
そして、図8に示すように、フレーム画像F1~F4について、作業者Wの全ての関節Jに外接するバウンディングボックスB1~B4を求め、求めたバウンディングボックスB1~B4のX方向における中心位置X1~X4を算出する。図8の例では、X1=15、X2=13、X3=14、X4=14である。
次に、フレーム画像間における中心位置のX方向における移動量及び移動方向を求める。具体的には、フレーム画像F1とF2間における中心位置のX方向における移動量M12、フレーム画像F2とF3間における中心位置のX方向における移動量M23、フレーム画像F3とF4間における中心位置のX方向におけるX方向の移動量M34を算出する。図8の例では、M12=-2、M23=1、M34=0である。
また、フレーム画像F1とF2間における中心位置のX方向における移動方向D12、フレーム画像F2とF3間における中心位置のX方向における移動方向D23、フレーム画像F3とF4間における中心位置のX方向における移動方向D34を算出する。移動方向が右方向の場合はR、左方向はL、移動量が0の場合をNとすると、図8の例では、D12=L、D23=R、D34=Nである。
そして、フレーム画像間における中心位置のX方向における移動量及び移動方向に基づいて、作業者Wが歩行したか否かを判定するための歩行条件を満たしたか否かを判定する。具体的には、歩行条件は、移動量M12、M23、M34の全てが予め定めた閾値以上で、且つ、移動方向D12、D23、D34の全てが次の作業を行う作業台の方向であるRの場合である。この歩行条件を満たした場合に、作業者Wが次の作業を行う作業台TB2に向かって歩行したと判定する。閾値は、作業者Wが歩行したと判定できる値に設定され、例えば作業者Wの動きとフレーム画像における移動量との関係を予め測定した測定結果等に基づいて予め設定される。本実施形態では一例として閾値を「2」とする。従って、図8の例では、上記歩行条件を満たさないため、作業者Wは作業台TB1から作業台TB2に向かって歩行していないと判定する。すなわち静止していると判定する。
図9に、作業者Wが作業台TB1から作業台TB2に向かって歩行したと判定される場合の例を示す。図9の例では、X1=15、X2=26、X3=54、X4=58である。また、M12=11、M23=28、M34=4である。また、D12=D23=D34=Rである。この場合、上記の歩行条件を満たすため、作業者Wが作業台TB1からTB2に向かって歩行したと判定する。
このように、4フレーム毎に作業者Wが次の作業台TBに向かって歩行したか否かを判定する。
ステップS104では、CPU21Aが、ステップS103の歩行及び静止が切り替わったか否かを判定する。すなわち、前回のステップS103で判定した作業者Wの状態から今回のステップS103で判定した作業者Wの状態が歩行から静止に切り替わったか否か及び静止から歩行に切り替わったか否かを判定する。
そして、歩行から静止に切り替わった場合又は静止から歩行に切り替わった場合はステップS105へ移行する。一方、歩行のままの場合又は静止のままの場合は、ステップS106へ移行する。
ステップS105では、CPU21Aが、歩行から静止に切り替わった時間又は静止から歩行に切り替わった時間を作業間の区切りとして設定する。そして、歩行から静止に切り替わったタイミングが区切りとして設定された場合に、作業者Wが次の作業台に移動したと判定する。
例えば図10に示すように、4フレーム毎に作業者Wが歩行したか否かを判定した結果、静止から歩行に切り替わる時間t1、歩行から静止に切り替わる時間t2、静止から歩行に切り替わる時間t3を作業者Wの動作の区切りとして設定する。具体的には、静止から歩行に切り替わった時間を作業終了時間として設定し、歩行から静止に切り替わった時間を作業開始時間として設定し、区切り情報25Cに記録する。
区切り情報25Cは、例えば図11に示すように、作業Noと、作業開始時間と、作業終了時間と、の対応関係を示すテーブルデータである。
図10に示すように、ステップS102で特定した作業1の開始時間t0から静止状態が継続し、t1で歩行に切り替わる。図5に示す作業手順情報25Bを参照すると、作業台TB1における作業内容は、作業1、2であるため、t0からt1までは作業1、2が実行されたと考えられる。従って、図11に示すように、作業1の開始時間として「00:00:00」を記録し、作業2の終了時間としてt1の時間である「00:00:58」を記録する。すなわち、この場合の作業1、2の作業時間は58秒である。
また、図10に示すように、歩行から静止に切り替わったt2は、作業3の開始時間であると考えられる。また、図5に示す作業手順情報25Bを参照すると、作業台TB2における作業内容は、作業3、4であるため、静止から歩行に切り替わったt3は作業4が終了した時間であると考えられる。従って、図11に示すように、作業3の開始時間としてt2の時間である「00:01:05」を記録し、作業4の終了時間としてt3の時間である「00:02:05」を記録する。この場合、作業者Wが作業2を終了して作業台TB1から作業台TB2まで移動する移動時間が7秒、作業3、4の作業時間が1分となる。
また、作業者Wの状態が歩行から静止に切り替わったタイミングt2は、作業者Wが作業台TB1から作業台TB2に移動したタイミングであるため、t2のタイミングが検出された場合に、作業者Wが作業台TB1から作業台TB2に移動したと判定することができる。
ここで、図11に示すように、作業台TB1では、2つの作業1、2が行われることから、作業1の終了時間A、作業2の開始時間Bは不明である。同様に、作業台TB2では、2つの作業3、4が行われることから、作業3の終了時間C、作業4の開始時間Dは不明である。
そこで、1つの作業台で複数の作業が行われる場合は、複数の作業の最初の作業の開始時間から最後の作業の終了時間までの作業時間を、作業の数で除算することにより、各作業の開始時間及び終了時間を記録する。
図10の例では、作業1、2の作業時間は58秒であり、作業の数は2である。従って、図12に示すように、58/2=29秒が作業1の終了時間となる。また、作業2も作業1と同じ作業台TB2で行われるので、作業2の開始時間も作業1の終了時間と同じ29秒とする。
ステップS106では、CPU21Aが、一連の作業の全ての作業について区切り情報25Cへの記録が終了したか否かを判定する。具体的には、作業手順情報25Bを参照して一連の作業の作業数を取得し、取得した作業数の作業の開始時間及び終了時間が全て区切り情報25Cに記録されたか否かを判定する。例えば図13に示すように、作業1~14の全てについて開始時間及び終了時間が記録されたか否かを判定する。
そして、図13の例のように、一連の作業の全ての作業について区切り情報25Cへの記録が終了した場合はステップS107へ移行する。一方、一連の作業の全ての作業について区切り情報25Cへの記録が終了していない場合はステップS103へ移行する。
ステップS107では、CPU21Aが、全ての作業の開始時間及び終了時間が記録された区切り情報25Cを記憶部25に出力し、記憶する。
ステップS108では、CPU21Aが、ステップS100で取得した動画像にオペレータがアノテーションを付与するための編集処理を受け付け、オペレータの操作に応じて動画像を編集する編集処理を実行する。このとき、区切り情報25Cを用いることにより、各作業の開始時間等に容易に動画像の再生位置を切り替えることができるため、アノテーションの編集作業の負担が軽減される。
このように、本実施形態では、作業者Wの作業を撮影した動画像に基づいて、作業者Wの状態が歩行から静止に切り替わったタイミング及び静止から歩行に切り替わったタイミングを作業の区切りとして設定するので、作業者Wが複数の作業台TBで作業を行う場合に、作業の区切りを容易に設定することができる。
なお、本実施形態では、作業者Wの全ての関節に外接するバウンディングボックスのX方向における中心位置の移動量に基づいて作業者Wが歩行したか否かを判定する場合について説明したが、作業台TBを移動する際の作業者Wの移動量がX方向よりもY方向の方が大きい場合は、バウンディングボックスのY方向における中心位置の移動量に基づいて作業者Wが歩行したか否かを判定するようにしてもよい。また、バウンディングボックスの重心位置を算出し、算出した重心位置のXY平面における移動量に基づいて作業者Wが歩行したか否かを判定するようにしてもよい。
また、本実施形態では、作業者Wの全ての関節に外接するバウンディングボックスのX方向における中心位置の移動量に基づいて作業者Wが歩行したか否かを判定する場合について説明したが、歩行の判定方法はこれに限られない。例えば、作業者Wの関節のうち体幹を示す関節の位置の移動量に基づいて、作業者Wが歩行したか否かを判定するようにしてもよい。作業者Wが行う作業において動きが大きいのは腕及び手の部分であり、体幹の位置はほとんど動かないと考えられるためである。体幹を示す関節とは、例えば頭、首、腰の関節である。この場合、頭、首、腰の関節のX方向における平均位置を算出し、算出した平均位置の移動量に基づいて作業者Wが歩行したか否かを判定すればよい。
なお、上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
また、上各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した作業認識処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の認識の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、作業認識処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
10 作業認識システム
20 作業認識装置
21 コントローラ
22 操作部
23 表示部
24 通信部
25 記憶部
25A 作業認識プログラム
25B 作業手順情報
25C 区切り情報
30 カメラ
40 動き情報取得部
41 作業手順取得部
42 歩行静止判定部
43 区切り設定部
44 出力部
20 作業認識装置
21 コントローラ
22 操作部
23 表示部
24 通信部
25 記憶部
25A 作業認識プログラム
25B 作業手順情報
25C 区切り情報
30 カメラ
40 動き情報取得部
41 作業手順取得部
42 歩行静止判定部
43 区切り設定部
44 出力部
Claims (7)
- 作業者の動きに関する動き情報を取得する動き情報取得部と、
前記作業者が複数の作業台で行う一連の作業の予め定められた作業手順に関する作業手順情報を取得する作業手順取得部と、
前記動き情報に基づいて、前記作業者の移動及び佇立を判定する移動佇立判定部と、
前記作業手順情報及び前記作業者の移動及び佇立の判定結果に基づいて、前記一連の作業における作業間の区切りを設定する区切り設定部と、
設定した作業間の区切りに関する区切り情報を出力する出力部と、
を備えた作業認識装置。 - 前記区切り設定部は、前記移動佇立判定部により前記作業者の状態が佇立から移動に切り替わったと判定した場合に、前記区切りの設定として前記作業の終了時間を前記区切り情報に記録し、前記移動佇立判定部により前記作業者の状態が移動から佇立に切り替わったと判定した場合に、前記区切りの設定として前記作業の開始時間を前記区切り情報に記録する
請求項1記載の作業認識装置。 - 前記動き情報は、前記作業者を撮影した撮影画像であり、
前記移動佇立判定部は、前記撮影画像に基づいて特定した前記作業者の関節の位置に基づいて、前記作業者の移動及び佇立を判定する
請求項1記載の作業認識装置。 - 前記移動佇立判定部は、特定した前記作業者の全ての関節に外接する外接領域の中心位置の移動量に基づいて、前記作業者の移動及び佇立を判定する
請求項3記載の作業認識装置。 - 前記移動佇立判定部は、特定した前記作業者の関節のうち体幹を示す関節の位置の移動量に基づいて、前記作業者の移動及び佇立を判定する
請求項3記載の作業認識装置。 - コンピュータが、
作業者の動きに関する動き情報を取得し、
前記作業者が複数の作業台で行う一連の作業の予め定められた作業手順に関する作業手順情報を取得し、
前記動き情報に基づいて、前記作業者の移動及び佇立を判定し、
前記作業手順情報及び前記作業者の移動及び佇立の判定結果に基づいて、前記一連の作業における作業間の区切りを設定し、
設定した作業間の区切りに関する区切り情報を出力する
ことを含む処理を実行する作業認識方法。 - コンピュータに、
作業者の動きに関する動き情報を取得し、
前記作業者が複数の作業台で行う一連の作業の予め定められた作業手順に関する作業手順情報を取得し、
前記動き情報に基づいて、前記作業者の移動及び佇立を判定し、
前記作業手順情報及び前記作業者の移動及び佇立の判定結果に基づいて、前記一連の作業における作業間の区切りを設定し、
設定した作業間の区切りに関する区切り情報を出力する
ことを含む処理を実行させる作業認識プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022038635A JP2023132997A (ja) | 2022-03-11 | 2022-03-11 | 作業認識装置、作業認識方法、及び作業認識プログラム |
PCT/JP2023/002319 WO2023171167A1 (ja) | 2022-03-11 | 2023-01-25 | 作業認識装置、作業認識方法、及び作業認識プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022038635A JP2023132997A (ja) | 2022-03-11 | 2022-03-11 | 作業認識装置、作業認識方法、及び作業認識プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023132997A true JP2023132997A (ja) | 2023-09-22 |
Family
ID=87936578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022038635A Pending JP2023132997A (ja) | 2022-03-11 | 2022-03-11 | 作業認識装置、作業認識方法、及び作業認識プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023132997A (ja) |
WO (1) | WO2023171167A1 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6528280B2 (ja) * | 2015-12-28 | 2019-06-12 | 株式会社エクォス・リサーチ | 移動体 |
JP7019796B2 (ja) * | 2018-03-30 | 2022-02-15 | 株式会社日立製作所 | 身体機能自立支援装置およびその方法 |
JP7275983B2 (ja) | 2019-02-28 | 2023-05-18 | 株式会社デンソーウェーブ | 作業分析装置及び作業分析プログラム |
JP7234787B2 (ja) * | 2019-05-09 | 2023-03-08 | オムロン株式会社 | 作業分析装置、作業分析方法およびプログラム |
JP7332465B2 (ja) | 2019-12-26 | 2023-08-23 | 株式会社日立製作所 | 動作認識システム、動作認識装置、および領域設定方法 |
JP7320479B2 (ja) | 2020-08-27 | 2023-08-03 | グローブライド株式会社 | 魚釣用リール及びバックラッシュ修正作業状態判定装置 |
-
2022
- 2022-03-11 JP JP2022038635A patent/JP2023132997A/ja active Pending
-
2023
- 2023-01-25 WO PCT/JP2023/002319 patent/WO2023171167A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2023171167A1 (ja) | 2023-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4792824B2 (ja) | 動作分析装置 | |
CN111626105B (zh) | 姿态估计方法、装置及电子设备 | |
US20180336733A1 (en) | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium | |
WO2018235219A1 (ja) | 自己位置推定方法、自己位置推定装置および自己位置推定プログラム | |
JP2010113530A (ja) | 画像認識装置及びプログラム | |
JP2019159885A (ja) | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム | |
JP2007071835A (ja) | 画像測定装置用パートプログラム生成装置、画像測定装置用パートプログラム生成方法、及び画像測定装置用パートプログラム生成用プログラム | |
WO2023171167A1 (ja) | 作業認識装置、作業認識方法、及び作業認識プログラム | |
JP2020126383A (ja) | 動体検出装置、動体検出方法、動体検出プログラム | |
CN117444450A (zh) | 一种焊缝焊接方法、电子设备和存储介质 | |
JP2007048232A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
CN118829982A (zh) | 作业识别装置、作业识别方法以及作业识别程序 | |
WO2023176162A1 (ja) | 作業認識装置、作業認識方法、及び作業認識プログラム | |
CN113192127B (zh) | 一种图像处理方法、装置、电子设备和存储介质 | |
JP7447238B2 (ja) | 画像表示装置、画像表示方法、及びプログラム | |
JP6904315B2 (ja) | 情報処理装置、制御システム、情報処理方法およびプログラム | |
WO2023176163A1 (ja) | 作業支援装置、作業支援方法、及び作業支援プログラム | |
WO2024018857A1 (ja) | 作業認識装置、作業認識方法、及び作業認識プログラム | |
WO2024029411A1 (ja) | 作業特徴量表示装置、作業特徴量表示方法、及び作業特徴量表示プログラム | |
WO2023090274A1 (ja) | 作業認識装置、作業認識方法、及び作業認識プログラム | |
JP2020021170A (ja) | 特定装置、特定方法及び特定プログラム | |
CN118843876A (zh) | 作业识别装置、作业识别方法和作业识别程序 | |
JP2020077397A (ja) | 画像処理方法、画像処理装置、生産システム、物品の製造方法、プログラム、および記録媒体 | |
WO2023171184A1 (ja) | 動画像集約装置、動画像集約方法、及び動画像集約プログラム | |
JPH11175692A (ja) | 関節の動きデータ収集装置 |