JP2023117614A - 情報処理装置、情報処理方法、プログラム、及び情報処理システム - Google Patents
情報処理装置、情報処理方法、プログラム、及び情報処理システム Download PDFInfo
- Publication number
- JP2023117614A JP2023117614A JP2022020269A JP2022020269A JP2023117614A JP 2023117614 A JP2023117614 A JP 2023117614A JP 2022020269 A JP2022020269 A JP 2022020269A JP 2022020269 A JP2022020269 A JP 2022020269A JP 2023117614 A JP2023117614 A JP 2023117614A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- work
- series
- worker
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 56
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000003384 imaging method Methods 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000010801 machine learning Methods 0.000 claims abstract description 16
- 238000011156 evaluation Methods 0.000 claims description 181
- 238000010276 construction Methods 0.000 claims description 103
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000005484 gravity Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 24
- 238000012545 processing Methods 0.000 description 102
- 238000013210 evaluation model Methods 0.000 description 59
- 239000013598 vector Substances 0.000 description 29
- 238000010586 diagram Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 20
- 238000009434 installation Methods 0.000 description 20
- 238000002372 labelling Methods 0.000 description 16
- 239000000284 extract Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 9
- 238000003709 image segmentation Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
これにより、例えば、熟練者が未熟者に対して直接指導を行わずとも、当該未熟者自身または作業の管理に係る管理者に対して各種作業の熟練度の評価結果をフィードバックすることで、当該未熟者の当該作業に関する熟練度を向上させる効果を期待することが可能となる。
図1を参照して、本開示の一実施形態に係る情報処理システムのシステム構成の一例について説明する。本実施形態に係る情報処理システム1は、モデル構築装置110と、評価装置150と、1以上の端末装置200と、1以上の撮像装置310とを含む。なお、図1に示す端末装置200a及び200bは、それぞれが端末装置200の一例を示している。以降の説明では、端末装置200a及び200bのそれぞれを特に区別しない場合には、単に端末装置200と称するものとする。また、図1に示す撮像装置310a及び310bは、それぞれが撮像装置310の一例を示している。撮像装置310aは、ユーザU1に装着された状態で使用されるウェアラブルデバイス300(例えば、メガネ型のデバイス等)に支持された撮像装置を模式的に示している。また、撮像装置310bは、ユーザU1を第三者的な視点で撮像するように設置された撮像装置(例えば、所定の位置に設置された撮像装置)を模式的に示している。なお、以降の説明では、撮像装置310a及び310bのそれぞれを特に区別しない場合には、単に撮像装置310と称するものとする。
なお、撮像装置310は、対象となるユーザU1の周囲の状況を撮像することが可能であれば、設置される位置や設置方法等は特に限定はされず、当該ユーザU1の行動範囲や、当該ユーザU1が行う作業の特性等に応じて適宜変更されてもよい。
例えば、図1に示す撮像装置310aは、ウェアラブルデバイス300に支持されており、当該ウェアラブルデバイス300がユーザU1に装着された状態で使用される。このような構成とすることで、例えば、ユーザU1が視線を向けている方向を撮像した、所謂一人称視点の画像を得ることが可能となる。
また、他の一例として、図1に示す撮像装置310bは、例えば、所定の位置に設置された状態で使用される。このような構成とすることで、例えば、ユーザU1や当該ユーザU1の周囲の状況を第三者的な視点から撮像することが可能となる。
また、撮像装置310の数は1台に限らず複数台が使用されてもよい。なお、本実施形態では、情報処理システム1の特徴をよりわかりやすくするために、撮像装置310の数は1台であるものとする。
なお、ネットワークN1の種別は特に限定はされない。具体的な一例として、ネットワークN1は、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成されていてもよい。また、ネットワークN1は、有線のネットワークにより構成されていてもよいし、5G、LTE(Long Term Evolution)、及びWi-Fi(登録商標)等の通信規格に基づくネットワークのような無線のネットワークにより構成されていてもよい。また、ネットワークN1は、複数のネットワークを含んでもよく、一部のネットワークとして、他のネットワークと異なる種別のネットワークが適用されてもよい。また、上述した各種情報処理装置間の通信が論理的に確立されていればよく、物理的には各種情報処理装置間の通信が他の通信装置等により中継されてもよい。
端末装置200は、例えば、所謂スマートフォン、タブレット端末、及びPC(Personal Computer)等のような通信機能を有する情報処理装置により実現され得る。
具体的には、本実施形態に係るモデル構築装置110は、一連の作業の実施状況の撮像結果に応じた動画像を、当該一連の作業を構成する個々の作業(以下、作業単位とも称する)それぞれに対応する部分的な動画像に分割するために使用される学習済モデルの構築に係る処理を実行する。以降では、当該学習済モデルを、便宜上「作業動画分割モデル」とも称する。作業動画分割モデルは、所望の作業の実施状況の撮像結果に応じた動画像の画像データを入力することで、当該動画像に撮像されたシーンがいずれの作業単位の実施状況を示しているかを推論し、当該推論の結果に応じた情報を出力する学習済モデルである。当該作業動画分割モデルが、「第2の学習済モデル」の一例に相当する。
また、モデル構築装置110は、評価対象となる作業者による作業の熟練度の評価に使用される学習済モデルの構築に係る処理を実行する。以降では、当該学習済モデルを、便宜上「熟練度評価モデル」とも称する。熟練度評価モデルは、各作業者による作業の実施状況の撮像結果に応じた動画像の画像データ間の関係性に関する特徴量空間の学習結果に基づき構築される。このような熟練度評価モデルを利用することで、例えば、評価対象となる作業者がどのようなグループの作業者(例えば、熟練者や未熟者等)に属するかの評価や、異なる複数の作業者間における作業の実施状況の差の評価(例えば、定量的な評価)が可能となる。当該熟練度評価モデルが、「第1の学習済モデル」の一例に相当する。また、評価対象となる作業者が「第1の作業者」の一例に相当する。
なお、作業動画分割モデル及び熟練度評価モデルの特性や、モデル構築装置110によるこれらのモデルの構築に係る処理については、詳細を別途後述する。
具体的には、本実施形態に係る評価装置150は、評価対象となる作業者による一連の作業の実施状況の撮像結果に応じた動画像の画像データを取得し、当該画像データと熟練度評価モデルとを利用して、当該作業者の当該作業の熟練度を評価する。また、この際に、評価装置150は、取得した画像データに対応する動画像を、当該動画像に撮像された一連の作業を構成する作業単位ごとの部分的な動画像に分割したうえで、分割された当該動画像の画像データに基づき作業単位ごとの熟練度を評価してもよい。また、評価装置150は、取得した画像データが示す動画像を作業単位ごとの部分的な動画像に分割する際に、作業動画分割モデルを利用してもよい。
なお、評価装置150の処理については、詳細を別途後述する。
図2を参照して、図1に示した本実施形態に係る情報処理システム1を構成する各種装置(例えば、モデル構築装置110、評価装置150、端末装置200、及びウェアラブルデバイス300等)として適用可能な情報処理装置900のハードウェア構成の一例について説明する。情報処理装置900は、CPU(Central Processing Unit)910と、ROM(Read Only Memory)920と、RAM(Random Access Memory)930と、補助記憶装置940と、ネットワークI/F970とを含む。また、情報処理装置900は、出力装置950と、入力装置960とのうち少なくともいずれかを含んでもよい。CPU910と、ROM920と、RAM930と、補助記憶装置940と、出力装置950と、入力装置960と、ネットワークI/F970とは、バス980を介して相互に接続されている。
図3を参照して、本実施形態に係る情報処理システム1の機能構成の一例について、特にモデル構築装置110及び評価装置150の構成に着目して説明する。
また、記憶部117は、各種学習済モデル(例えば、作業動画分割モデルや熟練度評価モデル等)の構築に使用されるデータ(例えば、教師データ)を記憶してもよい。また、記憶部117は、各種学習済モデルの構築の過程において生成されるデータ等を記憶してもよいし、構築された各種学習済モデルのデータを記憶してもよい。
具体的な一例として、ラベル付処理部114は、作業の実施状況の撮像結果に応じた動画像の画像データに対して、当該作業を示す情報(例えば、作業単位を示す情報)を付帯情報として関連付けてもよい。この際に、ラベル付処理部114は、管理者からの指示に応じて、対象となる画像データに対して、指定されたラベル(例えば、作業単位を示す情報)を関連付けてもよい。
ラベル付処理部114により付帯情報が関連付けられたデータ(すなわち、ラベル付けが行われたデータ)は、例えば、学習済モデルの構築に係る教師データとして使用される。
具体的には、作業動画分割モデル構築部115は、作業動画分割モデルに対して動画像の画像データを入力することで当該作業動画分割モデルから推論の結果として出力される情報と、ラベル付処理部114による当該画像データに対するラベル付けの結果とを比較する。そのうえで、作業動画分割モデル構築部115は、作業動画分割モデルから推論の結果として出力される上記情報が、ラベル付処理部114による上記ラベル付の結果により近づくように、当該作業動画分割モデルのパラメータ(例えば、作業単位の推論に係るパラメータ)を更新する。
なお、作業動画分割モデル構築部115により構築された作業動画分割モデルを評価装置150が参照可能であれば、当該作業動画分割モデルのデータが配置される位置や、当該作業動画分割モデルの組み込み方法等は特に限定はされない。
具体的な一例として、作業動画分割モデル構築部115により構築された作業動画分割モデルのデータが、ネットワークN1を介して評価装置150に送信され、当該評価装置150の記憶部157に記憶されてもよい。また、他の一例として、モデル構築装置110に外付け可能な記録媒体に作業動画分割モデルのデータを記憶させることで、当該記録媒体を利用して評価装置150の記憶部157に当該作業動画分割モデルのデータが記憶されてもよい。これにより、評価装置150は、記憶部157にデータとして記憶された作業動画分割モデルを参照することが可能となる。
また、他の一例として、評価装置150が、他の装置の記憶領域にデータとして記憶された作業動画分割モデルを、ネットワークN1を介して当該他の装置にアクセスすることで参照してもよい。この場合には、作業動画分割モデルのデータは、モデル構築装置110(評価装置150とは異なる他の装置の一例に相当)の記憶部117に記憶されてもよいし、ネットワークストレージやデータベースシステム等として構成された他の装置の記憶領域に記憶されてもよい。
また、上記作業動画分割モデルは、後述する熟練度評価モデル構築部116による熟練度評価モデルの構築時に、対象となる動画像の画像データの分割に使用されてもよい。
この際に、熟練度評価モデル構築部116は、共通のグループに属する作業者間においては、共通の作業単位に対応する複数の画像データ間の特徴量の差がより小さくなるように、熟練度評価モデルの構築を行う。また、熟練度評価モデル構築部116は、それぞれが異なるグループに属する作業者間においては、共通の作業単位に対応する複数の画像データ間の特徴量の差がより大きくなるように、上記熟練度評価モデルの構築を行う。
これにより、例えば、熟練者に相当する複数の作業者それぞれによる共通の作業の実施状況の撮像結果に応じた複数の画像データ間においては、各画像データを入力として熟練度評価モデルから出力される特徴量(換言すると、特徴量ベクトル)の差がより小さくなる。また、共通の作業者による共通の作業の実施状況の撮像結果に応じた複数の画像データ間においても、各画像データを入力として熟練度評価モデルから出力される特徴量の差がより小さくなる。
これに対して、熟練者と未熟者とのように互いに異なるグループに属する複数の作業者それぞれによる共通の作業の実施状況の撮像結果に応じた複数の画像データ間においては、各画像データを入力として熟練度評価モデルから出力される特徴量の差がより大きくなる。
なお、熟練度評価モデル構築部116により構築された熟練度評価モデルを評価装置150が参照可能であれば、当該作熟練度評価モデルのデータが配置される位置や、当該作業動画分割モデルの組み込み方法等は特に限定はされない。これは、前述した作業動画分割モデルの場合と同様のため詳細な説明は省略する。
また、記憶部157は、撮像装置310による撮像結果に応じた動画像の画像データを記憶してもよい。また、記憶部157は、モデル構築装置110により機械学習に基づき構築された学習済モデル(例えば、作業動画分割モデルや熟練度評価モデル等)のデータを記憶してもよい。また、記憶部117は、評価対象となる作業者の作業の熟練度の評価の過程で生成されるデータ等を記憶してもよいし、当該評価の結果に応じた情報等を記憶してもよい。
具体的な一例として、評価処理部154は、評価対象となる作業者と、評価の基準となる作業者(例えば、熟練者)との間で、それぞれに対応する画像データの特徴量の特徴量空間における位置関係に基づき、評価対象となる作業者の一連の作業に関する熟練度の評価を行ってもよい。
また、他の一例として、評価処理部154は、評価対象となる作業者に対応する画像データの特徴量が、特徴量空間中においてどのグループに属する作業者に対応する特徴量により近いかに応じて、評価対象となる作業者の一連の作業に関する熟練度の評価を行ってもよい。
また、評価処理部154は、作業単位ごとに評価対象となる作業者の熟練度を評価してもよいし、一連の作業単位それぞれの評価結果に基づき当該一連の作業単位を含む一連の作業全体について評価対象となる作業者の熟練度を評価してもよい。
なお、評価処理部154による評価対象となる作業者の一連の作業に関する熟練度の評価に係る処理の一例については、詳細を別途後述する。
具体的な一例として、未熟者を評価対象となる作業者とし、熟練者を評価基準とする作業者としたうえで、未熟者が未熟であると評価された場合における、当該評価への寄与率が算出されるものとする。この場合には、例えば、寄与率算出部155は、未熟者と熟練者との間で動きの異なる部分(例えば、静止画像中において異なるビット値を示す部分)が上記評価により寄与しているとの判定に基づき、対象となる画像の各部における寄与率を算出してもよい。
また、他の一例として、未熟者を評価対象となる作業者とし、熟練者を評価基準とする作業者としたうえで、未熟者が熟練していると評価された場合における、当該評価への寄与率が算出されるものとする。この場合には、例えば、寄与率算出部155は、未熟者と熟練者との間で動きがより類似する部分(例えば、静止画像中においてより近似するビット値を示す部分)が上記評価により寄与しているとの判定に基づき、対象となる画像の各部における寄与率を算出してもよい。
なお、上述のような寄与率の評価については、例えば、GradCAM(Gradient-weighted Class Activation Mapping)と称される技術のように、公知の技術を利用することが可能である。
そして、画像処理部156は、画像処理の結果に応じた情報を所定の出力先に出力する。例えば、画像処理部156は、画像処理後の画像を入出力制御部152に出力してもよい。これにより、入出力制御部152は、画像処理後の画像をUI上の所定の領域に表示させることで、当該画像をユーザ(例えば、管理者)に提示することも可能となる。
例えば、モデル構築装置110の一連の構成要素が、複数の装置が協働することで実現されてもよい。具体的な一例として、モデル構築装置110の一連の構成要素のうち、一部の構成要素が当該モデル構築装置110に対して外付けされていてもよい。また、他の一例として、モデル構築装置110の一連の構成要素のうち、少なくとも一部の構成要素の処理に係る負荷が、複数の装置に分散されてもよい。これらは、評価装置150についても同様である。
また、他の一例として、モデル構築装置110と評価装置150とが一体的に構成されていてもよい。すなわち、モデル構築装置110及び評価装置150それぞれの一連の構成要素が、共通のサーバ装置の構成要素として実現されてもよい。
本実施形態に係る情報処理システムの処理の一例について、モデル構築装置110により実行される学習済モデルの構築に係る前処理段階と、評価装置150により実行される構築された学習済モデルを利用した評価に係る本処理段階とに分けてそれぞれ説明する。
前処理段階における処理の一例として、作業動画分割モデルの構築に係る処理と、熟練度評価モデルの構築に係る処理とのそれぞれについて個別に説明する。
まず、図4を参照して、モデル構築装置110による作業動画分割モデルの構築に係る処理の一例について説明する。図4は、モデル構築装置110による作業動画分割モデルの構築に係る処理の一例を示した図である。
モデル構築装置110は、S108において終了条件を満たしていないと判定した場合には、処理をS103に進める。この場合には、モデル構築装置110は、まだ処理対象となっていない入力単位動画の画像データD102について、S103~S107の処理を実行する。
そして、モデル構築装置110は、S108において終了条件を満たしたと判定した場合には、図4に示す一連の処理を終了する。
なお、作業動画の画像データからの作業単位動画の画像データの抽出が可能であればその方法は特に限定はされない。具体的な一例として、ユーザからの指示に応じて所望の画像データが示す作業動画からの作業単位動画の抽出が行われることで、当該作業単位動画の画像データが生成されてもよい。また、他の一例として、図4に示す処理により構築された作業動画分割モデルを利用して作業動画の画像データを作業単位動画の画像データに分割した結果を利用することで、所望の作業単位に対応する作業単位動画の画像データの抽出が行われてもよい。
具体的には、作業単位動画1~Mのそれぞれは、必ずしもフレーム数(換言すると、動画像の長さ)が同じとは限らない。そのため、モデル構築装置110は、例えば、フレーム数が多い作業単位動画ほど、抽出対象とするフレーム間の間隔がより広くなるように制御することで、作業単位動画1~Mのそれぞれから同数のフレームを抽出してもよい。より具体的な一例として、各作業単位動画から10フレームが抽出されるものとする。この場合には、抽出対象となる作業単位動画の総フレーム数が30の場合には、モデル構築装置110は、3フレームごとにフレームを抽出することで、計10フレームを抽出してもよい。また、他の一例として、抽出対象となる作業単位動画の総フレーム数が20の場合には、モデル構築装置110は、2フレームごとにフレームを抽出することで、計10フレームを抽出してもよい。
図8の左側の図に示すように、学習前においては、特徴量空間中における各サンプルの位置が、当該サンプルが属するグループに関わらず無作為に散らばっている。これに対して、図8の右側の図に示すように、学習後においては、同じグループに属するサンプルが、特徴量空間中においてより近傍に位置し、互いに異なるグループに属するサンプルがより離間するように位置している。
このように、モデル構築装置110は、共通のグループに属するサンプル間において特徴量ベクトル間の差がより小さくなり、異なるグループに属するサンプル間において特徴量ベクトルの差がより大きくなるように特徴量空間を学習することで、熟練度評価モデルを更新する。なお、上記に例示したような、熟練度評価モデルの更新については、例えば、確率的勾配降下法と称される手法を適用することが可能である。
モデル構築装置110は、S208において終了条件を満たしていないと判定した場合には、処理をS203に進める。この場合には、モデル構築装置110は、まだ処理対象となっていない入力単位動画の画像データD102について、S203~S207の処理を実行する。
そして、モデル構築装置110は、S208において終了条件を満たしたと判定した場合には、図7に示す一連の処理を終了する。
後処理段階における処理の一例として、作業動画分割モデルを利用した作業動画からの作業単位動画の分割に係る処理と、熟練度評価モデルを利用した作業者の熟練度の評価に係る処理とのそれぞれについて個別に説明する。
まず、図9を参照して、評価装置150による作業動画分割モデルを利用した作業動画からの作業単位動画の分割に係る処理の一例について説明する。図9は、評価装置150による作業動画分割モデルを利用した作業動画からの作業単位動画の分割に係る処理の一例を示した図である。
これにより、共通の作業単位を示す情報がラベル付けされた一連の入力単位動画を時系列に沿ってまとめることで、当該作業単位に対応する作業単位動画を生成することが可能となる。
作業動画を入力単位動画に分割したうえで、分割後の一連の入力単位動画それぞれの画像データを作業動画分割モデルに入力することで、作業単位に対応する入力単位動画の画像データについて当該作業単位の推論結果を示す情報が出力される。
図10に示す例では、分割後の一連の入力単位動画のうち、PCの組み立て作業の作業単位である「ボード取付」、「CPU取付」、及び「メモリ取付」の作業状況が撮像された入力単位動画を対象として、対応する作業単位を示す情報が推論結果として出力されている。また、図10に示す例では、時系列に沿って連続する2つの入力単位動画に対して、当該入力単位動画に撮像されたシーンが、「ボード取付」の作業状況を示しているとの推論結果が出力されている。そのため、この場合には、当該2つの入力単位動画を時系列に沿ってまとめた動画像が、「ボード取付」に対応する作業単位動画となる。これは、「メモリ取付」として示された作業単位についても同様である。
以上のようにして、PCの組み立てに係る一連の作業の実施状況の撮像結果に応じた作業動画の画像データから、「ボード取付」、「CPU取付」、及び「メモリ取付」それぞれに対応する作業単位動画を分割して抽出することが可能となる。
評価装置150は、S306において最後の入力単位動画までS304の処理の対象としていないと判定した場合には、処理をS304に進める。この場合には、評価装置150は、まだ処理対象となっていない入力単位動画の画像データD303について、S304の処理を実行する。
そして、評価装置150は、S306において最後の入力単位動画までS304の処理の対象としたと判定した場合には、図9に示す一連の処理を終了する。
S405において、評価装置150は、S404において作業単位Aの作業単位動画から抽出したフレームに対応する画像データを熟練度評価モデルに入力する。これにより、当該熟練度評価モデルからは、評価対象となる作業者による作業単位Aの実施状況の撮像結果に応じた作業単位動画の特徴量に応じた特徴量空間における位置を示す情報(以下、特徴量ベクトルD406とも称する)が出力される。
S409において、評価装置150は、S408において評価基準となる作業単位動画(作業単位Aの作業単位動画)から抽出したフレームに対応する画像データを熟練度評価モデルに入力する。これにより、当該熟練度評価モデルからは、評価基準となる作業単位動画の特徴量、すなわち、評価基準とする作業者による作業単位Aの実施状況の撮像結果に応じた作業単位動画の特徴量に応じた特徴量空間における位置を示す情報(以下、特徴量ベクトルD410とも称する)が出力される。
なお、評価基準となる作業単位動画については、1つであってもよいし複数であってもよい。また、複数の作業単位動画を評価基準として使用する場合には、所定の作業者に対応する複数の作業単位動画が使用されてもよいし、共通のグループに属する複数の作業者(例えば、熟練者に相当する複数の作業者)それぞれに対応する作業単位動画が使用されてもよい。
このような特性を利用し、評価装置150は、評価対象となる作業者に対応する特徴量ベクトルD406に基づき、当該作業者の所定の作業(例えば、作業単位A)に関する熟練度の評価に係る評価値を算出する。
例えば、図14は、一連の作業を対象とした熟練度の評価方法の一例について説明するための説明図であり、PCの組み立てに係る一連の作業を対象とした熟練度の評価結果の一例を示している。具体的には、図14に示す例では、熟練度の評価に利用された作業動画には、PCの組み立てに係る作業を構成する一連の作業単位のうち、「ボード取付」、「CPU取付」、及び「メモリ取付」それぞれの実施状況が撮像されている。そのため、「ボード取付」、「CPU取付」、及び「メモリ取付」それぞれに対応する作業単位動画が抽出され、当該作業単位動画に基づき各作業単位について熟練度の評価に係る点数が算出されている。これにより、例えば、評価装置150は、「ボード取付」、「CPU取付」、及び「メモリ取付」それぞれの熟練度の評価結果に基づき、これらの作業単位を含むPCの組み立てに係る一連の作業全体に関する熟練度を評価することが可能となる。
具体的には、評価装置150は、評価対象となる作業者の熟練度の評価に利用した画像データが示す動画像の各フレームに対応する静止画像中の各領域における、当該評価への寄与率を算出する。この際に、評価装置150は、熟練度評価モデルによる、評価対象となる作業者と評価基準とする作業者とのそれぞれについて出力する特徴量ベクトル間の差の評価に係る寄与率を算出する。なお、上記寄与率の算出については、前述したようにGradCAM等の公知の技術を利用することが可能である。以上のようにして寄与率が算出されることで、上記各フレームに対応する静止画像中の各領域のうち、当該寄与率がより高い値を示す領域を、評価対象となる作業者と評価基準とする作業者との間で作業の実施状況が異なる領域として抽出することが可能となる。
例えば、図15は、差異領域の抽出結果に応じた情報の出力方法の一例を示した図である。図15に示す例では、評価装置150は、差異領域の抽出元となる静止画像中の当該差異領域に対応する位置に、当該差異領域を示す表示情報V31を重畳表示させている。また、この際に、評価装置150は、差異領域の抽出に利用した上記寄与率に応じて、当該寄与率の算出元となった部分(例えば、画素)に重畳させる表示情報V31の表示態様(例えば、色の違いや輝度の違い等)を制御してもよい。具体的な一例として、図15に示す例では、評価装置150は、表示情報V31の各領域の色を、当該領域について算出された寄与率に応じて制御している。これにより、例えば、管理者は、対象となる画像に重畳表示された表示情報V31の表示態様の違い(例えば、色の違い)に応じて、当該画像中の各領域のうち、対象となる作業者の熟練度の評価により寄与した領域を識別することが可能となる。
本実施形態に係る情報処理システムの変形例について説明する。本変形例では、評価対象となる作業者(例えば、未熟者)が所定の作業を実施する際の、当該作業を構成する一連の作業単位の実施順序(換言すると、当該作業の手順)を評価可能とするための仕組みの一例について説明する。
具体的な一例として、評価装置150は、評価対象となる作業者(例えば、未熟者)と、評価基準とする作業者(例えば、熟練者)とのそれぞれについて、所定の作業の実施状況の撮像結果に応じた作業動画を、作業動画分割モデルを利用して作業単位動画に分割する。また、評価装置150は、評価対象となる作業者と評価基準とする作業者との間で、作業動画から分割された上記作業を構成する一連の作業単位それぞれに対応する作業単位動画が再生される順序を比較する。そのうえで、評価装置150は、上記比較の結果に基づき、評価対象となる作業者と評価基準とする作業者との間で上記一連の作業単位それぞれが実施される順序の違いの抽出を試みる。
これにより、評価装置150は、上記一連の作業単位それぞれが実施される順序の違いが抽出されるか否かに応じて、評価対象となる作業者による上記所定の作業の実施に係る手順が正しい手順か否かを評価することが可能となる。また、この際に、評価装置150は、評価対象となる作業者による作業の手順と、評価基準とする作業者による当該作業の手順と、の間における乖離の度合いに応じて、評価対象となる作業者による当該作業の熟練度を評価してもよい。
以上説明したように、本開示の一実施形態に係る情報処理装置は、互いに異なる複数のグループそれぞれに分類された複数の作業者それぞれによる一連の作業の実施状況の撮像結果に応じた一連の動画像の第1の画像データから分割された、当該一連の作業を構成する作業単位それぞれに対応する部分的な動画像の第2の画像データを学習データとした機械学習に基づき、共通のグループに属する作業者間において、共通の作業単位に対応する複数の第2の画像データ間の特徴量の差がより小さくなり、それぞれが異なるグループに属する作業者間において、共通の作業単位に対応する複数の第2の画像データ間の特徴量の差がより大きくなるように、複数の画像データ間の関係性に関する特徴量空間を学習することで第1の学習済モデルを構築する。そのうえで、評価対象となる作業者による一連の作業の実施状況の撮像結果に応じた一連の動画像の第1の画像データと、上記第1の学習済モデルと、に基づき当該作業者の当該一連の作業に関する熟練度が評価される。
また、本発明には、上述した実施形態の機能を実現するプログラム、および、該プログラムを格納したコンピュータが読み取り可能な記録媒体が含まれる。
110 モデル構築装置
111 通信部
112 入出力制御部
113 モデル構築部
114 ラベル付処理部
115 作業動画分割モデル構築部
116 熟練度評価モデル構築部
117 記憶部
150 評価装置
151 通信部
152 入出力制御部
153 分割処理部
154 評価処理部
155 寄与率算出部
156 画像処理部
157 記憶部
200 端末装置
310 撮像装置
これにより、例えば、熟練者が未熟者に対して直接指導を行わずとも、当該未熟者自身または作業の管理に係る管理者に対して各種作業の熟練度の評価結果をフィードバックすることで、当該未熟者の当該作業に関する熟練度を向上させる効果を期待することが可能となる。
Claims (13)
- 互いに異なる複数のグループそれぞれに分類された複数の作業者それぞれによる一連の作業の実施状況の撮像結果に応じた一連の動画像の第1の画像データから分割された、当該一連の作業を構成する作業単位それぞれに対応する部分的な動画像の第2の画像データを学習データとした機械学習に基づき、共通のグループに属する作業者間において、共通の作業単位に対応する複数の前記第2の画像データ間の特徴量の差がより小さくなり、それぞれが異なるグループに属する作業者間において、共通の作業単位に対応する複数の前記第2の画像データ間の特徴量の差がより大きくなるように、複数の画像データ間の関係性に関する特徴量空間を学習することで第1の学習済モデルを構築する第1のモデル構築手段を備え、
評価対象となる第1の作業者による一連の作業の実施状況の撮像結果に応じた一連の動画像の前記第1の画像データと、前記第1の学習済モデルと、に基づき当該作業者の当該一連の作業に関する熟練度が評価される、
情報処理装置。 - 前記第1の作業者による一連の作業の実施状況の撮像結果に応じた一連の動画像の前記第1の画像データと、前記複数のグループのうちの所定のグループに属する第2の作業者による当該一連の作業の実施状況の撮像結果に応じた一連の動画像の前記第1の画像データと、前記第1の学習済モデルと、に基づき、当該第1の作業者の当該一連の作業に関する熟練度を評価する評価手段を備える、
請求項1に記載の情報処理装置。 - 前記複数のグループそれぞれに分類された前記複数の作業者それぞれに対応する前記第1の画像データから分割された、当該一連の作業を構成する作業単位それぞれに対応する前記第2の画像データに対して、当該作業単位を示す付帯情報を関連付ける関連付け手段と、
前記付帯情報が関連付けられた前記第2の画像データを学習データとした機械学習に基づき、入力された画像データが示す動画像に撮像された一連の作業を構成する作業単位を推論する第2の学習済モデルを構築する第2のモデル構築手段と、
を備え、
前記評価手段は、
前記第1の作業者による一連の作業の実施状況の撮像結果に応じた一連の動画像の前記第1の画像データを前記第2の学習済モデルに入力することで、当該第1の画像データを当該一連の作業を構成する作業単位ごとの前記第2の画像データに分割し、
当該第1の画像データから分割された作業単位ごとの当該第2の画像データを前記第1の学習済モデルに入力することで得られる第1の特徴量と、前記第2の作業者による当該作業単位に対応する前記第2の画像データを前記第1の学習済モデルに入力することで得られる第2の特徴量と、に基づき、前記第1の作業者が実施した前記一連の作業に関する当該第1の作業者の熟練度を評価する、
請求項2に記載の情報処理装置。 - 前記第1のモデル構築手段は、
前記複数のグループそれぞれに分類された複数の作業者それぞれに対応する前記第1の画像データを前記第2の学習済モデルに入力することで、当該第2の学習済モデルから出力される情報に基づき、当該第1の画像データを作業単位ごとの前記第2の画像データに分割し、
分割された当該第2の画像データを学習データとした機械学習に基づき、前記第1の学習済モデルを構築する、
請求項3に記載の情報処理装置。 - 前記評価手段は、前記第1の作業者による一連の作業の実施状況の撮像結果に応じた一連の動画像の前記第1の画像データが所定の期間ごとに分割された第3の画像データそれぞれを前記第2の学習済モデルに入力することで、当該第2の学習済モデルから当該第3の画像データごとに出力される情報に基づき、当該第1の画像データを作業単位ごとの前記第2の画像データに分割する、
請求項4に記載の情報処理装置。 - 前記評価手段は、前記第1の作業者による前記一連の作業の実施状況の撮像結果に応じた前記第1の画像データに対応する前記第1の特徴量と、前記所定のグループに属する一連の前記第2の作業者それぞれによる当該一連の作業の実施状況の撮像結果に応じた前記第1の画像データに対応する前記第2の特徴量の前記特徴量空間中における重心と、に基づき、前記第1の作業者が実施した当該一連の作業に関する当該第1の作業者の熟練度を評価する、
請求項3~5のいずれか1項に記載の情報処理装置。 - 前記評価手段は、前記第1の作業者による前記一連の作業の実施状況の撮像結果に応じた前記第1の画像データに対応する前記第1の特徴量と、前記所定のグループに属する作業者のうちの少なくとも一部の前記第2の作業者による当該一連の作業の実施状況の撮像結果に応じた前記第1の画像データに対応する前記第2の特徴量と、に基づき、前記第1の作業者が実施した当該一連の作業に関する当該第1の作業者の熟練度を評価する、
請求項3~5のいずれか1項に記載の情報処理装置。 - 前記評価手段は、前記第1の特徴量と前記第2の特徴量との前記特徴量空間における距離に基づき、前記第1の作業者が実施した前記一連の作業に関する当該第1の作業者の熟練度を評価する、
請求項3~7のいずれか1項に記載の情報処理装置。 - 前記第1の作業者による前記一連の作業の実施状況の撮像結果に応じた前記第1の画像データに対応する動画像の少なくとも一部のフレームに対応する静止画像の各部における、前記第1の特徴量と前記第2の特徴量とに基づく、前記第1の作業者が実施した前記一連の作業に関する当該第1の作業者の熟練度の評価結果に対する寄与率を算出する算出手段と、
前記寄与率の算出結果に応じた情報が、前記静止画像中の当該寄与率の算出元となる領域に対応付けて出力されるように制御する出力制御手段と、
を備える、請求項3~8のいずれか1項に記載の情報処理装置。 - 前記出力制御手段は、前記寄与率の算出結果に応じた表示情報が、前記静止画像中の当該寄与率の算出元となる領域に重畳表示されるように制御する、
請求項9に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
互いに異なる複数のグループそれぞれに分類された複数の作業者それぞれによる一連の作業の実施状況の撮像結果に応じた一連の動画像の第1の画像データから分割された、当該一連の作業を構成する作業単位それぞれに対応する部分的な動画像の第2の画像データを学習データとした機械学習に基づき、共通のグループに属する作業者間において、共通の作業単位に対応する複数の前記第2の画像データ間の特徴量の差がより小さくなり、それぞれが異なるグループに属する作業者間において、共通の作業単位に対応する複数の前記第2の画像データ間の特徴量の差がより大きくなるように、複数の画像データ間の関係性に関する特徴量空間を学習することで第1の学習済モデルを構築する第1のモデル構築ステップを含み、
評価対象となる第1の作業者による一連の作業の実施状況の撮像結果に応じた一連の動画像の前記第1の画像データと、前記第1の学習済モデルと、に基づき当該作業者の当該一連の作業に関する熟練度が評価される、
情報処理方法。 - コンピュータに、
互いに異なる複数のグループそれぞれに分類された複数の作業者それぞれによる一連の作業の実施状況の撮像結果に応じた一連の動画像の第1の画像データから分割された、当該一連の作業を構成する作業単位それぞれに対応する部分的な動画像の第2の画像データを学習データとした機械学習に基づき、共通のグループに属する作業者間において、共通の作業単位に対応する複数の前記第2の画像データ間の特徴量の差がより小さくなり、それぞれが異なるグループに属する作業者間において、共通の作業単位に対応する複数の前記第2の画像データ間の特徴量の差がより大きくなるように、複数の画像データ間の関係性に関する特徴量空間を学習することで第1の学習済モデルを構築する第1のモデル構築ステップを実行させ、
評価対象となる第1の作業者による一連の作業の実施状況の撮像結果に応じた一連の動画像の前記第1の画像データと、前記第1の学習済モデルと、に基づき当該作業者の当該一連の作業に関する熟練度が評価される、
プログラム。 - 互いに異なる複数のグループそれぞれに分類された複数の作業者それぞれによる一連の作業の実施状況の撮像結果に応じた一連の動画像の第1の画像データから分割された、当該一連の作業を構成する作業単位それぞれに対応する部分的な動画像の第2の画像データを学習データとした機械学習に基づき、共通のグループに属する作業者間において、共通の作業単位に対応する複数の前記第2の画像データ間の特徴量の差がより小さくなり、それぞれが異なるグループに属する作業者間において、共通の作業単位に対応する複数の前記第2の画像データ間の特徴量の差がより大きくなるように、複数の画像データ間の関係性に関する特徴量空間を学習することで第1の学習済モデルを構築する第1のモデル構築手段と、
評価対象となる第1の作業者による一連の作業の実施状況の撮像結果に応じた一連の動画像の前記第1の画像データと、前記第1の学習済モデルと、に基づき当該作業者の当該一連の作業に関する熟練度を評価する評価手段と、
を備える、情報処理システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022020269A JP7249444B1 (ja) | 2022-02-14 | 2022-02-14 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
PCT/JP2022/042033 WO2023153036A1 (ja) | 2022-02-14 | 2022-11-11 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
CN202280091698.5A CN118696340A (zh) | 2022-02-14 | 2022-11-11 | 信息处理装置、信息处理方法、程序以及信息处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022020269A JP7249444B1 (ja) | 2022-02-14 | 2022-02-14 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7249444B1 JP7249444B1 (ja) | 2023-03-30 |
JP2023117614A true JP2023117614A (ja) | 2023-08-24 |
Family
ID=85772188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022020269A Active JP7249444B1 (ja) | 2022-02-14 | 2022-02-14 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7249444B1 (ja) |
CN (1) | CN118696340A (ja) |
WO (1) | WO2023153036A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018154709A1 (ja) * | 2017-02-24 | 2018-08-30 | 三菱電機株式会社 | 動作学習装置、技能判別装置および技能判別システム |
WO2020235804A1 (ko) * | 2019-05-17 | 2020-11-26 | 네이버 주식회사 | 포즈 유사도 판별 모델 생성방법 및 포즈 유사도 판별 모델 생성장치 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7116696B2 (ja) | 2019-03-06 | 2022-08-10 | 株式会社日立製作所 | 学習支援システム及びプログラム |
-
2022
- 2022-02-14 JP JP2022020269A patent/JP7249444B1/ja active Active
- 2022-11-11 WO PCT/JP2022/042033 patent/WO2023153036A1/ja active Application Filing
- 2022-11-11 CN CN202280091698.5A patent/CN118696340A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018154709A1 (ja) * | 2017-02-24 | 2018-08-30 | 三菱電機株式会社 | 動作学習装置、技能判別装置および技能判別システム |
WO2020235804A1 (ko) * | 2019-05-17 | 2020-11-26 | 네이버 주식회사 | 포즈 유사도 판별 모델 생성방법 및 포즈 유사도 판별 모델 생성장치 |
Also Published As
Publication number | Publication date |
---|---|
WO2023153036A1 (ja) | 2023-08-17 |
JP7249444B1 (ja) | 2023-03-30 |
CN118696340A (zh) | 2024-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11106920B2 (en) | People flow estimation device, display control device, people flow estimation method, and recording medium | |
US10529109B1 (en) | Video stream customization using graphics | |
CN109547814B (zh) | 视频推荐方法、装置、服务器及存储介质 | |
WO2021027260A1 (zh) | 处理交互序列数据的方法及装置 | |
JP2016091395A (ja) | 推定方法、推定システム、コンピュータ・システムおよびプログラム | |
US11615100B2 (en) | Information processing apparatus, information processing method, and computer program | |
JP2022125222A (ja) | 情報処理システム、情報処理方法および情報処理装置 | |
KR102150307B1 (ko) | 온라인 창의학습 관리 서버 | |
US20220366244A1 (en) | Modeling Human Behavior in Work Environment Using Neural Networks | |
US20210295053A1 (en) | Observed-object recognition system and method | |
JP2020129018A (ja) | 動作評価システムおよび方法 | |
JP2018195133A (ja) | 情報処理装置及び情報処理プログラム | |
JP2019040417A (ja) | 情報処理装置及びプログラム | |
JP7249444B1 (ja) | 情報処理装置、情報処理方法、プログラム、及び情報処理システム | |
CN114399424A (zh) | 模型训练方法及相关设备 | |
JP5652694B2 (ja) | 目的変数算出装置、目的変数算出方法、プログラムおよび記録媒体 | |
US11210566B2 (en) | Training apparatus, training method and recording medium | |
JP7268739B2 (ja) | 学習データ生成装置、学習装置、識別装置、生成方法及びプログラム | |
JP2022068012A (ja) | 情報処理装置、情報処理方法 | |
JP6367169B2 (ja) | 画像処理装置、画像処理方法、プログラムおよび記録媒体 | |
JP7084962B2 (ja) | 推定プログラム、推定装置、推定方法、生成プログラム、生成装置及び生成方法 | |
US11042274B2 (en) | Extracting demonstrations from in-situ video content | |
KR20190033884A (ko) | Sns의 사용자 정보를 이용한 딥러닝 기반의 관심지점 예측 방법 | |
WO2021231484A1 (en) | Machine-learned prediction of decision state and generating feedback information for decision states | |
US20160283719A1 (en) | Method for evaluation, computer-readable recording medium having stored therein program for evaluation, and evaluator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221216 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7249444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |