JP2022046210A - 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 - Google Patents
学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP2022046210A JP2022046210A JP2020152140A JP2020152140A JP2022046210A JP 2022046210 A JP2022046210 A JP 2022046210A JP 2020152140 A JP2020152140 A JP 2020152140A JP 2020152140 A JP2020152140 A JP 2020152140A JP 2022046210 A JP2022046210 A JP 2022046210A
- Authority
- JP
- Japan
- Prior art keywords
- model
- image
- learning
- posture
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 67
- 238000001514 detection method Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000003860 storage Methods 0.000 title claims abstract description 23
- 238000012549 training Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 34
- 238000004458 analytical method Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 15
- 238000002360 preparation method Methods 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000005484 gravity Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 210000000245 forearm Anatomy 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 230000016507 interphase Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【解決手段】実施形態に係る学習装置は、第1モデル及び第2モデルを学習させる。前記第1モデルは、実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する。前記第2モデルは、前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する。前記学習装置は、前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させる。前記学習装置は、前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる。
【選択図】図1
Description
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、第1実施形態に係る学習システムの構成を表す模式図である。
第1実施形態に係る学習システム10は、画像中の人物の姿勢を検出するモデルの学習に用いられる。学習システム10は、学習装置1、入力装置2、表示装置3、及び記憶装置4を含む。
学習装置1は、第1モデル及び第2モデルの2つのモデルを学習させる。第1モデルは、実写画像又は描画画像が入力されると、実写画像又は描画画像に含まれる人体の姿勢を検出する。実写画像は、実際の人物を写した得られる画像である。描画画像は、仮想の人体モデルを用いて、コンピュータプログラムにより描画された画像である。描画画像は、学習装置1により生成される。
図2に表したように、第1実施形態に係る学習方法は、学習データの準備(ステップS1)と、第1モデルの準備(ステップS2)と、第2モデルの準備(ステップS3)と、第1モデル及び第2モデルの学習(ステップS4)と、を含む。
実写画像の準備では、実空間に存在する人物をカメラ等で撮影し、画像を取得する。画像には、人物の全体が写っていても良いし、人物の一部のみが写っていても良い。また、画像には、複数の人物が写っていても良い。画像は、少なくとも人物の輪郭が大まかに認識できる程度に、鮮明であることが好ましい。準備した実写画像は、記憶装置4に保存される。
図3(a)に表した描画画像では、背を向けた人体モデル91が写っている。図3(b)に表した描画画像では、人体モデル91が上方から写されている。また、環境モデルとして、棚92a、壁92b、及び床92cが写っている。人体モデル及び環境モデルには、テクスチャマッピングにより、質感が付与されている。テクスチャマッピングにより人体モデル91には、実際の作業で使用される制服が付与されている。棚92aの上面には、作業に使用される部品、道具、治具などが付与されている。壁92bには、細かな形状、色の変化、微小な汚れなどが付与されている。
図4(a)は、人体モデル91を含む描画画像を表す。図4(a)の例では、環境モデルが含まれていない。アノテーションされる画像は、図3(a)及び図3(b)に表したように、環境モデルを含んでも良い。図4(a)の描画画像に含まれる人体モデル91に対して、図4(b)に表したように、身体の各部位をアノテーションする。図4(b)の例では、人体モデル91の頭91a、左肩91b、左上腕91c、左前腕91d、左手91e、右肩91f、右上腕91g、右前腕91h、及び右手91iが示されている。
準備した学習データを用いて初期状態のモデルを学習し、第1モデルを準備する。実写画像を用いた学習済みのモデルを用意し、描画画像を用いて当該モデルを学習させることで、第1モデルを準備しても良い。この場合、ステップS1において、実写画像の準備及び実写画像に対するアノテーションを省略できる。例えば、実写画像を用いた学習済みのモデルとして、姿勢検出モデルであるOpenPoseを利用できる。
第1モデルは、複数のニューラルネットワークを含む。具体的には、図5に表したように、第1モデル100は、Convolutional Neural Network(CNN)101、第1ブロック(ブランチ1)110、及び第2ブロック(ブランチ2)120を含む。
図6は、第2モデルの構成を例示する概略図である。
第2モデル200は、図6に表したように、畳み込み層210、最大値プーリング220、ドロップアウト層230、平坦化層240、及び全結合層250を含む。畳み込み層210に記載された数字は、チャネル数を表す。全結合層250に記載された数字は、出力の次元を表す。第1モデルの出力であるPCMとPAFを第2モデル200に入力する。第2モデル200は、第1モデル100から、姿勢を示すデータが入力されると、そのデータが実写画像と描画画像のどちらに基づくかの判定結果を出力する。
準備した第2モデル200を用いて、第1モデル100を学習させる。また、準備した第1モデル100を用いて、第2モデル200を学習させる。第1モデル100の学習と第2モデル200の学習は、交互に実行される。
第1モデル100には、画像IMが入力される。画像IMは、実写画像又は描画画像である。第1モデル100は、PCM及びPAFを出力する。PCM及びPAFのそれぞれは、第2モデル200に入力される。第2モデル200へ入力される際、PAM及びPAFは、上述した通り正規化される。
近年、ビデオカメラなどで撮影されたRGB画像、深度カメラで撮影された深度画像などから、人体の姿勢を検出する方法が研究されている。また、姿勢検出は、生産性改善に向けた取り組みへの利用が試みられている。しかし、製造現場等では、作業者の姿勢、作業の環境によって、姿勢の検出精度が大きく低下しうるという課題があった。
図8は、第1実施形態の第1変形例に係る学習システムの構成を示す模式的ブロック図である。
第1変形例に係る学習システム11は、図8に表したように、演算装置5及び検出器6をさらに備える。検出器6は、実空間上の人物に装着され、その人物の動作を検出する。演算装置5は、検出された動作に基づいて、人体の各部位の各時刻における位置を算出し、算出結果を記憶装置4に記憶する。
図9は、第2実施形態に係る分析システムの構成を表す模式的ブロック図である。
図10~図13は、第2実施形態に係る分析システムによる処理を説明するための図である。
第2実施形態に係る分析システム20は、第1実施形態に係る学習システムによって学習された姿勢検出モデルとしての第1モデルを用いて、人物の動作を分析する。分析システム20は、図9に表したように、処理装置7及び撮像装置8をさらに含む。
図11(c)、図11(d)、図12(d)、および図13(a)において、横軸は時間を表し、縦軸は距離を表している。これらの図では、距離の値が大きいほど、2つの対象の間の距離が近く、相関が強いことを示している。
図12(a)および図13(b)は、横軸は時間を表し、縦軸はスカラー値を表している。
撮像装置8は、人物を撮影し、画像を生成する(ステップS11)。処理装置7は、画像を第1モデルに入力し(ステップS12)、姿勢データを取得する(ステップS13)。処理装置7は、姿勢データを用いて、部位に関する時系列データを生成する(ステップS14)。処理装置7は、時系列データに基づき、人物の動作の周期を算出する(ステップS15)。処理装置7は、算出された周期に基づく情報を外部へ出力する(ステップS16)。
例えば、学習装置1は、コンピュータであり、ROM(Read Only Memory)1a、RAM(Random Access Memory)1b、CPU(Central Processing Unit)1c、およびHDD(Hard Disk Drive)1dを有する。
また、以上で説明した処理装置、分析システム、分析方法を用いることで、時系列データをより高精度に分析できる。例えば、人物の動作の周期をより高精度に求めることができる。コンピュータを、処理装置として動作させるためのプログラムを用いることで、同様の効果を得ることができる。
Claims (10)
- 実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
を学習させる学習装置であって、
前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、学習装置。 - 前記第1モデルの学習中には、前記第2モデルの更新を停止し、
前記第2モデルの学習中には、前記第1モデルの更新を停止する、請求項1記載の学習装置。 - 前記第1モデルの学習と前記第2モデルの学習を交互に実行する、請求項1又は2に記載の学習装置。
- 複数の前記描画画像を用いて前記第1モデルを学習させ、
前記複数の描画画像の少なくとも一部は、前記人体モデルの一部を上方から描画した画像である、請求項1~3のいずれか1つに記載の学習装置。 - 前記姿勢データは、人体の複数の部位の位置を示すデータと、部位間の関連性を示すデータと、を含む、請求項1~4のいずれか1つに記載の学習装置。
- 請求項1~5のいずれか1つに記載の学習装置により学習された前記第1モデルに、作業中の人物を写した複数の作業画像を入力し、時間に対する姿勢の変化を示す時系列データを取得する、処理装置。
- 実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
を学習させる学習方法であって、
前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、学習方法。 - 請求項7記載の学習方法により学習された前記第1モデルを含む姿勢検出モデル。
- コンピュータに、
実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
を学習させるプログラムであって、
前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、プログラム。 - 請求項9記載のプログラムを記憶した記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020152140A JP7480001B2 (ja) | 2020-09-10 | 2020-09-10 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020152140A JP7480001B2 (ja) | 2020-09-10 | 2020-09-10 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022046210A true JP2022046210A (ja) | 2022-03-23 |
JP7480001B2 JP7480001B2 (ja) | 2024-05-09 |
Family
ID=80779797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020152140A Active JP7480001B2 (ja) | 2020-09-10 | 2020-09-10 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7480001B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023157230A1 (ja) * | 2022-02-18 | 2023-08-24 | 株式会社 東芝 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
WO2023180837A1 (en) | 2022-03-23 | 2023-09-28 | Ricoh Company, Ltd. | Liquid discharge system |
WO2024018856A1 (ja) * | 2022-07-21 | 2024-01-25 | オムロン株式会社 | 作業周期推定装置、作業周期推定方法、及び作業周期推定プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7139749B2 (ja) | 2018-07-23 | 2022-09-21 | 日本電信電話株式会社 | 画像認識学習装置、画像認識装置、方法、及びプログラム |
-
2020
- 2020-09-10 JP JP2020152140A patent/JP7480001B2/ja active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023157230A1 (ja) * | 2022-02-18 | 2023-08-24 | 株式会社 東芝 | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 |
WO2023180837A1 (en) | 2022-03-23 | 2023-09-28 | Ricoh Company, Ltd. | Liquid discharge system |
WO2024018856A1 (ja) * | 2022-07-21 | 2024-01-25 | オムロン株式会社 | 作業周期推定装置、作業周期推定方法、及び作業周期推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7480001B2 (ja) | 2024-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Tracking-based 3D human skeleton extraction from stereo video camera toward an on-site safety and ergonomic analysis | |
JP7480001B2 (ja) | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 | |
JP7057959B2 (ja) | 動作解析装置 | |
JP6025845B2 (ja) | オブジェクト姿勢検索装置及び方法 | |
CN108475439B (zh) | 三维模型生成系统、三维模型生成方法和记录介质 | |
JP7370777B2 (ja) | 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 | |
JP6708260B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10776978B2 (en) | Method for the automated identification of real world objects | |
JP2009020761A (ja) | 画像処理装置及びその方法 | |
US11450148B2 (en) | Movement monitoring system | |
JP7379065B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR102371127B1 (ko) | 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템 | |
Michel et al. | Markerless 3d human pose estimation and tracking based on rgbd cameras: an experimental evaluation | |
CN109977827B (zh) | 一种使用多视图匹配方法的多人三维姿态估计方法 | |
JP2007066094A (ja) | 姿勢推定装置および姿勢推定方法 | |
JP2014085933A (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
Mekruksavanich et al. | Automatic Recognition of Construction Worker Activities Using Deep Learning Approaches and Wearable Inertial Sensors. | |
JP2016014954A (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
JP6593949B1 (ja) | 情報処理装置、及び、マーケティング活動支援装置 | |
JP7499346B2 (ja) | 逆運動学に基づいた関節の回転の推測 | |
JP2018180894A (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2023157230A1 (ja) | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 | |
JP5485044B2 (ja) | 表情学習装置、表情認識装置、表情学習方法、表情認識方法、表情学習プログラム及び表情認識プログラム | |
JP5061808B2 (ja) | 感情判定方法 | |
CN107423665A (zh) | 基于bp神经网络的三维人脸分析方法及其分析系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230324 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230616 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7480001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |