JP2022046210A - 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 - Google Patents

学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP2022046210A
JP2022046210A JP2020152140A JP2020152140A JP2022046210A JP 2022046210 A JP2022046210 A JP 2022046210A JP 2020152140 A JP2020152140 A JP 2020152140A JP 2020152140 A JP2020152140 A JP 2020152140A JP 2022046210 A JP2022046210 A JP 2022046210A
Authority
JP
Japan
Prior art keywords
model
image
learning
posture
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020152140A
Other languages
English (en)
Other versions
JP7480001B2 (ja
Inventor
保男 浪岡
Yasuo Namioka
崇哲 吉井
Takanori Yoshii
篤 和田
Atsushi Wada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020152140A priority Critical patent/JP7480001B2/ja
Publication of JP2022046210A publication Critical patent/JP2022046210A/ja
Application granted granted Critical
Publication of JP7480001B2 publication Critical patent/JP7480001B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Figure 2022046210000001
【課題】姿勢の検出精度を向上可能な、学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体を提供する。
【解決手段】実施形態に係る学習装置は、第1モデル及び第2モデルを学習させる。前記第1モデルは、実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する。前記第2モデルは、前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する。前記学習装置は、前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させる。前記学習装置は、前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる。
【選択図】図1

Description

本発明の実施形態は、学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体に関する。
画像から人体の姿勢を検出する技術がある。この技術について、姿勢の検出精度の向上が求められている。
特開2017-091249号公報
本発明が解決しようとする課題は、姿勢の検出精度を向上可能な、学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体を提供することである。
実施形態に係る学習装置は、第1モデル及び第2モデルを学習させる。前記第1モデルは、実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する。前記第2モデルは、前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する。前記学習装置は、前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させる。前記学習装置は、前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる。
第1実施形態に係る学習システムの構成を表す模式図である。 第1実施形態に係る学習方法を表すフローチャートである。 描画画像の一例である。 アノテーションを例示する画像である。 第1モデルの構成を例示する概略図である。 第2モデルの構成を例示する概略図である。 第1モデル及び第2モデルの学習方法を表す模式図である。 第1実施形態の第1変形例に係る学習システムの構成を示す模式的ブロック図である。 第2実施形態に係る分析システムの構成を表す模式的ブロック図である。 第2実施形態に係る分析システムによる処理を説明するための図である。 第2実施形態に係る分析システムによる処理を説明するための図である。 第2実施形態に係る分析システムによる処理を説明するための図である。 第2実施形態に係る分析システムによる処理を説明するための図である。 第2実施形態に係る分析システムによる処理を表すフローチャートである。 システムのハードウェア構成を表すブロック図である。
以下に、本発明の各実施形態について図面を参照しつつ説明する。
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1実施形態)
図1は、第1実施形態に係る学習システムの構成を表す模式図である。
第1実施形態に係る学習システム10は、画像中の人物の姿勢を検出するモデルの学習に用いられる。学習システム10は、学習装置1、入力装置2、表示装置3、及び記憶装置4を含む。
学習装置1は、モデルの学習に使用される学習データを生成する。また、学習装置1は、モデルを学習させる。学習装置1は、汎用又は専用のコンピュータである。複数のコンピュータにより、学習装置1の機能が実現されても良い。
入力装置2は、ユーザが学習装置1に情報を入力する際に用いられる。入力装置2は、例えば、マウス、キーボード、マイク(音声入力)、及びタッチパッドから選択される少なくともいずれかを含む。
表示装置3は、学習装置1から送信された情報をユーザに向けて表示する。表示装置3は、例えば、モニタ及びプロジェクタから選択される少なくともいずれかを含む。タッチパネルのように、入力装置2と表示装置3の両方の機能を備えた機器が用いられても良い。
記憶装置4は、学習システム10に関するデータ及びモデルを記憶する。記憶装置4は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、及びネットワーク接続ハードディスク(NAS)から選択される少なくともいずれかを含む。
学習装置1、入力装置2、表示装置3、及び記憶装置4は、無線通信、有線通信、ネットワーク(ローカルエリアネットワーク又はインターネット)などにより、相互に接続される。
学習システム10について、より具体的に説明する。
学習装置1は、第1モデル及び第2モデルの2つのモデルを学習させる。第1モデルは、実写画像又は描画画像が入力されると、実写画像又は描画画像に含まれる人体の姿勢を検出する。実写画像は、実際の人物を写した得られる画像である。描画画像は、仮想の人体モデルを用いて、コンピュータプログラムにより描画された画像である。描画画像は、学習装置1により生成される。
第1モデルは、検出結果として、姿勢データを出力する。姿勢データは、人物の姿勢を示す。姿勢は、人体の複数の部位の位置により表される。姿勢は、部位同士の関連性により表されても良い。姿勢は、人体の複数の部位の位置と部位同士の関連性の両方により表されても良い。以下では、複数の部位及び部位同士の関連性によって表される情報を、骨格ともいう。又は、姿勢は、人体の複数の関節の位置により表されても良い。部位は、目、耳、鼻、頭、肩、上腕、前腕、手、胸、腹、太腿、下腿、足などの、身体の一部分を指す。関節は、首、肘、手首、腰、膝、足首などの、部位の少なくとも一部同士を繋げる可動性の接合部を指す。
第2モデルは、第1モデルから出力された姿勢データが入力される。第2モデルは、その姿勢データが実写画像と描画画像のいずれから得られたか判定する。
図2は、第1実施形態に係る学習方法を表すフローチャートである。
図2に表したように、第1実施形態に係る学習方法は、学習データの準備(ステップS1)と、第1モデルの準備(ステップS2)と、第2モデルの準備(ステップS3)と、第1モデル及び第2モデルの学習(ステップS4)と、を含む。
<学習データの準備>
実写画像の準備では、実空間に存在する人物をカメラ等で撮影し、画像を取得する。画像には、人物の全体が写っていても良いし、人物の一部のみが写っていても良い。また、画像には、複数の人物が写っていても良い。画像は、少なくとも人物の輪郭が大まかに認識できる程度に、鮮明であることが好ましい。準備した実写画像は、記憶装置4に保存される。
学習データの準備では、描画画像の準備及びアノテーションが行われる。描画画像の準備では、モデリング、骨格作成、テクスチャマッピング、及びレンダリングが実行される。例えば、ユーザは、学習装置1を用いてこれらの処理を実行する。
モデリングでは、人体を模した3次元の人体モデルが作成される。人体モデルは、オープンソースの3DCGソフトウェアであるMakeHumanを用いて作成できる。MakeHumanでは、年齢や、性別、筋肉量、体重などを指定することにより、人体の3Dモデルを容易に作成できる。
人体モデルに加えて、人体の周りの環境を模した環境モデルがさらに作成されても良い。環境モデルは、例えば、物品(設備、備品、製作物等)や、床、壁などを模して生成される。環境モデルは、実際の物品や、床、壁などを撮影し、その動画を用いてBlenderにより作成できる。Blenderは、オープンソースの3DCGソフトウェアであり、3Dモデルの作成、レンダリング、アニメーションなどの機能を備える。Blenderにより、作成した環境モデル上に、人体モデルを配置する。
骨格作成では、モデリングで作成された人体モデルに、骨格が追加される。MakeHumanには、Armatureと呼ばれる人型の骨格が用意されている。これを用いることで、人体モデルに対して容易に骨格データを追加できる。人体モデルに骨格データを追加し、骨格を動作させることにより、人体モデルを動作させることができる。
人体モデルの動作には、実際の人体の動作(モーション)を示すモーションデータが用いられても良い。モーションデータは、モーションキャプチャデバイスにより取得される。モーションキャプチャデバイスには、Noitom社のPERCEPTION NEURON2を用いることができる。モーションデータを用いることで、人体モデルに、実際の人体のモーションを再現させることができる。
テクスチャマッピングでは、人体モデル及び環境モデルに質感を与える。例えば、人体モデルに対しては、衣類を付与する。人体モデルに付与する衣類の画像を用意し、人体モデルのサイズに合うように画像を調整する。調整した画像を人体モデルに貼り付ける。環境モデルに対しては、実際の物品、床、壁などの画像が貼り付けられる。
レンダリングでは、質感を付与した人体モデル及び環境モデルを用いて描画画像を生成する。生成された描画画像は、記憶装置4に保存される。例えば、環境モデル上で人体モデルを動作させる。例えば、人体モデルを動作させながら、複数の視点から見た人体モデル及び環境モデルを所定間隔でレンダリングする。これにより、複数の描画画像が生成される。
図3(a)及び図3(b)は、描画画像の一例である。
図3(a)に表した描画画像では、背を向けた人体モデル91が写っている。図3(b)に表した描画画像では、人体モデル91が上方から写されている。また、環境モデルとして、棚92a、壁92b、及び床92cが写っている。人体モデル及び環境モデルには、テクスチャマッピングにより、質感が付与されている。テクスチャマッピングにより人体モデル91には、実際の作業で使用される制服が付与されている。棚92aの上面には、作業に使用される部品、道具、治具などが付与されている。壁92bには、細かな形状、色の変化、微小な汚れなどが付与されている。
図3(a)に表した描画画像では、人体モデル91の足は、画像の端で見切れている。図3(b)に表した描画画像では、人体モデル91の胸、腹、下半身などは写っていない。図3(a)及び図3(b)に表したように、複数の方向から人体モデル91の少なくとも一部を見たときの描画画像が準備される。
アノテーションでは、実写画像及び描画画像に対して、姿勢に関するデータを付与する。アノテーションの形式は、例えば、COCO Keypoint Detection Taskに準ずる。アノテーションでは、画像に含まれる人体に対して、姿勢を示すデータが付与される。例えば、アノテーションにより、人体の複数の部位、各部位の座標、部位同士の接続関係などが示される。また、部位ごとに、「画像内に存在する」、「画像外に存在する」、又は「画像内に存在するが何かに隠れている」のいずれかの情報が付与される。描画画像に対するアノテーションには、人体モデルの作成の際に追加したArmatureを用いることができる。
図4(a)及び図4(b)は、アノテーションを例示する画像である。
図4(a)は、人体モデル91を含む描画画像を表す。図4(a)の例では、環境モデルが含まれていない。アノテーションされる画像は、図3(a)及び図3(b)に表したように、環境モデルを含んでも良い。図4(a)の描画画像に含まれる人体モデル91に対して、図4(b)に表したように、身体の各部位をアノテーションする。図4(b)の例では、人体モデル91の頭91a、左肩91b、左上腕91c、左前腕91d、左手91e、右肩91f、右上腕91g、右前腕91h、及び右手91iが示されている。
以上の処理により、実写画像、実写画像に対するアノテーション、描画画像、及び描画画像に対するアノテーションを含む学習データが準備される。
<第1モデルの準備>
準備した学習データを用いて初期状態のモデルを学習し、第1モデルを準備する。実写画像を用いた学習済みのモデルを用意し、描画画像を用いて当該モデルを学習させることで、第1モデルを準備しても良い。この場合、ステップS1において、実写画像の準備及び実写画像に対するアノテーションを省略できる。例えば、実写画像を用いた学習済みのモデルとして、姿勢検出モデルであるOpenPoseを利用できる。
図5は、第1モデルの構成を例示する概略図である。
第1モデルは、複数のニューラルネットワークを含む。具体的には、図5に表したように、第1モデル100は、Convolutional Neural Network(CNN)101、第1ブロック(ブランチ1)110、及び第2ブロック(ブランチ2)120を含む。
まず、第1モデル100に入力された画像IMは、CNN101に入力される。画像IMは、実写画像又は描画画像である。CNN101は、特徴マップFを出力する。特徴マップFは、第1ブロック110及び第2ブロック120のそれぞれに入力される。
第1ブロック110は、人体の部位の存在確率をピクセルごとに表したPart Confidence Map(PCM)を出力する。第2ブロック120は、部位間の関連性を表すベクトルであるPart Affinity Fields(PAF)を出力する。第1ブロック110及び第2ブロック120は、例えばCNNを含む。第1ブロック110と第2ブロック120を含むステージが、ステージ1からステージt(t≧2)まで複数設けられている。
CNN101、第1ブロック110、及び第2ブロック120の具体的な構成については、それぞれ特徴マップF、PCM、及びPAFを出力できれば任意である。CNN101、第1ブロック110、及び第2ブロック120の構成については、公知のものを適用可能である。
第1ブロック110は、PCMであるSを出力する。第1ステージの第1ブロック110による出力を、Sとする。ρを、ステージ1の第1ブロック110から出力された推論とする。Sは、以下の数式1で表される。
Figure 2022046210000002
第2ブロック120は、PAFであるLを出力する。第1ステージの第2ブロック120による出力を、Lとする。φを、ステージ1の第2ブロック120から出力された推論とする。Lは、以下の数式2で表される。
Figure 2022046210000003
ステージ2以降では、直前のステージの出力と特徴マップFを用いて検出が行われる。ステージ2以降のPCM及びPAFは、以下の数式3及び4で表される。
Figure 2022046210000004

Figure 2022046210000005
第1モデル100は、PCM及びPAFのそれぞれについて、正解値と検出値の平均二乗誤差が最小となるように学習される。部位jにおけるPCMの検出値をSとし、正解値をS とすると、ステージtでの損失関数は、以下の数式5で表される。
Figure 2022046210000006
Pは、画像内のピクセルpの集合である。W(p)は、バイナリマスクを表す。ピクセルpにおいてアノテーションが欠落している場合は、W(P)=0である。それ以外の場合は、W(p)=1である。このマスクを使用することで、アノテーションの欠落に起因して正しい検出がなされた場合に、損失関数が増加することを防止できる。
PAFについて、部位間の接続cにおけるPAFの検出値をLとし、正解値をL とすると、ステージtでの損失関数は、以下の数式6で表される。
Figure 2022046210000007
数式5及び6から、全体の損失関数は、以下の数式7で表される。数式7において、Tは、ステージの総数を表す。例えば、T=6に設定される。
Figure 2022046210000008
損失関数の計算を行うために、PCMとPAFの正解値が定義される。PCMの正解値の定義について説明する。PCMは、人体の部位が二次元平面状に存在する確率を表す。特定の部位が画像に写っている場合に、PCMは極値をとる。PCMは、それぞれの部位について1枚生成される。画像内に複数の人体が写っている場合、それぞれの人体の部位が同一マップ内に記述される。
まず、画像内のそれぞれの人体のPCMの正解値を作成する。xj、k∈Rを画像内に含まれるk番目の人の部位jの座標とする。画像内のピクセルpにおけるk番目の人体の部位jのPCMの正解値は、以下の数式8で表される。σは、極値の分散を調整するために定義される定数である。
Figure 2022046210000009
PCMの正解値は、数式8で得られた各人体のPCMの正解値を最大値関数で集約したものと定義される。よって、PCMの正解値は、以下の数式9で定義される。数式9において平均ではなく最大を用いるのは、極値同士が近くのピクセルに存在する場合に、極値を明確に保つためである。
Figure 2022046210000010
PAFの正解値の定義について説明する。PAFは、部位と部位の関連度を表す。特定の部位と部位の間にあるピクセルは、単位ベクトルvを有する。その他のピクセルは、ゼロベクトルを持つ。PAFは、これらのベクトルの集合であると定義される。k番目の人の部位jから部位jへの部位間の接続をcとすると、画像内のピクセルpにおけるk番目の人の接続cのPAFの正解値は、以下の数式10で表される。
Figure 2022046210000011
単位ベクトルvは、xj1、kからxj2、kへ向かうベクトルであり、以下の数式11で定義される。
Figure 2022046210000012
pがk番目の人の接続cにあることは、閾値σ1を用いて以下の数式12で定義される。垂直記号が付されたvは、vに垂直な単位ベクトルである。
Figure 2022046210000013
PAFの正解値は、数式10で得られた各人のPAFの正解値の平均をとった値と定義される。よって、PAFの正解値は、以下の数式13で表される。n(p)は、はピクセルpにおける非ゼロベクトルの数である。
Figure 2022046210000014
実写画像を用いて学習済みのモデルに対して、描画画像を用いて学習させる。学習には、ステップS1で準備された描画画像及びアノテーションが用いられる。例えば、再急降下法が用いられる。再急降下法は、関数の傾きから関数の最小値を探索する最適化アルゴリズムの1つである。描画画像を用いた学習により、第1モデルが準備される。
<第2モデルの準備>
図6は、第2モデルの構成を例示する概略図である。
第2モデル200は、図6に表したように、畳み込み層210、最大値プーリング220、ドロップアウト層230、平坦化層240、及び全結合層250を含む。畳み込み層210に記載された数字は、チャネル数を表す。全結合層250に記載された数字は、出力の次元を表す。第1モデルの出力であるPCMとPAFを第2モデル200に入力する。第2モデル200は、第1モデル100から、姿勢を示すデータが入力されると、そのデータが実写画像と描画画像のどちらに基づくかの判定結果を出力する。
例えば、第1モデル100から出力されるPCMは、19のチャネルを有する。第1モデル100から出力されるPAFは、38のチャネルを有する。PCMとPAFを第2モデル200へ入力する際、入力データが0から1の範囲の値となるように、正規化が行われる。正規化では、PCMとPAFの各ピクセルの値が、とりうる最大値で除算される。PCMの最大値とPAFの最大値は、学習に用いるデータセットとは別に実写画像と描画画像をそれぞれ複数枚用意し、第1モデル100から出力されるPCMとPAFから取得される。
正規化されたPCMとPAFは、第2モデル200へ入力される。第2モデル200は、畳み込み層210を含む多層ニューラルネットワークを備える。PCMとPAFは、それぞれ、2つの畳み込み層210へ入力される。畳み込み層210の出力情報は、活性化関数に通される。活性化関数として、ランプ関数(正規化線形関数)が用いられる。ランプ関数の出力は、平坦化層240に入力され、全結合層250に入力できるように処理される。
過学習を抑制するために、平坦化層240の前には、ドロップアウト層230が設けられている。平坦化層240の出力情報は、全結合層250に入力され、それぞれ256次元の情報として出力される。出力情報は、活性化関数としてのランプ関数に通され、512次元の情報として結合される。結合された情報を、もう1度、ランプ関数を活性化関数とした全結合層250に入力する。出力された64次元の情報は、全結合層250へ入力される。最後に、全結合層250の出力情報は、活性化関数であるシグモイド関数に通され、第1モデル100への入力が実写画像である確率を出力する。学習装置1は、出力された確率が0.5以上の場合、第1モデル100への入力が実写画像であると判定する。学習装置1は、出力された確率が0.5未満の場合、第1モデル100への入力が描画画像であると判定する。
いずれかのモデルの学習では、バイナリクロスエントロピーを損失関数として用いる。ある画像nにおける第1モデル100への入力が実写画像である確率をPrealnとしたとき、第2モデル200の損失関数Fdは、以下の数式14で定義される。Nは、データセット内の全ての画像を表す。tは、入力画像nに付与される正解ラベルである。nが実写画像であれば、t=1である。nが描画画像であれば、t=0である。
Figure 2022046210000015
数式14で定義される損失関数が、最小となるように学習を行う。最適化手法には、例えばAdamが用いられる。再急降下法では、全てのパラメータに同じ学習率が用いられる。これに対し、Adamでは、勾配の二乗平均及び平均を考慮することで、パラメータごとに適切な重みの更新を行える。学習の結果、第2モデル200が準備される。
<第1モデル及び第2モデルの学習>
準備した第2モデル200を用いて、第1モデル100を学習させる。また、準備した第1モデル100を用いて、第2モデル200を学習させる。第1モデル100の学習と第2モデル200の学習は、交互に実行される。
図7は、第1モデル及び第2モデルの学習方法を表す模式図である。
第1モデル100には、画像IMが入力される。画像IMは、実写画像又は描画画像である。第1モデル100は、PCM及びPAFを出力する。PCM及びPAFのそれぞれは、第2モデル200に入力される。第2モデル200へ入力される際、PAM及びPAFは、上述した通り正規化される。
第1モデル100の学習について説明する。第1モデル100は、第2モデル200による判定の精度が低下するように学習される。すなわち、第1モデル100は、第2モデル200を欺くように学習される。例えば、第1モデル100は、描画画像が入力されたときに、第2モデル200が実写画像と判定する姿勢データを出力するように、学習される。
第1モデル100の学習では、第2モデル200の学習が行われないように、第2モデル200の重みの更新を停止させる。例えば、第1モデル100への入力には、描画画像のみを用いる。もともと検出可能であった実写画像の検出精度を低下させることにより、第1モデル100が第2モデル200を欺くように学習されることを防止するためである。第2モデル200を欺くように第1モデル100を学習させるため、PCM及びPAFが第2モデル200へ入力される際には、正解ラベルを反転させる。
第1モデル100は、第1モデル100と第2モデル200の損失関数が最小となるように学習される。第2モデル200の損失関数と第1モデル100の損失関数を同時に用いることによって、第1モデル100が、入力に拘わらず姿勢検出を行えないようにして第2モデル200を欺くように学習されることを防止できる。数式7及び14より、第1モデル100の学習フェーズの損失関数fは、以下の数式15で表される。λは、第1モデル100の損失関数と第2モデル200の損失関数のトレードオフを調整するためのパラメータである。例えば、λとして、0.5が設定される。
Figure 2022046210000016
第2モデル200の学習について説明する。第2モデル200は、判定の精度が向上するように学習される。すなわち、第1モデル100は、学習の結果、第2モデル200を欺くような姿勢データを出力する。第2モデル200は、その姿勢データが実写画像と描画画像のどちらに基づくか、正しく判定できるように学習される。
第2モデル200の学習では、第1モデル100の学習が行われないように、第1モデル100の重みの更新が停止される。例えば、第1モデル100には、実写画像と描画画像の両方が入力される。第2モデル200は、数式14で定義された損失関数が最小となるように学習される。第2モデル200の作成時と同様に、最適化手法にはAdamを用いることができる。
上述した第1モデル100の学習と第2モデル200の学習が交互に実行される。学習装置1は、学習させた第1モデル100及び第2モデル200を、記憶装置4に保存する。
第1実施形態の効果を説明する。
近年、ビデオカメラなどで撮影されたRGB画像、深度カメラで撮影された深度画像などから、人体の姿勢を検出する方法が研究されている。また、姿勢検出は、生産性改善に向けた取り組みへの利用が試みられている。しかし、製造現場等では、作業者の姿勢、作業の環境によって、姿勢の検出精度が大きく低下しうるという課題があった。
製造現場で撮影される画像は、画角や解像度などに制限が課される場合が多い。例えば、製造現場において、作業の障害とならないようにカメラを配置する場合、カメラは、作業者よりも上方に設けられることが好ましい。また、製造現場では、設備、製品などが置かれており、作業者の一部が写らないことが多い。OpenPoseなどの従来の方法では、上方から人体を写した画像や、作業者の一部しか映っていない画像などについては、姿勢の検出が大きく低下しうる。また、製造現場では、設備、製品、治具などが存在する。これらが人体として誤検出される場合もある。
上方から作業者を写した画像や、作業者の一部が写っていない画像について、姿勢の検出精度を向上させるために、モデルを十分に学習させることが望ましい。しかし、モデルの学習には、多くの学習データが必要となる。作業者を上方から実際に撮影して画像を準備し、それぞれの画像に対してアノテーションを実行すると、膨大な時間が必要となる。
学習データの準備に必要な時間を短縮するために、仮想の人体モデルを用いることが有効である。仮想の人体モデルを用いることで、作業者を任意の方向から写した画像を、容易に生成(描画)できる。また、人体モデルに対応した骨格データを用いることで、描画画像に対するアノテーションを容易に完了できる。
一方、描画画像は、実写画像に比べて、ノイズが少ない。ノイズは、画素値のゆらぎ、欠陥などである。例えば、人体モデルをレンダリングしただけの描画画像は、ノイズを全く含まず、実写画像に比べて過度に鮮明である。テクスチャマッピングにより描画画像に質感を付与できるが、その場合でも、描画画像は、実写画像に比べてより鮮明である。このため、描画画像を用いて学習させたモデルに実写画像を入力すると、実写画像の姿勢の検出精度が低いという課題が存在する。
この課題について、第1実施形態では、姿勢を検出するための第1モデル100が、第2モデル200を用いて学習される。第2モデル200は、姿勢データが入力されると、その姿勢データが実写画像と描画画像のいずれに基づくか判定する。第1モデル100は、第2モデル200による判定の精度が低下するように学習される。第2モデル200は、判定の精度が向上するように学習される。
例えば、第1モデル100は、実写画像が入力されると、第2モデル200が描画画像に基づく姿勢データと判定するように、学習される。また、第1モデル100は、描画画像が入力されると、第2モデル200が実写画像に基づく姿勢データと判定するように、学習される。これにより、第1モデル100は、実写画像が入力された際に、学習に用いた描画画像と同様に、精度良く姿勢データを検出できるようになる。また、第2モデル200は、学習により、判定の精度が向上する。第1モデル100の学習と第2モデル200の学習を交互に実行することで、第1モデル100は、実写画像に含まれる人体の姿勢データを、より精度良く検出できるようになる。
第2モデル200の学習には、人体の複数の部位の位置を示すデータであるPCMと、部位間の関連性を示すデータであるPAFと、を用いることが好ましい。PCMとPAFは、画像中の人物の姿勢との関連性が高い。第1モデル100の学習が不十分な場合、第1モデル100は、描画画像に基づくPCMとPAFを適切に出力できない。この結果、第2モデル200は、第1モデル100から出力されたPCMとPAFが描画画像に基づくと、容易に判定できる。第2モデル200による判定の精度を低下させるために、第1モデル100は、実写画像だけではなく描画画像からも、より適切なPCMとPAFを出力できるように学習される。これにより、姿勢の検出に好適なPCMとPAFが、より適切に出力されるようになる。この結果、第1モデル100による姿勢検出の精度を向上できる。
第1モデル100の学習に用いられる描画画像の少なくとも一部は、人体モデルを上方から写したものであることが好ましい。上述した通り、製造現場では、作業の障害とならないように、カメラは作業者よりも配置されうるためである。人体モデルを上方から写した描画画像が、第1モデル100の学習に用いられることで、実際の製造現場の作業者を写した画像に対して、姿勢をより精度良く検出できる。なお、「上方」は、人体モデルの直上だけでは無く、人体モデルよりも高い位置を指す。
(第1変形例)
図8は、第1実施形態の第1変形例に係る学習システムの構成を示す模式的ブロック図である。
第1変形例に係る学習システム11は、図8に表したように、演算装置5及び検出器6をさらに備える。検出器6は、実空間上の人物に装着され、その人物の動作を検出する。演算装置5は、検出された動作に基づいて、人体の各部位の各時刻における位置を算出し、算出結果を記憶装置4に記憶する。
例えば、検出器6は、加速度センサ及び角速度センサの少なくともいずれかを含む。検出器6は、人物の各部位の加速度又は角速度を検出する。演算装置5は、加速度又は角速度の検出結果に基づいて、各部位の位置を算出する。
検出器6の数は、区別したい部位の数に応じて適宜選択される。例えば、図4に表したように、上方から撮影した人物の頭、両肩、両上腕、両前腕、及び両手にそれぞれ印付けする場合、10個の検出器6が用いられる。10個の検出器を、それぞれ、実空間上の人物の各部位の安定して取り付けられる部分に取り付ける。例えば、比較的形状の変化が小さい、手の甲、前腕の中間部分、上腕の中間部分、肩、首の裏、頭の周囲に検出器をそれぞれ取り付け、これらの部位の位置データを取得する。
学習装置1は、記憶装置4に記憶された各部位の位置データを参照し、人体モデルに、実空間上の人物と同じ姿勢をとらせる。学習装置1は、姿勢を設定した人体モデルを用いて描画画像を生成する。例えば、検出器6を装着した人物が、実際の作業と同じ姿勢を取る。これにより、描画画像に写る人体モデルの姿勢が、実際の作業時の姿勢に近くなる。
この方法によれば、人体モデルの各部位の位置を人が指定する必要が無くなる。また、人体モデルの姿勢が、実際の作業時の人物の姿勢と全く異なる姿勢となることを回避できる。人体モデルの姿勢を実際の作業時の姿勢に近づけることで、第1モデルによる姿勢の検出精度を向上させることができる。
(第2実施形態)
図9は、第2実施形態に係る分析システムの構成を表す模式的ブロック図である。
図10~図13は、第2実施形態に係る分析システムによる処理を説明するための図である。
第2実施形態に係る分析システム20は、第1実施形態に係る学習システムによって学習された姿勢検出モデルとしての第1モデルを用いて、人物の動作を分析する。分析システム20は、図9に表したように、処理装置7及び撮像装置8をさらに含む。
撮像装置8は、実空間における作業中の人物(第1人物)を撮影し、画像を生成する。以降では、撮像装置8により撮影された作業中の人物を、作業者とも呼ぶ。撮像装置8は、静止画を取得しても良いし、動画を取得しても良い。動画を取得する場合、撮像装置8は、動画から静止画を切り出す。撮像装置8は、作業者が写った画像を記憶装置4に保存する。
作業者は、所定の第1作業を繰り返し実行する。撮像装置8は、1回の第1作業の開始から終了までの間に、作業者を繰り返し撮影する。撮像装置8は、繰り返しの撮影により得られた複数の画像を記憶装置4に保存する。例えば、撮像装置8は、複数の第1作業を繰り返す作業者を撮影する。これにより、複数の第1作業の様子を撮影した複数の画像が記憶装置4に保存される。
処理装置7は、記憶装置4にアクセスし、作業者が写った画像(実写画像)を第1モデルに入力する。第1モデルは、画像中の作業者の姿勢データを出力する。例えば、姿勢データは、複数の部位の位置及び部位同士の関連性を含む。処理装置7は、第1作業中の作業者を写した複数の画像を第1モデルに順次入力する。これにより、各時刻における作業者の姿勢データが得られる。
一例として、処理装置7は、第1モデルに画像を入力し、図10に表した姿勢データを取得する。姿勢データは、頭の重心97a、左肩の重心97b、左肘97c、左手首97d、左手の重心97e、右肩の重心97f、右肘97g、右手首97h、右手の重心97i、及び背骨97jのそれぞれの位置を含む。また、姿勢データは、これらを結ぶ骨のデータを含む。
処理装置7は、複数の姿勢データを用いて、時間の経過に伴う部位の動作を示す時系列データを生成する。例えば、処理装置7は、各姿勢データから、頭の重心の位置を抽出する。処理装置7は、姿勢データの基となった画像が取得された時刻に従って、頭の重心の位置を整理する。例えば、時刻と位置を紐づけて1レコードとするデータを作成し、複数のデータを時刻順にソートすることで、時間の経過に伴う頭の動作を示す時系列データが得られる。処理装置7は、少なくとも1つの部位について、時系列データを生成する。
処理装置7は、生成した時系列データに基づいて、第1作業の周期を推定する。又は、処理装置7は、時系列データにおいて、1つの第1作業の動作に基づく範囲を推定する。
処理装置7は、処理により得られた情報を記憶装置4に保存する。処理装置7は、上方を外部へ出力しても良い。例えば、出力される情報は、算出された周期を含む。情報は、周期を用いた計算により得られた値を含んでも良い。情報は、周期に加えて、時系列データ、周期の計算に用いた各画像の時刻などを含んでも良い。情報は、1つの第1作業の動作を示す時系列データの一部を含んでも良い。
処理装置7は、情報を表示装置3に出力しても良い。又は、処理装置7は、情報を含むファイルを、CSVなどの所定の形式で出力しても良い。処理装置7は、FTP(File Transfer Protocol)などを用いて外部のサーバへデータを送信しても良い。又は、処理装置7は、データベース通信を行い、ODBC(Open Database Connectivity)などを用いて外部のデータベースサーバへデータを挿入してもよい。
図11(a)、図11(b)、図12(b)、および図12(c)において、横軸は時間を表し、縦軸は鉛直方向における位置(深度)を表している。
図11(c)、図11(d)、図12(d)、および図13(a)において、横軸は時間を表し、縦軸は距離を表している。これらの図では、距離の値が大きいほど、2つの対象の間の距離が近く、相関が強いことを示している。
図12(a)および図13(b)は、横軸は時間を表し、縦軸はスカラー値を表している。
図11(a)は、処理装置7により生成された時系列データの一例である。例えば図11(a)は、作業者の左手の動作を示す時間長Tの時系列データである。まず、処理装置7は、図11(a)に表した時系列データから、時間長Xの部分データを抽出する。
時間長Xは、例えば、作業者又は分析システム20の管理者などによってあらかじめ設定される。時間長Xとしては、第1作業の大凡の周期に対応する値が設定される。時間長Tは、予め設定されても良いし、時間長Xに基づいて決定されても良い。例えば、処理装置7は、時間長Tの間に撮影された複数の画像をそれぞれ第1モデルに入力し、姿勢データを得る。処理装置7は、それらの姿勢データを用いて、時間長Tの時系列データを生成する。
処理装置7は、部分データとは別に、時間長Tの時系列データから、時刻tからtまで、所定の時間間隔で時間長Xのデータを抽出する。具体的には、処理装置7は、図11(b)の矢印で表すように、時系列データから、時間長Xのデータを、時刻tからtまで全体に亘って、例えば1フレームごとに抽出する。図11(b)では、抽出されるデータの一部の時間幅のみが矢印で表されている。以降では、図11(b)に表すステップによって抽出されたそれぞれの情報を、第1比較データと呼ぶ。
処理装置7は、図11(a)に表すステップで抽出された部分データと、図11(b)に表すステップで抽出された各々の第1比較データと、の間の距離を順次計算する。処理装置7は、例えば、部分データと第1比較データとの間のDTW(Dynamic Time Warping)距離を算出する。DTW距離を用いることで、繰り返される動作の時間の長短に拘わらず、相関の強度を求めることができる。この結果、それぞれの時刻における、部分データに対する時系列データの距離の情報が得られる。これを表したものが、図11(c)である。以降では、図11(c)に表す、各時刻における距離を含む情報を第1相関データと呼ぶ。
次に、処理装置7は、作業者Mによる作業時間の周期を推定するために、時系列データにおける仮類似点の設定を行う。具体的には、処理装置7は、図11(c)に表す第1相関データにおいて、時刻tから時間μが経過した後の時刻を基準として、ばらつき時間Nの範囲内に複数の候補点α~αをランダムに設定する。図11(c)に表す例では、3つの候補点がランダムに設定されている。時間μおよびばらつき時間Nは、例えば、作業者又は管理者などによって予め設定される。
処理装置7は、ランダムに設定された候補点α~αのそれぞれにおいてピークを有する正規分布のデータを作成する。そして、それぞれの正規分布と、図11(c)に表す第1相関データと、の間の相互相関係数(第2相互相関係数)を求める。処理装置7は、相互相関係数が最も高い候補点を、仮類似点として設定する。例えば、図11(c)に表した候補点αが仮類似点に設定されるとする。
処理装置7は、仮類似点(候補点α)を基に、再度、時間μが経過した後の時刻を基準として、ばらつき時間Nの範囲内に複数の候補点α~αをランダムに設定する。このステップを、時刻tまで繰り返し行うことで、図11(d)に表すように、時刻t~tの間に、複数の仮類似点β~βが設定される。
処理装置7は、図12(a)に表すように、それぞれの仮類似点β~βにピークを有する複数の正規分布を含んだデータを作成する。以降では、図12(a)に表す複数の正規分布を含む情報を第2比較データと呼ぶ。処理装置7は、図11(c)および図11(d)に表す第1相関データと、図12(a)に表す第2比較データと、の間の相互相関係数(第1相互相関係数)を算出する。
処理装置7は、図11(a)~図12(a)と同様のステップを、図12(b)~図12(d)、図13(a)、及び図13(b)に表すように、他の部分データに対して行う。図12(b)~図13(b)では、時刻t1以降の情報のみを表している。
例えば、処理装置7は、図12(b)に表すように、時刻tからtまでの間の、時間長Xの部分データを抽出する。続いて、処理装置7は、図12(c)に表すように、時間長Xの複数の第1比較データを抽出する。処理装置7は、部分データと、それぞれの第1比較データと、の間の距離を計算することで、図12(d)に表すように、第1相関データを作成する。
処理装置7は、図12(d)に表すように、時刻tから時間μが経過した後の時刻を基準として、複数の候補点α~αをランダムに設定し、仮類似点βを抽出する。これを繰り返すことで、図13(a)に表すように、複数の仮類似点β~βが設定される。そして、処理装置7は、図13(b)に表すように、仮類似点β~βに基づく第2比較データを作成し、図12(d)および図13(a)に表す第1相関データと、図13(b)に表す第2比較データと、の間の相互相関係数を算出する。
処理装置7は、上述したステップを、時刻t2以降も繰り返すことで、それぞれの部分データについて相互相関係数を算出する。その後、処理装置7は、最も高い相互相関係数が得られた仮類似点β~βを、真の類似点として抽出する。処理装置7は、真の類似点同士の時間間隔を算出することで、作業者の第1作業の周期を得る。処理装置7は、例えば、時間軸上隣り合う真の類似点間の時間の平均を求め、この平均時間を第1作業の周期とすることができる。又は、処理装置7は、真の類似点同士の間の時系列データを、1つの第1作業の動作を示す時系列データとして抽出する。
ここでは、第2実施形態に係る分析システム20により、作業者の第1作業の周期を分析する例について説明した。第2実施形態に係る分析システム20の用途は、この例に限定されない。例えば、所定の動作を繰り返し行う人物に対して、その周期の分析、1回の動作を示す時系列データの抽出などに広く適用することが可能である。
図14は、第2実施形態に係る分析システムによる処理を表すフローチャートである。
撮像装置8は、人物を撮影し、画像を生成する(ステップS11)。処理装置7は、画像を第1モデルに入力し(ステップS12)、姿勢データを取得する(ステップS13)。処理装置7は、姿勢データを用いて、部位に関する時系列データを生成する(ステップS14)。処理装置7は、時系列データに基づき、人物の動作の周期を算出する(ステップS15)。処理装置7は、算出された周期に基づく情報を外部へ出力する(ステップS16)。
分析システム20によれば、繰り返し実行される所定の動作の周期を自動で分析できる。例えば、製造現場においては、作業者の第1作業の周期を自動的に分析できる。このため、作業者自身による記録や申告、業務改善のための技術者による作業の観察や周期の計測などが不要となる。作業の周期を容易に分析することが可能となる。また、分析結果が、分析する者の経験や知識、判断などに依らないため、周期をより高精度に求めることが可能となる。
また、分析システム20は、分析する際に、第1実施形態に係る学習システムによって学習された第1モデルを用いる。この第1モデルによれば、撮影された人物の姿勢を高精度に検出できる。第1モデルから出力された姿勢データを用いることで、分析の精度を向上できる。例えば、周期の推定の精度を向上させることができる。
図15は、システムのハードウェア構成を表すブロック図である。
例えば、学習装置1は、コンピュータであり、ROM(Read Only Memory)1a、RAM(Random Access Memory)1b、CPU(Central Processing Unit)1c、およびHDD(Hard Disk Drive)1dを有する。
ROM1aは、コンピュータの動作を制御するプログラムを格納している。ROM1aには、上述した各処理をコンピュータに実現させるために必要なプログラムが格納されている。
RAM1bは、ROM1aに格納されたプログラムが展開される記憶領域として機能する。CPU1cは、処理回路を含む。CPU1cは、ROM1aに格納された制御プログラムを読み込み、当該制御プログラムに従ってコンピュータの動作を制御する。また、CPU1cは、コンピュータの動作によって得られた様々なデータをRAM1bに展開する。HDD1dは、読み取りに必要な情報や、読み取りの過程で得られた情報を記憶する。HDD1dは、例えば、図1に表した記憶装置4として機能する。
学習装置1は、HDD1dに代えて、eMMC(embedded Multi Media Card)、SSD(Solid State Drive)、SSHD(Solid State Hybrid Drive)などを有していても良い。
また、学習システム11における演算装置5、分析システム20における処理装置7についても、図15と同様のハードウェア構成を適用できる。又は、学習システム11において、1つのコンピュータが学習装置1及び演算装置5として機能しても良い。分析システム20において、1つのコンピュータが学習装置1及び処理装置7として機能しても良い。
以上で説明した、学習装置、学習システム、学習方法、学習された第1モデルを用いることで、画像中の人体の姿勢をより高精度に検出できる。また、コンピュータを、学習装置として動作させるためのプログラムを用いることで、同様の効果を得ることができる。
また、以上で説明した処理装置、分析システム、分析方法を用いることで、時系列データをより高精度に分析できる。例えば、人物の動作の周期をより高精度に求めることができる。コンピュータを、処理装置として動作させるためのプログラムを用いることで、同様の効果を得ることができる。
上記の種々のデータの処理は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク及びハードディスクなど)、光ディスク(CD-ROM、CD-R、CD-RW、DVD-ROM、DVD±R、DVD±RWなど)、半導体メモリ、または、他の記録媒体に記録されても良い。
例えば、記録媒体に記録された情報は、コンピュータ(または組み込みシステム)により読み出されることが可能である。記録媒体において、記録形式(記憶形式)は任意である。例えば、コンピュータは、記録媒体からプログラムを読み出し、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させる。コンピュータにおいて、プログラムの取得(または読み出し)は、ネットワークを通じて行われても良い。
以上、本発明のいくつかの実施形態を例示したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。
1:学習装置、 2:入力装置、 3:表示装置、 4:記憶装置、 5:演算装置、 6:検出器、 7:処理装置、 8:撮像装置、 10,11:学習システム、 20:分析システム、 91:人体モデル、 100:第1モデル、 110:第1ブロック、 120:第2ブロック、 200:第2モデル、 210:畳み込み層、 220:最大値プーリング、 230:ドロップアウト層、 240:平坦化層、 250:全結合層

Claims (10)

  1. 実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
    前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
    を学習させる学習装置であって、
    前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
    前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、学習装置。
  2. 前記第1モデルの学習中には、前記第2モデルの更新を停止し、
    前記第2モデルの学習中には、前記第1モデルの更新を停止する、請求項1記載の学習装置。
  3. 前記第1モデルの学習と前記第2モデルの学習を交互に実行する、請求項1又は2に記載の学習装置。
  4. 複数の前記描画画像を用いて前記第1モデルを学習させ、
    前記複数の描画画像の少なくとも一部は、前記人体モデルの一部を上方から描画した画像である、請求項1~3のいずれか1つに記載の学習装置。
  5. 前記姿勢データは、人体の複数の部位の位置を示すデータと、部位間の関連性を示すデータと、を含む、請求項1~4のいずれか1つに記載の学習装置。
  6. 請求項1~5のいずれか1つに記載の学習装置により学習された前記第1モデルに、作業中の人物を写した複数の作業画像を入力し、時間に対する姿勢の変化を示す時系列データを取得する、処理装置。
  7. 実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
    前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
    を学習させる学習方法であって、
    前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
    前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、学習方法。
  8. 請求項7記載の学習方法により学習された前記第1モデルを含む姿勢検出モデル。
  9. コンピュータに、
    実際の人物を写した実写画像又は仮想の人体モデルを用いて描画された描画画像が入力されると、前記実写画像又は前記描画画像に含まれる人体の姿勢を示す姿勢データを出力する第1モデルと、
    前記姿勢データが入力されると、前記姿勢データが前記実写画像と前記描画画像のいずれに基づくか判定する第2モデルと、
    を学習させるプログラムであって、
    前記第2モデルによる判定の精度が低下するように前記第1モデルを学習させ、
    前記第2モデルによる判定の精度が向上するように前記第2モデルを学習させる、プログラム。
  10. 請求項9記載のプログラムを記憶した記憶媒体。
JP2020152140A 2020-09-10 2020-09-10 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 Active JP7480001B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020152140A JP7480001B2 (ja) 2020-09-10 2020-09-10 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020152140A JP7480001B2 (ja) 2020-09-10 2020-09-10 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2022046210A true JP2022046210A (ja) 2022-03-23
JP7480001B2 JP7480001B2 (ja) 2024-05-09

Family

ID=80779797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020152140A Active JP7480001B2 (ja) 2020-09-10 2020-09-10 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体

Country Status (1)

Country Link
JP (1) JP7480001B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157230A1 (ja) * 2022-02-18 2023-08-24 株式会社 東芝 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体
WO2023180837A1 (en) 2022-03-23 2023-09-28 Ricoh Company, Ltd. Liquid discharge system
WO2024018856A1 (ja) * 2022-07-21 2024-01-25 オムロン株式会社 作業周期推定装置、作業周期推定方法、及び作業周期推定プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7139749B2 (ja) 2018-07-23 2022-09-21 日本電信電話株式会社 画像認識学習装置、画像認識装置、方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157230A1 (ja) * 2022-02-18 2023-08-24 株式会社 東芝 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体
WO2023180837A1 (en) 2022-03-23 2023-09-28 Ricoh Company, Ltd. Liquid discharge system
WO2024018856A1 (ja) * 2022-07-21 2024-01-25 オムロン株式会社 作業周期推定装置、作業周期推定方法、及び作業周期推定プログラム

Also Published As

Publication number Publication date
JP7480001B2 (ja) 2024-05-09

Similar Documents

Publication Publication Date Title
Liu et al. Tracking-based 3D human skeleton extraction from stereo video camera toward an on-site safety and ergonomic analysis
JP7480001B2 (ja) 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体
JP7057959B2 (ja) 動作解析装置
JP6025845B2 (ja) オブジェクト姿勢検索装置及び方法
CN108475439B (zh) 三维模型生成系统、三维模型生成方法和记录介质
JP7370777B2 (ja) 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体
JP6708260B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10776978B2 (en) Method for the automated identification of real world objects
JP2009020761A (ja) 画像処理装置及びその方法
US11450148B2 (en) Movement monitoring system
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR102371127B1 (ko) 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템
Michel et al. Markerless 3d human pose estimation and tracking based on rgbd cameras: an experimental evaluation
CN109977827B (zh) 一种使用多视图匹配方法的多人三维姿态估计方法
JP2007066094A (ja) 姿勢推定装置および姿勢推定方法
JP2014085933A (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
Mekruksavanich et al. Automatic Recognition of Construction Worker Activities Using Deep Learning Approaches and Wearable Inertial Sensors.
JP2016014954A (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
JP6593949B1 (ja) 情報処理装置、及び、マーケティング活動支援装置
JP7499346B2 (ja) 逆運動学に基づいた関節の回転の推測
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
WO2023157230A1 (ja) 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体
JP5485044B2 (ja) 表情学習装置、表情認識装置、表情学習方法、表情認識方法、表情学習プログラム及び表情認識プログラム
JP5061808B2 (ja) 感情判定方法
CN107423665A (zh) 基于bp神经网络的三维人脸分析方法及其分析系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230324

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240424

R150 Certificate of patent or registration of utility model

Ref document number: 7480001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150