JP7254262B2 - 作業推定装置、作業推定方法、及び、作業推定プログラム - Google Patents

作業推定装置、作業推定方法、及び、作業推定プログラム Download PDF

Info

Publication number
JP7254262B2
JP7254262B2 JP2022577924A JP2022577924A JP7254262B2 JP 7254262 B2 JP7254262 B2 JP 7254262B2 JP 2022577924 A JP2022577924 A JP 2022577924A JP 2022577924 A JP2022577924 A JP 2022577924A JP 7254262 B2 JP7254262 B2 JP 7254262B2
Authority
JP
Japan
Prior art keywords
work
user
degree
contact
target candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022577924A
Other languages
English (en)
Other versions
JPWO2022162844A1 (ja
JPWO2022162844A5 (ja
Inventor
敬士 西川
貴耶 谷口
健二 瀧井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Building Solutions Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022162844A1 publication Critical patent/JPWO2022162844A1/ja
Application granted granted Critical
Publication of JP7254262B2 publication Critical patent/JP7254262B2/ja
Publication of JPWO2022162844A5 publication Critical patent/JPWO2022162844A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Description

本開示は、作業推定装置、作業推定方法、及び、作業推定プログラムに関する。
機器の保守作業に関するOJT(On the Job Training)教育において、監督者又は教育者等の負担と、教育にかかる費用等を減らすべく、OJT教育を代替する教育システムが求められている。保守作業に関するOJT教育を代替する教育システムにおいて、保守作業を学習するユーザに対し、ユーザが実施した作業についての有用な情報を提供することが望ましい。これを実現するために、教育システムがユーザの行う作業を推定する必要がある。
特許文献1は、ユーザの一人称視点映像において、対象物の検出結果と注意マップとを利用してユーザの注目する注目物体を検出し、注目物体と非注目物体との情報の組み合わせに基づいて行動認識を行うことによって、ユーザの行動の認識精度を向上させる技術を開示している。
特開2015-011526号公報
特許文献1が開示する行動認識方法では、ユーザ視点の映像の画角内に複数の物体が映る際に、ユーザが何の行動も行っていなかったとしても、ユーザがある行動を行っていると誤って認識するという課題がある。具体例として、当該行動認識方法によれば、ユーザの作業対象及びユーザが作業において使用する道具がユーザ視点の映像に映っている場合、ユーザが道具を用いていないとしても、ユーザが作業を行っていると判断してしまうことがある。
本開示は、作業用物体と、作業対象の候補である対象候補物体との接触を検出することによって、ユーザの作業を推定する精度を向上させることを目的とする。
本開示に係る作業推定装置は、
ユーザの視線を示す情報を用いて前記ユーザが注視する領域である注視領域を推定する注視領域推定部と、
前記ユーザが使用している作業用物体と、前記ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、前記作業用物体と、前記少なくとも1つの対象候補物体とを検出する物体検出部と、
前記注視領域に基づいて、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出する接触度合算出部と、
前記作業用物体と前記接触度合とに基づいて前記ユーザの作業を推定する作業推定部と
を備える。
本開示によれば、接触度合算出部が作業用物体と少なくとも1つの対象候補物体が含む各対象候補物体との接触の度合を示す接触度合をユーザが注視する領域に基づいて求め、作業推定部が接触度合に基づいてユーザの作業を推定する。そのため、本開示によれば、作業用物体と、作業対象の候補である対象候補物体との接触を検出することによって、ユーザの作業を推定する精度を向上させることができる。
実施の形態1に係る作業推定装置200のソフトウェア構成例。 実施の形態1に係る作業推定装置200のハードウェア構成例。 実施の形態1に係る作業推定装置200の動作を示すフローチャート。 実施の形態1に係る接触度合算出部230の処理を説明する図。 実施の形態1に係る接触度合算出部230の動作を示すフローチャート。 実施の形態1に係る接触度合算出部230の処理を説明する図。 実施の形態1に係る接触度合算出部230の処理を説明する図。 実施の形態1に係る接触度合算出部230の処理を説明する図。 実施の形態1に係る学習データD1の具体例。 実施の形態1に係る学習装置400の構成例。 実施の形態1に係る学習装置400の動作を示すフローチャート。 実施の形態1の変形例に係る作業推定装置200のソフトウェア構成例。 実施の形態1の変形例に係る作業推定装置200の動作を示すフローチャート。 実施の形態1の変形例に係る作業推定装置200のハードウェア構成例。
実施の形態の説明及び図面において、同じ要素及び対応する要素には同じ符号を付している。同じ符号が付された要素の説明は、適宜に省略又は簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。また、「部」を、「回路」、「工程」、「手順」、「処理」又は「サーキットリー」に適宜読み替えてもよい。
実施の形態1.
以下、本実施の形態について、図面を参照しながら詳細に説明する。
***構成の説明***
図1は、作業推定システム90の構成例と、作業推定装置200のソフトウェア構成例とを示している。作業推定システム90は、作業推定装置200と、撮像装置300と、視線計測装置350とを備える。本図中の黒い丸については、黒い丸に接している線が互いに接続していることを示す。複数の線が交差している箇所に黒い丸が示されていない場合、当該複数の線は互いに接していない。
撮像装置300は、ユーザの作業の様子を撮影する装置であり、具体例としてカメラである。ユーザは、実施している作業を作業推定システム90によって推定される対象である。ユーザは、作業を実施せず、作業内容の確認又は休憩等をしていることもある。ユーザは、ロボット等、人でなくてもよい。撮像装置300は、撮像装置300が撮影した画像を撮像画像として作業推定装置200に送信する。撮像画像は、動画であってもよく、1つ以上の静止画であってもよい。撮像画像は、RGB(Red-Green-Blue)画像、深度画像、又はこれらの両方でもあってよい。撮像装置300は複数の装置から成ってもよい。
視線計測装置350は、ユーザの視線を計測する装置であり、具体例として、カメラを備える装置であって、ユーザが頭部に装着する装置である。視線計測装置350は、ユーザの視線を計測した結果を示す視線計測情報を作業推定装置200に送信する。視線計測装置350は複数の装置から成ってもよい。
作業推定装置200は、撮像装置300と視線計測装置350との少なくとも一方と直接接続していなくてもよい。作業推定装置200は、撮像装置300と視線計測装置350との少なくとも一方が作業推定装置200に送信するデータを記録しているレコーダ等の外部の記録装置と接続していてもよく、当該記録装置があらかじめ記録しているデータを再生した情報を受け取ってもよい。
作業推定装置200は、物体検出部210と、注視領域推定部220と、接触度合算出部230と、作業推定部250と、推定結果記憶部260とを備える。作業推定装置200は、撮像装置300と、視線計測装置350とからの情報を元にユーザの行う作業を推定する。
物体検出部210は、物体を検出し、作業用物体検出部211と、候補物体検出部215とを備える。物体は、対象候補物体と作業用物体との総称である。対象候補物体は、ユーザの作業対象である物体の候補である。作業用物体は、ユーザが作業において用いる物体であり、具体例として、ユーザの手、ユーザが使用している道具、又はこれらの両方である。作業用物体は、ユーザの両手又はユーザの片手と道具等、複数の物体から成ってもよい。物体検出部210は、ユーザが使用している作業用物体と、ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、作業用物体と、少なくとも1つの対象候補物体とを検出する。画像と映像とは同義であることもある。
作業用物体検出部211は作業用物体を検出する。作業用物体検出部211は、道具検出部212と、手検出部213とを備える。
道具検出部212は、撮像画像に基づいてユーザが利用している道具を検出する。
手検出部213は、撮像画像に基づいてユーザの手を検出する。
候補物体検出部215は対象候補物体を検出する。候補物体検出部215は対象物体検出部とも呼ばれる。
注視領域推定部220は、視線計測装置350が計測した情報であって、ユーザの視線を示す情報を用いて注視領域を推定する。注視領域は、ユーザが注視する領域である。注視領域は、任意の形状の2次元分布であってもよく、視点位置に最大値を持つ分布であって、事前に設定された分布であってもよく、視点位置を記録した時系列データを利用して算出したヒートマップであってもよい。視点位置は、視線計測情報が示す位置であって、ユーザの視点の位置である。注視領域推定部220は、ユーザの視点の位置を示す時系列データを用いて注視領域を推定してもよい。また、注視領域は各対象候補物体の位置と視点位置との距離に応じて定まる領域であってもよい。具体例として、当該領域内において、各対象候補物体の位置と視点位置とは既定の範囲内に収まっている。
接触度合算出部230は、注視領域に基づいて、作業用物体と、少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出する。接触度合算出部230は、注視領域内対象物体位置関係値計算部とも呼ばれる。接触度合算出部230は、注視領域に基づいて少なくとも1つの対象候補物体が含む各対象候補物体に対応する重みを算出し、算出した重みを用いて接触度合を求めてもよい。接触度合算出部230は、作業用物体と少なくとも1つの対象候補物体が含む各対象候補物体との距離に基づいて接触度合を求めてもよく、作業用物体の配置と少なくとも1つの対象候補物体が含む各対象候補物体の配置とに基づいて接触度合を求めてもよく、作業用物体と少なくとも1つの対象候補物体が含む各対象候補物体とが重複する領域に基づいて接触度合を求めてもよい。接触度合算出部230は、注視領域を示す情報による重みづけと、作業用物体及び対象候補物体とを適宜組み合わせることによって接触度合いを求めてもよい。
作業推定部250は、物体検出部210の出力及び接触度合算出部230の出力に基づいてユーザの作業を推定する。作業推定部250は、作業用物体と接触度合とに基づいてユーザの作業を推定する。作業推定部250は、ルールベースの推定手法によりユーザの作業を推定してもよく、学習モデルを用いてユーザの作業を推定してもよい。
推定結果記憶部260は、作業推定部250が作業を推定した結果を記憶する。推定結果記憶部260は作業推定結果記憶部とも呼ばれ、作業推定装置200の外部にあってもよい。
図2は、作業推定装置200のハードウェア構成例を示している。作業推定装置200は、本図に示すように、計算機100から成る。計算機100は、演算装置101と、主記憶装置102と、補助記憶装置103と、第1インタフェース104と、第2インタフェース105とから構成され、コンピュータとも呼ばれる。作業推定装置200は、複数の計算機100から成ってもよい。
演算装置101は、演算処理を行うIC(Integrated Circuit)であり、かつ、コンピュータが備えるハードウェアを制御する。演算装置101は、具体例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphics Processing Unit)である。作業推定装置200は、演算装置101を代替する複数の演算装置を備えてもよい。複数の演算装置は、演算装置101の役割を分担する。
主記憶装置102は、演算装置101の信号を一時的に記憶する装置である。主記憶装置102は、具体例として、RAM(Random Access Memory)である。主記憶装置102に記憶されたデータは、必要に応じて補助記憶装置103保存される。
補助記憶装置103は、演算装置101の信号を長期的に記憶する装置である。補助記憶装置103は、具体例として、ROM(Read Only Memory)、HDD(Hard Disk Drive)、又はフラッシュメモリである。補助記憶装置103に記憶されたデータは、必要に応じて主記憶装置102にロードされる。主記憶装置102と補助記憶装置103とは一体的に構成されてもよい。
第1インタフェース104は、計算機100に接続された撮像装置300から信号を受信する装置である。第1インタフェース104は、具体例として、USB(Universal Serial Bus)端子、又は、通信チップ若しくはNIC(Network Interface Card)等の通信装置である。
第2インタフェース105は、第1インタフェース104と同様のインタフェースであり、視線計測装置350から信号を受信する装置である。第1インタフェース104と第2インタフェース105とは一体的に構成されていてもよい。
補助記憶装置103は、作業推定プログラムを記憶している。作業推定プログラムは、作業推定装置200が備える各部の機能をコンピュータに実現させるプログラムである。作業推定プログラムは、主記憶装置102にロードされて、演算装置101によって実行される。作業推定装置200が備える各部の機能は、ソフトウェアにより実現される。
作業推定プログラムを実行する際に用いられるデータと、作業推定プログラムを実行することによって得られるデータと等は、記憶装置に適宜記憶される。作業推定装置200の各部は、適宜記憶装置を利用する。記憶装置は、具体例として、主記憶装置102と、補助記憶装置103と、演算装置101内のレジスタと、演算装置101内のキャッシュメモリとの少なくとも1つから成る。なお、データと情報とは、同等の意味を有することもある。記憶装置は、計算機100と独立したものであってもよい。推定結果記憶部260は記憶装置から成る。
主記憶装置102及び補助記憶装置103の機能は、他の記憶装置によって実現されてもよい。
作業推定プログラムは、コンピュータが読み取り可能な不揮発性の記録媒体に記録されていてもよい。不揮発性の記録媒体は、具体例として、光ディスク又はフラッシュメモリである。作業推定プログラムは、プログラムプロダクトとして提供されてもよい。
***動作の説明***
作業推定装置200の動作手順は、作業推定方法に相当する。また、作業推定装置200の動作を実現するプログラムは、作業推定プログラムに相当する。
図3は、作業推定装置200の動作の一例を示すフローチャートである。本図を参照して作業推定装置200の動作を説明する。本フローチャートの説明において、撮像画像には1つの作業用物体と1つ以上の対象候補物体とが映っているものとする。
(ステップS101:物体検出処理)
物体検出部210は、撮像装置300から撮像画像を受信し、受信した撮像画像に映っている作業用物体と対象候補物体とを検出し、検出した各対象候補物体に対応する情報を求める。当該情報は、具体例として、各対象候補物体の属性を示す属性情報と、各対象候補物体に対応する占有領域とを示す情報を含む。占有領域は、撮像画像において各物体が占有している領域に対応する領域であり、各物体を包含する矩形の領域であってもよく、各物体を表示する画素の集合であってもよい。物体検出部210が対象候補物体を検出する手法は、対象候補物体に付与されたマーカーを利用する手法であってもよく、事前に学習を済ませたモデルを用いた機械学習ベースの手法であってもよい。また、物体検出部210は作業用物体に対応する占有領域を求める。
(ステップS102:注視領域推定処理)
注視領域推定部220は、視線計測装置350から視線計測情報を受信し、受信した視線計測情報が示す視点位置を用いて注視領域を推定する。
(ステップS103:接触度合算出処理)
接触度合算出部230は、物体検出部210が検出した作業用物体及び各対象候補物体と、注視領域推定部220が推定した注視領域とに基づいて接触指標を算出する。接触指標は、作業用物体と各対象候補物体との接触の度合を定量化したものである。
接触度合算出部230は、接触指標を、具体例として、(1)距離と、(2)重複領域と、(3)距離及び方向その1と、(4)重複領域及び方向と、(5)距離及び方向その2とのいずれかに基づいて算出する。距離は、作業用物体と各対象候補物体との距離の短さ又は長さに基づいて、接触度合算出部230が各対象候補物体に対応する接触指標を求めることを示す。重複領域は、各対象候補物体に対応する占有領域と、作業用物体に対応する占有領域とが重複する領域の大きさに基づいて、接触度合算出部230が各対象候補物体に対応する接触指標を求めることを示す。方向は、対象候補物体に対する作業用物体の方向と、作業用物体の方向とに基づいて、接触度合算出部230が各対象候補物体に対応する接触指標を求めることを示す。接触度合算出部230は、距離と重複領域と方向との全てに基づいて接触指標を算出してもよい。以下、接触指標を算出する具体例を説明する。作業用物体の方向は、作業用物体の配置に当たる。対象候補物体に対する作業用物体の方向は、対象候補物体の配置と作業用物体の配置とに基づく。
(1)距離
以下、接触度合算出部230が距離に基づいて接触指標を求める具体例を説明する。接触度合算出部230は、対象候補物体に対応する占有領域と、注視領域とが重複している領域が大きくかつ重複している注視領域への注視の度合が大きいほど、また、作業用物体と対象候補物体とが近いほど、対象候補物体に対応するスコアの値が大きくなるようスコアを算出する。スコアは接触度合を示す。
図4は、接触度合算出部230の処理の様子の具体例を、視界映像を用いて模式的に示したものである。視界映像はユーザの視界の少なくとも一部を示す映像であり、撮像画像が視界映像であってもよい。注視領域推定部220又は接触度合算出部230等が撮像画像に基づいて視界映像を生成してもよい。以下、接触度合算出部230が視界映像に基づいて処理を実行するものとする。
本図において、占有領域A(i)(i=1,2,3)は、対象候補物体C(i)に対応する占有領域であり、対象候補物体C(i)を囲む矩形領域である。重心go(i)は対象候補物体C(i)の重心である。作業用物体は手であり、重心uは手の重心位置である。d(i)は、重心uから重心go(i)までの距離値の逆数である。
図5は、接触度合算出部230の処理フローの一例を示している。本図を参照して接触度合算出部230の処理を説明する。
(ステップS301)
接触度合算出部230は、注視領域Gを示す情報を用いて、各対象候補物体C(i)(i=1,2,…)に対する重みを算出する。
具体例として、まず、接触度合算出部230は、各対象候補物体C(i)についての重複領域Ov(i)(=A(i)∩G)を算出する。重複領域Ov(i)は、占有領域A(i)と、注視領域Gとが重複している領域を示し、占有領域A(i)と、注視領域Gとが重複している領域を囲む矩形領域であってもよい。いずれの領域も、2次元の領域に限られず、3次元の領域であってもよい。各領域が3次元の領域である場合、接触度合算出部230は、重複領域を求める際に各領域に対応する立体同士が重複しているか否かを判定する。以下、各領域は2次元であるものとし、関数Gfを注視領域Gにおいて視界映像が含む各画素におけるユーザの注視の度合を示す関数とする。即ち、関数Gfは注視分布を示す関数であり、関数Gf(x,y)は座標(x,y)に対応する画素におけるユーザの注視の度合を示すものとする。関数Gf(x,y)は、具体例として、注視領域Gの中心地点における関数値が最も高く、注視領域Gの端に向かって関数値が次第に小さくなる関数である。なお、重複領域Ov(i)の面積が0である場合、重複領域Ov(i)に対応する対象候補物体C(i)については以下のステップの処理を実行しなくてもよい。即ち、接触度合算出部230は、本ステップにおいて注視領域Gに基づいて対象候補物体C(i)を絞りこんでもよい。
次に、接触度合算出部230は、対象候補物体C(i)に対応する重みW(i)を[数1]に示すように算出する。重みW(i)は、重複領域Ov(i)内における関数Gfの積分値を重複領域Ov(i)内の画素の数で除すことにより算出される。
Figure 0007254262000001
(ステップS302)
接触度合算出部230は、作業用物体と各対象候補物体との距離に対応する値を算出する。
具体例として、接触度合算出部230は、[数2]に示すように、距離に対応する値として、距離を示す距離値の逆数d(i)を算出する。本例において、接触度合算出部230は、作業用物体と対象候補物体C(i)との距離として作業用物体の重心uと重心go(i)との距離を算出し、算出した距離値の逆数d(i)を算出する。
Figure 0007254262000002
(ステップS303)
接触度合算出部230は接触の度合を定量化したスコアを算出する。
接触度合算出部230は、具体例として、重みW(i)と、距離値の逆数d(i)とを用いて、対象候補物体C(i)に対応するスコアS(i)(=W(i)・d(i))を算出する。スコアS(i)は、対象候補物体C(i)がユーザの作業対象である確からしさを示す指標である。スコアS(i)の値が大きいほど、対象候補物体C(i)がユーザの作業対象である可能性が高い。
(ステップS304)
接触度合算出部230は、求めたスコアを含む出力情報を出力する。接触度合算出部230は、対応するスコアSに応じて、降順に対象候補物体を並べ替え、各対象候補物体と各対象候補物体に対応するスコアとを紐づけて出力してもよい。接触度合算出部230は、所定の基準値以上のスコアのみを出力してもよい。
以下、接触度合算出部230が出力する出力情報は、対象候補物体の属性情報と、対象候補物体に対応するスコアとを含むものとする。出力情報は、対象物体の占有領域の情報を含んでもよい。占有領域の情報は、具体例として、占有領域を構成する位置座標の集合を示す情報である。
(1)距離以外に基づいて接触度合算出部230が接触指標を求める場合の処理フローの具体例も、図5に示す通りである。以下、(1)距離における処理フローとの差異を主に説明する。
(2)重複領域
以下、接触度合算出部230が重複領域に基づいて接触指標を求める具体例を説明する。接触度合算出部230は、対象候補物体に対応する占有領域と、作業用物体に対応する占有領域とが重複する領域が大きいほど、対象候補物体に対応するスコアの値が大きくなるようスコアを算出する。
図6は、接触度合算出部230の処理の様子の具体例を示している。本図は図4と同様である。占有領域Uは、作業用物体である手に対応する占有領域である。
(ステップS301)
接触度合算出部230は、各対象候補物体C(i)に対応する占有領域A(i)を算出する。
(ステップS302)
接触度合算出部230は、占有領域A(i)と占有領域Uとが重複する領域の大きさを算出する。
具体例として、接触度合算出部230は、占有領域A(i)の面積に対する、占有領域A(i)と占有領域Uとが重複する領域の面積の割合A1(i)(=|A(i)∩U|/|A(i)|)を算出する。
(ステップS303)
接触度合算出部230はスコアを算出する。
接触度合算出部230は、具体例として、割合A1(i)に基づいて、スコアS(i)(=W(i)・A1(i))を算出する。
なお、接触度合算出部230は、占有領域A(i)と占有領域Uとが重複する領域(A(i)∩U)の代わりに、占有領域A(i)と注視領域Gと占有領域Uとが重複する領域((A(i)∩G)∩U)に基づいて割合A1(i)を算出してもよい。
(3)距離及び方向その1
以下、接触度合算出部230が距離及び方向に基づいて接触指標を求める具体例を説明する。接触度合算出部230は、(1)距離における特徴を有するスコアであって、対象候補物体に対する作業用物体の方向と、作業用物体の方向とが近いほど、対象候補物体に対応するスコアの値が大きくなるようスコアを算出する。
図7は、接触度合算出部230の処理の様子の具体例を示している。本図は図4と同様である。ベクトルpは、作業用物体の位置に対する対象候補物体C(i)の相対的な位置を表す。ベクトルpの方向は、具体例として、重心uを起点とし、重心go(i)を終点とする方向である。ベクトルhは作業用物体の方向を表す単位ベクトルである。接触度合算出部230は、具体例として、ベクトルhの方向を、手検出部213が検出したユーザの手を示す領域に対して主成分分析を実行することによって得られた第一固有ベクトルの方向としてもよく、撮像画像又は視界映像から検出されたユーザの手指の関節位置を示す情報を利用して求めた方向としてもよい。作業用物体が道具である場合において、接触度合算出部230は、予め定義されている方向であって、ユーザが道具を使用する際の道具の方向を利用してベクトルhの方向を算出してもよい。
(ステップS301)
接触度合算出部230は、(1)距離におけるステップS301と同様の処理を実行する。
(ステップS302)
接触度合算出部230は、距離及び方向それぞれに対応する値を算出する。
具体例として、まず、接触度合算出部230は、(1)距離におけるステップS302と同様に距離に対応する値を算出する。
次に、接触度合算出部230は、作業用物体の方向を利用することにより、対象候補物体と作業用物体との接触の度合を定量化する。具体例として、接触度合算出部230は、当該接触の度合として、ベクトルpと、ベクトルhとの差を示す内積Δを[数3]に示すように算出する。本例において、作業用物体の方向が対象候補物体C(i)の重心を指す方向に近いほど、接触の度合である内積Δ(i)の値が大きい。また、内積Δ(i)は、作業用物体が対象候補物体C(i)の方向を向いている程度を表す。
Figure 0007254262000003
(ステップS303)
接触度合算出部230はスコアを算出する。
接触度合算出部230は、具体例として、重みW(i)と、距離値の逆数d(i)と、内積Δ(i)とに基づいてスコアS(i)(=W(i)・f(d(i),Δ(i)))を算出する。ここで、関数fは、入力変数である距離値の逆数d(i)と内積Δ(i)とを関連付ける関数である。関数fは、入力変数を線形結合する関数であってもよく、入力変数を非線形に関連付ける関数であってもよい。
(4)重複領域及び方向
以下、接触度合算出部230が重複領域及び方向に基づいて接触指標を求める具体例を説明する。接触度合算出部230は、(2)重複領域におけるスコアが有する特徴と、(3)距離及び方向において示したように方向に基づいて算出したスコアが有する特徴とを有するスコアを算出する。
図8は、接触度合算出部230の処理の様子の具体例を示している。本図は図4と図6と図7と同様である。
(ステップS301)
接触度合算出部230は、(1)距離におけるステップS301と同様の処理を実行する。
(ステップS302)
接触度合算出部230は、(2)重複領域におけるステップS302と同様に重複する領域の大きさを算出する。また、接触度合算出部230は、(3)距離及び方向におけるステップS302と同様に、作業用物体の方向を利用することにより、対象候補物体と作業用物体との接触の度合を定量化する。
以下、本ステップにおいて、接触度合算出部230は、割合A1(i)と内積Δ(i)を算出したものとする。
(ステップS303)
接触度合算出部230はスコアを算出する。
接触度合算出部230は、具体例として、割合A1(i)と内積Δ(i)とに基づいて、スコアS(i)(=W(i)・f(A1(i),Δ(i)))を算出する。ここで、関数fは前述の関数fと同様である。
(5)距離及び方向その2
接触度合算出部230は、多次元のベクトルをスコアとして求めてもよい。具体例として、物体C(i)に対するスコアS(i)は、以下に示す2次元ベクトルである。
S(i)=[W(C(i)),f(d(i),Δ(i))]
ここで、W(C(i))は注視領域による重みを示し、f(d(i),Δ(i))は物体C(i)に対する作業用物体の位置関係を代表する計算値を示す。このとき、接触度合算出部230は、W(C(i))を、上記(1)から(4)に示す計算方法によって求めてもよく、以下に示す計算方法によって求めてもよい。
W(C(i))=|C(i)[x,y]-g(x,y)|
ここで、C(i)[x,y]は物体C(i)の位置を表し、g(x,y)は視点位置を表す。即ち、この式によって求まる重みは、各物体の位置と視点位置との距離に従う重みである。
(ステップS104:作業推定処理)
作業推定部250は、道具検出部212が出力した道具を示す情報又は手検出部213が出力したユーザの手を示す情報と、接触度合算出部230が出力したスコアとを用いて、ユーザが行っている作業を推定する。作業推定部250は、具体例として、(i)ルールベースの推定手法と(ii)機械学習ベースの推定手法とのいずれかを用いてユーザが行っている作業を推定する。以下、それぞれの推定手法について具体的に説明する。なお、作業用物体がユーザの手であり、対象候補物体である物体Aと物体Bと物体Cとが入力され、物体Aのスコアが最大であるものとする。
(i)ルールベースの推定手法
各作業用物体と各対象候補物体と組み合わせに対応する作業を示す作業ラベルがあらかじめ定義されている場合を考える。この場合において、作業推定部250は、ユーザの「手」と「物体A」との組み合わせに対応する作業ラベルを検索することにより、ユーザの作業を推定してもよい。
また、当該作業ラベルが定義されておらず、入力された対象候補物体とスコアとの全ての組み合わせそれぞれに対して、作業ラベルが1つ予め割り当てられている場合を考える。この場合において、作業推定部250は、入力された全ての対象候補物体と各対象候補物体に対応するスコアとを利用して作業を推定してもよい。
また、作業推定部250は、手と道具との両方が撮像画像内に出現している場合に、当該道具は作業用物体であり、かつ、当該手は作業用物体ではない可能性が高いと判断し、当該道具と当該道具が接触している対象候補物体との組み合わせに対応する作業ラベルを検索することによりユーザの作業を推定してもよい。
(ii)機械学習ベースの推定手法
作業推定部250は、撮像画像に出現した対象候補物体の情報と、対象候補物体に対応するスコアとの組み合わせを、統計的機械学習によって学習した学習済みの識別機に入力することによってユーザの作業を推定する。作業推定部250は、特許文献1に記載の行動認識手法を利用してもよい。
作業推定部250は、対象候補物体の情報と作業用物体の情報とを関連付けたデータを特徴量として求め、学習済モデルを用いて、求めた特徴量に対応する作業又は行動に対応するラベルを推論する。作業推定部250は、具体例として、グラフ構造等によって関連付けた学習データD1を作成し、作成した学習データD1を、Graph Neural Network又はグラフ埋め込み等のグラフ構造を処理することができる識別機であって、統計的機械学習における学習済みの識別機に入力することによりユーザの作業を推定する。
図9は、グラフを用いて作成した学習データD1の具体例を示している。本例において、グラフのノードは物体を表すラベルであり、作業用物体を表すノードと対象候補物体を表すノードとの間のエッジの値は接触度合算出部230が算出したスコアの値であり、対象候補物体間のノードの値は任意の固定値cである。なお、ノードは、物体を示すラベルのほか、視界映像における物体の位置を示す情報と、物体に対応する占有領域の大きさ等の情報を含んでもよい。また、ユーザの手をノードにより表現する場合、ノードは手の位置及び方向の情報を含んでもよい。手指の関節を示す情報が取得できる場合、ノードは関節を示す情報を含んでもよい。ユーザが使用する道具をノードにより表現する場合、ノードは、道具の種類に加え、道具の位置と方向と占有領域とを示す情報を含んでもよい。
さらに、作業推定装置200が撮像装置300及び視線計測装置350から時系列データを取得しているとき、作業推定部250は、各時系列データにおける各時刻のデータに対応する物体の検出結果又は物体の位置関係を用いてデータを作成し、作成したデータの時系列における順序を考慮した機械学習手法を採用してもよい。作業推定部250は、具体例として、Temporal Convolutional Networkを用いてもよい。
一般的に、機械学習ベースの推定手法を利用する場合、学習データを収集する処理と学習モデルを生成する処理とが必要である。学習データは、学習モデルを生成することに用いられる学習用のデータである。図10は、これらの処理を実行するための学習装置400の構成例を示している。学習装置400は、学習データ取得部410と、学習モデル生成部420と、学習モデル記憶部430とを備える。学習モデル記憶部430は、学習装置400の外部にあってもよい。学習装置400は、作業推定装置200と一体的に構成されてもよい。学習装置400のハードウェア構成は計算機100のハードウェア構成と同様であってもよい。
学習データ取得部410は、学習データD1を学習データとして取得する。学習データD1は作業推定部250に入力され得るデータとする。当該データは、作業推定部250がユーザの作業を推定する際に用いることもできるデータを含む。
学習モデル生成部420は、学習データ取得部410が取得したデータを処理することができる学習モデルを構築し、構築した学習モデルに基づいて学習を実行することにより学習済みモデルを生成する。学習モデルは機械学習モデルとも呼ばれる。
学習モデル記憶部430は、学習モデル生成部420が生成した学習済みモデルを記憶する。
図11は、学習処理のフローの一例を示している。本図を参照して学習装置400の処理を説明する。
(ステップS501)
学習データ取得部410は、作業推定部250に入力され得るデータを学習データとして取得し、取得した学習データを、作業対象となり得る物体を示す情報と、作業用物体を示す情報と、作業対象となり得る物体を示す情報と作業用物体とを示す情報とを関連付けた形式の情報とを示すデータとして表現する。学習データは、注視領域を示す情報と、物体に対応するスコアを示す情報との少なくともいずれかを含む。学習データ取得部410は、複数の情報を関連付ける際に、具体例として、各物体に対応する位置関係を示す値を要素としたデータを用いてもよく、図9に示すようなグラフ構造を用いてもよい。学習データ取得部410は、生成したデータに対して作業行動を表すラベルを付与する。
(ステップS502)
学習モデル生成部420は、学習データ取得部410が取得した学習データを処理することによって学習モデルを生成する。
具体例として、学習データがグラフ構造を示す場合を考える。この場合において、学習データ取得部410は、グラフ構造を処理することができるGraph Neural Network等の機械学習モデルを学習モデルとして利用してもよく、グラフ埋め込み手法を利用して学習データをベクトル化し、その後、ベクトル化した学習データを処理することができるモデルを利用してもよい。学習モデル生成部420は、時系列データの各時点におけるデータの関連性も考慮して学習する場合、具体例として、Temporal Convolutional Network等のモデルを活用してもよい。
(ステップS503)
学習モデル記憶部430は、学習モデル生成部420が生成した学習済みである学習モデルを記憶する。
(ステップS105:推定結果記憶処理)
推定結果記憶部260は、作業推定部250の出力を記憶する。
***実施の形態1の効果の説明***
以上のように、本実施の形態によれば、ユーザ視点の映像内に存在する作業用物体と各対象候補物体との組み合わせに加えて、ユーザの注視領域を利用して作業対象の候補を絞り込み、絞り込んだ候補の中でユーザが手又は道具により接触している物体に対応するスコアを求め、求めたスコアに基づいてユーザの作業を推定する。具体的には、接触度合算出部230は、ステップS301からステップS304までの処理によって、注視領域Gに基づいて対象候補物体を絞りこみ、その後、絞り込んだ候補の物体に対する接触を検出するという2段階の処理を実行する。そのため、本実施の形態によれば、ユーザが行う作業を比較的高い精度で推定できるだけでなく、作業用物体によるオクルージョンを防止することができる。従って、本実施の形態によれば、ユーザの作業の推定に対する頑健性が高まる。
また、保守点検の対象である機器が作業対象の物体である場合、作業対象の候補である複数の点検箇所が互いに近接していることが多い。そのため、物体の組み合わせのみによって、特定した箇所に対応する点検作業を推定することは困難である。本実施の形態によれば、注視領域によって対象候補を絞り込み、その後、手又は道具と対象候補物体との接触を検出する。そのため、対象候補物体が互いに近接していたとしても、ユーザの作業の対象である物体に対するユーザの作業を比較的高い精度で推定することができる。
***他の構成***
<変形例1>
作業推定部250は、スコアだけでなく他の情報を活用して作業を推定してもよい。他の情報は、具体例として、対象候補物体各々の属性情報と、作業用物体の属性情報との少なくともいずれかである。ここで、属性情報は、具体例として、物体の位置情報と、スケール情報と、物体の形状と、後述の検出確信度との少なくともいずれかである。
また、他の情報が属性情報である場合について説明する。学習データ取得部410は、対象候補物体各々の属性情報と、作業用物体の属性情報とを含む情報を学習データとして取得する。学習モデル生成部420は、対象候補物体各々の属性情報及び作業用物体の属性情報を含む学習データを処理することにより学習モデルを生成する。
<変形例2>
接触度合算出部230は、ユーザの手以外の部位と対象物体との接触の度合に基づいてスコアを算出してもよい。
<変形例3>
接触度合算出部230は、道具とユーザの手との接触の度合を考慮してスコアを算出してもよい。
本変形例によれば、視界映像に映っているものの放置されている道具を、ユーザが使用している道具であると作業推定装置200が誤って認識することを防ぐことができる。
<変形例4>
作業推定部250は、ユーザが複数の作業用物体を用いて作業している場合におけるユーザの作業を推定してもよい。
本変形例によれば、作業推定部250は、ユーザが両手を用いて作業している場合においても、ユーザの作業を適切に推定することができる。
<変形例5>
図12は、本変形例に係る作業推定システム90の構成例と作業推定装置200のソフトウェア構成例とを示している。以下、実施の形態1と本変形例との差異を主に説明する。
図12に示すように、作業推定装置200は、実施の形態1に係る作業推定装置200が備える構成要素に加えて作業行動情報計算部240を備える。
物体検出部210は、少なくとも1つの対象候補物体が含む各対象候補物体について、検出確信度を求める。検出確信度は、検出された対象候補物体の推定の正確さの度合を示す値であり、検出確信度が高いほど、検出確信度に対応する対象候補物体の推定が正確である。検出確信度は、具体例として、SSD(Single Shot Multibox Detector)又はFaster R-CNN(Convolutional Neural Network)等の一般的な物体検知手法により算出された物体の分類確率である。
作業行動情報計算部240は、接触度合を用いて検出確信度を更新することによって更新確信度を求める。作業行動情報計算部240は、対象物体スコア更新部とも呼ばれる。更新確信度は接触度合に基づく指標である。
作業推定部250は、物体検出部210の出力と、作業行動情報計算部240の出力とに基づいてユーザの作業を推定する。
図13は、作業推定装置200の動作の一例を示すフローチャートである。本図を参照して作業推定装置200の動作を説明する。
(ステップS101:物体検出処理)
本ステップにおける処理は実施の形態1に係るステップS101における処理と同様である。ただし、物体検出部210は、検出した各対象候補物体に対応する情報として、検出確信度を含む情報を求める。
(ステップS111:作業行動情報計算処理)
作業行動情報計算部240は、候補物体検出部215が出力した各対象候補物体に対応する検出確信度を、接触度合算出部230が出力したスコアであって、各対象候補物体に紐づくスコアを用いて更新することにより更新確信度を算出し、算出した更新確信度をスコアとして出力する。
本ステップの処理により、作業推定装置200は、作業対象である物体にユーザが接触している度合だけでなく、候補物体検出部215が算出した検出確信度も考慮してユーザの作業を推定することができる。作業行動情報計算部240は、検出確信度と、接触度合算出部230が算出した対象候補物体に紐づくスコアとの両方を保持してもよい。また、作業行動情報計算部240は、更新確信度を算出する際に、各物体の位置情報と各物体のスケール情報との少なくともいずれかを用いてもよく、各物体に関するその他の情報を用いてもよい。
(ステップS104:作業推定処理)
本ステップにおける処理は実施の形態1に係るステップS104における処理と同様である。ただし、作業推定部250は、接触度合算出部230が出力したスコアの代わりに作業行動情報計算部240が出力したスコアを用いる。
<変形例6>
図14は、本変形例に係る作業推定装置200のハードウェア構成例を示している。
作業推定装置200は、本図に示すように、演算装置101と主記憶装置102と補助記憶装置103との少なくとも1つに代えて、処理回路108を備える。
処理回路108は、作業推定装置200が備える各部の少なくとも一部を実現するハードウェアである。
処理回路108は、専用のハードウェアであってもよく、また、主記憶装置102に格納されるプログラムを実行するプロセッサであってもよい。
処理回路108が専用のハードウェアである場合、処理回路108は、具体例として、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(ASICはApplication Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)又はこれらの組み合わせである。
作業推定装置200は、処理回路108を代替する複数の処理回路を備えてもよい。複数の処理回路は、処理回路108の役割を分担する。
作業推定装置200において、一部の機能が専用のハードウェアによって実現されて、残りの機能がソフトウェア又はファームウェアによって実現されてもよい。
処理回路108は、具体例として、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせにより実現される。
演算装置101と主記憶装置102と補助記憶装置103と処理回路108とを、総称して「プロセッシングサーキットリー」という。つまり、作業推定装置200の各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。本明細書に記載されている他の装置についても、本変形例と同様であってもよい。
***他の実施の形態***
実施の形態1について説明したが、本実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、本実施の形態を部分的に実施しても構わない。その他、本実施の形態は、必要に応じて種々の変更がなされても構わず、全体としてあるいは部分的に、どのように組み合わせて実施されても構わない。
なお、前述した実施の形態は、本質的に好ましい例示であって、本開示と、その適用物と、用途の範囲とを制限することを意図するものではない。フローチャート等を用いて説明した手順は、適宜変更されてもよい。
90 作業推定システム、100 計算機、101 演算装置、102 主記憶装置、103 補助記憶装置、104 第1インタフェース、105 第2インタフェース、108 処理回路、200 作業推定装置、210 物体検出部、211 作業用物体検出部、212 道具検出部、213 手検出部、215 候補物体検出部、220 注視領域推定部、230 接触度合算出部、240 作業行動情報計算部、250 作業推定部、260 推定結果記憶部、300 撮像装置、350 視線計測装置、400 学習装置、410 学習データ取得部、420 学習モデル生成部、430 学習モデル記憶部、D1 学習データ。

Claims (11)

  1. ユーザの視線を示す情報を用いて前記ユーザが注視する領域である注視領域を推定する注視領域推定部と、
    前記ユーザが使用している作業用物体と、前記ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、前記作業用物体と、前記少なくとも1つの対象候補物体とを検出する物体検出部と、
    前記注視領域に基づいて、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出する接触度合算出部と、
    前記作業用物体と前記接触度合とに基づいて前記ユーザの作業を推定する作業推定部と
    を備える作業推定装置であって、
    前記物体検出部は、前記少なくとも1つの対象候補物体が含む各対象候補物体について、前記ユーザの作業対象であると推定される度合を示す検出確信度を求め、
    前記作業推定装置は、さらに、
    前記接触度合を用いて前記検出確信度を更新することによって更新確信度を求める作業行動情報計算部を備え、
    前記作業推定部は、前記更新確信度を用いて前記ユーザの作業を推定する作業推定装置
  2. 前記接触度合算出部は、前記注視領域に基づいて前記少なくとも1つの対象候補物体が含む各対象候補物体に対応する重みを算出し、算出した重みを用いて前記接触度合を求める請求項に記載の作業推定装置。
  3. 前記注視領域推定部は、前記ユーザの視点の位置を示す時系列データを用いて前記注視領域を推定する請求項1又は2に記載の作業推定装置。
  4. 前記接触度合算出部は、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体との距離に基づいて前記接触度合を求める請求項1からのいずれか1項に記載の作業推定装置。
  5. 前記接触度合算出部は、前記作業用物体の配置と前記少なくとも1つの対象候補物体が含む各対象候補物体の配置とに基づいて前記接触度合を求める請求項1からのいずれか1項に記載の作業推定装置。
  6. 前記接触度合算出部は、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが重複する領域に基づいて前記接触度合を求める請求項1からのいずれか1項に記載の作業推定装置。
  7. 前記作業用物体は、前記ユーザの手又は前記ユーザが使用している道具である請求項1からのいずれか1項に記載の作業推定装置。
  8. 前記作業推定部は、ルールベースの推定手法により前記ユーザの作業を推定する請求項1からのいずれか1項に記載の作業推定装置。
  9. 前記作業推定部は、学習モデルを用いて前記ユーザの作業を推定する請求項1からのいずれか1項に記載の作業推定装置。
  10. 注視領域推定部が、ユーザの視線を示す情報を用いて前記ユーザが注視する領域である注視領域を推定し、
    物体検出部が、前記ユーザが使用している作業用物体と、前記ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、前記作業用物体と、前記少なくとも1つの対象候補物体とを検出し、
    接触度合算出部が、前記注視領域に基づいて、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出し、
    作業推定部が、前記作業用物体と前記接触度合とに基づいて前記ユーザの作業を推定し、
    前記物体検出部は、前記少なくとも1つの対象候補物体が含む各対象候補物体について、前記ユーザの作業対象であると推定される度合を示す検出確信度を求め、
    作業行動情報計算部が、前記接触度合を用いて前記検出確信度を更新することによって更新確信度を求め、
    前記作業推定部は、前記更新確信度を用いて前記ユーザの作業を推定する作業推定方法
  11. ユーザの視線を示す情報を用いて前記ユーザが注視する領域である注視領域を推定する注視領域推定処理と、
    前記ユーザが使用している作業用物体と、前記ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、前記作業用物体と、前記少なくとも1つの対象候補物体とを検出する物体検出処理と、
    前記注視領域に基づいて、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出する接触度合算出処理と、
    前記作業用物体と前記接触度合とに基づいて前記ユーザの作業を推定する作業推定処理とをコンピュータである作業推定装置に実行させる作業推定プログラムであって、
    前記物体検出処理では、前記少なくとも1つの対象候補物体が含む各対象候補物体について、前記ユーザの作業対象であると推定される度合を示す検出確信度を求め、
    前記作業推定装置に、さらに、
    前記接触度合を用いて前記検出確信度を更新することによって更新確信度を求める作業行動情報計算処理を実行させ、
    前記作業推定処理では、前記更新確信度を用いて前記ユーザの作業を推定する作業推定プログラム
JP2022577924A 2021-01-28 2021-01-28 作業推定装置、作業推定方法、及び、作業推定プログラム Active JP7254262B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/003099 WO2022162844A1 (ja) 2021-01-28 2021-01-28 作業推定装置、作業推定方法、及び、作業推定プログラム

Publications (3)

Publication Number Publication Date
JPWO2022162844A1 JPWO2022162844A1 (ja) 2022-08-04
JP7254262B2 true JP7254262B2 (ja) 2023-04-07
JPWO2022162844A5 JPWO2022162844A5 (ja) 2023-04-17

Family

ID=82652752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022577924A Active JP7254262B2 (ja) 2021-01-28 2021-01-28 作業推定装置、作業推定方法、及び、作業推定プログラム

Country Status (5)

Country Link
US (1) US20230326251A1 (ja)
JP (1) JP7254262B2 (ja)
CN (1) CN116745808A (ja)
DE (1) DE112021006095T5 (ja)
WO (1) WO2022162844A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7483179B1 (ja) 2023-06-20 2024-05-14 三菱電機株式会社 推定装置、学習装置、推定方法及び推定プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017187694A1 (ja) 2016-04-28 2017-11-02 シャープ株式会社 注目領域画像生成装置
WO2017222070A1 (ja) 2016-06-23 2017-12-28 Necソリューションイノベータ株式会社 作業分析装置、作業分析方法、及びコンピュータ読み取り可能な記録媒体
JP2019144861A (ja) 2018-02-21 2019-08-29 中国電力株式会社 安全判定装置、安全判定システム、安全判定方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6103765B2 (ja) 2013-06-28 2017-03-29 Kddi株式会社 行動認識装置、方法及びプログラム並びに認識器構築装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017187694A1 (ja) 2016-04-28 2017-11-02 シャープ株式会社 注目領域画像生成装置
WO2017222070A1 (ja) 2016-06-23 2017-12-28 Necソリューションイノベータ株式会社 作業分析装置、作業分析方法、及びコンピュータ読み取り可能な記録媒体
JP2019144861A (ja) 2018-02-21 2019-08-29 中国電力株式会社 安全判定装置、安全判定システム、安全判定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7483179B1 (ja) 2023-06-20 2024-05-14 三菱電機株式会社 推定装置、学習装置、推定方法及び推定プログラム

Also Published As

Publication number Publication date
US20230326251A1 (en) 2023-10-12
WO2022162844A1 (ja) 2022-08-04
DE112021006095T5 (de) 2023-08-31
JPWO2022162844A1 (ja) 2022-08-04
CN116745808A (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
Zhang et al. Ergonomic posture recognition using 3D view-invariant features from single ordinary camera
US10497111B2 (en) Information processing apparatus and method of selecting viewpoint for measuring object, and measuring system
JP6045549B2 (ja) 感情および行動を認識するための方法およびシステム
US11763603B2 (en) Physical activity quantification and monitoring
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
KR20130025906A (ko) 얼굴 특징점 위치 보정 장치, 얼굴 특징점 위치 보정 방법, 및 얼굴 특징점 위치 보정 프로그램을 기록한 컴퓨터 판독가능 기록 매체
US10565791B2 (en) Tracking rigged polygon-mesh models of articulated objects
JP2016091108A (ja) 人体部位検出システムおよび人体部位検出方法
JP6487642B2 (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
JP2021111114A (ja) 学習データ生成プログラム、学習データ生成方法及び推定装置
JP6326847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN111488775B (zh) 注视度判断装置及方法
US20210338109A1 (en) Fatigue determination device and fatigue determination method
CN113728394A (zh) 身体活动执行和训练的评分度量
CN114641799A (zh) 对象检测设备、方法和系统
CN110717385A (zh) 一种动态手势识别方法
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
CN111126268A (zh) 关键点检测模型训练方法、装置、电子设备及存储介质
JP6786015B1 (ja) 動作分析システムおよび動作分析プログラム
JP2019120577A (ja) 位置推定装置、位置推定方法及び位置推定用コンピュータプログラム
JP6892155B2 (ja) 人体部位推定装置、人体部位推定方法、及びプログラム
US10755439B2 (en) Estimation device, estimation method and storage medium
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
JP2021047538A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2016162072A (ja) 特徴量抽出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230328

R150 Certificate of patent or registration of utility model

Ref document number: 7254262

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150