JP7254262B2 - 作業推定装置、作業推定方法、及び、作業推定プログラム - Google Patents
作業推定装置、作業推定方法、及び、作業推定プログラム Download PDFInfo
- Publication number
- JP7254262B2 JP7254262B2 JP2022577924A JP2022577924A JP7254262B2 JP 7254262 B2 JP7254262 B2 JP 7254262B2 JP 2022577924 A JP2022577924 A JP 2022577924A JP 2022577924 A JP2022577924 A JP 2022577924A JP 7254262 B2 JP7254262 B2 JP 7254262B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- user
- degree
- contact
- target candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Description
特許文献1は、ユーザの一人称視点映像において、対象物の検出結果と注意マップとを利用してユーザの注目する注目物体を検出し、注目物体と非注目物体との情報の組み合わせに基づいて行動認識を行うことによって、ユーザの行動の認識精度を向上させる技術を開示している。
ユーザの視線を示す情報を用いて前記ユーザが注視する領域である注視領域を推定する注視領域推定部と、
前記ユーザが使用している作業用物体と、前記ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、前記作業用物体と、前記少なくとも1つの対象候補物体とを検出する物体検出部と、
前記注視領域に基づいて、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出する接触度合算出部と、
前記作業用物体と前記接触度合とに基づいて前記ユーザの作業を推定する作業推定部と
を備える。
以下、本実施の形態について、図面を参照しながら詳細に説明する。
図1は、作業推定システム90の構成例と、作業推定装置200のソフトウェア構成例とを示している。作業推定システム90は、作業推定装置200と、撮像装置300と、視線計測装置350とを備える。本図中の黒い丸については、黒い丸に接している線が互いに接続していることを示す。複数の線が交差している箇所に黒い丸が示されていない場合、当該複数の線は互いに接していない。
主記憶装置102及び補助記憶装置103の機能は、他の記憶装置によって実現されてもよい。
作業推定装置200の動作手順は、作業推定方法に相当する。また、作業推定装置200の動作を実現するプログラムは、作業推定プログラムに相当する。
物体検出部210は、撮像装置300から撮像画像を受信し、受信した撮像画像に映っている作業用物体と対象候補物体とを検出し、検出した各対象候補物体に対応する情報を求める。当該情報は、具体例として、各対象候補物体の属性を示す属性情報と、各対象候補物体に対応する占有領域とを示す情報を含む。占有領域は、撮像画像において各物体が占有している領域に対応する領域であり、各物体を包含する矩形の領域であってもよく、各物体を表示する画素の集合であってもよい。物体検出部210が対象候補物体を検出する手法は、対象候補物体に付与されたマーカーを利用する手法であってもよく、事前に学習を済ませたモデルを用いた機械学習ベースの手法であってもよい。また、物体検出部210は作業用物体に対応する占有領域を求める。
注視領域推定部220は、視線計測装置350から視線計測情報を受信し、受信した視線計測情報が示す視点位置を用いて注視領域を推定する。
接触度合算出部230は、物体検出部210が検出した作業用物体及び各対象候補物体と、注視領域推定部220が推定した注視領域とに基づいて接触指標を算出する。接触指標は、作業用物体と各対象候補物体との接触の度合を定量化したものである。
以下、接触度合算出部230が距離に基づいて接触指標を求める具体例を説明する。接触度合算出部230は、対象候補物体に対応する占有領域と、注視領域とが重複している領域が大きくかつ重複している注視領域への注視の度合が大きいほど、また、作業用物体と対象候補物体とが近いほど、対象候補物体に対応するスコアの値が大きくなるようスコアを算出する。スコアは接触度合を示す。
本図において、占有領域A(i)(i=1,2,3)は、対象候補物体C(i)に対応する占有領域であり、対象候補物体C(i)を囲む矩形領域である。重心go(i)は対象候補物体C(i)の重心である。作業用物体は手であり、重心uは手の重心位置である。d(i)は、重心uから重心go(i)までの距離値の逆数である。
接触度合算出部230は、注視領域Gを示す情報を用いて、各対象候補物体C(i)(i=1,2,…)に対する重みを算出する。
具体例として、まず、接触度合算出部230は、各対象候補物体C(i)についての重複領域Ov(i)(=A(i)∩G)を算出する。重複領域Ov(i)は、占有領域A(i)と、注視領域Gとが重複している領域を示し、占有領域A(i)と、注視領域Gとが重複している領域を囲む矩形領域であってもよい。いずれの領域も、2次元の領域に限られず、3次元の領域であってもよい。各領域が3次元の領域である場合、接触度合算出部230は、重複領域を求める際に各領域に対応する立体同士が重複しているか否かを判定する。以下、各領域は2次元であるものとし、関数Gfを注視領域Gにおいて視界映像が含む各画素におけるユーザの注視の度合を示す関数とする。即ち、関数Gfは注視分布を示す関数であり、関数Gf(x,y)は座標(x,y)に対応する画素におけるユーザの注視の度合を示すものとする。関数Gf(x,y)は、具体例として、注視領域Gの中心地点における関数値が最も高く、注視領域Gの端に向かって関数値が次第に小さくなる関数である。なお、重複領域Ov(i)の面積が0である場合、重複領域Ov(i)に対応する対象候補物体C(i)については以下のステップの処理を実行しなくてもよい。即ち、接触度合算出部230は、本ステップにおいて注視領域Gに基づいて対象候補物体C(i)を絞りこんでもよい。
次に、接触度合算出部230は、対象候補物体C(i)に対応する重みW(i)を[数1]に示すように算出する。重みW(i)は、重複領域Ov(i)内における関数Gfの積分値を重複領域Ov(i)内の画素の数で除すことにより算出される。
接触度合算出部230は、作業用物体と各対象候補物体との距離に対応する値を算出する。
具体例として、接触度合算出部230は、[数2]に示すように、距離に対応する値として、距離を示す距離値の逆数d(i)を算出する。本例において、接触度合算出部230は、作業用物体と対象候補物体C(i)との距離として作業用物体の重心uと重心go(i)との距離を算出し、算出した距離値の逆数d(i)を算出する。
接触度合算出部230は接触の度合を定量化したスコアを算出する。
接触度合算出部230は、具体例として、重みW(i)と、距離値の逆数d(i)とを用いて、対象候補物体C(i)に対応するスコアS(i)(=W(i)・d(i))を算出する。スコアS(i)は、対象候補物体C(i)がユーザの作業対象である確からしさを示す指標である。スコアS(i)の値が大きいほど、対象候補物体C(i)がユーザの作業対象である可能性が高い。
接触度合算出部230は、求めたスコアを含む出力情報を出力する。接触度合算出部230は、対応するスコアSに応じて、降順に対象候補物体を並べ替え、各対象候補物体と各対象候補物体に対応するスコアとを紐づけて出力してもよい。接触度合算出部230は、所定の基準値以上のスコアのみを出力してもよい。
以下、接触度合算出部230が出力する出力情報は、対象候補物体の属性情報と、対象候補物体に対応するスコアとを含むものとする。出力情報は、対象物体の占有領域の情報を含んでもよい。占有領域の情報は、具体例として、占有領域を構成する位置座標の集合を示す情報である。
以下、接触度合算出部230が重複領域に基づいて接触指標を求める具体例を説明する。接触度合算出部230は、対象候補物体に対応する占有領域と、作業用物体に対応する占有領域とが重複する領域が大きいほど、対象候補物体に対応するスコアの値が大きくなるようスコアを算出する。
接触度合算出部230は、各対象候補物体C(i)に対応する占有領域A(i)を算出する。
接触度合算出部230は、占有領域A(i)と占有領域Uとが重複する領域の大きさを算出する。
具体例として、接触度合算出部230は、占有領域A(i)の面積に対する、占有領域A(i)と占有領域Uとが重複する領域の面積の割合A1(i)(=|A(i)∩U|/|A(i)|)を算出する。
接触度合算出部230はスコアを算出する。
接触度合算出部230は、具体例として、割合A1(i)に基づいて、スコアS(i)(=W(i)・A1(i))を算出する。
なお、接触度合算出部230は、占有領域A(i)と占有領域Uとが重複する領域(A(i)∩U)の代わりに、占有領域A(i)と注視領域Gと占有領域Uとが重複する領域((A(i)∩G)∩U)に基づいて割合A1(i)を算出してもよい。
以下、接触度合算出部230が距離及び方向に基づいて接触指標を求める具体例を説明する。接触度合算出部230は、(1)距離における特徴を有するスコアであって、対象候補物体に対する作業用物体の方向と、作業用物体の方向とが近いほど、対象候補物体に対応するスコアの値が大きくなるようスコアを算出する。
接触度合算出部230は、(1)距離におけるステップS301と同様の処理を実行する。
接触度合算出部230は、距離及び方向それぞれに対応する値を算出する。
具体例として、まず、接触度合算出部230は、(1)距離におけるステップS302と同様に距離に対応する値を算出する。
次に、接触度合算出部230は、作業用物体の方向を利用することにより、対象候補物体と作業用物体との接触の度合を定量化する。具体例として、接触度合算出部230は、当該接触の度合として、ベクトルpと、ベクトルhとの差を示す内積Δを[数3]に示すように算出する。本例において、作業用物体の方向が対象候補物体C(i)の重心を指す方向に近いほど、接触の度合である内積Δ(i)の値が大きい。また、内積Δ(i)は、作業用物体が対象候補物体C(i)の方向を向いている程度を表す。
接触度合算出部230はスコアを算出する。
接触度合算出部230は、具体例として、重みW(i)と、距離値の逆数d(i)と、内積Δ(i)とに基づいてスコアS(i)(=W(i)・f(d(i),Δ(i)))を算出する。ここで、関数fは、入力変数である距離値の逆数d(i)と内積Δ(i)とを関連付ける関数である。関数fは、入力変数を線形結合する関数であってもよく、入力変数を非線形に関連付ける関数であってもよい。
以下、接触度合算出部230が重複領域及び方向に基づいて接触指標を求める具体例を説明する。接触度合算出部230は、(2)重複領域におけるスコアが有する特徴と、(3)距離及び方向において示したように方向に基づいて算出したスコアが有する特徴とを有するスコアを算出する。
接触度合算出部230は、(1)距離におけるステップS301と同様の処理を実行する。
接触度合算出部230は、(2)重複領域におけるステップS302と同様に重複する領域の大きさを算出する。また、接触度合算出部230は、(3)距離及び方向におけるステップS302と同様に、作業用物体の方向を利用することにより、対象候補物体と作業用物体との接触の度合を定量化する。
以下、本ステップにおいて、接触度合算出部230は、割合A1(i)と内積Δ(i)を算出したものとする。
接触度合算出部230はスコアを算出する。
接触度合算出部230は、具体例として、割合A1(i)と内積Δ(i)とに基づいて、スコアS(i)(=W(i)・f(A1(i),Δ(i)))を算出する。ここで、関数fは前述の関数fと同様である。
接触度合算出部230は、多次元のベクトルをスコアとして求めてもよい。具体例として、物体C(i)に対するスコアS(i)は、以下に示す2次元ベクトルである。
S(i)=[W(C(i)),f(d(i),Δ(i))]
ここで、W(C(i))は注視領域による重みを示し、f(d(i),Δ(i))は物体C(i)に対する作業用物体の位置関係を代表する計算値を示す。このとき、接触度合算出部230は、W(C(i))を、上記(1)から(4)に示す計算方法によって求めてもよく、以下に示す計算方法によって求めてもよい。
W(C(i))=|C(i)[x,y]-g(x,y)|
ここで、C(i)[x,y]は物体C(i)の位置を表し、g(x,y)は視点位置を表す。即ち、この式によって求まる重みは、各物体の位置と視点位置との距離に従う重みである。
作業推定部250は、道具検出部212が出力した道具を示す情報又は手検出部213が出力したユーザの手を示す情報と、接触度合算出部230が出力したスコアとを用いて、ユーザが行っている作業を推定する。作業推定部250は、具体例として、(i)ルールベースの推定手法と(ii)機械学習ベースの推定手法とのいずれかを用いてユーザが行っている作業を推定する。以下、それぞれの推定手法について具体的に説明する。なお、作業用物体がユーザの手であり、対象候補物体である物体Aと物体Bと物体Cとが入力され、物体Aのスコアが最大であるものとする。
各作業用物体と各対象候補物体と組み合わせに対応する作業を示す作業ラベルがあらかじめ定義されている場合を考える。この場合において、作業推定部250は、ユーザの「手」と「物体A」との組み合わせに対応する作業ラベルを検索することにより、ユーザの作業を推定してもよい。
また、当該作業ラベルが定義されておらず、入力された対象候補物体とスコアとの全ての組み合わせそれぞれに対して、作業ラベルが1つ予め割り当てられている場合を考える。この場合において、作業推定部250は、入力された全ての対象候補物体と各対象候補物体に対応するスコアとを利用して作業を推定してもよい。
また、作業推定部250は、手と道具との両方が撮像画像内に出現している場合に、当該道具は作業用物体であり、かつ、当該手は作業用物体ではない可能性が高いと判断し、当該道具と当該道具が接触している対象候補物体との組み合わせに対応する作業ラベルを検索することによりユーザの作業を推定してもよい。
作業推定部250は、撮像画像に出現した対象候補物体の情報と、対象候補物体に対応するスコアとの組み合わせを、統計的機械学習によって学習した学習済みの識別機に入力することによってユーザの作業を推定する。作業推定部250は、特許文献1に記載の行動認識手法を利用してもよい。
作業推定部250は、対象候補物体の情報と作業用物体の情報とを関連付けたデータを特徴量として求め、学習済モデルを用いて、求めた特徴量に対応する作業又は行動に対応するラベルを推論する。作業推定部250は、具体例として、グラフ構造等によって関連付けた学習データD1を作成し、作成した学習データD1を、Graph Neural Network又はグラフ埋め込み等のグラフ構造を処理することができる識別機であって、統計的機械学習における学習済みの識別機に入力することによりユーザの作業を推定する。
さらに、作業推定装置200が撮像装置300及び視線計測装置350から時系列データを取得しているとき、作業推定部250は、各時系列データにおける各時刻のデータに対応する物体の検出結果又は物体の位置関係を用いてデータを作成し、作成したデータの時系列における順序を考慮した機械学習手法を採用してもよい。作業推定部250は、具体例として、Temporal Convolutional Networkを用いてもよい。
学習データ取得部410は、作業推定部250に入力され得るデータを学習データとして取得し、取得した学習データを、作業対象となり得る物体を示す情報と、作業用物体を示す情報と、作業対象となり得る物体を示す情報と作業用物体とを示す情報とを関連付けた形式の情報とを示すデータとして表現する。学習データは、注視領域を示す情報と、物体に対応するスコアを示す情報との少なくともいずれかを含む。学習データ取得部410は、複数の情報を関連付ける際に、具体例として、各物体に対応する位置関係を示す値を要素としたデータを用いてもよく、図9に示すようなグラフ構造を用いてもよい。学習データ取得部410は、生成したデータに対して作業行動を表すラベルを付与する。
学習モデル生成部420は、学習データ取得部410が取得した学習データを処理することによって学習モデルを生成する。
具体例として、学習データがグラフ構造を示す場合を考える。この場合において、学習データ取得部410は、グラフ構造を処理することができるGraph Neural Network等の機械学習モデルを学習モデルとして利用してもよく、グラフ埋め込み手法を利用して学習データをベクトル化し、その後、ベクトル化した学習データを処理することができるモデルを利用してもよい。学習モデル生成部420は、時系列データの各時点におけるデータの関連性も考慮して学習する場合、具体例として、Temporal Convolutional Network等のモデルを活用してもよい。
学習モデル記憶部430は、学習モデル生成部420が生成した学習済みである学習モデルを記憶する。
推定結果記憶部260は、作業推定部250の出力を記憶する。
以上のように、本実施の形態によれば、ユーザ視点の映像内に存在する作業用物体と各対象候補物体との組み合わせに加えて、ユーザの注視領域を利用して作業対象の候補を絞り込み、絞り込んだ候補の中でユーザが手又は道具により接触している物体に対応するスコアを求め、求めたスコアに基づいてユーザの作業を推定する。具体的には、接触度合算出部230は、ステップS301からステップS304までの処理によって、注視領域Gに基づいて対象候補物体を絞りこみ、その後、絞り込んだ候補の物体に対する接触を検出するという2段階の処理を実行する。そのため、本実施の形態によれば、ユーザが行う作業を比較的高い精度で推定できるだけでなく、作業用物体によるオクルージョンを防止することができる。従って、本実施の形態によれば、ユーザの作業の推定に対する頑健性が高まる。
また、保守点検の対象である機器が作業対象の物体である場合、作業対象の候補である複数の点検箇所が互いに近接していることが多い。そのため、物体の組み合わせのみによって、特定した箇所に対応する点検作業を推定することは困難である。本実施の形態によれば、注視領域によって対象候補を絞り込み、その後、手又は道具と対象候補物体との接触を検出する。そのため、対象候補物体が互いに近接していたとしても、ユーザの作業の対象である物体に対するユーザの作業を比較的高い精度で推定することができる。
<変形例1>
作業推定部250は、スコアだけでなく他の情報を活用して作業を推定してもよい。他の情報は、具体例として、対象候補物体各々の属性情報と、作業用物体の属性情報との少なくともいずれかである。ここで、属性情報は、具体例として、物体の位置情報と、スケール情報と、物体の形状と、後述の検出確信度との少なくともいずれかである。
また、他の情報が属性情報である場合について説明する。学習データ取得部410は、対象候補物体各々の属性情報と、作業用物体の属性情報とを含む情報を学習データとして取得する。学習モデル生成部420は、対象候補物体各々の属性情報及び作業用物体の属性情報を含む学習データを処理することにより学習モデルを生成する。
接触度合算出部230は、ユーザの手以外の部位と対象物体との接触の度合に基づいてスコアを算出してもよい。
接触度合算出部230は、道具とユーザの手との接触の度合を考慮してスコアを算出してもよい。
本変形例によれば、視界映像に映っているものの放置されている道具を、ユーザが使用している道具であると作業推定装置200が誤って認識することを防ぐことができる。
作業推定部250は、ユーザが複数の作業用物体を用いて作業している場合におけるユーザの作業を推定してもよい。
本変形例によれば、作業推定部250は、ユーザが両手を用いて作業している場合においても、ユーザの作業を適切に推定することができる。
図12は、本変形例に係る作業推定システム90の構成例と作業推定装置200のソフトウェア構成例とを示している。以下、実施の形態1と本変形例との差異を主に説明する。
物体検出部210は、少なくとも1つの対象候補物体が含む各対象候補物体について、検出確信度を求める。検出確信度は、検出された対象候補物体の推定の正確さの度合を示す値であり、検出確信度が高いほど、検出確信度に対応する対象候補物体の推定が正確である。検出確信度は、具体例として、SSD(Single Shot Multibox Detector)又はFaster R-CNN(Convolutional Neural Network)等の一般的な物体検知手法により算出された物体の分類確率である。
作業行動情報計算部240は、接触度合を用いて検出確信度を更新することによって更新確信度を求める。作業行動情報計算部240は、対象物体スコア更新部とも呼ばれる。更新確信度は接触度合に基づく指標である。
作業推定部250は、物体検出部210の出力と、作業行動情報計算部240の出力とに基づいてユーザの作業を推定する。
本ステップにおける処理は実施の形態1に係るステップS101における処理と同様である。ただし、物体検出部210は、検出した各対象候補物体に対応する情報として、検出確信度を含む情報を求める。
作業行動情報計算部240は、候補物体検出部215が出力した各対象候補物体に対応する検出確信度を、接触度合算出部230が出力したスコアであって、各対象候補物体に紐づくスコアを用いて更新することにより更新確信度を算出し、算出した更新確信度をスコアとして出力する。
本ステップの処理により、作業推定装置200は、作業対象である物体にユーザが接触している度合だけでなく、候補物体検出部215が算出した検出確信度も考慮してユーザの作業を推定することができる。作業行動情報計算部240は、検出確信度と、接触度合算出部230が算出した対象候補物体に紐づくスコアとの両方を保持してもよい。また、作業行動情報計算部240は、更新確信度を算出する際に、各物体の位置情報と各物体のスケール情報との少なくともいずれかを用いてもよく、各物体に関するその他の情報を用いてもよい。
本ステップにおける処理は実施の形態1に係るステップS104における処理と同様である。ただし、作業推定部250は、接触度合算出部230が出力したスコアの代わりに作業行動情報計算部240が出力したスコアを用いる。
図14は、本変形例に係る作業推定装置200のハードウェア構成例を示している。
作業推定装置200は、本図に示すように、演算装置101と主記憶装置102と補助記憶装置103との少なくとも1つに代えて、処理回路108を備える。
処理回路108は、作業推定装置200が備える各部の少なくとも一部を実現するハードウェアである。
処理回路108は、専用のハードウェアであってもよく、また、主記憶装置102に格納されるプログラムを実行するプロセッサであってもよい。
作業推定装置200は、処理回路108を代替する複数の処理回路を備えてもよい。複数の処理回路は、処理回路108の役割を分担する。
演算装置101と主記憶装置102と補助記憶装置103と処理回路108とを、総称して「プロセッシングサーキットリー」という。つまり、作業推定装置200の各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。本明細書に記載されている他の装置についても、本変形例と同様であってもよい。
実施の形態1について説明したが、本実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、本実施の形態を部分的に実施しても構わない。その他、本実施の形態は、必要に応じて種々の変更がなされても構わず、全体としてあるいは部分的に、どのように組み合わせて実施されても構わない。
なお、前述した実施の形態は、本質的に好ましい例示であって、本開示と、その適用物と、用途の範囲とを制限することを意図するものではない。フローチャート等を用いて説明した手順は、適宜変更されてもよい。
Claims (11)
- ユーザの視線を示す情報を用いて前記ユーザが注視する領域である注視領域を推定する注視領域推定部と、
前記ユーザが使用している作業用物体と、前記ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、前記作業用物体と、前記少なくとも1つの対象候補物体とを検出する物体検出部と、
前記注視領域に基づいて、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出する接触度合算出部と、
前記作業用物体と前記接触度合とに基づいて前記ユーザの作業を推定する作業推定部と
を備える作業推定装置であって、
前記物体検出部は、前記少なくとも1つの対象候補物体が含む各対象候補物体について、前記ユーザの作業対象であると推定される度合を示す検出確信度を求め、
前記作業推定装置は、さらに、
前記接触度合を用いて前記検出確信度を更新することによって更新確信度を求める作業行動情報計算部を備え、
前記作業推定部は、前記更新確信度を用いて前記ユーザの作業を推定する作業推定装置。 - 前記接触度合算出部は、前記注視領域に基づいて前記少なくとも1つの対象候補物体が含む各対象候補物体に対応する重みを算出し、算出した重みを用いて前記接触度合を求める請求項1に記載の作業推定装置。
- 前記注視領域推定部は、前記ユーザの視点の位置を示す時系列データを用いて前記注視領域を推定する請求項1又は2に記載の作業推定装置。
- 前記接触度合算出部は、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体との距離に基づいて前記接触度合を求める請求項1から3のいずれか1項に記載の作業推定装置。
- 前記接触度合算出部は、前記作業用物体の配置と前記少なくとも1つの対象候補物体が含む各対象候補物体の配置とに基づいて前記接触度合を求める請求項1から4のいずれか1項に記載の作業推定装置。
- 前記接触度合算出部は、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが重複する領域に基づいて前記接触度合を求める請求項1から5のいずれか1項に記載の作業推定装置。
- 前記作業用物体は、前記ユーザの手又は前記ユーザが使用している道具である請求項1から6のいずれか1項に記載の作業推定装置。
- 前記作業推定部は、ルールベースの推定手法により前記ユーザの作業を推定する請求項1から7のいずれか1項に記載の作業推定装置。
- 前記作業推定部は、学習モデルを用いて前記ユーザの作業を推定する請求項1から7のいずれか1項に記載の作業推定装置。
- 注視領域推定部が、ユーザの視線を示す情報を用いて前記ユーザが注視する領域である注視領域を推定し、
物体検出部が、前記ユーザが使用している作業用物体と、前記ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、前記作業用物体と、前記少なくとも1つの対象候補物体とを検出し、
接触度合算出部が、前記注視領域に基づいて、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出し、
作業推定部が、前記作業用物体と前記接触度合とに基づいて前記ユーザの作業を推定し、
前記物体検出部は、前記少なくとも1つの対象候補物体が含む各対象候補物体について、前記ユーザの作業対象であると推定される度合を示す検出確信度を求め、
作業行動情報計算部が、前記接触度合を用いて前記検出確信度を更新することによって更新確信度を求め、
前記作業推定部は、前記更新確信度を用いて前記ユーザの作業を推定する作業推定方法。 - ユーザの視線を示す情報を用いて前記ユーザが注視する領域である注視領域を推定する注視領域推定処理と、
前記ユーザが使用している作業用物体と、前記ユーザの作業対象の候補である少なくとも1つの対象候補物体とが映っている映像から、前記作業用物体と、前記少なくとも1つの対象候補物体とを検出する物体検出処理と、
前記注視領域に基づいて、前記作業用物体と前記少なくとも1つの対象候補物体が含む各対象候補物体とが接触している度合を示す接触度合を算出する接触度合算出処理と、
前記作業用物体と前記接触度合とに基づいて前記ユーザの作業を推定する作業推定処理とをコンピュータである作業推定装置に実行させる作業推定プログラムであって、
前記物体検出処理では、前記少なくとも1つの対象候補物体が含む各対象候補物体について、前記ユーザの作業対象であると推定される度合を示す検出確信度を求め、
前記作業推定装置に、さらに、
前記接触度合を用いて前記検出確信度を更新することによって更新確信度を求める作業行動情報計算処理を実行させ、
前記作業推定処理では、前記更新確信度を用いて前記ユーザの作業を推定する作業推定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/003099 WO2022162844A1 (ja) | 2021-01-28 | 2021-01-28 | 作業推定装置、作業推定方法、及び、作業推定プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022162844A1 JPWO2022162844A1 (ja) | 2022-08-04 |
JP7254262B2 true JP7254262B2 (ja) | 2023-04-07 |
JPWO2022162844A5 JPWO2022162844A5 (ja) | 2023-04-17 |
Family
ID=82652752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022577924A Active JP7254262B2 (ja) | 2021-01-28 | 2021-01-28 | 作業推定装置、作業推定方法、及び、作業推定プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230326251A1 (ja) |
JP (1) | JP7254262B2 (ja) |
CN (1) | CN116745808A (ja) |
DE (1) | DE112021006095T5 (ja) |
WO (1) | WO2022162844A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7483179B1 (ja) | 2023-06-20 | 2024-05-14 | 三菱電機株式会社 | 推定装置、学習装置、推定方法及び推定プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017187694A1 (ja) | 2016-04-28 | 2017-11-02 | シャープ株式会社 | 注目領域画像生成装置 |
WO2017222070A1 (ja) | 2016-06-23 | 2017-12-28 | Necソリューションイノベータ株式会社 | 作業分析装置、作業分析方法、及びコンピュータ読み取り可能な記録媒体 |
JP2019144861A (ja) | 2018-02-21 | 2019-08-29 | 中国電力株式会社 | 安全判定装置、安全判定システム、安全判定方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6103765B2 (ja) | 2013-06-28 | 2017-03-29 | Kddi株式会社 | 行動認識装置、方法及びプログラム並びに認識器構築装置 |
-
2021
- 2021-01-28 DE DE112021006095.3T patent/DE112021006095T5/de active Granted
- 2021-01-28 CN CN202180091309.4A patent/CN116745808A/zh active Pending
- 2021-01-28 JP JP2022577924A patent/JP7254262B2/ja active Active
- 2021-01-28 WO PCT/JP2021/003099 patent/WO2022162844A1/ja active Application Filing
-
2023
- 2023-06-16 US US18/210,948 patent/US20230326251A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017187694A1 (ja) | 2016-04-28 | 2017-11-02 | シャープ株式会社 | 注目領域画像生成装置 |
WO2017222070A1 (ja) | 2016-06-23 | 2017-12-28 | Necソリューションイノベータ株式会社 | 作業分析装置、作業分析方法、及びコンピュータ読み取り可能な記録媒体 |
JP2019144861A (ja) | 2018-02-21 | 2019-08-29 | 中国電力株式会社 | 安全判定装置、安全判定システム、安全判定方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7483179B1 (ja) | 2023-06-20 | 2024-05-14 | 三菱電機株式会社 | 推定装置、学習装置、推定方法及び推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230326251A1 (en) | 2023-10-12 |
WO2022162844A1 (ja) | 2022-08-04 |
DE112021006095T5 (de) | 2023-08-31 |
JPWO2022162844A1 (ja) | 2022-08-04 |
CN116745808A (zh) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Ergonomic posture recognition using 3D view-invariant features from single ordinary camera | |
US10497111B2 (en) | Information processing apparatus and method of selecting viewpoint for measuring object, and measuring system | |
JP6045549B2 (ja) | 感情および行動を認識するための方法およびシステム | |
US11763603B2 (en) | Physical activity quantification and monitoring | |
KR101612605B1 (ko) | 얼굴 특징점 추출 방법 및 이를 수행하는 장치 | |
KR20130025906A (ko) | 얼굴 특징점 위치 보정 장치, 얼굴 특징점 위치 보정 방법, 및 얼굴 특징점 위치 보정 프로그램을 기록한 컴퓨터 판독가능 기록 매체 | |
US10565791B2 (en) | Tracking rigged polygon-mesh models of articulated objects | |
JP2016091108A (ja) | 人体部位検出システムおよび人体部位検出方法 | |
JP6487642B2 (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
JP2021111114A (ja) | 学習データ生成プログラム、学習データ生成方法及び推定装置 | |
JP6326847B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN111488775B (zh) | 注视度判断装置及方法 | |
US20210338109A1 (en) | Fatigue determination device and fatigue determination method | |
CN113728394A (zh) | 身体活动执行和训练的评分度量 | |
CN114641799A (zh) | 对象检测设备、方法和系统 | |
CN110717385A (zh) | 一种动态手势识别方法 | |
US20230326251A1 (en) | Work estimation device, work estimation method, and non-transitory computer readable medium | |
CN111126268A (zh) | 关键点检测模型训练方法、装置、电子设备及存储介质 | |
JP6786015B1 (ja) | 動作分析システムおよび動作分析プログラム | |
JP2019120577A (ja) | 位置推定装置、位置推定方法及び位置推定用コンピュータプログラム | |
JP6892155B2 (ja) | 人体部位推定装置、人体部位推定方法、及びプログラム | |
US10755439B2 (en) | Estimation device, estimation method and storage medium | |
CN115862124A (zh) | 视线估计方法、装置、可读存储介质及电子设备 | |
JP2021047538A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2016162072A (ja) | 特徴量抽出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230207 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7254262 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |