JP6956993B1 - 行動推定システム - Google Patents

行動推定システム Download PDF

Info

Publication number
JP6956993B1
JP6956993B1 JP2021093353A JP2021093353A JP6956993B1 JP 6956993 B1 JP6956993 B1 JP 6956993B1 JP 2021093353 A JP2021093353 A JP 2021093353A JP 2021093353 A JP2021093353 A JP 2021093353A JP 6956993 B1 JP6956993 B1 JP 6956993B1
Authority
JP
Japan
Prior art keywords
feature amount
target image
image
behavior
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021093353A
Other languages
English (en)
Other versions
JP2022138090A (ja
Inventor
木村 大介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asilla Inc
Original Assignee
Asilla Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asilla Inc filed Critical Asilla Inc
Application granted granted Critical
Publication of JP6956993B1 publication Critical patent/JP6956993B1/ja
Priority to PCT/JP2022/009585 priority Critical patent/WO2022191094A1/ja
Publication of JP2022138090A publication Critical patent/JP2022138090A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】コンピュータにかかる負荷を抑制しつつ画像に映った行動体の行動を高精度かつ短時間で推定することが可能な行動推定システムを提供する。【解決手段】行動推定システム1は、学習装置と、推定装置と、を備えている。学習装置は、学習取得部と、情報取得部と、学習側検出部と、各サンプル画像内で検出された特徴量、各サンプル画像内で検出された特徴量の検出位置及び軸情報の関連性を学習する学習部と、を備える。推定装置は、対象画像内の特徴量を検出する推定側検出部33と、上記関連性を参照して、対象画像内で検出された特徴量及び対象画像内で検出された特徴量の検出位置に対応する対象画像内における軸の位置及び形状を決定する決定部34と、決定された軸の位置及び形状に基づき、対象画像内において当該軸を有するであろう対象行動体の行動を推定する推定部35と、を備えている。【選択図】図1

Description

本発明は、コンピュータにかかる負荷を抑制しつつ画像に映った行動体の行動を高精度かつ短時間で推定することが可能な行動推定システムに関する。
従来より、行動体の複数の関節の座標及び深度の複数の時系列画像における変位に基づき、行動体の行動を推定する行動推定装置が知られている(例えば、特許文献1参照)。
特許第6525179号
上記技術では、検出する関節の数が多いほど行動を高精度に推定することが可能となるが、検出する関節の数が多いほど、コンピュータにかかる負荷も増大してしまう。
そこで、本発明は、コンピュータにかかる負荷を抑制しつつ画像に映った行動体の行動を高精度かつ短時間で推定することが可能な行動推定システムを提供することを目的としている。
本発明は、学習装置と、推定装置と、を備えた行動推定システムであって、前記学習装置は、多数のサンプル画像を取得する学習側取得部と、各サンプル画像に映ったサンプル行動体の体の少なくとも部分的な軸の位置及び形状に関する軸情報を取得する情報取得部と、各サンプル画像内の特徴量を検出する学習側検出部と、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、を備え、前記推定装置は、対象画像を取得する推定側取得部と、前記対象画像内の特徴量を検出する推定側検出部と、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する前記対象画像内における前記軸の位置及び形状を決定する決定部と、前記決定された軸の位置及び形状に基づき、前記対象画像内において前記軸を有するであろう対象行動体の行動を推定する推定部と、を備えたことを特徴とする行動推定システムを提供している。
このような構成によれば、行動体の体の軸の位置及び形状を考慮することで、行動体の次の姿勢を予測しやすくなり、高精度かつ短時間で行動体の行動を推定することが可能となる。また、学習装置及び推定装置のいずれにおいても、「行動体が存在しているか」を判断する(サンプル行動体及び対象行動体の部位等を識別する)必要がないため、コンピュータにかかる負荷を大幅に低減させることが可能となる。
また、前記推定側取得部は、前記対象画像として複数の時系列画像を取得し、前記推定部は、各時系列画像において決定された軸の位置及び形状に基づき前記対象行動体の重心の変位又は加速度を推定し、前記推定された重心の変位又は加速度に基づき前記対象行動体の行動を推定することが好ましい。
このような構成によれば、決定された軸の位置及び形状に基づき行動体の重心の変位や加速度を推定することで、より高精度かつ短時間で行動体の行動を推定(予測)することが可能となる。
また、本発明の別の観点によれば、多数のサンプル画像を取得するステップと、各サンプル画像に映ったサンプル行動体の体の少なくとも部分的な軸の位置及び形状に関する軸情報を取得するステップと、各サンプル画像内の特徴量を検出するステップと、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習するステップと、対象画像を取得するステップと、前記対象画像内の特徴量を検出するステップと、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する前記対象画像内における前記軸の位置及び形状を決定するステップと、前記決定された軸の位置及び形状に基づき、前記対象画像内において前記軸を有するであろう対象行動体の行動を推定するステップと、を備えたことを特徴とする行動推定プログラム又は行動推定方法を提供している。
また、本発明の別の観点によれば、多数のサンプル画像を取得する学習側取得部と、各サンプル画像に映ったサンプル行動体の体の少なくとも部分的な軸の位置及び形状に関する軸情報を取得する情報取得部と、各サンプル画像内の特徴量を検出する学習側検出部と、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、を有する学習装置との間で通信可能な推定装置であって、対象画像を取得する推定側取得部と、前記対象画像内の特徴量を検出する推定側検出部と、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する前記対象画像内における前記軸の位置及び形状を決定する決定部と、前記決定された軸の位置及び形状に基づき、前記対象画像内において前記軸を有するであろう対象行動体の行動を推定する推定部と、を備えたことを特徴とする行動推定装置を提供している。
また、本発明の別の観点によれば、多数のサンプル画像を取得する学習側取得部と、各サンプル画像に映ったサンプル行動体の体の少なくとも部分的な軸の位置及び形状に関する軸情報を取得する情報取得部と、各サンプル画像内の特徴量を検出する学習側検出部と、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、を有する学習装置との間で通信可能なコンピュータにインストールされるプログラム又は当該コンピュータで使用される方法であって、対象画像を取得するステップと、前記対象画像内の特徴量を検出するステップと、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する前記対象画像内における前記軸の位置及び形状を決定するステップと、前記決定された軸の位置及び形状に基づき、前記対象画像内において前記軸を有するであろう対象行動体の行動を推定するステップと、を備えたことを特徴とする行動推定プログラム又は行動推定方法を提供している。
また、本発明の別の観点によれば、多数のサンプル画像を取得する学習側取得部と、各サンプル画像に映ったサンプル行動体の体の少なくとも部分的な軸の位置及び形状に関する軸情報を取得する情報取得部と、各サンプル画像内の特徴量を検出する学習側検出部と、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、を備え、対象画像を取得する推定側取得部と、前記対象画像内の特徴量を検出する推定側検出部と、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する前記対象画像内における前記軸の位置及び形状を決定する決定部と、前記決定された軸の位置及び形状に基づき、前記対象画像内において前記軸を有するであろう対象行動体の行動を推定する推定部と、を有する行動推定装置との間で通信可能であることを特徴とする学習装置を提供している。
また、本発明の別の観点によれば、コンピュータにインストールされるプログラム又は当該コンピュータで使用される方法であって、多数のサンプル画像を取得するステップと、各サンプル画像に映ったサンプル行動体の体の少なくとも部分的な軸の位置及び形状に関する軸情報を取得するステップと、各サンプル画像内の特徴量を検出するステップと、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習するステップと、を備え、前記コンピュータは、対象画像を取得する推定側取得部と、前記対象画像内の特徴量を検出する推定側検出部と、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する前記対象画像内における前記軸の位置及び形状を決定する決定部と、前記決定された軸の位置及び形状に基づき、前記対象画像内において前記軸を有するであろう対象行動体の行動を推定する推定部と、を有する行動推定装置との間で通信可能であることを特徴とする学習プログラムを提供している。
本発明の行動推定システムによれば、コンピュータにかかる負荷を抑制しつつ画像に映った行動体の行動を高精度かつ短時間で推定することが可能となる。
本発明の実施の形態による行動推定システムのブロック図 本発明の実施の形態による学習装置における学習の説明図 本発明の実施の形態による推定装置における軸の位置及び形状の決定の説明図 本発明の実施の形態による行動推定システムのフローチャート
以下、本発明の実施の形態による行動推定システム1について、図1−図4を参照して説明する。
行動推定システム1は、対象画像に映った行動体の行動を推定するためのものである。本実施の形態では、行動体として、人間を例に説明を行う。
行動推定システム1は、図1に示すように、学習装置2と、推定装置3と、を備えている。
まず、学習装置2について説明する。
学習装置2は、図1に示すように、学習側取得部21と、情報取得部22と、学習側検出部23と、学習部24と、を備えている。
学習側取得部21は、図2(a)に示すようなサンプル画像X2を取得する。本実施の形態では、サンプル画像X2には、サンプル行動体Y2が映っており、サンプル画像X2は、行動推定システム1のユーザにより入力されるものとする。
情報取得部22は、サンプル画像X2内におけるサンプル行動体Y2の体の少なくとも部分的な軸の位置及び形状に関する軸情報Zを取得する。軸の形状を示す要素としては、線の形状(直線、折れ線、曲線等)や線の長さ等が考えられる。
軸情報Zとしては、例えば、正中線が考えられる。正中線とは、左右対称形の行動体の前面・背面の中央を頭から縦にまっすぐ通る線を意味する。
軸情報Zは、行動推定システム1のユーザにより入力される。具体的には、ユーザは、図2(b)に示すように、サンプル行動体Y2の姿勢等を考慮して、サンプル画像X2内のサンプル行動体Y2に適切な軸情報Z(図2(b)では正中線)を入力する。
学習側検出部23は、サンプル画像X2内の特徴量を検出する。例えば、畳み込み演算(Convolution)を用いて、サンプル画像X2内の所定数のピクセルの集まり(N×Mピクセル数)ごとに特徴量を抽出する方法が考えられる。
学習部24は、サンプル画像X2内で検出された特徴量と、サンプル画像X2内で検出された特徴量の検出位置と、軸情報Zと、の関連性を学習する。
これは、軸の周辺の特徴量の分布を学習していることを意味する。例えば、図2のサンプル画像X2に映ったサンプル行動体Y2(人間)の肩の部分と腰の部分では、異なった特徴量が存在することとなるので、学習部24は、例えば、「この形状の軸が入力された場合、軸の右上に特徴量Aが存在し、軸の左下に特徴量Bが存在することが多い」と学習していくこととなる(図2(b)の例では、結果として、正中線(軸情報Z)に対する左肩(特徴量A)と右腰(特徴量B)の位置を学習していることとなる)。
なお、学習側検出部23及び学習部24の動作は、ディープラーニング等の機械学習により行うことが可能である。
このようにして、学習装置2では、多数のサンプル画像X2を用いて、サンプル画像内X2で検出された特徴量と、サンプル画像X2内で検出された特徴量の検出位置と、軸情報Zと、の関連性を学習していくこととなる。すなわち、学習装置2では、「行動体が存在しているか」を判断する(サンプル行動体Y2の部位等を識別する)ことなしに、上記関連性を学習していることとなる。
続いて、推定装置3について説明する。
推定装置3は、図1に示すように、記憶部31と、推定側取得部32と、推定側検出部33と、決定部34と、推定部35と、を備えている。
記憶部31は、軸の位置や形状の変化に応じた行動を識別するための識別子を記憶している。識別子としては、例えば、“転倒(軸が倒れるような変化)”を識別するものや、“飛び跳ね(軸が上下に移動するような変化)”を識別するものや、“物を拾う(軸が中心付近から180度近く折れ曲がるような変化)”を識別するもの等が考えられる。
推定側取得部32は、図3(a)に示すような対象画像X3を取得する。本実施の形態では、対象画像X3には、対象行動体Y3が映っており、対象画像X3は、行動推定システム1のユーザにより入力されるものとする。また、本実施の形態では、対象画像X3として、撮影装置により撮影された複数の時系列画像を取得するものとする。
推定側検出部33は、対象画像X3内の特徴量を検出する。例えば、学習側検出部23と同様に、畳み込み演算(Convolution)を用いて、対象画像X3内の所定数のピクセルの集まり(N×Mピクセル数)ごとに特徴量を抽出する方法が考えられる。
決定部34は、学習部24で学習された関連性を参照して、対象画像X3内で検出された特徴量及びその検出位置に対応する対象画像X3内における軸の位置及び形状を決定する。
詳細には、学習部24で学習された関連性の中に、推定側検出部33により検出された複数の特徴量及びそれらの位置関係に近いもの(比例関係にあるものを含む)が存在する場合、対応する軸の位置及び形状を、対象画像X3内における軸の位置及び形状と決定する。
図3(b)では、推定側検出部33により、特徴量Aと特徴量Bが図2(b)と同じような位置関係で検出されたため、「図2(b)と同じような形状の正中線(軸情報Z)が、特徴量Aと特徴量Bの間の図2(b)と同じような位置に存在する」と決定された例を示している。
推定部35は、決定された軸の位置及び形状に基づき、対象画像X3内において当該軸を有するであろう対象行動体Y3の行動を推定する。本実施の形態では、記憶部31に記憶された識別子を参照して、決定された軸の位置及び形状に対応する行動を推定する。すなわち、推定装置3では、「行動体が存在しているか」を判断する(対象行動体Y3の部位等を識別する)ことなしに、「軸が存在し得るための特徴量が存在するか」を判断していることとなる。
なお、行動の推定は、各時系列画像において決定された軸の位置及び形状に基づき対象行動体Y3の重心の変位又は加速度を推定し、推定された重心の変位又は加速度に基づいて行うことが好ましい。この場合、学習装置2において、軸情報Zと同様に、ユーザが情報取得部22に重心情報を入力し、サンプル画像X2内で検出された特徴量と、サンプル画像X2内で検出された特徴量の検出位置と、重心情報と、の関連性を学習部24に学習させておくことが好ましい。
続いて、図4のフローチャートを用いて、行動推定システム1の動作について説明する。行動推定システム1では、学習段階と推定段階の2段階の動作を行う。
学習段階では、学習側取得部21によりサンプル画像X2が取得され(S1)、情報取得部22により軸情報Zが取得され(S2)、学習側検出部23によりサンプル画像X2内の特徴量が検出されると(S3)、学習部24により、特徴量と、特徴量の検出位置と、軸情報と、の関連性が学習される(S4)。
S1−S4のステップは、多数のサンプル画像X2及びサンプル行動体Y2について行われることが好ましい。また、S2とS3のステップは、順序が逆であっても良い。
続いて、推定段階では、推定側取得部32により対象画像X3が取得され(S5)、推定側検出部33により対象画像X3内の特徴量が検出されると(S6)、決定部34により、検出された特徴量及び特徴量の検出位置に対応する対象画像X3内における軸の位置及び形状が決定される(S7)
最後に、推定部35により、決定された軸の位置及び形状に基づき、対象画像X3内において当該軸を有するであろう対象行動体Y3の行動が推定される(S8)。
このような構成の行動推定システム1は、歩行・転倒等の動作を推定するのみならず、例えば、屈伸運動の繰り返し回数を数える等の用途に使用することも可能である。
以上説明したように、本実施の形態による行動推定システム1では、サンプル画像X2内で検出された特徴量と、サンプル画像X2内で検出された特徴量の検出位置と、軸情報Zと、の関連性を参照して、対象画像X3内における対象行動体Y3の軸の位置及び形状を決定し、決定された軸の位置及び形状に基づき対象画像X3内において当該軸を有するであろう対象行動体Y3の行動を推定する。
このような構成によれば、行動体の体の軸の位置及び形状を考慮することで、行動体の次の姿勢を予測しやすくなり、高精度かつ短時間で行動体の行動を推定することが可能となる。また、学習装置2及び推定装置3のいずれにおいても、「行動体が存在しているか」を判断する(サンプル行動体Y2及び対象行動体Y3の部位等を識別する)必要がないため、コンピュータにかかる負荷を大幅に低減させることが可能となる。
また、本実施の形態による行動推定システム1では、各時系列画像において決定された軸の位置及び形状に基づき対象行動体Y3の重心の変位又は加速度を推定し、推定された重心の変位又は加速度に基づき対象行動体Y3の行動を推定する。
このような構成によれば、決定された軸の位置及び形状に基づき行動体の重心の変位や加速度を推定することで、より高精度かつ短時間で行動体の行動を推定(予測)することが可能となる。
尚、本発明の行動推定システムは、上述した実施の形態に限定されず、特許請求の範囲に記載した範囲で種々の変形や改良が可能である。
例えば、上記実施の形態では、軸として正中線を用いたが、腕の軸、足の軸等の他の軸を用いても良い。また、軸は直線に限らず、折れ線や曲線であっても良い。
また、上記実施の形態では、記憶部31に記憶された識別子を参照して、決定された軸の位置及び形状に対応する行動を推定したが、その他の方法で行動を推定しても良い。例えば、識別子を設けなくても、「軸が右(又は左)に移動したら歩行(走行)」、「軸が縦向きの画像から軸が横向きに移動したら転倒」のように、決定された軸の位置の変化等に関するルールベースで簡易的に行動を推定しても良い。
また、上記実施の形態では、複数の特徴量(特徴量Aと特徴量B)に基づき軸の位置を学習又は決定したが、単一の特徴量に基づき学習又は決定することを除外するものではない。
また、上記実施の形態では、学習段階・推定段階のいずれにおいても行動体の識別を行わなかったが、より高精度な推定を行うために行動体の識別を更に行っても良い。
また、上記実施の形態では、複数の時系列画像に映った行動体の行動を推定したが、単一の画像に映った行動体の行動を推定しても良い。この場合には、軸の位置や形状に対応する行動を示す識別子等を記憶しておき、決定された軸の位置や形状に基づいて行動体の行動を推定する等の方法が考えられる。
また、上記実施の形態では、行動体として人間を例に説明したが、動物やロボットについて使用することも可能である。
また、行動推定システム1における学習装置2と推定装置3は、別体であり、互いに通信可能であっても良い。
また、本発明は、行動推定システム、学習装置、推定装置が行う処理に相当するプログラム又は方法や、当該プログラムを記憶した記録媒体にも応用可能である。記録媒体の場合、コンピュータ等に当該プログラムがインストールされることとなる。ここで、当該プログラムを記憶した記録媒体は、非一過性の記録媒体であっても良い。非一過性の記録媒体としては、CD−ROM等が考えられるが、それに限定されるものではない。
1 行動推定システム
2 学習装置
3 推定装置
21 学習側取得部
22 情報取得部
23 学習側検出部
24 学習部
31 記憶部
32 推定側取得部
33 推定側検出部
34 決定部
35 推定部
A 特徴量
B 特徴量
X2 サンプル画像
X3 対象画像
Y2 サンプル行動体
Y3 対象行動体
Z 軸情報

Claims (15)

  1. 学習装置と、
    推定装置と、
    を備えた行動推定システムであって、
    前記学習装置は、
    多数のサンプル画像を取得する学習側取得部と、
    各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得する情報取得部と、
    各サンプル画像内の特徴量を検出する学習側検出部と、
    各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、
    を備え、
    前記推定装置は、
    対象画像を取得する推定側取得部と、
    前記対象画像内の特徴量を検出する推定側検出部と、
    前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定する決定部と、
    前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定する推定部と、
    を備えたことを特徴とする行動推定システム。
  2. 前記推定側取得部は、前記対象画像として複数の時系列画像を取得し、
    前記推定部は、各時系列画像において決定された軸情報に基づき前記対象行動体の重心の変位又は加速度を推定し、前記推定された重心の変位又は加速度に基づき前記対象行動体の行動を推定することを特徴とする請求項1に記載の行動推定装置。
  3. コンピュータにインストールされるプログラムであって、
    多数のサンプル画像を取得するステップと、
    各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得するステップと、
    各サンプル画像内の特徴量を検出するステップと、
    各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習するステップと、
    対象画像を取得するステップと、
    前記対象画像内の特徴量を検出するステップと、
    前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定するステップと、
    前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定するステップと、
    を備えたことを特徴とする行動推定プログラム。
  4. 前記対象画像を取得するステップでは、前記対象画像として複数の時系列画像を取得し、
    前記推定するステップでは、各時系列画像において決定された軸情報に基づき前記対象行動体の重心の変位又は加速度を推定し、前記推定された重心の変位又は加速度に基づき前記対象行動体の行動を推定することを特徴とする請求項3に記載の行動推定プログラム。
  5. 多数のサンプル画像を取得するステップと、
    各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得するステップと、
    各サンプル画像内の特徴量を検出するステップと、
    各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習するステップと、
    対象画像を取得するステップと、
    前記対象画像内の特徴量を検出するステップと、
    前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定するステップと、
    前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定するステップと、
    を備えたことを特徴とする行動推定方法。
  6. 前記対象画像を取得するステップでは、前記対象画像として複数の時系列画像を取得し、
    前記推定するステップでは、各時系列画像において決定された軸情報に基づき前記対象行動体の重心の変位又は加速度を推定し、前記推定された重心の変位又は加速度に基づき前記対象行動体の行動を推定することを特徴とする請求項5に記載の行動推定方法。
  7. 多数のサンプル画像を取得する学習側取得部と、各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得する情報取得部と、各サンプル画像内の特徴量を検出する学習側検出部と、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、を有する学習装置との間で通信可能な推定装置であって、
    対象画像を取得する推定側取得部と、
    前記対象画像内の特徴量を検出する推定側検出部と、
    前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定する決定部と、
    前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定する推定部と、
    を備えたことを特徴とする行動推定装置。
  8. 前記推定側取得部は、前記対象画像として複数の時系列画像を取得し、
    前記推定部は、各時系列画像において決定された軸情報に基づき前記対象行動体の重心の変位又は加速度を推定し、前記推定された重心の変位又は加速度に基づき前記対象行動体の行動を推定することを特徴とする請求項7に記載の行動推定装置。
  9. 多数のサンプル画像を取得する学習側取得部と、各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得する情報取得部と、各サンプル画像内の特徴量を検出する学習側検出部と、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、を有する学習装置との間で通信可能なコンピュータにインストールされるプログラムであって、
    対象画像を取得するステップと、
    前記対象画像内の特徴量を検出するステップと、
    前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定するステップと、
    前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定するステップと、
    を備えたことを特徴とする行動推定プログラム。
  10. 前記対象画像を取得するステップでは、前記対象画像として複数の時系列画像を取得し、
    前記推定するステップでは、各時系列画像において決定された軸情報に基づき前記対象行動体の重心の変位又は加速度を推定し、前記推定された重心の変位又は加速度に基づき前記対象行動体の行動を推定することを特徴とする請求項9に記載の行動推定プログラム。
  11. 多数のサンプル画像を取得する学習側取得部と、各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得する情報取得部と、各サンプル画像内の特徴量を検出する学習側検出部と、各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、を有する学習装置との間で通信可能なコンピュータで使用される方法であって、
    対象画像を取得するステップと、
    前記対象画像内の特徴量を検出するステップと、
    前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定するステップと、
    前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定するステップと、
    を備えたことを特徴とする行動推定方法。
  12. 前記対象画像を取得するステップでは、前記対象画像として複数の時系列画像を取得し、
    前記推定するステップでは、各時系列画像において決定された軸情報に基づき前記対象行動体の重心の変位又は加速度を推定し、前記推定された重心の変位又は加速度に基づき前記対象行動体の行動を推定することを特徴とする請求項11に記載の行動推定方法。
  13. 多数のサンプル画像を取得する学習側取得部と、
    各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得する情報取得部と、
    各サンプル画像内の特徴量を検出する学習側検出部と、
    各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習する学習部と、
    を備え、
    対象画像を取得する推定側取得部と、前記対象画像内の特徴量を検出する推定側検出部と、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定する決定部と、前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定する推定部と、を有する行動推定装置との間で通信可能であることを特徴とする学習装置。
  14. コンピュータにインストールされるプログラムであって、
    多数のサンプル画像を取得するステップと、
    各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得するステップと、
    各サンプル画像内の特徴量を検出するステップと、
    各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習するステップと、
    を備え、
    前記コンピュータは、対象画像を取得する推定側取得部と、前記対象画像内の特徴量を検出する推定側検出部と、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定する決定部と、前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定する推定部と、を有する行動推定装置との間で通信可能であることを特徴とする学習プログラム。
  15. コンピュータで使用される方法であって、
    多数のサンプル画像を取得するステップと、
    各サンプル画像に映ったサンプル行動体の正中線に関するユーザにより入力された軸情報を取得するステップと、
    各サンプル画像内の特徴量を検出するステップと、
    各サンプル画像内で検出された特徴量と、各サンプル画像内で検出された特徴量の検出位置と、前記軸情報と、の関連性を学習するステップと、
    を備え、
    前記コンピュータは、対象画像を取得する推定側取得部と、前記対象画像内の特徴量を検出する推定側検出部と、前記関連性を参照して、前記対象画像内で検出された特徴量及び前記対象画像内で検出された特徴量の検出位置に対応する軸情報を決定する決定部と、前記決定された軸情報に基づき、前記対象画像内において前記決定された軸情報を有するであろう対象行動体の行動を推定する推定部と、を有する行動推定装置との間で通信可能であることを特徴とする学習方法。
JP2021093353A 2021-03-09 2021-06-03 行動推定システム Active JP6956993B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/009585 WO2022191094A1 (ja) 2021-03-09 2022-03-07 行動推定システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021037535 2021-03-09
JP2021037535 2021-03-09

Publications (2)

Publication Number Publication Date
JP6956993B1 true JP6956993B1 (ja) 2021-11-02
JP2022138090A JP2022138090A (ja) 2022-09-22

Family

ID=78282084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021093353A Active JP6956993B1 (ja) 2021-03-09 2021-06-03 行動推定システム

Country Status (2)

Country Link
JP (1) JP6956993B1 (ja)
WO (1) WO2022191094A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185752A (ja) * 2018-03-30 2019-10-24 株式会社日立製作所 画像抽出装置
JP2020034960A (ja) * 2018-08-27 2020-03-05 株式会社シークェンス 被監視者の姿勢検知装置
JP2020052867A (ja) * 2018-09-28 2020-04-02 株式会社Axive 姿勢解析装置、姿勢解析方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185752A (ja) * 2018-03-30 2019-10-24 株式会社日立製作所 画像抽出装置
JP2020034960A (ja) * 2018-08-27 2020-03-05 株式会社シークェンス 被監視者の姿勢検知装置
JP2020052867A (ja) * 2018-09-28 2020-04-02 株式会社Axive 姿勢解析装置、姿勢解析方法、及びプログラム

Also Published As

Publication number Publication date
WO2022191094A1 (ja) 2022-09-15
JP2022138090A (ja) 2022-09-22

Similar Documents

Publication Publication Date Title
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
Hu et al. A sliding-window visual-IMU odometer based on tri-focal tensor geometry
CN101479082B (zh) 机器人装置和机器人装置的控制方法
JPWO2013133129A1 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
JP7275759B2 (ja) 物体検出方法、物体検出装置およびロボットシステム
JPWO2017154655A1 (ja) 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
WO2019198696A1 (ja) 行動推定装置
JP6956993B1 (ja) 行動推定システム
KR100998709B1 (ko) 물체의 공간적 의미정보를 이용한 로봇의 자기위치 추정 방법
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
CN111385813B (zh) 用于重复活动序列中的循环持续时间测量的系统和方法
JP4935504B2 (ja) 消失点推定装置及びプログラム
CN117067261A (zh) 机器人监控方法、装置、设备及存储介质
JP2018124177A (ja) 床面判断方法
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
JPWO2021130978A1 (ja) 動作分析システムおよび動作分析プログラム
JP2009216480A (ja) 三次元位置姿勢計測方法および装置
JP2019185421A (ja) 対象数特定装置
JP5032415B2 (ja) 運動推定装置及びプログラム
JP7419993B2 (ja) 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置
CN111882601A (zh) 定位方法、装置及设备
JP2020091622A (ja) グループ推定装置及びグループ推定方法
JP2019185420A (ja) 行動推定装置
CN112567401B (zh) 动作分析装置、动作分析方法及其程序的记录媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210603

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210928

R150 Certificate of patent or registration of utility model

Ref document number: 6956993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150