JP2020154551A - 行動解析装置、及び、行動解析方法 - Google Patents

行動解析装置、及び、行動解析方法 Download PDF

Info

Publication number
JP2020154551A
JP2020154551A JP2019051162A JP2019051162A JP2020154551A JP 2020154551 A JP2020154551 A JP 2020154551A JP 2019051162 A JP2019051162 A JP 2019051162A JP 2019051162 A JP2019051162 A JP 2019051162A JP 2020154551 A JP2020154551 A JP 2020154551A
Authority
JP
Japan
Prior art keywords
quality
behavior analysis
image data
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019051162A
Other languages
English (en)
Inventor
克行 中村
Katsuyuki Nakamura
克行 中村
岡田 光弘
Mitsuhiro Okada
岡田  光弘
谷田部 祐介
Yusuke Yatabe
祐介 谷田部
洋輝 大橋
Hiroki Ohashi
洋輝 大橋
拓杜 佐藤
Takuto SATO
拓杜 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019051162A priority Critical patent/JP2020154551A/ja
Publication of JP2020154551A publication Critical patent/JP2020154551A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】映像データから抽出した画像データから高精度に行動を解析可能な行動解析装置、及び、行動解析方法を提供する。【解決手段】行動解析装置であって、映像データから画像データを抽出する入力部と、画像データを特徴量に変換する特徴抽出部と、画像データの品質を評価する品質解析部と、品質に基づき処理内容を決定する処理判定部と、処理判定部により決定した処理内容に基づき画像データを符号化する適応符号化部と、符号化された符号化ベクトルを再帰的に復号化して系列データに変換する出力部を備える。【選択図】図1

Description

本発明は、画像センサを用いて行動を解析する装置に関する。
機械学習に基づく行動解析技術は広く普及しており、製造・保守分野の作業を効率化するシステムや、不審者を報知する映像監視システムなどで実用化が進められている。たとえば製造・保守分野では、人の作業状況を解析して作業手順書を自動で生成するシステムに需要がある。
こうしたシステムの実現形態として、画像情報から状況説明文を生成する技術が特許文献1または非特許文献1に開示されている。
特開2003−150610号公報
Subhashini Venugopalan et al., Sequence-to-sequence Video-to-Text, International Conference on Computer Vision (ICCV), 2015.
特許文献1または非特許文献1によれば、例えば、画像センサで作業者を撮像し、得られた三人称視点映像を入力として、作業状況説明文を生成することができる。しかしながら、三人称視点映像では詳細な手作業を観測することは困難であり、作業手順書を作成する目的には適さない。一方で、作業者に装着した画像センサで周りの状況を撮像し、得られた一人称視点映像を入力として、作業状況説明文を生成できる可能性もある。しかしながら、一人称視点映像では、品質の悪い画像フレーム、すなわち、モーションブラー、オクルージョン、フレームアウトなどが混入するため、精度が低下する課題がある。
本発明は、上記の課題を鑑みてなされたものであり、その目的は、映像データから抽出した画像データから高精度に行動を解析可能な行動解析装置、及び、行動解析方法を提供することである。
本発明は、上記背景技術及び課題に鑑み、その一例を挙げるならば、行動解析装置であって、映像データから画像データを抽出する入力部と、画像データを特徴量に変換する特徴抽出部と、画像データの品質を評価する品質解析部と、品質に基づき処理内容を決定する処理判定部と、処理判定部により決定した処理内容に基づき画像データを符号化する適応符号化部と、符号化された符号化ベクトルを再帰的に復号化して系列データに変換する出力部を備える。
本発明によれば、映像データから抽出した画像データから高精度に行動を解析可能な行動解析装置、及び、行動解析方法を提供できる。
実施例1における行動解析装置の機能構成ブロック図である。 実施例1における行動解析装置の処理フローチャートである。 実施例1における行動解析方法の説明図である。 実施例1における系列データの説明図である。 実施例2における行動解析装置の機能構成ブロック図である。 実施例2における行動解析装置の処理フローチャートである。 実施例3における行動解析システムの構成ブロック図である。 実施例3におけるUI画面の説明図である。
以下、本発明の実施例につき、図面を用いて説明する。
図1は、本実施例における行動解析装置10の一例を示す機能構成ブロック図である。図1に示す行動解析装置10は、入力部101、品質解析部102、処理判定部103、特徴抽出部104、適応符号化部105、出力部106を備える。また、行動解析装置10の外部に映像データ107と出力データ108を備える。なお、映像データ107は画像センサ(カメラ)で撮影した映像データを蓄えたものでもよいし、他の映像データのデータベースからのデータであってもよい。また、前記の各部はハードウェアによって構成されてもよいし、ソフトウェアによって構成されていてもよい。また、ハードウェアとソフトウェアを組み合わせたモジュールであってもよい。
図2は、本実施例における行動解析装置10の動作を説明するフローチャートである。以下、図1、図2を用いて行動解析装置10の動作を説明する。図2において、まずステップS2001で、入力部101は、映像データ107から単一フレームまたは複数フレームの画像データを抽出する。そして、ステップS2002で、品質解析部102は、抽出された画像データの品質をあらわす品質スコアを算出する。たとえばモーションブラー、オクルージョン、フレームアウトなどが発生する場合は、品質スコアを低くする。品質スコアは次の式(1)によって求めることができる。
Figure 2020154551
ここで、Qは画像データの品質スコア、Smはモーションブラーに関する画像データの品質スコア、Soはオクルージョンに関する画像データの品質スコア、Sfはフレームアウトに関する画像データの品質スコア、α,β,γは各因子の重み係数である。Smはラプラシアンフィルタを施した画像の輝度絶対値の総和を0−1のスコアに正規化したものである(1に近いほど高品質)。Soは多クラスのオブジェクト検出器を用いて画像データ内の物体を検出し、物体の外接矩形同士が重なっている面積の総和を0−1のスコアに正規化したものである(1に近いほど高品質)。また、Sfは同じくオブジェクト検出器を用いて画像データ内の物体を検出し、矩形の個数に応じて0−1のスコアを付与したものである(矩形が少なければ0、矩形が多ければ1、1に近いほど高品質)。オブジェクト検出器としては、Deep Convolutional Neural Network(CNN)を用いるが、CNNに限定されるものではなく、全結合型のネットワークであるDeep Neural Network(DNN)、マルチクラスサポートベクターマシン、ブースティングベースなどを用いても構わない。
そして、ステップS2003で、処理判定部103は、品質解析部102が出力した品質スコアを用いて、フレームドロップアウト率を算出する。フレームドロップアウトとは、通常の深層学習におけるドロップアウトとは異なる技術であり、Sequence-to-sequenceなど時系列深層学習モデルにおいて、フレーム単位で適応的にドロップアウト(取り除く)を実現する本実施例の特徴技術の一つである。ここで、品質スコアが低ければフレームドロップアウト率を1.0に近づけ、品質スコアが高ければフレームドロップアウト率を0に近づける。こうすることで、品質が低い画像フレームに対して、高いドロップアウト率を適用することができ、悪影響のある画像フレームを自然に排除することが可能となる。
そして、ステップS2004で、特徴抽出部104は、入力部101が出力した画像データの特徴量を抽出する。単一フレームの画像を用いる場合は、CNNを用いて画像データを特徴量に変換する。具体的には、入力画像データと、学習で求めた重み係数(フィルタ係数)の内積をとり、非線形関数でアクティベーションを行なう処理を、複数回実施することで特徴量に変換する。ここで、複数フレームの画像データを用いることもでき、その場合は、3次元CNNを用いて画像データを特徴量に変換する。なお、特徴量抽出の技術はこれらに限定されず、HOG(Histograms of Oriented Gradients)特徴量、Haar-like特徴量、Dense Trajectory特徴量など、一般的に用いられる技術を利用しても構わない。
そして、ステップS2005で、適応符号化部105は、前記特徴抽出部104が出力した画像データの特徴量と、前記処理判定部103が出力したフレームドロップアウト率を用いて、適応的に符号化を行ない符号化ベクトルを出力する。符号化の方法として、LSTM(Long Short Term Memory)、RNN(Recurrent Neural Networks)、GRU(Gated Recurrent Unit)に代表される再帰型のニューラルネットワークを用いる。ここで、各時刻における画像データの品質が悪い場合は高いドロップアウト率を用いるので、質の低い特徴量を誤って符号化することを避けられる。以上のステップS2001〜ステップS2005の処理は、入力フレームの時刻を進めつつ、規定区間が終了するまで再帰的に繰り返す。
そして、ステップS2006で規定区間が終了かを判断し、規定区間が終了したら、ステップS2007で、出力部106は、符号化ベクトルを復号化して、系列データを出力する。復号化の方法も同様に、LSTM/RNN/GRU等に代表される再帰型ニューラルネットワークを用いる。
図3は本実施例における行動解析方法の説明図である。図3において、まず時刻T1における画像データ301を入力として、特徴抽出部104により画像データの特徴量を抽出する。そして、抽出した特徴量を入力として、時系列符号化を行う。ここで、時刻T1における画像データ301の品質スコアは前述した手法により事前に算出されており、時刻ごとに異なるフレームドロップアウト率が設定され、適応符号化部105により適応符号化が行われる。適応符号化部105は、隠れ状態ベクトル、セル状態ベクトルなどの状態量を保持しており、次の時刻T2、時刻T3、時刻T4、・・・へと再帰的に入力され、逐次状態ベクトルの更新を行う。最後の時刻TNにおいて、適応符号化部105は隠れ状態ベクトルを符号化ベクトル303として出力する。出力部106は、符号化ベクトル303を用いて復号化処理を行い、系列データ1、系列データ2、系列データ3、・・・系列データKを出力する。
図4は出力される系列データの説明図である。
図4において、横軸は時間、縦軸はデータの種類を示しており、出力は、第一の言語による行動説明文401、第二の言語による行動説明文402、動作の時系列403、物体の時系列404のように複数の形態をとることができる。これらはいずれかひとつの系列データを出力とするだけでなく、動作の時系列403と物体の時系列404など、複数の系列データを同時に出力することもできる。
以上、説明した本実施例では、画像データの品質を評価する品質解析部を設けることで、モーションブラー、オクルージョン、フレームアウトなど一人称視点映像で生じがちな低品質データの利用を避けることができる。また、画像データの品質を活用した処理判定部を設けることで、フレーム単位のドロップアウト率を算出することができ、時系列深層学習のフレームワークに自然に統合して行動解析処理を実現することができる。また、適応符号化部を設けることで、悪影響のある画像データの符号化を避けることができ、結果として作業状況説明文を好適に生成することができる。また、柔軟な系列データを扱う出力部を設けることで、作業状況説明文の自動生成だけでなく、フレーム単位の行動認識、行動の始終点検出、作業工具認識など複数の行動解析アプリケーションを単一のフレームワークで実現することができる。
これにより、本実施例によれば、例えば、被験者である作業者に装着した画像センサを用いて、人の作業状況を詳細に解析することができる。すなわち、映像データから抽出した画像データから高精度に行動を解析可能な行動解析装置、行動解析方法、及び行動解析システムを提供できる。
本実施例では、作業者に装着したセンサを併用した例について説明する。ここでセンサとは、加速度センサ、角速度センサ、地磁気センサ、筋電位センサ、心拍数センサなどを指し、作業者の身体の状態を詳細に計測するものである。なお、本実施例における行動解析装置の構成要素のうち、実施例1における構成要素と同じものには同じ符号を付して説明を省略する。
図5は、本実施例における行動解析装置50の一例を示す機能構成ブロック図である。図5に示す行動解析装置50は、実施例1の構成要素に加えて、第二の入力部501、第二の品質解析部502、第二の処理判定部503、第二の特徴抽出部504、マルチモーダル適応符号化部505、を備える。また、行動解析装置50の外部にセンサデータ506を備える。また、前記の各部はハードウェアによって構成されてもよいし、ソフトウェアによって構成されていてもよい。また、ハードウェアとソフトウェアを組み合わせたモジュールであってもよい。
図6は、本実施例における行動解析装置50の動作を説明するフローチャートである。図6において、S2001〜S2004、およびS2006〜S2007の処理は、実施例1の図2と同一である。以下、本実施例の特徴部を図5、図6を用いて説明する。
図6において、ステップS6001で、第二の入力部501は、センサデータ506に対してスライド窓で部分系列データを抽出する。そして、ステップS6002で、第二の品質解析部502は、前記抽出された部分系列データの品質をあらわす品質スコアを算出する。たとえば強い加速度・角速度変化が発生する場合、または加速度・角速度変化がほとんど変化しない場合などは、品質スコアを低くする。品質スコアは部分系列データに対して平均・分散・周波数係数などの統計量を算出し、これら統計量を入力とした回帰モデルにより求めることができる。
そして、ステップS6003で、第二の処理判定部503は、第二の品質解析部502が出力した品質スコアを用いて、フレームドロップアウト率を算出する。
また、ステップS6004で、第二の特徴抽出部504は、前記抽出した部分系列データの特徴量を抽出する。ここで特徴抽出には、部分系列データに対する1次元CNNを用いるが、加速度・角速度・地磁気など時系列信号の各成分を並べ、行列として表し、行列データに対して2次元CNNをかけてもよい。また、行列データを時間軸方向に並べ、テンソル化したデータに対して3次元CNNをかけてもよい。あるいは、部分系列データに対して平均、分散などのモーメント特徴量、周波数特徴量などを計算してもよい。
次に、ステップS6005において、マルチモーダル適応符号化部505は、まず得られた画像データの特徴量に対して、ステップS2003で算出したフレームドロップアウト率を掛け合わせ、画像データの特徴量をドロップアウトする。次に得られたセンサデータの特徴量に対して、ステップS6003で算出したフレームドロップアウト率を掛け合わせ、部分系列データの特徴量をドロップアウトする。最後に上記ドロップアウトした画像・センサデータの特徴量を統合(Concat)してマルチモーダル特徴量を算出する。
そして、ステップS6006において、得られたマルチモーダル特徴量とフレームドロップアウト率を用いて、適応的に符号化する。その後は、実施例1と同様に規定区間が終了するまで符号化を逐次実施し、ステップS6007で、得られた符号化ベクトルデータを用いて系列データを出力する。
以上のように、本実施例によれば、センサデータを併用することで、より行動解析の精度を向上することができる。また、画像データだけでは観測ができない状態、例えば、力の入れ方など、を用いることで、副詞句を活用した作業状況説明文の生成が可能となる(例えば、40ニュートンでボルトをきつく締めているなど)。
本実施例は、カメラ、センサ、UI(User Interface)を用いた行動解析システムの例について説明する。なお、本実施例は、実施例1の図1、及び実施例2の図5の機能構成ブロックを実現するハードウェアイメージの構成も兼ねている。
図7は、本実施例における行動解析システムの構成ブロック図である。本実施例は作業者の行動を解析する行動解析システム1000であって、作業者に装着したカメラ1001と、作業者に装着したセンサ1002と、パラメータ入力を行なうUI1003と、ディスプレイなどによって作業者へのフィードバックを行う出力装置1004とを備える。また、行動解析システム1000は、データなどの入出力を行う入出力インタフェースI/O(Input/Output)1005と、各種演算を実行する処理部であるCPU(Central Processing Unit)1006と、メモリ1007とを備える。CPU1006には、行動を解析する行動解析部1008を備える。CPU1006における処理は、GPU(Graphics Processing Unit)を活用した並列処理であっても構わない。行動解析部1008は、実施例1における行動解析装置10または実施例2における行動解析装置50をソフトウェアで実装したものであり、メモリ1007に格納された学習モデル1009、1010、1011を用いて、作業者の行動を解析する。ここで学習モデル1009は特徴抽出部104で用いる重み係数、学習モデル1010は適応符号化部105で用いる重み係数、学習モデル1011は出力部106で用いる重み係数である。
UI1003は、キーボード、マウスなどのUIであって、例えば、図8に示すUI画面1100を介して、行動解析部1008の動作を設定する。例えば、図8に示すように、前記品質解析部102における、モーションブラーの重要度(重み係数)α、フレームアウトの重要度(重み係数)β、オクルージョンの重要度(重み係数)γを手動で設定する。UI上でこれらの係数を入力した後、ファイル名入力バー1101にてファイル名を指定し、登録ボタン1104を押すことで、本実施例における行動解析の動作を変更するとともに、プリセットファイルを保存することができる。
出力装置1004は、ディスプレイなどの機器であり行動解析の結果を表示する。なお、この際に、前記解析部が解析した画像品質スコアに応じて、エラーメッセージを表示することもできる。たとえば、モーションブラーをあらわす品質スコア(Sm)が低い場合、「計測開始後1分20秒〜1分30秒の区間でモーションブラーによる性能低下が発生しています」のようにメッセージを出すことができる。
以上のように、本実施例によれば、作業者の作業の状況をカメラやセンサで計測し、行動解析部が作業手順を自然言語として出力することで、作業手順書の自動生成などのアプリケーションを実現できる。また、UIによって行動解析部の詳細を手動設定できるため、現場に応じて好適な設定を行なえる。たとえば激しい作業動作が発生する屋外現場において、モーションブラーが発生した低品質な画像フレームの符号化を避けることができ、行動解析の性能を向上することができる。また、細かい手作業が発生するセル生産現場において、手によるセルフオクルージョンが発生した低品質フレームの符号化を避けることができ、行動解析の性能を向上することができる。
なお、本発明は、上述の各実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、各構成、機能をソフトウェアで実現する場合、各機能を実現するプログラム、データ、ファイル等の情報は、メモリのみならず、ハードディスク等の記録装置、または、ICカード等の記録媒体におくことができるし、必要に応じて無線ネットワーク等を介してダウンロードし、インストロールすることも可能である。
10:行動解析装置、101:入力部、102:品質解析部、103:処理判定部、104:特徴抽出部、105:適応符号化部、106:出力部、107:映像データ、505:マルチモーダル適応符号化部、506:センサデータ、1001:カメラ、1002:センサ、1003:UI、1004:出力装置、1005:I/O、1006:CPU、1007:メモリ

Claims (15)

  1. 映像データから画像データを抽出する入力部と、
    前記画像データを特徴量に変換する特徴抽出部と、
    前記画像データの品質を評価する品質解析部と、
    前記品質に基づき処理内容を決定する処理判定部と、
    前記処理判定部により決定した処理内容に基づき前記画像データを符号化する適応符号化部と、
    前記符号化された符号化ベクトルを再帰的に復号化して系列データに変換する出力部を備えていることを特徴とする行動解析装置。
  2. 請求項1に記載の行動解析装置であって、
    前記処理判定部は、前記品質解析部が出力する品質に応じて特徴量のフレームドロップアウト率を算出することを特徴とする行動解析装置。
  3. 請求項2に記載の行動解析装置であって、
    前記適応符号化部は、前記フレームドロップアウト率を用いて前記画像データの特徴量をサンプリングし、画像データの品質に応じて適応的に符号化を行うことを特徴とする行動解析装置。
  4. 請求項1に記載の行動解析装置であって、
    前記品質解析部は、前記画像データの品質スコアを、モーションブラー、オクルージョン、フレームアウトのうち、少なくとも一つの観点で評価することを特徴とする行動解析装置。
  5. 請求項1に記載の行動解析装置であって、
    前記出力部は、第一の言語による行動説明文、第二の言語による行動説明文、動作の時系列、物体の時系列のうち、少なくとも一つの系列データを出力することを特徴とする行動解析装置。
  6. 請求項1に記載の行動解析装置であって、
    前記映像データは、被験者に装着されたカメラで撮影した映像であることを特徴とする行動解析装置。
  7. 請求項1に記載の行動解析装置であって、
    センサデータから部分系列データを抽出する第二の入力部と、
    前記部分系列データを特徴量に変換する第二の特徴抽出部と、
    前記画像データの特徴量および前記部分系列データの特徴量を用いて、前記品質に基づき前記画像データを符号化するマルチモーダル適応符号化部を備えることを特徴とする行動解析装置。
  8. 映像データから画像データを抽出する入力ステップと、
    前記画像データを特徴量に変換する特徴抽出ステップと、
    前記画像データの品質を評価する品質解析ステップと、
    前記品質に基づき処理内容を決定する処理判定ステップと、
    前記処理判定ステップにより決定した処理内容に基づき前記画像データを符号化する適応符号化ステップと、
    前記符号化された符号化ベクトルを再帰的に復号化して系列データに変換する出力ステップを備えていることを特徴とする行動解析方法。
  9. 請求項8に記載の行動解析方法であって、
    前記処理判定ステップは、前記品質解析ステップが出力する品質に応じて特徴量のフレームドロップアウト率を算出することを特徴とする行動解析方法。
  10. 請求項9に記載の行動解析方法であって、
    前記適応符号化ステップは、前記フレームドロップアウト率を用いて前記画像データの特徴量をサンプリングし、画像データの品質に応じて適応的に符号化を行うことを特徴とする行動解析方法。
  11. 請求項8に記載の行動解析方法であって、
    前記品質解析ステップは、前記画像データの品質スコアを、モーションブラー、オクルージョン、フレームアウトのうち、少なくとも一つの観点で評価することを特徴とする行動解析方法。
  12. 請求項8に記載の行動解析方法であって、
    前記出力ステップは、第一の言語による行動説明文、第二の言語による行動説明文、動作の時系列、物体の時系列のうち、少なくとも一つの系列データを出力することを特徴とする行動解析方法。
  13. 請求項8に記載の行動解析方法であって、
    前記映像データは、被験者に装着されたカメラで撮影した映像であることを特徴とする行動解析方法。
  14. 請求項8に記載の行動解析方法であって、
    センサデータから部分系列データを抽出する第二の入力ステップと、
    前記部分系列データを特徴量に変換する第二の特徴抽出ステップと、
    前記画像データの特徴量および前記部分系列データの特徴量を用いて、前記品質に基づき前記画像データを符号化するマルチモーダル適応符号化ステップを備えることを特徴とする行動解析方法。
  15. 映像データから抽出した画像データから行動を解析する行動解析装置であって、
    映像データから画像データを抽出する入力部と、
    前記画像データの品質を評価する品質解析部と、
    ユーザインターフェースを有し、
    前記品質解析部の評価する品質は、モーションブラー、オクルージョン、フレームアウトのうち、少なくとも一つの観点で評価し、
    前記ユーザインターフェースは、表示画面を介して、前記品質解析部における、モーションブラーの重要度、フレームアウトの重要度、オクルージョンの重要度を設定可能であり、さらに、前記品質解析部が解析した前記画像データの品質に応じて、表示画面を介して、エラーメッセージを表示可能であることを特徴とする行動解析装置。
JP2019051162A 2019-03-19 2019-03-19 行動解析装置、及び、行動解析方法 Pending JP2020154551A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019051162A JP2020154551A (ja) 2019-03-19 2019-03-19 行動解析装置、及び、行動解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051162A JP2020154551A (ja) 2019-03-19 2019-03-19 行動解析装置、及び、行動解析方法

Publications (1)

Publication Number Publication Date
JP2020154551A true JP2020154551A (ja) 2020-09-24

Family

ID=72559030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051162A Pending JP2020154551A (ja) 2019-03-19 2019-03-19 行動解析装置、及び、行動解析方法

Country Status (1)

Country Link
JP (1) JP2020154551A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145898A (ja) * 2001-11-16 2003-05-21 Canon Inc 画像品質判定方法、判定装置、判定プログラム
JP2012226744A (ja) * 2011-04-19 2012-11-15 Xerox Corp 画質評価
JP2014505952A (ja) * 2011-02-18 2014-03-06 ナショナル・アイシーティ・オーストラリア・リミテッド 画像品質の評価
JP2018101317A (ja) * 2016-12-21 2018-06-28 ホーチキ株式会社 異常監視システム
JP2018198028A (ja) * 2017-05-25 2018-12-13 日本電信電話株式会社 移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003145898A (ja) * 2001-11-16 2003-05-21 Canon Inc 画像品質判定方法、判定装置、判定プログラム
JP2014505952A (ja) * 2011-02-18 2014-03-06 ナショナル・アイシーティ・オーストラリア・リミテッド 画像品質の評価
JP2012226744A (ja) * 2011-04-19 2012-11-15 Xerox Corp 画質評価
JP2018101317A (ja) * 2016-12-21 2018-06-28 ホーチキ株式会社 異常監視システム
JP2018198028A (ja) * 2017-05-25 2018-12-13 日本電信電話株式会社 移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
REN YANG ET AL.: ""Quality-Gated Convolutional LSTM for Enhancing Compressed Video"", ARXIV, JPN7022001957, 11 March 2019 (2019-03-11), US, pages 1 - 7, ISSN: 0004760049 *
SHAGAN SAH ET AL.: ""Semantic Text Summarization of Long Videos"", 2017 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION (WACV), JPN6022016158, 24 March 2017 (2017-03-24), US, pages 989 - 997, XP033096883, ISSN: 0004823169, DOI: 10.1109/WACV.2017.115 *
SUBHASHINI VENUGOPALAN ET AL.: ""Sequence to Sequence - Video to Text"", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6022016159, 7 December 2015 (2015-12-07), US, pages 4534 - 4542, XP032866820, ISSN: 0004823170, DOI: 10.1109/ICCV.2015.515 *

Similar Documents

Publication Publication Date Title
Kaufmann et al. Convolutional autoencoders for human motion infilling
US20190392587A1 (en) System for predicting articulated object feature location
WO2019141104A1 (zh) 人体轮廓关键点检测方法、图像处理方法、装置及设备
Marwah et al. Attentive semantic video generation using captions
Ar et al. A computerized recognition system for the home-based physiotherapy exercises using an RGBD camera
Zhang et al. Random Gabor based templates for facial expression recognition in images with facial occlusion
CN105426827A (zh) 活体验证方法、装置和系统
CN112668492A (zh) 一种自监督学习与骨骼信息的行为识别方法
CN112906624A (zh) 一种基于音视频多模态时序预测的视频数据特征提取方法
CN111914676A (zh) 人体摔倒检测方法、装置、电子设备和存储介质
Raheja et al. Android based portable hand sign recognition system
CN111710008B (zh) 人流密度的生成方法、装置、电子设备以及存储介质
CN112562045B (zh) 生成模型和生成3d动画的方法、装置、设备和存储介质
JP2020154551A (ja) 行動解析装置、及び、行動解析方法
Stark et al. Video based gesture recognition for human computer interaction
Yin et al. A sampling approach to generating closely interacting 3d pose-pairs from 2d annotations
Meng et al. Detection of abnormal gait from skeleton data
KR20220030548A (ko) 영상 분석 기반 작업 동작 인식 장치 및 방법
Kosmopoulos et al. Fusion of color and depth video for human behavior recognition in an assistive environment
Tiwari et al. Deep learning approach for generating 2D pose estimation from video for motion capture animation
Kohn et al. Real-time gesture recognition using bio inspired 3D vision sensor
CN112651363A (zh) 基于多特征点的微表情拟合方法和系统
Kohn et al. Real-time body motion analysis for dance pattern recognition
Albu et al. Analysis of irregularities in human actions with volumetric motion history images
Mohiuddin et al. Salat activity recognition on smartphones using convolutional network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220712