JP2019175268A - 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 - Google Patents

行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 Download PDF

Info

Publication number
JP2019175268A
JP2019175268A JP2018064693A JP2018064693A JP2019175268A JP 2019175268 A JP2019175268 A JP 2019175268A JP 2018064693 A JP2018064693 A JP 2018064693A JP 2018064693 A JP2018064693 A JP 2018064693A JP 2019175268 A JP2019175268 A JP 2019175268A
Authority
JP
Japan
Prior art keywords
standard work
action
time
recognition
actions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018064693A
Other languages
English (en)
Other versions
JP7210890B2 (ja
Inventor
関 海克
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018064693A priority Critical patent/JP7210890B2/ja
Priority to US16/273,199 priority patent/US10832058B2/en
Priority to CN201910175349.1A priority patent/CN110322470A/zh
Publication of JP2019175268A publication Critical patent/JP2019175268A/ja
Application granted granted Critical
Publication of JP7210890B2 publication Critical patent/JP7210890B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063114Status monitoring or status determination for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Social Psychology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • General Factory Administration (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】作業現場で作業者の多様な姿勢変化に対応して標準作業の所用時間を自動的に計測する。【解決手段】実施形態に係る行動認識装置は、現場を撮影することで得られた動画から作業者の標準作業を認識する行動認識装置であって、前記現場の動画を入力する動画入力部と、入力した前記動画に含まれる前記作業者の前記標準作業を構成する1つ以上の要素行動を認識する要素行動認識部と、認識された前記1つ以上の要素行動から前記標準作業の開始時間と所要時間とを特定する標準作業認識処理部とを備える。【選択図】図8

Description

本発明は、行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体に関する。
オフィスや工場などの職場において、作業者の行動を可視化し、職場の生産効率を改善することは重要な課題である。そのため、職場をカメラで動画撮影し、得られた動画を分析することで、作業者による特定の標準的な作業(以下、標準作業という)の行動を認識し、分析する手段は有効である。
ただし、カメラで撮影した職場動画を目視で解析し、決まった一定の手順で行う標準作業の行動を抽出し、各動作の時間を測定し、そして、それらを可視化するには、膨大な解析時間と労力が必要である。そこで従来では、人間の行動を自動認識するために、撮影した動画から人を認識し、認識した人の重心から人の移動軌跡を求め、移動軌跡から特定の行動を認識する方法が提案されている。
しかしながら、職場では、作業者が特定な行動を行うときの作業姿勢は多様であり、いろいろな姿勢変化した人の認識は困難である。また、人認識の誤差は人が移動する軌跡の検知結果に大きく影響を及ぼす。その結果、人の動きの軌跡に基づいた特定行動の認識には大きな誤差が発生する。そのため、特定行動の開始時間と所要時間とを正確に測定するのは不可能である。このように従来では、作業者が標準作業を行うにあたって、作業者が物を運んだり、物を操作したりする場合、作業者の動きだけでは、標準作業の行動を認識できないという問題があった。
本発明は、上記に鑑みてなされたものであって、作業現場で作業者の多様な姿勢変化に対応して標準作業の所用時間を自動的に計測することを可能にする行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る行動認識装置は、現場を撮影することで得られた動画から作業者の標準作業を認識する行動認識装置であって、前記現場の動画を入力する動画入力部と、入力した前記動画に含まれる前記作業者の前記標準作業を構成する1つ以上の要素行動を認識する要素行動認識部と、認識された前記1つ以上の要素行動から前記標準作業の開始時間と所要時間とを特定する標準作業認識処理部とを備える。
本発明によれば、作業現場で作業者の多様な姿勢変化に対応して標準作業の所用時間を自動的に計測することを可能にする行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体を実現することができる。
図1は、本発明の一実施形態に係る行動認識装置の概略構成例を示すブロック図である。 図2は、職場において撮影された作業者の標準作業の例を示す図である。 図3は、本発明の一実施形態に係る標準作業の内容を記載する標準作業書の内容を示す図である。 図4は、対象商品を入れた箱を仮置きする標準作業の要素行動を示す図である。 図5は、作業者が腰を曲げたままで対象商品を入れた箱から対象商品44を探して取り出す標準作業の要素行動を示す図である。 図6は、取り出した対象商品を商品棚に入れる標準作業の要素行動を示す図である。 図7は、図3に例示した標準作業およびその要素行動の所要時間の例を示す図である。 図8は、本発明の一実施形態に係る行動認識処理部の概略構成例を示すブロック図である。 図9は、本発明の一実施形態に係る行動認識処理の一例を示すフローチャートである。 図10は、本発明の一実施形態において職場撮影・動画入力部に入力される時系列の画像フレームの例を示す図である。 図11は、本発明の一実施形態に係る特徴点検知方法を説明するための図である。 図12は、図2に示す時空間データから抽出した特徴点の例を示す図である。 図13は、図2に示す要素行動から所定時間経過後の時間での特徴点の例を示す図である。 図14は、本発明の一実施形態に係る歩行行動の認識処理を説明するための図である。 図15は、本発明の一実施形態に係る要素行動認識処理でエラーが発生した際の動作を説明するための図である。 図16は、本発明の一実施形態において3つの要素行動のうち1つの要素行動しか認識されなかった場合の全体行動の開始時間と所用時間とを説明するための図である。 図17は、本発明の一実施形態において3つの要素行動のうち連続する2つの要素行動が認識された場合の全体行動の開始時間と所用時間とを説明するための図である。 図18は、本発明の一実施形態において3つの要素行動のうち不連続の2つの要素行動が認識された場合の全体行動の開始時間と所用時間とを説明するための図である。 図19は、本発明の一実施形態において全ての要素行動が認識された場合の全体行動の開始時間と所用時間とを説明するための図である。 図20は、本発明の一実施形態に係る要素行動認識辞書を作成する動作の一例を示すフローチャートである。 図21は、本発明の一実施形態に係るカメラのハードウェア構成例を示すブロック図である。
以下に添付図面を参照して、行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体の実施形態を詳細に説明する。以下で説明するように、本実施形態では、カメラにより職場を撮影し、撮影した動画から、職場における作業者が行う標準作業の要素行動を自動認識し、要素行動から標準作業の行動を認識し、標準作業の時間を自動計測する。職場作業者の行動は多様であり、標準作業の行動がいろいろな姿勢がある。そこで、本実施形態では、標準作業の行動を複数の要素行動に分解し、別々に認識することで、作業現場で作業者の多様な姿勢変化を対応し、標準作業の所用時間を自動的に計測することを可能にしている。なお、以下の説明において、「動画」には、「動画像(映像ともいう)データ」のみならず、「複数の連続した静止画で構成された画像データ」も含まれるものとする。この「複数の連続した静止画で構成された画像データ」には、たとえば、所定の周期で撮影を実行することで得られた複数の連続した静止画で構成された画像データも含まれ得る。
図1は、本発明の一実施形態に係る行動認識装置の概略構成例を示すブロック図である。図1に示すように、行動認識装置は、カメラ20と、認識処理装置10とを備える。
カメラ20は、例えばビデオカメラなどの動画像を撮影可能な撮影手段であり、職場に設置されて、職場作業者の作業を撮影し、得られた動画を認識処理装置10へ入力する。職場入力動画の例を図2に示す。図2は、職場において撮影された作業者の標準作業の例を示している。標準作業の内容が標準作業書に記載されている。図2に示されている標準作業内容の一例を、図3に例示する標準作業書を用いて説明する。ここでは、商品を商品棚に入れる標準作業の例を示す。図3は、本実施形態に係る標準作業の内容を記載する標準作業書の内容を示す図である。商品を商品棚に入れる標準作業には、以下のs1〜s3の3つの要素行動がある。それぞれの標準作業は、決められた時間内に完了する必要がある。
s1:対象商品を入れた箱を仮置きする。
s2:箱から対象商品を探して取り出す。
s3:対象商品を商品棚に入れる。
ただし、作業者の姿勢変化の多い行動をそのまま認識する方法では、職場の標準作業を特定することが困難な場合がある。そこで本実施形態では、標準作業を図4〜図6に示すような要素行動に分解して、別々に認識する。図4〜図6は、商品を商品棚に入れる標準作業を複数の要素行動に分解した例を示す図である。図4〜図6において、符号20はカメラを示し、符号42は作業者を示し、符号43は箱を示し、符号44は対象商品を示す。また、図4は、対象商品44を入れた箱43を仮置きする標準作業の要素行動(s1)を示す。図5は、作業者42が腰を曲げたままで対象商品44を入れた箱43から対象商品44を探して取り出す標準作業の要素行動(s2)を示す。図6は、取り出した対象商品44を商品棚に入れる標準作業の要素行動(s3)を示す。
図7は、図3に例示した標準作業およびその要素行動の所要時間の例を示す図である。要素行動s1の時間はt1とする。要素行動s2の所要時間はt2、要素行動s3の所要時間はt3である。したがって、標準作業全体の所要時間は、t1、t2、t3の合計の所要時間t1+t2+t3となる。
また、図1に示す認識処理装置10は、インタフェース部11と、行動認識処理部12とを備える。インタフェース部11は、カメラ20で取得された動画を入力し、行動認識処理部12へ出力する。行動認識処理部12は、本実施形態に係る行動認識処理を実行する。図8は、本実施形態に係る行動認識処理部の概略構成例を示すブロック図である。図8に示すように、図1に示すように、本実施形態に係る認識処理装置10は、職場撮影・動画入力部101と、時空間特徴点抽出部102と、要素行動認識部103と、標準作業認識処理部104と、要素行動認識辞書入力部105と、標準作業認識結果出力部106とを備える。
ここで、本実施形態に係る行動認識処理部12の動作を、図8に示したブロック図、及び、図9〜図16を用いて詳細に説明する。なお、図9は、カメラ20で取得された動画に対して実行される行動認識処理の一例を示すフローチャートである。
図8及び図9に示すように、本動作では、まず、職場撮影・動画入力部101は、カメラ20から入力した動画をインタフェース部11を介して入力する(ステップS101)。図10に、職場撮影・動画入力部101に入力される時系列の画像フレームの例を示す。図10において、入力した画像フレームの横軸x、縦軸yは空間座標である。F1、F2,…は、時間軸timeに沿った時系列の画像フレームを示している。つまり、入力した画像フレームは、図11に示すような、時空間(x,y,t)で表される画像データ(以下、時空間画像データという)になる。時空間の一つの画素I(x,y,t)は空間座標(x,y)と時間tの関数である。
次に、職場標準作業を認識するために、要素行動を認識する動作が実行される。具体的には、時空間特徴点抽出部102が、入力された動画から画像フレームをN個ずつ切り出し、このN個ずつ切り出された画像フレームに対して、時空間における特徴点(時空間特徴点ともいう)を抽出する処理を実行する(ステップS102)。そこで、ステップS102では、まず、図3及び図4〜図6に例示したような要素行動が定義される。例えば、商品を商品棚に入れる標準作業を図3の標準作業書に記載されたように標準作業を3つの要素行動で分解し、定義する。つまり、対象商品44を入れた箱43を仮置きする標準作業の要素行動(s1)、作業者42が腰を曲げたままで対象商品44を入れた箱43から対象商品44を探して取り出す標準作業の要素行動(s2)、取り出した対象商品44を商品棚に入れる標準作業の要素行動(s3)を定義する。標準作業を認識しやすく分解する要素行動の数を決める。上記の例では、標準作業を3つの要素行動に分解したが、その他標準作業では、異なる数の要素行動に分割しても良い。それぞれの要素行動に対して、行動認識を行う。そのため、異なる数の要素行動認識辞書を用意する必要がある。
つづいて、ステップS102では、時空間特徴点抽出部102が、定義した要素行動を認識する。職場の作業者が動くと、図11に示す時空間画像データで変化点が発生する。時空間特徴点抽出部102は、時空間画像データにおける変化点、つまり時空間の特徴点を見つけることで、要素行動を認識する。
ここで、本実施形態に係る特徴点検知方法を説明する。本動作では、図11に示すように、N個の画像フレームよりなる時空間の画像データである時空間画像データがブロックに分割される。図11における大きい立方体は、時空間画像データ全体を示す。図11において、横軸は空間座標xを示し、縦軸はyを示している。また、それぞれの単位は画素であり、tは時間軸を示している。例えば時系列画像データは、30フレーム/秒のレートで入力された画像データで構成されている。時間軸time方向は、画像フレームの時系列軸である。時間軸timeの値を画像フレームで換算することで、実際の時間を求めることができる。
図11に示す例では、時空間画像データがサイズ(M,N,T)のブロックに分割される。1ブロックのサイズは、横M画素、縦N画素、Tフレームになる。図11における1つのマスが1つのブロックを示している。作業者の動きがある行動を発生するとき、動きのある時空間画像データでは、対応するブロックの特徴量が大きくなる。つまり、時空間に大きな変化量が発生する。
つづいて、ステップS102において、変化量の大きいブロックを特徴点として抽出する方法を説明する。時空間特徴点抽出部102は、時空間画像データから特徴点を抽出するにあたり、まず、空間方向、すなわち(x,y)方向でノイズを除去するための平滑化処理を行う。この平滑処理では、次の式(1)が用いられる。
式(1)において、I(x,y,t)は、時間tのフレームにおける(x,y)座標の画素の画素値である。また、g(x,y)は、平滑処理ためのカーネルである。*は畳込み処理である。平滑処理は、単純に画素平均処理であってもよいし、既存のガウシアン平滑化フィルタ処理であってもよい。
次に、ステップS102において、時空間特徴点抽出部102は、時間軸でフィルタリング処理を行う。このフィルタリング処理では、以下の式(2)を用いたGaborフィルタリング処理が実行される。ここで、gevとgodとは、後述する式(3)と式(4)とが示すGaborフィルタのカーネルである。また、*は畳込み処理である。τとωとはGaborフィルタのカーネルのパラメータである。
以上のようなフィルタリング処理を図10に示す時空間画像データの全画素に対して実行すると、時空間特徴点抽出部102は、ステップS102において、図11に示す分割したブロック内のR(x,y,t)の平均値を求める。この平均値算出処理では、例えば、以下の式(5)を用いることで、時空間座標(x,y,t)にあるブロックの平均値が求められる。
そして、時空間特徴点抽出部102は、以下の式(6)に示すように、ブロック内の平均値M(x,y,t)が一定の閾値Thre_Mより大きい場合、このブロックを特徴点とする。
図12は図2の職場の商品を商品棚に入れる標準作業の要素行動(s1)を示す時空間データから抽出した時間tの特徴点の例を示す図である。図12に示すように、動きのある部分に特徴点が抽出されている。また、図13は、図2に示す要素行動(s1)から所定時間Δt経過後の時間t+Δtでの特徴点の例を示す図である。
つづいて、以上のようにして時空間画像データから抽出した特徴点の記述方法を説明する。図11に示す時空間画像データから特徴点ブロックを抽出した場合、時空間特徴点抽出部102は、この特徴点ブロック内の画素の時空間エッジ情報E(x,y,t)を求める。この時空間エッジ情報の算出では、以下の式(7)に示す微分演算を実行することで、画素I(x,y,t)のエッジ情報が求められる。
その結果、図11に示す時空間画像データでは、1ブロックにM×N×Tの画素があるので、M×N×T×3の微分値が得られる。そこで、時空間特徴点抽出部102は、このブロックをM×N×T×3個の微分値のベクトルで記述する。つまり、特徴点をM×N×T×3次元の微分ベクトルで記述する。
次に、要素行動認識処理の実行に先だって、要素行動認識部103が、要素行動認識ヒストグラムを作成する(ステップS103)。この要素行動認識ヒストグラムの作成では、まず、要素行動認識辞書入力部105が要素行動認識辞書を取得し、この取得した要素行動認識辞書を要素行動認識部103へ入力する。なお、要素行動認識辞書の作成動作については、後述において図20を用いて説明する。つづいて、要素行動認識部103は、各特徴点ブロックのM×N×T×3次元微分ベクトルと、要素行動認識辞書におけるK個の平均ベクトルVkとの距離を計算し、各特徴点ブロックの種類を最も近い学習平均ベクトルのブロックと同じ種類とする。その結果、特徴点ブロックがK種類のブロックに分類される。そして、ステップS103において、要素行動認識部103は、それぞれの種類の出現頻度でテスト動画の特徴点ヒストグラムT(k)を求める。
次に、ステップS103において、要素行動認識部103は、テスト動画の特徴点ヒストグラムT(k)と学習データの学習ヒストグラムH(k)との類似度S(T,H)を以下の式(8)を用いて求める。
そして、要素行動認識部103は、以下の式(9)に示すように、テスト動画の特徴点ヒストグラムT(k)と学習データの学習ヒストグラムH(k)との類似度S(T,H)が一定の閾値Thre_Sより大きい場合、テスト動画が学習データと同じ要素行動であると認識する要素行動認識処理を実行する(ステップS104)。
次に、標準作業認識処理部104が、標準作業認識処理を実行する(ステップS105)。標準作業認識処理では、標準作業認識処理部104は、ステップS104で認識した要素行動に該当する職場行動が認識される。例えば、図2に例示したような、標準作業の場合では、後述において図15を用いて例示する動作にて標準作業認識結果が求められる。そして、このようにして求められた標準作業認識結果は、標準作業認識結果出力部106から出力され(ステップS106)、本動作が終了する。
次に、図9のステップS104に示す要素行動認識処理でエラーが発生した場合、すなわち、要素行動が認識されなかった場合の動作について説明する。図15は、図9のステップS104に示す要素行動認識処理でエラーが発生した際の動作を説明するための図である。
図15に示すように、まず、本動作では、まず、図9のステップS104と同様に、要素行動認識処理が実行される(ステップS104)。そして、要素行動認識処理の結果を用いて、標準作業の要素行動を探知する要素行動探知が実行される(S111)。標準作業の要素行動が未検知の場合(S111のNO)、要素行動認識処理でエラーが発生した場合、標準作業とは別の行動を認識する別要素行動認識処理が実行される(S113)。別要素行動認識処理では、例えば、図14に示す歩行行動の認識処理が実行される。そして、例えば歩行処理行動が検知された場合(ステップS114のYES)、標準作業の要素行動認識を終了し、標準作業の認識結果を出力する(S116)。
また、歩行行動以外にその他標準作業の要素行動が認識対象とされた場合、その他要素行動の認識処理も行う(S114)。同じように別の行動が認識されたら(S114のYES)、標準作業の要素行動認識を終了し、標準作業の認識結果を出力する(S116)。
一方、その他要素行動が認識されない場合(S114のNO)、要素行動認識処理(S104)で認識された要素行動の間隔Tと予め定めておいた時間閾値Thre_timeとを比較し(S115)、その結果に基づいて、要素行動認識処理(S104)又は標準作業認識結果出力(S116)を実行する。
ここで、ステップS115の動作を、図16〜図19に示す認識された標準作業及びその要素行動の所要時間の例を用いて説明する。例えば、図16に示すように、要素行動s1〜s3のうちの1つの要素行動s3しか認識されなかった場合、全体行動の開始時間をs3の開始時間とし、全体行動の所用時間をs3の所要時間t3とする。
一方、図17に示すように、連続する2つの要素行動s2及びs3が認識された場合、一番早い要素行動s2の開始時間を全体行動の開始時間とし、一番遅い要素行動s3の終了時間を全体行動の終了時間とし、全体行動の所要時間をs2とs3との合計の所要時間t2+t3とする。
また、図18に示すように、不連続の2つの要素行動s1及びs3が認識された場合であって、先頭の要素行動s1と最後の要素行動s3との間隔Tが予め設定しておいた時間閾値Thre_timeより短い場合(S115のYES)、要素行動s1及びs3を同一の行動とし、全体行動の開始時間を要素行動s1の開始時間とし、全体行動の終了時間を要素行動s3の終了時間とする。そして、全体行動の所要時間を要素行動s1の開始時間と要素行動s3の終了時間とから計算する。
ただし、不連続の2つの要素行動s1及びs3が認識された場合であって、先頭の要素行動s1と最後の要素行動s3との間隔Tが時間閾値Thre_time以上の場合(S115のNO)、要素行動s1及びs3は同じ種類の行動とするが、行動自体は異なる行動として、それぞれの開始時間と所要時間を別々に計上する。
また、図19に示すように、3つの要素行動s1、s2及びs3の全てが認識された場合、要素行動s1の開始時間を腰曲げ行動の開始時間とし、全体行動の所要時間を3つ要素行動s1〜s3の合計の所要時間t1+t2+t3とする。
そして、図15のS116に示すように、以上のようにして特定された全体行動の開始時間と全体行動の所用時間とが、標準作業認識結果として出力される。
次に、要素行動認識辞書の作成動作を、図20を用いて詳細に説明する。図20は、要素行動の動画サンプルを学習データとして使用して要素行動認識辞書を作成する動作の一例を示すフローチャートである。
図20に示すように、要素行動認識辞書を作成する動作では、要素行動認識辞書入力部105が要素行動の動画サンプルを集め、これを職場学習用の動画データ(以下、職場学習動画という)として入力する(ステップS201)。
つぎに、要素行動認識辞書入力部105は、入力された職場学習動画のうち、要素行動を含むN個の画像フレームを1つの学習データとし、この学習データから時空間特徴点を抽出する(ステップS202)。なお、時空間特徴点の抽出方法は、上述において図9のステップS102を用いて説明した方法と同様であってよい。また、ステップS202では、入力された職場学習動画から複数の学習データが生成され、生成された複数の学習データそれぞれに対して時空間特徴点が抽出される。そして、抽出されたそれぞれの時空間特徴点を式(7)で微分処理することで、M×N×T×3次元の微分ベクトルが求められる。
つぎに、要素行動認識辞書入力部105は、ステップS202で全部の学習データから抽出した時空間特徴点を分類(クラスタリング)する(ステップS203)。要素行動認識辞書入力部105は、たとえば、K−meansのクラスタリング方法を用いて、学習した時空間特徴点を分類する。つまり、M×N×T×3次元の微分ベクトルをK−meansのクラスタリング方法で分類する。分類したクラスの数をKとする。これにより、学習データから抽出した特徴点がK種類の特徴点に分類される。なお、K−meansのクラスタリング方法では、同じ種類の特徴点は似ている特徴を持っている。
次に、要素行動認識辞書入力部105は、K種類の時空間特徴点について、同じ種類の特徴点のM×N×T×3次元のエッジベクトルを平均し、K個の平均ベクトルVkを求める(ステップS204)。各平均ベクトルVkは、その種類の特徴点を代表するベクトルである。
次に、要素行動認識辞書入力部105は、K種類の時空間特徴点について、各グループのブロック合計数を計算し、学習ヒストグラムH(k)を求める(ステップS205)。H(k)は、特徴点kグループの頻度である。
そして、要素行動認識辞書入力部105は、学習データから求めた平均ベクトルVkと学習ヒストグラムH(k)とを要素行動認識辞書データとした要素行動認識辞書を作成する(ステップS206)。なお、作成された要素行動認識辞書は、要素行動認識部103(図8参照)に入力される。
つぎに、本実施形態に係るカメラ20(図1参照)について説明する。図21は、本実施形態に係るカメラのハードウェア構成例を示すブロック図である。図21に示すように、図21に示すように、被写体光は、撮影光学系201を通してCCD(Charge Coupled Device)203に入射する。なお、撮影光学系201とCCD203との間には、入射光を通過/遮断するメカシャッタ202が配置されている。撮影光学系201及びメカシャッタ202は、モータドライバ206より駆動される。
CCD203は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データとして出力する。CCD203から出力された画像情報は、CDS(Correlated Double Sampling:相関2重サンプリング)回路204によりノイズ成分を除去され、A/D変換器205によりデジタル値に変換された後、画像処理回路208に対して出力される。
画像処理回路208は、画像データを一時格納するSDRAM(Synchronous DRAM)212を用いて、YCrCb変換処理や、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス処理は、画像情報の色濃さを調整し、コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整し、色変換処理は、画像情報の色合いを調整する画像処理である。また、画像処理回路208は、信号処理や画像処理が施された画像情報を液晶ディスプレイ216(以下、LCD16と略記する)に表示する。
また、信号処理、画像処理が施された画像情報は、圧縮伸張部213を介して、メモリカード214に記録される。上記圧縮伸張部213は、操作部215から取得した指示によって、画像処理回路208から出力される画像情報を圧縮してメモリカード214に出力すると共に、メモリカード214から読み出した画像情報を伸張して画像処理回路208に出力する回路である。
また、CCD203、CDS回路204及びA/D変換器205は、タイミング信号を発生するタイミング信号発生器207を介してCPU(Central Processing Unit)209によって、タイミングが制御されている。さらに、画像処理回路208、圧縮伸張部213、メモリカード214も、CPU209によって制御されている。
撮像装置において、CPU209はプログラムに従って各種演算処理を行い、プログラムなどを格納した読み出し専用メモリであるROM(Read Only Memory)211および各種の処理過程で利用するワークエリア、各種データ格納エリアなどを有する読み出し書き込み自在のメモリであるRAM(Random Access Memory)210などを内蔵し、これらがバスラインによって相互接続されている。
そして、上記説明したカメラ20の出力は、図1に示す認識処理装置10のインタフェース部11を介して行動認識処理部12に入力される。
以上のように、本実施形態では、職場を撮影した動画から一定の手順がある作業者の標準作業を認識する。標準作業を複数の要素行動に分解し、要素行動認識により、標準作業を認識する。認識した標準作業の要素行動時間を計測し、標準作業全体の作業時間を計算する。複数枚画像フレームを入力し、これらの画像から時空間特徴点を抽出する。抽出した特徴点から標準作業の要素行動の特徴量を求め、標準作業の要素行動を認識する。認識した要素行動により職場作業者が行う標準作業の認識を行う。このような構成を備えることで、職場における作業者が行う標準作業の認識ができ、標準作業の作業時間を計測することが可能となる。その結果、作業現場で作業者の多様な姿勢変化に対応して標準作業の所用時間を自動的に計測することを可能にする行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体を実現することが可能となる。
なお、本実施形態の認識装置で実行される職場標準作業認識プログラムは、上述した職場標準作業認識機能を含むモジュール構成となっており、図1の認識処理装置10の実際のハードウェアとしては、CPU(プロセッサ)が上記記憶媒体から画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、標準作業認識結果を出力する。要素行動認識辞書を入力し、評価式(8)の認識動画から得られた特徴点ヒストグラムT(k)と学習ヒストグラムH(k)との類似度を求め、要素行動認識処理を行う。要素行動の認識結果により、職場行動の開始時間と所要時間を求め、行動認識の結果を出力する。
本実施形態に係る行動認識装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。
また、本実施形態に係る行動認識装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態に係る行動認識装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の〜装置で実行される〜プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、本実施形態に係る行動認識装置で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
本実施形態に係る行動認識装置で実行されるプログラムは、上述した各部(職場撮影・動画入力部101、時空間特徴点抽出部102、要素行動認識部103、標準作業認識処理部104、要素行動認識辞書入力部105、標準作業認識結果出力部106)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から〜プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、職場撮影・動画入力部101、時空間特徴点抽出部102、要素行動認識部103、標準作業認識処理部104、要素行動認識辞書入力部105、標準作業認識結果出力部106が主記憶装置上に生成されるようになっている。
10 認識処理装置
11 インタフェース部
12 行動認識処理部
20 カメラ
42 作業者
43 箱
44 対象商品
101 職場撮影・動画入力部
102 時空間特徴点抽出部
103 要素行動認識部
104 標準作業認識処理部
105 要素行動認識辞書入力部
106 標準作業認識結果出力部
特開2011−100175号公報

Claims (14)

  1. 現場を撮影することで得られた動画から作業者の標準作業を認識する行動認識装置であって、
    前記現場の動画を入力する動画入力部と、
    入力した前記動画に含まれる前記作業者の前記標準作業を構成する1つ以上の要素行動を認識する要素行動認識部と、
    認識された前記1つ以上の要素行動から前記標準作業の開始時間と所要時間とを特定する標準作業認識処理部と、
    を備える行動認識装置。
  2. 入力した前記動画の時空間における1つ以上の特徴点を抽出する時空間特徴点抽出部をさらに備え、
    前記要素行動認識部は、前記時空間特徴点抽出部が抽出した前記1つ以上の特徴点を分類し、分類した前記1つ以上の特徴点の第1ヒストグラムと事前に学習しておいた第2ヒストグラムとの類似度を求め、求めた前記類似度が一定の閾値以上である場合、前記1つ以上の特徴点よりなる前記作業者の行動を要素行動と認識する
    請求項1に記載の行動認識装置。
  3. 前記時空間特徴点抽出部は、前記動画をM×N×Tサイズのフロックに分割し、各ブロックを微分処理することで、M×N×T×3次元の微分ベクトルを計算し、計算した前記微分ベクトルと事前に学習してK種類に分類しておいたエッジベクトルとを比較し、当該比較の結果に基づいて前記微分ベクトルを分類し、当該分類の結果に基づいて前記第1ヒストグラムを作成する請求項2に記載の行動認識装置。
  4. 前記時空間特徴点抽出部は、前記入力した動画を構成する画像フレームに対して時間軸でのフィルタリング処理を行い、前記フィルタリング処理の結果に基づいて前記1つ以上の特徴点を抽出する請求項3に記載の行動認識装置。
  5. ev及びgodを、以下の式(1)及び式(2)で示されるGaborフィルタのカーネルとし、*を畳込み処理とし、τ及びωを前記カーネルのパラメータとした場合、前記フィルタリング処理は、以下の式(3)を用いたGaborフィルタリング処理である
    請求項4に記載の行動認識装置。
  6. 前記時空間特徴点抽出部は、前記フィルタリング処理の前に、各画像フレームに対して平滑化処理を実行する請求項4に記載の行動認識装置。
  7. 前記要素行動認識部は、前記動画から要素行動が検知されない場合、前記標準作業の要素行動以外の特定の行動を検知し、
    前記標準作業認識処理部は、前記要素行動認識部が前記特定の行動を検知した場合、前記認識された1つ以上の要素行動から前記標準作業の前記開始時間と前記所要時間とを特定して出力する
    請求項1に記載の行動認識装置。
  8. 前記標準作業認識処理部は、前記要素行動認識部により前記標準作業についての全ての要素行動が認識された場合、一番早い要素行動の開始時間を前記標準作業の開始時間とし、認識された前記全ての要素行動の合計の所要時間を前記標準作業の所要時間とする請求項1に記載の行動認識装置。
  9. 前記標準作業認識処理部は、前記要素行動認識部により前記標準作業についての一部の連続する2つ以上の要素行動が認識された場合、一番早い要素行動の開始時間を前記標準作業の開始時間とし、認識された前記一部の連続する2つ以上の要素行動の合計の所要時間を前記標準作業の所要時間とする請求項1に記載の行動認識装置。
  10. 前記標準作業認識処理部は、前記要素行動認識部により前記標準作業についての一部の不連続の2つ以上の要素行動が認識された場合であって先頭の要素行動と最後の要素行動との時間間隔が所定の時間閾値以上の場合、前記一部の不連続の2つ以上の要素行動をそれぞれ異なる行動とする請求項1に記載の行動認識装置。
  11. 前記標準作業認識処理部は、前記要素行動認識部により前記標準作業についての一部の不連続の2つ以上の要素行動が認識された場合であって先頭の要素行動と最後の要素行動との時間間隔が所定の時間閾値よりも短い場合、前記一部の不連続の2つ以上の要素行動を同一の行動とし、前記先頭の要素行動の開始時間を前記標準作業の開始時間とし、前記一部の不連続の2つ以上の要素行動の合計の所要時間を前記標準作業の所要時間とする請求項1に記載の行動認識装置。
  12. 現場を撮影することで得られた動画から作業者の標準作業を認識する行動認識方法であって、
    前記現場の動画を入力し、
    入力した前記動画に含まれる前記作業者の前記標準作業を構成する1つ以上の要素行動を認識し、
    認識された前記1つ以上の要素行動から前記標準作業の開始時間と所要時間とを特定する
    ことを備える行動認識方法。
  13. 現場を撮影することで得られた動画から作業者の標準作業を認識するコンピュータを機能させるためのプログラムであって、
    前記現場の動画を入力するステップと、
    入力した前記動画に含まれる前記作業者の前記標準作業を構成する1つ以上の要素行動を認識するステップと、
    認識された前記1つ以上の要素行動から前記標準作業の開始時間と所要時間とを特定するステップと、
    を前記コンピュータに実行させるためのプログラム。
  14. 請求項13に記載のプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2018064693A 2018-03-29 2018-03-29 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 Active JP7210890B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018064693A JP7210890B2 (ja) 2018-03-29 2018-03-29 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
US16/273,199 US10832058B2 (en) 2018-03-29 2019-02-12 Behavior recognition apparatus, behavior recognition method, and recording medium
CN201910175349.1A CN110322470A (zh) 2018-03-29 2019-03-07 行动识别装置、行动识别方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018064693A JP7210890B2 (ja) 2018-03-29 2018-03-29 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2019175268A true JP2019175268A (ja) 2019-10-10
JP7210890B2 JP7210890B2 (ja) 2023-01-24

Family

ID=68054426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018064693A Active JP7210890B2 (ja) 2018-03-29 2018-03-29 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体

Country Status (3)

Country Link
US (1) US10832058B2 (ja)
JP (1) JP7210890B2 (ja)
CN (1) CN110322470A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077177A (ja) * 2019-11-11 2021-05-20 株式会社リコー 動作認識装置、動作認識方法及び動作認識プログラム
JP2021081804A (ja) * 2019-11-14 2021-05-27 株式会社リコー 状態認識装置、状態認識方法及び状態認識プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020129018A (ja) * 2019-02-07 2020-08-27 株式会社日立製作所 動作評価システムおよび方法
CN111539290B (zh) * 2020-04-16 2023-10-20 咪咕文化科技有限公司 视频动作识别方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034899A (ja) * 1999-07-26 2001-02-09 Pioneer Electronic Corp 画像処理装置、画像処理方法及びナビゲーション装置
JP2008077424A (ja) * 2006-09-21 2008-04-03 Toshiba Corp 作業分析システム及び方法
JP2008269063A (ja) * 2007-04-17 2008-11-06 Softopia Japan Foundation 多重分割画像を用いた異常動作検出装置、異常動作検出方法及び異常動作検出用プログラム
JP2011034234A (ja) * 2009-07-30 2011-02-17 Kozo Keikaku Engineering Inc 動作分析装置、動作分析方法及び動作分析プログラム
JP2012088881A (ja) * 2010-10-19 2012-05-10 Nippon Hoso Kyokai <Nhk> 人物動作検出装置およびそのプログラム
JP2014182585A (ja) * 2013-03-19 2014-09-29 Sumitomo Electric Ind Ltd 画像解析装置、画像解析方法および画像解析プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206029B2 (en) * 2000-12-15 2007-04-17 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on video content analysis
JP4221011B2 (ja) * 2006-05-31 2009-02-12 株式会社日立製作所 作業動作分析方法、作業動作分析装置および作業動作分析プログラム
JP4998024B2 (ja) * 2007-03-13 2012-08-15 富士通株式会社 作業支援システム、作業支援装置および作業支援方法
US8593517B2 (en) * 2007-03-26 2013-11-26 Pelco, Inc. Method and apparatus for configuring a video surveillance source
JP5285575B2 (ja) 2009-11-04 2013-09-11 日本放送協会 人物行動判定装置及びそのプログラム
JP5898199B2 (ja) * 2011-07-15 2016-04-06 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP5898014B2 (ja) * 2012-07-26 2016-04-06 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP6075180B2 (ja) * 2013-04-18 2017-02-08 オムロン株式会社 作業管理システムおよび作業管理方法
US9387589B2 (en) * 2014-02-25 2016-07-12 GM Global Technology Operations LLC Visual debugging of robotic tasks
JP6145850B2 (ja) * 2015-06-02 2017-06-14 パナソニックIpマネジメント株式会社 人物行動分析装置、人物行動分析システムおよび人物行動分析方法
JP6601018B2 (ja) * 2015-06-30 2019-11-06 富士通株式会社 作業管理プログラム、作業管理方法および作業管理システム
JP6675266B2 (ja) * 2016-05-20 2020-04-01 株式会社日立製作所 センサデータ分析システム及びセンサデータ分析方法
CN106056053B (zh) * 2016-05-23 2019-04-23 西安电子科技大学 基于骨骼特征点提取的人体姿势识别方法
US11429906B2 (en) * 2016-06-16 2022-08-30 Conduent Business Services, Llc Profiling of users' behavior and communication in business processes
US20180081855A1 (en) * 2016-09-21 2018-03-22 Scianta Analytics, LLC Cognitive modeling system including repeat processing elements and on-demand elements
JP6874315B2 (ja) 2016-09-30 2021-05-19 株式会社リコー 情報処理装置、情報処理方法およびプログラム
US10929685B2 (en) * 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
EP3607524A4 (en) * 2017-04-06 2020-12-30 HRL Laboratories, LLC EXPLICIT PREDICTION OF ADVERSARY MOVEMENTS WITH CANONIC CORRELATION ANALYSIS

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034899A (ja) * 1999-07-26 2001-02-09 Pioneer Electronic Corp 画像処理装置、画像処理方法及びナビゲーション装置
JP2008077424A (ja) * 2006-09-21 2008-04-03 Toshiba Corp 作業分析システム及び方法
JP2008269063A (ja) * 2007-04-17 2008-11-06 Softopia Japan Foundation 多重分割画像を用いた異常動作検出装置、異常動作検出方法及び異常動作検出用プログラム
JP2011034234A (ja) * 2009-07-30 2011-02-17 Kozo Keikaku Engineering Inc 動作分析装置、動作分析方法及び動作分析プログラム
JP2012088881A (ja) * 2010-10-19 2012-05-10 Nippon Hoso Kyokai <Nhk> 人物動作検出装置およびそのプログラム
JP2014182585A (ja) * 2013-03-19 2014-09-29 Sumitomo Electric Ind Ltd 画像解析装置、画像解析方法および画像解析プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077177A (ja) * 2019-11-11 2021-05-20 株式会社リコー 動作認識装置、動作認識方法及び動作認識プログラム
JP2021081804A (ja) * 2019-11-14 2021-05-27 株式会社リコー 状態認識装置、状態認識方法及び状態認識プログラム
US11256911B2 (en) 2019-11-14 2022-02-22 Ricoh Company, Ltd. State recognition apparatus, state recognition method, and non-transitory computer-readable medium storing program

Also Published As

Publication number Publication date
JP7210890B2 (ja) 2023-01-24
US20190303680A1 (en) 2019-10-03
US10832058B2 (en) 2020-11-10
CN110322470A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
Pal et al. Deep-learning-based visual data analytics for smart construction management
JP7210890B2 (ja) 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
EP3118813B1 (en) Image recognition device, image sensor, and image recognition method
JP4368767B2 (ja) 異常動作検出装置および異常動作検出方法
JP4429298B2 (ja) 対象個数検出装置および対象個数検出方法
JP7222231B2 (ja) 行動認識装置、行動認識方法及びプログラム
JP6632288B2 (ja) 情報処理装置、情報処理方法、プログラム
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
JP3970877B2 (ja) 追跡装置および追跡方法
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
JP2011133984A (ja) 動作特徴抽出装置および動作特徴抽出方法
Model et al. Comparison of Data Set Bias in Object Recognition Benchmarks.
CN115862113A (zh) 陌生人异常识别方法、装置、设备及存储介质
US20230005268A1 (en) Object search device and object search method
CN107231519B (zh) 视频处理装置及控制方法
JP5791361B2 (ja) パターン識別装置、パターン識別方法およびプログラム
US20160117839A1 (en) Image output device, image output method, and computer program product
JP2011090708A (ja) 対象個数検出装置および対象個数検出方法
KR102597692B1 (ko) 영상을 이용한 물건 부피의 측정 장치, 방법, 및 컴퓨터 프로그램
JP4674920B2 (ja) 対象個数検出装置および対象個数検出方法
JP2019046278A (ja) 情報処理装置、制御方法、コンピュータプログラム、記憶媒体、及びモデル作成装置
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP7338182B2 (ja) 行動認識装置、行動認識方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R151 Written notification of patent or utility model registration

Ref document number: 7210890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151