JP7338182B2 - Action recognition device, action recognition method and program - Google Patents
Action recognition device, action recognition method and program Download PDFInfo
- Publication number
- JP7338182B2 JP7338182B2 JP2019051167A JP2019051167A JP7338182B2 JP 7338182 B2 JP7338182 B2 JP 7338182B2 JP 2019051167 A JP2019051167 A JP 2019051167A JP 2019051167 A JP2019051167 A JP 2019051167A JP 7338182 B2 JP7338182 B2 JP 7338182B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- moving image
- action
- dictionary
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、行動認識装置、行動認識方法及びプログラムに関する。 The present invention relates to an action recognition device, an action recognition method, and a program.
オフィスや工場などの職場において、作業者の行動を可視化し、作業時間等を分析することにより職場の生産効率を改善することは重要な課題である。そのため、職場をカメラで動画撮影し、得られた動画を分析することで、作業者による特定の標準的な作業(以下、標準作業という)の行動を認識し、分析する手段は有効である。 In a workplace such as an office or a factory, it is an important issue to improve the production efficiency of the workplace by visualizing the behavior of workers and analyzing the working hours and the like. Therefore, it is an effective means of recognizing and analyzing specific standard work (hereinafter referred to as "standard work") by workers by capturing videos of workplaces with cameras and analyzing the obtained videos.
ただし、カメラで撮影した職場動画を目視で解析し、決まった一定の手順で行う標準作業の行動を抽出し、各動作の時間を測定し、それらを可視化するには、膨大な解析時間と労力が必要である。そこで従来では、人間の行動を自動認識するために、撮影した動画から人を認識し、認識した人の重心から人の移動軌跡を求め、移動軌跡から特定の行動を認識する方法が提案されている。 However, visual analysis of workplace videos taken with a camera, extraction of standard work actions performed in a fixed procedure, measurement of the time for each action, and visualization of these actions requires a huge amount of analysis time and labor. is necessary. Conventionally, in order to automatically recognize human behavior, a method has been proposed in which a person is recognized from a captured video, the movement trajectory of the person is obtained from the weight of the recognized person, and specific behavior is recognized from the movement trajectory. there is
作業者の行動を認識する際には、処理の効率化を図るために、1台のカメラで、できるだけ広い視野を撮影するのが望ましい。そのために、画角の広い広角レンズを備えたカメラを用いて撮影を行うのが望ましい。しかしながら、広角レンズを備えたカメラで撮影した画像には歪が発生する。画像に歪が発生すると、画像に写った人の形状が歪むため、人の認識精度が悪化する。標準作業を認識するためには、同じ人の動きを時間経過に沿ってトレースする必要があるため、人の認識精度の悪化は、標準作業の認識精度の悪化を招く。このような精度の悪化を防止するために、画像の歪を補正した上で標準作業を認識するのが望ましい。しかしながら、歪の補正には手間がかかるため、高精度かつ高速に標準作業の認識を行うのは困難であるという問題があった。 When recognizing a worker's behavior, it is desirable to photograph a field of view as wide as possible with one camera in order to improve processing efficiency. Therefore, it is desirable to use a camera equipped with a wide-angle lens with a wide angle of view. However, images captured by cameras with wide-angle lenses are distorted. When the image is distorted, the shape of the person in the image is distorted, and the accuracy of human recognition deteriorates. In order to recognize the standard work, it is necessary to trace the movement of the same person over time. In order to prevent such deterioration in accuracy, it is desirable to recognize the standard work after correcting the distortion of the image. However, since it takes time and effort to correct the distortion, there is a problem that it is difficult to recognize the standard work with high precision and high speed.
本発明は、上記に鑑みてなされたものであって、作業者の標準作業を、高精度かつ高速に認識することが可能な行動認識装置、行動認識方法及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an action recognition device, an action recognition method, and a program capable of recognizing a worker's standard work with high precision and high speed. .
上述した課題を解決し、目的を達成するために、本発明の行動認識装置は、撮影した認識対象となる動画から、当該動画に写った被写体の特定行動を認識する行動認識装置であって、広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力部と、前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力部と、前記第1の動画入力部および前記第2の動画入力部が入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割部と、前記第1の動画入力部が入力した動画から、前記撮影手段毎および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成部と、異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成部が、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択部と、前記辞書選択部が選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the action recognition device of the present invention is an action recognition device that recognizes a specific action of a subject captured in a captured moving image to be recognized, Input a video of a subject performing a specific action at multiple positions with different distortions within the observation range of the imaging means, taken by multiple imaging means equipped with a wide-angle lens and photographing the same area from different directions . a second moving image input unit for inputting a moving image to be recognized by the plurality of photographing means; and input by the first moving image input unit and the second moving image input unit an area dividing unit that divides an image included in a moving image into a plurality of areas each having a different distortion; a dictionary creating unit that creates a recognition dictionary for recognizing actions; The dictionary creation unit selects a recognition dictionary with the least distortion from among the plurality of recognition dictionaries created for each of the photographing means and for each of the regions , and based on the recognition dictionary selected by the dictionary selection unit. and an action recognition unit that recognizes the specific action of the subject.
本発明によれば、作業者の標準作業を、高精度かつ高速に認識することができる。 ADVANTAGE OF THE INVENTION According to this invention, a worker's standard work can be recognized highly accurately and at high speed.
(第1の実施形態)
以下に添付図面を参照して、行動認識装置、行動認識方法及びプログラムの第1の実施形態を詳細に説明する。
(First embodiment)
A first embodiment of a behavior recognition device, a behavior recognition method, and a program will be described in detail below with reference to the accompanying drawings.
(行動認識装置のハードウェア構成の説明)
図1は、本実施形態に係る行動認識システム100のハードウェア構成の一例を示すハードウェアブロック図である。図1に示すように、行動認識システム100は、魚眼カメラ200と、行動認識装置300とを備える。
(Description of hardware configuration of action recognition device)
FIG. 1 is a hardware block diagram showing an example of the hardware configuration of an
行動認識システム100は、魚眼カメラ200で撮影した被写体の特定行動を認識する。特定行動とは、例えば、職場の作業環境において繰り返し行われる、「歩行する」、「荷物を棚入れする」等の標準作業である。
The
魚眼カメラ200は、全周囲360°の範囲を観測可能な魚眼レンズを備えたビデオカメラである。なお、魚眼レンズを備えるのは一例であって、魚眼カメラ200は、広角レンズを備えるものであってもよい。なお、魚眼カメラ200は、撮影手段の一例である。
The fish-
行動認識装置300は、魚眼カメラ200が撮影した動画を分析することによって、当該動画に写っている人(被写体)の特定行動を認識する。被写体の特定行動を認識するためには、ある程度のコマ数の画像(連続画像、映像)が必要になる。コマ数が多くなると、魚眼カメラ200が有する歪を補正する処理の負荷が高くなる。本実施の形態は、歪の補正を行うことなく動画を分析する点が特徴である。
The
なお、行動認識装置300は、行動認識処理部321と、行動認識処理部321と魚眼カメラ200とを接続するインタフェース部322と、を備える。
The
行動認識処理部321は、人(被写体)の特定行動を認識する。インタフェース部322は、魚眼カメラ200が撮影した動画を、行動認識処理部321が認識可能なデータ形式に変換して、行動認識処理部321に受け渡す。
The action
次に、図2を用いて、行動認識システム100が使われる代表的な場面を説明する。図2は、第1の実施形態に係る行動認識システム100が使用されている場面の一例を示す図である。
Next, a typical scene in which the
図2に示すように、行動認識システム100は、オフィスや工場などの職場における作業環境に設置される。そして、魚眼カメラ200は、作業環境において作業を行っている複数の人H1,H2を含む動画を撮影する。作業環境を1台のカメラで撮影するのが効率的であるため、魚眼カメラ200は、画角の広い広角レンズを備えるのが望ましい。本実施形態では、魚眼カメラ200は、対角線画角180°を有する魚眼レンズを備えるものとする。なお、人H1,H2は、被写体の一例である。
As shown in FIG. 2, the
(魚眼カメラのハードウェア構成の説明)
まず、魚眼カメラ200のハードウェア構成について説明する。
(Description of the hardware configuration of the fisheye camera)
First, the hardware configuration of the
図3は、魚眼カメラ200のハードウェア構成の一例を示すハードウェアブロック図である。図3に示すように、魚眼カメラ200は、対角線画角が180度以上の画角を有する魚眼レンズ217及びCCD(Charge Coupled Device)203を備えている。なお、魚眼カメラ200aは撮影手段の一例である。魚眼カメラ200は、被写体光を、魚眼レンズ217を通してCCD203に入射する。また、魚眼カメラ200は、魚眼レンズ217とCCD203との間に、メカシャッタ202を備えている。メカシャッタ202は、CCD203への入射光を遮断する。メカシャッタ202の開閉は、モータドライバ206により制御される。また、魚眼レンズ217のレンズ位置もモータドライバ206により制御されて、オートフォーカス機能が実現される。
FIG. 3 is a hardware block diagram showing an example of the hardware configuration of the
CCD203は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データを出力する。CCD203から出力された画像データは、CDS(Correlated Double Sampling:相関2重サンプリング)回路204によりノイズ成分を除去され、A/D変換器205によりデジタル画像データ(以下、単に画像データと呼ぶ)に変換された後、画像処理回路208に対して出力される。
The
画像処理回路208は、画像データを一時格納するSDRAM(Synchronous DRAM)212を用いて、YCrCb変換処理や、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス処理は、画像データの色濃さを調整し、コントラスト補正処理は、画像データのコントラストを調整する画像処理である。エッジ強調処理は、画像データのシャープネスを調整し、色変換処理は、画像データの色合いを調整する画像処理である。また、画像処理回路208は、信号処理や画像処理が施された画像データをLCD216(液晶ディスプレイ)に表示する。
An
画像処理回路208において信号処理、画像処理が施された画像データは、圧縮伸張回路213を介して、メモリカード214に記録される。圧縮伸張回路213は、操作部215から取得した指示によって、画像処理回路208から出力される画像データを圧縮してメモリカード214に出力すると共に、メモリカード214から読み出した画像データを伸張して画像処理回路208に出力する。
Image data subjected to signal processing and image processing in the
魚眼カメラ200aは、プログラムに従って各種演算処理を行うCPU(Central Processing Unit)209を備えている。CPU209は、プログラムなどを格納した読み出し専用メモリであるROM(Read Only Memory)211、及び各種の処理過程で利用するワークエリア、各種データ格納エリアなどを有する読み出し書き込み自在のメモリであるRAM(Random Access Memory)210とバスラインによって相互接続されている。
The fisheye camera 200a includes a CPU (Central Processing Unit) 209 that performs various arithmetic processing according to a program. The
CCD203、CDS回路204及びA/D変換器205は、タイミング信号を発生するタイミング信号発生器207を介してCPU209によって、タイミングを制御される。さらに、画像処理回路208、圧縮伸張回路213、メモリカード214も、CPU209によって制御される。
魚眼カメラ200の出力は、図1に示す行動認識装置300の信号処理ボードであるインタフェース部322に入力される。
The output of the
(行動認識装置のハードウェア構成の説明)
次に、行動認識装置300のハードウェア構成について説明する。
(Description of hardware configuration of action recognition device)
Next, the hardware configuration of the
図4は、行動認識装置300のハードウェア構成の一例を示すハードウェアブロック図である。図4に示すように、行動認識装置300は、行動認識装置300全体の動作を制御するCPU(Central Processing Unit)301、CPU301の駆動に用いられるプログラムを記憶したROM(Read Only Memory)302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303を有する。また、プログラム等の各種データを記憶するHD(Hard Disk)304、CPU301の制御にしたがってHD304に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)305を有する。
FIG. 4 is a hardware block diagram showing an example of the hardware configuration of the
また、行動認識装置300は、メディアI/F307、ディスプレイ308、ネットワークI/F309を有する。メディアI/F307は、フラッシュメモリ等のメディア306に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ308は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F309は、通信ネットワークを利用してデータ通信する。
Moreover, the
また、行動認識装置300は、キーボード311、マウス312、CD-ROM(Compact Disk Read Only Memory)ドライブ314、バスライン310を有する。キーボード311は、文字、数値、各種指示などの入力のための複数のキーを備える。マウス312は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う。CD-ROMドライブ314は、着脱可能な記録媒体の一例としてのCD-ROM313に対する各種データの読み出し又は書き込みを制御する。バスライン310は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
The
図示した行動認識装置300のハードウェアは、1つの筐体に収納したり、ひとまとまりの装置としたりする必要はない。また、クラウドコンピューティングに対応するため、本実施形態の行動認識装置300の物理的な構成は固定的でなくてもよく、負荷に応じてハード的なリソースが動的に接続・切断されることで構成されてもよい。
The illustrated hardware of the
なお、プログラムは、実行可能形式や圧縮形式などでメディア306やCD-ROM313などの記憶媒体に記憶された状態で配布されるか、又は、プログラムを配信するサーバから配信される。
The program is distributed while being stored in a storage medium such as the medium 306 or the CD-
本実施の形態の行動認識装置300で実行されるプログラムは、下記に示す各機能を含むモジュール構成となっている。行動認識装置300のCPU301は、ROM302やHD304などの記憶媒体からプログラムを読み出して実行することにより各モジュールがRAM303上にロードされ、各機能を発揮する。
The program executed by the
(魚眼カメラで発生する歪の説明)
次に、図5,図6を用いて魚眼カメラ200で撮影した画像に発生する歪について説明する。図5は、魚眼レンズで観測した画像の歪を説明する図である。図6は、魚眼レンズで観測した画像の位置による歪の違いを説明する図である。
(Description of distortion that occurs with a fisheye camera)
Next, the distortion that occurs in the image captured by the
図5に示す画像Iは、標準レンズ又は望遠レンズを装着したカメラで、縦横の規則的な直線で構成されるマス目が描かれたターゲットを撮影した際に観測される画像Iの一例である。図5に示すように、画像Iには、縦横の直線的なマス目が観測される。そして、各マス目における縦線と横線の長さの比率は、画像Iの位置に依らずにほぼ等しい。すなわち、画像Iにおいて発生する歪は非常に小さい。 The image I shown in FIG. 5 is an example of an image I observed when a target on which squares composed of regular vertical and horizontal straight lines is drawn is photographed with a camera equipped with a standard lens or a telephoto lens. . As shown in FIG. 5, vertical and horizontal linear grids are observed in the image I. FIG. The ratio of the length of the vertical line to the length of the horizontal line in each square is almost the same regardless of the position of the image I. That is, the distortion generated in image I is very small.
一方、画像Jは、本実施の形態の魚眼カメラ200で、前記と同じターゲットを撮影した際に観測される画像の一例である。魚眼カメラ200は、画像の中心からの距離と観測対象物の方向(角度)とが比例する画像を生成する、いわゆる等距離射影方式によって画像を生成する。したがって、画像Jの中心付近と周辺部とで、発生する歪の大きさが異なる。
On the other hand, image J is an example of an image observed when the same target as described above is photographed by
具体的には、前記したターゲットを撮影した際に観測される画像Jにおいて、縦線は、画像Jに外接する円の円周上の点C1と点C2を通る円弧状に観測される。また、ターゲットの横線は、画像Jに外接する円の円周上の点C3と点C4を通る円弧状に観測される。 Specifically, in the image J observed when the target is photographed, a vertical line is observed in the shape of an arc passing through the points C1 and C2 on the circumference of the circle circumscribing the image J. A horizontal line of the target is observed as an arc passing through points C3 and C4 on the circumference of a circle circumscribing image J. FIG.
すなわち、画像Jの中心付近では、ターゲットの縦線と横線は直線に近い状態で観測される。そして、各マス目における縦線と横線の長さの比率はほぼ等しい。すなわち、発生する歪は小さい。一方、画像Jの周辺部では、ターゲットの縦線及び横線は、ともに曲線として観測される。さらに、各マス目における縦線と横線の比率は異なる。このように、画像Jでは、画像の中心からの距離が大きいほど、発生する歪が大きくなる。そして、発生する歪の方向は、画像Jの中心に対して点対称な方向になる。 That is, near the center of the image J, the vertical and horizontal lines of the target are observed to be nearly straight. The ratio of the length of the vertical line to the horizontal line in each square is almost equal. That is, the generated strain is small. On the other hand, in the peripheral portion of image J, both the vertical and horizontal lines of the target are observed as curved lines. Furthermore, the ratio of vertical lines to horizontal lines in each square is different. Thus, in the image J, the greater the distance from the center of the image, the greater the distortion that occurs. The direction of the generated distortion is point-symmetrical with respect to the center of the image J. FIG.
したがって、画像Jでは、人が観測される位置によって、当該人が同じ行動を行った場合に発生する動きの大きさと方向とが異なる。すなわち、人の行動を認識するためには、画像Jの場所毎に認識辞書を用意して、人が観測された位置に応じた認識辞書を利用して行動認識を行えばよい。 Therefore, in the image J, the magnitude and direction of movement that occurs when the person performs the same action differs depending on the position where the person is observed. That is, in order to recognize a person's action, a recognition dictionary may be prepared for each location of the image J, and action recognition may be performed using the recognition dictionary corresponding to the position where the person is observed.
具体的には、図6に示すように、画像Jの中心から周辺に向けて、複数の領域R1,R2,R3,R4を設定して、領域R1,R2,R3,R4毎に認識辞書を作成する。この場合、画像の歪は、領域R1が最も小さく、領域R4が最も大きい。なお、領域R1,R2,R3,R4は、設定する領域の一例であって、領域数を4個に限定するものではない。このように、本実施形態の行動認識システム100は、画像Jの複数の異なる位置に同様の領域を設定して、各領域において認識辞書を作成する。そして、行動認識システム100は、撮影した動画の中から検出した人の位置に最も近い位置で作成された認識辞書を用いて、行動認識を行う。
Specifically, as shown in FIG. 6, a plurality of regions R1, R2, R3, and R4 are set from the center to the periphery of the image J, and a recognition dictionary is created for each of the regions R1, R2, R3, and R4. create. In this case, the image distortion is the smallest in the region R1 and the largest in the region R4. Note that the regions R1, R2, R3, and R4 are examples of regions to be set, and the number of regions is not limited to four. In this manner, the
なお、魚眼カメラ200の代わりに、広角レンズや超広角レンズを備えたカメラを用いた場合であっても、魚眼レンズと同様に、画像の周辺には、画像の中心よりも大きい歪が発生する。そのため、画像内の位置に応じた認識辞書を用いて行動認識を行う方法は有効である。
Note that even if a camera equipped with a wide-angle lens or an ultra-wide-angle lens is used instead of the
(実際に観測される画像の説明)
図7から図11を用いて、行動認識システム100が観測する画像の例を説明する。図7は、第1の実施形態の行動認識システム100が観測した画像の一例を示す図である。
(Description of the image actually observed)
Examples of images observed by the
図7は、職場における作業者の特定行動の一例である。特に、図7の画像J1は、「歩く」という特定行動の一例を示す図である。「歩く」行動は、作業者が複数の特定行動を行う際に、ある特定行動から別の特定行動に移る際に発生する行動である。そして、一般に、「歩く」行動に要する時間が多くなると、作業効率が低くなる。行動認識システム100は、歩く行動を、特定行動の一つとして認識する。
FIG. 7 is an example of specific actions of workers in the workplace. In particular, the image J1 in FIG. 7 is a diagram showing an example of the specific action "walking". A "walking" action is an action that occurs when a worker performs a plurality of specific actions and moves from one specific action to another specific action. And generally, the longer the time required for the "walking" action, the lower the working efficiency. The
図8は、行動認識システム100が認識する特定行動のうち、「歩く」行動を説明する図である。図8に示すように、魚眼カメラ200は、歩行動作を行っている人H1を時系列で撮影する。この場合、歩行している人H1を撮影した動画(画像列)が得られる。
FIG. 8 is a diagram for explaining the "walking" action among the specific actions recognized by the
図9は、図7の画像J1における人の拡大図j1である。行動認識システム100は、図9に示す領域の時間変化を観測することによって、特定行動を認識する。
FIG. 9 is an enlarged view j1 of a person in image J1 of FIG. The
図10は、行動認識システム100が認識する特定行動のうち、商品を棚に入れる「棚入れ」行動を説明する図である。図10に示すように、魚眼カメラ200は、棚入れを行っている人H1を字系列で撮影する。この場合、棚入れを行っている人H1を撮影した動画(画像列)が得られる。
10A and 10B are diagrams for explaining a "putting" action of placing a product on a shelf, among the specific actions recognized by the
図11は、棚入れ行動を行っている人の拡大図j2の一例を示す図である。行動認識システム100は、図11に示す領域の時間変化を観測することによって、特定行動を認識する。
FIG. 11 is a diagram showing an example of an enlarged view j2 of a person who is taking the putaway action. The
(行動認識処理部の機能構成の説明)
次に、図12を用いて、行動認識処理部321の機能構成を説明する。図12は、本実施形態に係る行動認識処理部321の一例を示す機能ブロック図である。図12に示すように、行動認識処理部321は、動画入力部331と、領域分割部332と、辞書作成部333と、辞書選択部334と、行動認識部335と、持続時間測定部336とを備える。
(Description of the functional configuration of the action recognition processing unit)
Next, the functional configuration of the action
動画入力部331は、魚眼カメラ200で撮影された動画を、インタフェース部322(図1)を介して入力する。
The moving
領域分割部332は、魚眼カメラ200が撮影した動画に含まれる画像を、歪の異なる複数の領域に分割する。
The
辞書作成部333は、分割された領域毎に、人の特定行動を認識するための異なる認識辞書を作成する。
The
辞書選択部334は、辞書作成部333が作成した異なる認識辞書の中から、動画から検出した人の特定行動を認識するために使用する認識辞書を選択する。
A dictionary selection unit 334 selects a recognition dictionary to be used for recognizing a specific behavior of a person detected from a moving image from among the different recognition dictionaries created by the
行動認識部335は、辞書選択部334が選択した認識辞書に基づいて、人の特定行動を認識する。
The
持続時間測定部336は、特定行動の認識結果に基づいて、当該特定行動の持続時間を測定する。
The
(辞書作成部の機能構成の説明)
次に、図13を用いて、辞書作成部333の機能構成を説明する。図13は、本実施形態に係る辞書作成部333の概略構成の一例を示す機能ブロック図である。図13に示すように、辞書作成部333は、特徴点抽出部333aと、特徴点分類部333bと、特徴ベクトル算出部333cと、ヒストグラム作成部333dと、認識辞書作成部333eとを備える。
(Description of the functional configuration of the dictionary creation part)
Next, with reference to FIG. 13, the functional configuration of the
なお、魚眼カメラ200で撮影した動画は歪を有しているが、歪の補正は行わず、辞書作成部333は、撮影された動画が含む画像の複数の位置に対応する認識辞書を作成する。すなわち、辞書作成部333は、歪が大きい領域では歪が大きい状態で特定行動(標準作業)を認識する認識辞書を作成する。また、辞書作成部333は、歪が小さい領域では歪が小さい状態で特定行動を認識する認識辞書を作成する。したがって、認識辞書を作成する際には、被験者は、画像の中の様々な位置で標準作業を行う。
Although the moving image captured by the
特徴点抽出部333aは、魚眼カメラ200で撮影された動画に含まれる複数の画像の中から、特定行動(標準作業)に伴って発生する特徴点を抽出する。より具体的には、特徴点抽出部333aは、入力された動画から画像フレームをT枚ずつ切り出し、切り出されたT枚の画像フレームに対して、時空間における特徴点(時空間特徴点ともいう)を抽出する。特徴点とは、入力された動画を、空間方向2軸と時間方向1軸とからなる3次元の所定サイズのブロックに分割した際に、当該ブロック内における画像の平均的な明るさが所定値を超えるブロックである。なお、特徴点抽出部333aは、精度の高い学習データを生成するために、複数の動画から特徴点の抽出を行う。
The feature
なお、特徴点抽出部333aは、魚眼カメラ200で撮影された動画に含まれる画像の中から、公知の人検出アルゴリズムを用いて人を検出して、検出された人の領域のみに対して、前記した特徴点抽出を行うようにしてもよい。これによると、特徴点を抽出する領域を限定することができるため、処理をより一層効率的に行うことができる。
Note that the feature
特徴点分類部333bは、特徴点抽出部333aが抽出した特徴点を表すM×N×T×3次元のベクトルを、例えば、公知のK平均法(K-means法)で分類(クラスタリング)する。分類するクラスの数をK種類とすると、特徴点分類部333bは、学習用の動画から抽出した特徴点をK種類に分類する。
The feature
特徴ベクトル算出部333cは、特徴点分類部333bが分類したK種類の特徴点のうち、同じ種類の特徴点におけるM×N×T×3次元のベクトルを平均化して、K個の平均ベクトルVkを求める。特徴ベクトル算出部333cが算出した平均ベクトルVkは、それぞれ、K種類の特徴点を代表するベクトルである。なお、平均ベクトルVkは、学習ベクトルの一例である。
The feature vector calculation unit 333c averages the M×N×T×3-dimensional vectors of the same type of feature points among the K types of feature points classified by the feature
特定行動を観測した動画から得られる特徴ベクトルは、同じ特定行動の学習データで得られた平均ベクトルVkの近く分布する。行動認識部335は、この特性を利用して、魚眼カメラ200で撮影した歪を有する動画から、歪を補正しない状態でも高精度な行動認識を行うことができる。すなわち、作業者が直線的に移動した際に、撮影された動画の歪が大きい領域では、人の動きが曲線的になる。しかし、辞書作成部333が作成した認識辞書は、人の動きが曲線状になるものとして学習されるため、歪を補正することなく、特定行動を認識することができる。同様に、歪の小さい領域では、作業者の直線的な動きが、直線的な動きとして学習されるため、歪を補正することなく、特定行動を認識することができる。
Feature vectors obtained from videos in which a specific action is observed are distributed near the average vector Vk obtained from learning data of the same specific action. Using this characteristic, the
ヒストグラム作成部333dは、平均ベクトルVkの出現頻度を表す学習ヒストグラムH(k)を作成する。具体的には、K種類の特徴点について、各特徴点グループのブロック合計数を計算し、学習ヒストグラムH(k)を作成する。学習ヒストグラムH(k)は、特徴点kグループの頻度を示す。なお、ヒストグラム作成部333dは、学習ヒストグラム作成部の一例である。 The histogram creation unit 333d creates a learning histogram H(k) representing the appearance frequency of the average vector Vk. Specifically, for K types of feature points, the total number of blocks in each feature point group is calculated to create a learning histogram H(k). A learning histogram H(k) indicates the frequency of k groups of feature points. Note that the histogram creation unit 333d is an example of a learning histogram creation unit.
認識辞書作成部333eは、N個の行動認識対象領域において、各領域の学習データから求めた学習ヒストグラムH(k)により各領域の特定行動を認識する辞書を作成する。認識辞書作成部333eは、SVM(Support Vector Machine)の機械学習方法で、認識辞書を作成する。なお、認識辞書作成部333eは、SVMの機械学習方法で認識辞書を作成する際に、認識対象となる特定行動を含む正の学習データ(プラス学習データ)と、記認識対象となる特定行動を含まない負の学習データ(マイナス学習データ)とを用意して認識辞書を作成してもよい。すなわち、認識辞書作成部333eは、正の学習データを正しいデータであるとして受け入れて、負の学習データを異なるデータであるとして除外する認識辞書を作成する。これによって、特定行動と間違いやすい行動を負の学習データとして学習させることができるため、特定行動の認識率を向上させることができる。なお、認識辞書を作成するとき、SVM機械学習方法以外に他の機械学習方法を使ってもよい。例えば、KNN(K Nearest Neighbor)や、MLP(Multilayer perceptron)などの機械学習方法を使ってもよい。 The recognition dictionary creation unit 333e creates a dictionary for recognizing specific actions in each of the N action recognition target regions, based on the learning histogram H(k) obtained from the learning data of each region. The recognition dictionary creating unit 333e creates a recognition dictionary by a machine learning method of SVM (Support Vector Machine). Note that when creating the recognition dictionary by the SVM machine learning method, the recognition dictionary creation unit 333e combines positive learning data (plus learning data) including specific actions to be recognized and specific actions to be recognized. A recognition dictionary may be created by preparing negative learning data (negative learning data) that does not include such data. That is, the recognition dictionary creating unit 333e creates a recognition dictionary that accepts positive learning data as correct data and excludes negative learning data as different data. As a result, actions that are likely to be mistaken for specific actions can be learned as negative learning data, so that the recognition rate of specific actions can be improved. It should be noted that other machine learning methods than the SVM machine learning method may be used when creating the recognition dictionary. For example, machine learning methods such as KNN (K Nearest Neighbor) and MLP (Multilayer Perceptron) may be used.
(行動認識部の機能構成の説明)
次に、図14を用いて、行動認識部335の機能構成を説明する。図14は、本実施形態に係る行動認識部335の概略構成の一例を示す機能ブロック図である。図14に示すように、行動認識部335は、特徴点抽出部335aと、特徴ベクトル算出部335bと、ヒストグラム作成部335cと、行動認識部335dとを備える。特徴点抽出部335aは、辞書作成部333が備える特徴点抽出部333aと同じ機能を備える。
(Description of the functional configuration of the action recognition unit)
Next, the functional configuration of the
特徴ベクトル算出部335bは、特徴点抽出部335aが抽出した特徴点における時空間エッジ情報(微分ベクトル)を求める。時空間エッジ情報について、詳しくは後述する。 The feature vector calculation unit 335b obtains spatio-temporal edge information (differential vector) at the feature points extracted by the feature point extraction unit 335a. Details of the spatio-temporal edge information will be described later.
ヒストグラム作成部335cは、時空間エッジ情報の出現頻度を表す特定行動ヒストグラムT(k)を作成する。 The histogram creation unit 335c creates a specific action histogram T(k) representing the appearance frequency of spatio-temporal edge information.
行動認識部335dは、動画から得られる微分ベクトルに基づいてヒストグラム作成部335cが作成した特定行動ヒストグラムT(k))と、認識辞書が記憶している学習ヒストグラムH(k)とを比較することによって、特定行動を認識する。認識対象となる特徴点の分布は、認識辞書における特徴点の分布と近い。すなわち、特定行動を行っている認識対象の画像から得た特定行動ヒストグラムT(k)と、同じ特定行動の学習ヒストグラムH(k)とは類似しているため、画像の歪み補正を行うことなく、特定行動を認識することが可能である。 The action recognition unit 335d compares the specific action histogram T(k)) created by the histogram creation unit 335c based on the differential vector obtained from the moving image and the learning histogram H(k) stored in the recognition dictionary. to recognize specific behaviors. The distribution of feature points to be recognized is close to the distribution of feature points in the recognition dictionary. That is, since the specific action histogram T(k) obtained from the recognition target image performing the specific action and the learning histogram H(k) of the same specific action are similar, the image distortion correction is not performed. , it is possible to recognize specific actions.
(行動認識システムが観測する画像の説明)
次に、図15,図16を用いて、行動認識システム100が観測する画像の例を説明する。図15は、動画入力部331に入力される動画(画像列)の一例を示す図である。図15に示す各画像(フレーム)は、魚眼カメラ200で撮影した画像であり、歪を補正していない画像である。撮影された画像の横軸x、縦軸yは空間座標である。そして、画像フレームF1,F2の時間軸はtで示す。つまり、入力された画像は、座標(x,y,t)における時空間データになる。時空間の一つの座標における画素値は、空間座標(x,y)と時刻tの関数である。前述した職場における特定行動を認識する際に、人が移動すると、図15に示す時空間データに変化点が発生する。行動認識システム100は、この変化点、すなわち時空間の特徴点を見つけることで、特定行動を認識する。
(Description of images observed by the action recognition system)
Next, examples of images observed by the
次に、本実施形態における特徴点の抽出方法を説明する。図16に示すように、時空間画像データをブロックに分割する。図16の大きい立方体は時空間画像データを示す。横軸xと縦軸yとは空間座標を表す。それぞれの単位は画素である。また時間軸をtで示す。例えば、動画を30フレーム/秒のビデオレートで入力し、時系列画像を入力する。このビデオレートで換算することによって、画像が撮影された実際の時間を求めることができる。図16の時空間画像データを、サイズ(N,N,T)のブロックで分割する。1ブロックのサイズは横M画素、縦N画素、Tフレームになる。図16の1つのマス目が1つのブロックを示す。人がある行動を行ったとき、時空間データにおいて動きが発生したブロックでは、当該ブロックの特徴量が大きくなる。すなわち、時空間に大きな変化量が発生する。 Next, a method for extracting feature points in this embodiment will be described. As shown in FIG. 16, the spatio-temporal image data is divided into blocks. Large cubes in FIG. 16 indicate spatio-temporal image data. The horizontal axis x and the vertical axis y represent spatial coordinates. Each unit is a pixel. Also, the time axis is indicated by t. For example, a moving image is input at a video rate of 30 frames/second, and time-series images are input. By converting at this video rate, the actual time the image was taken can be determined. The spatio-temporal image data of FIG. 16 is divided into blocks of size (N, N, T). The size of one block is horizontal M pixels, vertical N pixels, and T frames. One square in FIG. 16 indicates one block. When a person performs a certain action, the feature amount of the block in which movement occurs in the spatio-temporal data increases. That is, a large amount of change occurs in time and space.
次に、変化量の大きいブロックを特徴点として抽出する方法を説明する。時空間の画像データから特徴点を抽出するため、まず、空間方向、すなわち(x,y)方向でノイズを除去するために平滑化処理を行う。平滑化処理は、式(1)で行われる。 Next, a method of extracting a block with a large amount of change as a feature point will be described. In order to extract feature points from spatio-temporal image data, first, smoothing processing is performed to remove noise in the spatial direction, that is, the (x, y) direction. The smoothing process is performed by Equation (1).
ここで、I(x,y,t)は、時刻tのフレームにおける(x,y)座標の画素値である。また、g(x,y)は、平滑化処理のためのカーネルである。また、*は畳み込み処理を示す演算子である。平滑化処理は、単純に画素値の平均化処理としてもよいし、既存のGaussian平滑化フィルタ処理を行ってもよい。 Here, I(x, y, t) is the pixel value of the (x, y) coordinates in the frame at time t. Also, g(x, y) is a kernel for smoothing processing. Also, * is an operator indicating convolution processing. The smoothing process may simply be an averaging process of pixel values, or an existing Gaussian smoothing filter process may be performed.
次に時間軸でフィルタリング処理を行う。ここでは、式(2)に示すGaborフィルタリング処理を行う。Gaborフィルタは指向性フィルタであり、フィルタを作用させる領域に存在する平行で等間隔な線を強調して、線の間に存在するノイズを除去する作用を有する。式(2)におけるgevとgodとは、それぞれ、式(3)と式(4)が示すGaborフィルタのカーネルである。また、*は畳み込み処理を示す演算子である。さらに、τとωは、Gaborフィルタにおけるカーネルのパラメータである。 Next, filtering processing is performed on the time axis. Here, the Gabor filtering process shown in Equation (2) is performed. The Gabor filter is a directional filter, and has the effect of emphasizing parallel and equally spaced lines existing in the region where the filter is applied and removing noise existing between the lines. g ev and g od in equation (2) are kernels of Gabor filters indicated by equations (3) and (4), respectively. Also, * is an operator indicating convolution processing. Furthermore, τ and ω are parameters of the kernel in the Gabor filter.
図15に示す時空間画像の全画素に対して、上記式(2)に示すフィルタリング処理を行った後、図16に示す分割ブロック内のR(x,y,t)の平均値を求める。式(5)で、時空間座標(x,y,t)のブロックの平均値を求める。 After performing the filtering process shown in the above formula (2) on all pixels of the spatio-temporal image shown in FIG. 15, the average value of R(x, y, t) in the divided blocks shown in FIG. 16 is obtained. The average value of the block of the spatio-temporal coordinates (x, y, t) is obtained by Equation (5).
式(6)に示すように、ブロック内の平均値M(x,y,t)が所定の閾値Thre_Mより大きい場合、このブロックを特徴点とする。 As shown in Equation (6), if the average value M(x, y, t) in the block is greater than a predetermined threshold Thre_M, this block is taken as a feature point.
(特徴点の記述方法の説明)
次に、図17A,図17Bを用いて、特徴点の記述方法を説明する。図17Aは、動画から抽出した特徴点の一例を示す第1の図である。図17Bは、動画から抽出した特徴点の一例を示す第2の図である。すなわち、図17Aは、図11に示した棚入れを行っている人の画像から抽出した、時刻tにおける特徴点の一例を示す画像k1である。図17Aに示すように、動きのある部分に特徴点が抽出される。図17Bは、同様に時刻t+Δtにおいて抽出された特徴点の一例を示す画像k2である。
(Description of how to describe feature points)
Next, a description method of feature points will be described with reference to FIGS. 17A and 17B. FIG. 17A is a first diagram showing an example of feature points extracted from a moving image. FIG. 17B is a second diagram showing an example of feature points extracted from a moving image. That is, FIG. 17A is an image k1 showing an example of feature points at time t, extracted from the image of the person who is doing the shelving shown in FIG. As shown in FIG. 17A, feature points are extracted from moving parts. FIG. 17B is an image k2 showing an example of feature points similarly extracted at time t+Δt.
図17Aに示す特徴点が抽出されたら、当該特徴点が属するブロック内の画素の時空間エッジ情報を求める。すなわち、式(7)に示す微分演算を行うことによって、画素のエッジ情報E(x,y,t)(微分ベクトル)を求める。 After the feature points shown in FIG. 17A are extracted, the spatio-temporal edge information of the pixels in the block to which the feature points belong is obtained. That is, the edge information E(x, y, t) (differential vector) of the pixel is obtained by performing the differential operation shown in Equation (7).
1ブロックはM×N×Tの画素を含むため、式(7)によってM×N×T×3の微分値が得られる。すなわち、特徴点を含むブロックを、M×N×T×3個の微分値のベクトルで記述することができる。つまり、特徴点をM×N×T×3次元のベクトルで記述することができる。そして、図17Bの画像k2についても、同様にしてエッジ情報E(x,y,t)を求める。 Since one block includes M.times.N.times.T pixels, equation (7) yields M.times.N.times.T.times.3 differential values. That is, a block containing feature points can be described by a vector of M×N×T×3 differential values. That is, feature points can be described by M×N×T×3-dimensional vectors. Edge information E(x, y, t) is similarly obtained for image k2 in FIG. 17B.
なお、辞書作成部333は、学習により、特定行動を認識する認識辞書を作成するとき、画像の中の歪が異なる複数の異なる位置にそれぞれ対応する認識辞書を作成する。
When creating a recognition dictionary for recognizing a specific action through learning, the
ここで、画像k1から抽出された複数の特徴点のうち、近接した特徴点は、一人の人の行動に伴って発生する特徴点であると考えられる。すなわち、図17Aに示す領域m1を、人の存在領域であるとして、辞書作成部333が作成した認識辞書を、領域m1の代表点(例えば重心位置)と関連付けて記憶する。
Here, among the plurality of feature points extracted from the image k1, the closest feature points are considered to be feature points that occur as a result of the action of one person. That is, the recognition dictionary created by the
図17Bの画像k2から抽出された特徴点が形成する領域m2についても同様である。このように、辞書作成部333は、特定行動を含むNフレームの画像を1つの学習データとして、認識辞書を作成する。
The same applies to the area m2 formed by the feature points extracted from the image k2 in FIG. 17B. In this way, the
(特定行動の持続時間の説明)
次に、図18を用いて、特定行動の持続時間について説明する。図18は、特定行動の持続時間の測定について説明する図である。
(Explanation of duration of specific action)
Next, with reference to FIG. 18, the duration of specific actions will be described. FIG. 18 is a diagram illustrating measurement of the duration of specific actions.
持続時間測定部336は、特定行動の認識結果により特定行動の持続時間を測定する。図18は、時刻t0から時刻t1の間は、「歩く」行動を行ったと認識されて、時刻t2から時刻t3の間は、「棚入れ」行動を行ったと認識された例を示す。
The
持続時間測定部336は、図18において、「歩く」行動の持続時間は(t1-t0)であるとし、「棚入れ」行動の持続時間は(t3-t2)であると判断する。なお、認識する特定行動の数が増えた場合も、同様に、各特定行動の認識処理を行い、行動の持続時間が測定される。
The
(認識辞書作成処理の流れの説明)
次に、図19を用いて、辞書作成部333が行う認識辞書作成処理の流れを説明する。なお、図19は、認識辞書の作成の流れの一例を示すフローチャートである。
(Description of the flow of recognition dictionary creation processing)
Next, with reference to FIG. 19, the flow of recognition dictionary creation processing performed by the
動画入力部331は、魚眼カメラ200が撮影した動画を入力する(ステップS11)。
The moving
特徴点抽出部333aは、入力された動画の中から特徴点を抽出する(ステップS12)。
The feature
特徴点分類部333bは、抽出された特徴点をクラスタリングする(ステップS13)。
The feature
特徴ベクトル算出部333cは、平均ベクトルVkを算出する(ステップS14)。 The feature vector calculator 333c calculates the average vector Vk (step S14).
ヒストグラム作成部333dは、学習ヒストグラムH(k)を作成する(ステップS15)。 The histogram creation unit 333d creates a learning histogram H(k) (step S15).
認識辞書作成部333eは、認識辞書を作成する(ステップS16)。その後、辞書作成部333は、図19の処理を終了する。なお、前記したように、認識辞書は、画像の異なる位置(歪が異なる位置)において複数作成する必要があるため、図19の処理は繰り返し実行される。
The recognition dictionary creation unit 333e creates a recognition dictionary (step S16). After that, the
(行動認識処理の流れの説明)
次に、図20を用いて、行動認識処理部321が行う行動認識処理の流れを説明する。なお、図20は、特定行動の認識処理の流れの一例を示すフローチャートである。
(Explanation of flow of action recognition processing)
Next, the flow of action recognition processing performed by the action
動画入力部331は、魚眼カメラ200が撮影した動画を入力する(ステップS21)。
The moving
特徴点抽出部335aは、入力された動画の中から特徴点を抽出する(ステップS22)。 The feature point extraction unit 335a extracts feature points from the input moving image (step S22).
特徴ベクトル算出部335bは、平均ベクトルVkを算出する(ステップS23)。 The feature vector calculator 335b calculates the average vector Vk (step S23).
ヒストグラム作成部335cは、特定行動ヒストグラムT(k)を作成する(ステップS24)。 The histogram creation unit 335c creates a specific action histogram T(k) (step S24).
辞書選択部334は、認識辞書を選択する(ステップS25)。具体的には、辞書選択部334は、特徴点抽出部335aが抽出した特徴点の位置の近傍で作成された認識辞書を選択する。すなわち、辞書選択部334は、歪の大きさが近い位置で作成された認識辞書を選択する。 The dictionary selection unit 334 selects a recognition dictionary (step S25). Specifically, the dictionary selection unit 334 selects a recognition dictionary created near the position of the feature point extracted by the feature point extraction unit 335a. That is, the dictionary selection unit 334 selects recognition dictionaries created at positions where the magnitudes of distortion are close to each other.
行動認識部335は、特定行動を認識する(ステップS26)。なお、特定行動の認識処理の流れは後述する(図21)。
The
持続時間測定部336は、特定行動の持続時間を測定する(ステップS27)。
The
さらに、持続時間測定部336は、特定行動の種類と特定行動の測定結果とを出力する(ステップS28)。その後、行動認識部335は、図20の処理を終了する。
Further, the
(特定行動の認識処理の流れの説明)
次に、図21を用いて、行動認識部335が行う特定行動の認識処理の流れを説明する。なお、図21は、複数の特定行動を認識する処理の流れの一例を示すフローチャートである。特に図21は、特定行動のうち、「歩く」行動を行った後で「棚入れ」行動を行ったことを認識する処理の流れを示す。
(Description of the flow of specific action recognition processing)
Next, with reference to FIG. 21, the flow of specific action recognition processing performed by the
行動認識部335は、「歩く」行動を認識する(ステップS31)。
The
次に、行動認識部335は、「歩く」行動を認識したかを判定する(ステップS32)。「歩く」行動を認識したと判定される(ステップS32:Yes)とステップS31に進む。一方、「歩く」行動を認識したと判定されない(ステップS32:No)とステップS33に進む。
Next, the
ステップS32でNoと判定されると、行動認識部335は、「棚入れ」行動を認識する(ステップS33)。
If determined as No in step S32, the
次に、行動認識部335は、「棚入れ」行動を認識したかを判定する(ステップS34)。「棚入れ」行動を認識したと判定される(ステップS34:Yes)と図21の処理を終了して、図20のステップS27に進む。一方、「棚入れ」行動を認識したと判定されない(ステップS34:No)とステップS31に戻る。
Next, the
なお、図21に示すフローチャートは一例であって、行動認識部335は、認識する特定行動の種類や順序に応じた処理を行う。
Note that the flowchart shown in FIG. 21 is an example, and the
以上説明したように、第1の実施形態の行動認識装置300によれば、動画入力部331は、魚眼カメラ200(撮影手段)で撮影された動画を入力して、領域分割部332は、動画に含まれる画像を、歪の異なる複数の領域に分割する。辞書作成部333は、分割された領域毎に、人(被写体)の特定行動を認識するための認識辞書を作成する。辞書選択部334は、辞書作成部333が作成した複数の認識辞書の中から、動画から検出した人の特定行動を認識するために使用する認識辞書を選択する。そして、行動認識部335は、辞書選択部334が選択した認識辞書に基づいて、人の特定行動を認識する。したがって、画像の領域毎に認識辞書を作成するため、撮影した画像の歪を補正することなく、人の特定行動(標準作業)を認識することができる。
As described above, according to the
また、第1の実施形態の行動認識装置300によれば、辞書選択部334は、魚眼カメラ200(撮影手段)が撮影した動画に含まれる画像から検出した人(被写体)の位置に応じた認識辞書を選択する。したがって、撮影した画像の歪を補正することなく、人の特定行動(標準作業)を認識することができる。
Further, according to the
また、本実施形態の行動認識装置300によれば、持続時間測定部336は、特定行動の認識結果に基づいて、当該特定行動の持続時間を測定する。したがって、特定行動(標準作業)の持続時間を容易かつ正確に測定することができる。
Also, according to the
また、第1の実施形態の行動認識装置300によれば、特徴点抽出部333aは、魚眼カメラ200(撮影手段)で撮影された動画に含まれる複数の画像の中から特徴点を抽出する。特徴点分類部333bは、抽出された特徴点をK種類に分類する。特徴ベクトル算出部333cは、分類されたK種類の特徴点グループに対して、それぞれのK個の平均ベクトルVk(学習ベクトル)を求める。したがって、人(被写体)の特定行動を容易に学習することができる。
Further, according to the
また、第1の実施形態の行動認識装置300によれば、辞書作成部333は、動画入力部331によって入力された、特定行動を行っている人の動画(プラス学習データ)と、特定行動を行っていない人の動画(マイナス学習データ)とから、各データの特徴点が有する特徴量による平均ベクトルVk(学習ベクトル)を用いて、それぞれ学習ヒストグラムH(k)を作成して、プラス学習データから生成した学習ヒストグラムH(k)と、マイナス学習データから生成した学習ヒストグラムH(k)とに基づいて、認識辞書を作成する。したがって、認識辞書の精度を向上させることができる。
Further, according to the
また、第1の実施形態の行動認識装置300によれば、特徴点抽出部335aは、魚眼カメラ200(撮影手段)で撮影された動画に含まれる複数の画像の中から特徴点を抽出する。特徴ベクトル算出部335bは、抽出された特徴点における時空間エッジの大きさと方向を示す特徴ベクトルを算出する。ヒストグラム作成部335cは、抽出された特徴点の特徴ベクトルに基づいて、特定行動ヒストグラムT(k)を作成する。そして、行動認識部335dは、特定行動ヒストグラムT(k)と認識辞書が有する学習ヒストグラムH(k)とに基づいて、人の特定行動を認識する。したがって、人(被写体)の特定行動を容易かつ正確に認識することができる。
Further, according to the
また、第1の実施形態の行動認識装置300によれば、特徴ベクトル算出部335bは、入力された複数の画像をM×N×Tサイズのフロックに分割し、各ブロックを微分処理することで、M×N×T×3次元のエッジ情報E(x,y,t)(微分ベクトル)を計算する。そして、特徴ベクトル算出部335bは、計算したエッジ情報E(x,y,t)と事前に学習したK種類の平均ベクトルVk(学習ベクトル)とを比較し、当該比較の結果に基づいて、エッジ情報E(x,y,t)を最も近い平均ベクトルVkと同じ種類の特徴点に分類する。ヒストグラム作成部335cは、分類の結果に基づいて特定行動ヒストグラムT(k)を作成する、したがって、撮影された動画から、特定行動の認識に使用する特定行動ヒストグラムT(k)を容易に作成することができる。
Further, according to the
また、第1の実施形態の行動認識装置300によれば、辞書作成部333及び行動認識部335は、入力された動画に対して、時間軸でのフィルタリング処理を行う。そして、特徴点抽出部333a,335aは、フィルタリング処理を行った結果、M×N×Tのブロック内における平均値が所定の閾値より大きい場合に、当該ブロックを特徴点として抽出する。したがって、特徴点の抽出を容易に行うことができる。
Further, according to the
また、本実施形態の行動認識装置300によれば、フィルタリング処理は、式(2),式(3),式(4)に示したGaborフィルタリング処理によって行う。したがって、撮影された動画のノイズが除去されることによって、特定行動の認識を行いやすい画像を得ることができる。
Further, according to the
また、第1の実施形態の行動認識装置300によれば、特徴点抽出部333a,335aは、時間軸でのフィルタリング処理を行う前に、各画像に対して平滑化処理を行う。したがって、時間軸方向に発生するノイズが除去されるため、人(被写体)の特定行動を、より一層高精度に認識することができる。
Further, according to the
また、第1の実施形態の行動認識装置300によれば、行動認識部335は、人の特定行動を認識する場合に、所定の順序で特定行動を認識し、特定行動が認識された場合は認識結果を出力して、特定行動が認識されない場合は、次の特定行動を認識する。したがって、複数の特定行動が連続して発生する場合であっても、確実に認識することができる。
Further, according to the
また、第1の実施形態の行動認識装置300によれば、広角レンズは、魚眼レンズである。したがって、1台のカメラでより一層広範囲を観測することができる。
Further, according to the
(第2の実施形態)
次に、添付図面を参照して、行動認識装置、行動認識方法及びプログラムの第2の実施形態を詳細に説明する。
(Second embodiment)
Next, a second embodiment of the action recognition device, action recognition method, and program will be described in detail with reference to the accompanying drawings.
(行動認識装置のハードウェア構成の説明)
図22は、本実施形態に係る行動認識システム100aのハードウェア構成の一例を示すハードウェアブロック図である。図22に示すように、行動認識システム100aは、魚眼カメラ200,201と、行動認識装置300aとを備える。
(Description of hardware configuration of action recognition device)
FIG. 22 is a hardware block diagram showing an example of the hardware configuration of the
行動認識システム100aは、第1の実施形態で説明した行動認識システム100と同様の機能を有し、魚眼カメラ200,201で撮影した人(被写体)の特定行動を認識する。行動認識システム100との違いは、2台の魚眼カメラ200,201で撮影した動画を入力可能な点である。
The
なお、行動認識装置300aは、行動認識処理部321aと、行動認識処理部321aと魚眼カメラ200,201とを接続するインタフェース部322aと、を備える。
The
行動認識処理部321aは、人(被写体)の特定行動を認識する。インタフェース部322aは、魚眼カメラ200,201が撮影した動画を、行動認識処理部321aが認識可能なデータ形式に変換して、行動認識処理部321aに受け渡す。
The action
次に、図23を用いて、行動認識システム100aが使われる代表的な場面を説明する。図23は、第2の実施形態に係る行動認識システム100aが使用されている場面の一例を示す図である。
Next, a typical scene in which the
図23に示すように、行動認識システム100aは、オフィスや工場などの職場における作業環境に設置される。魚眼カメラ200,201は、作業環境において作業を行っている複数の人H1,H2を含む動画を撮影する。本実施形態では、魚眼カメラ200,201は、いずれも対角線画角180°を有する魚眼レンズを備えるものとする。そして、2台の魚眼カメラ200,201は、異なる方向から同じ作業環境を撮影する。なお、人H1,H2は、被写体の一例である。
As shown in FIG. 23, the
第1の実施形態で説明した行動認識システム100は、複数の作業員が作業している環境において、複数の人の所定行動を認識することが可能であるが、別の作業者の死角に入っている作業者は可視化することができないため、行動認識を行うことができなかった。これに対して、行動認識システム100aは、作業環境を異なる方向から観測するため、死角が少なくなり、複数の人の所定行動を、より確実に認識することができる。さらに、行動認識システム100aは、1人の作業者を2台の魚眼カメラ200,201で撮影することができるため、より小さい歪で撮影された画像を用いて行動認識を行うことができる。
The
なお、行動認識システム100aのハードウェア構成は、魚眼カメラの台数が増える以外は、行動認識システム100のハードウェア構成と同じであるため、説明は省略する。
Note that the hardware configuration of the
(行動認識処理部の機能構成の説明)
次に、図24を用いて、行動認識処理部321aの機能構成を説明する。図24は、第2の実施形態における行動認識処理部321aの機能構成の一例を示す機能ブロック図である。図24に示すように、行動認識処理部321aは、第1の実施形態で説明した行動認識処理部321の機能構成(図12)に加えて、同一人物判定部337を備える。また行動認識処理部321aは、辞書選択部334の代わりに、機能が変更された辞書選択部334aを備える。
(Description of the functional configuration of the action recognition processing unit)
Next, the functional configuration of the action
辞書選択部334aは、魚眼カメラ200,201が、それぞれ同じ人を撮影した際に、行動認識を行うために使用する画像に応じた認識辞書を選択する。具体的には、辞書選択部334aは、魚眼カメラ200,201が撮影した画像における同一人物の位置を比較して、より画像の中央に近い位置に写っている人の特定行動を認識するための認識辞書、すなわち、より歪の小さい位置で作成された認識辞書を選択する。なお、魚眼カメラ200,201が撮影した画像に同一人物が写っているかは、後述する同一人物判定部337が判定する。
The dictionary selection unit 334a selects a recognition dictionary corresponding to an image used for action recognition when the
同一人物判定部337は、魚眼カメラ200,201がそれぞれ撮影した画像の中に同一人物が写っているかを判定する。具体的には、同一人物判定部337は、魚眼カメラ200,201がそれぞれ撮影した画像から抽出された特徴点に基づく特徴ベクトルを比較することによって、特徴ベクトルの種類と特徴ベクトルの向きが類似している場合に、同一人物が写っていると判定する。
The same
(行動認識処理の流れの説明)
次に、図25を用いて、行動認識処理部321aが行う行動認識処理の流れを説明する。なお、図25は、第2の実施形態における特定行動の認識処理の流れの一例を示すフローチャートである。
(Explanation of flow of action recognition processing)
Next, the flow of action recognition processing performed by the action
ステップS41からステップS44は、第1の実施形態で説明したステップS21からステップS24(図20)と同じ処理である。 Steps S41 to S44 are the same processes as steps S21 to S24 (FIG. 20) described in the first embodiment.
次に、同一人物判定部337は、魚眼カメラ200,201がそれぞれ撮影した画像の中から、同一人物を表す領域を特定する(ステップS45)。
Next, the same
続いて、辞書選択部334aは、ステップS45で特定された同一人物を表す領域のうち、最も画像の中央に近い位置にある領域を撮影した魚眼カメラを特定して、当該位置に対応する認識辞書を選択する(ステップS46)。なお、ステップS45において、同一人物を表す領域が特定できなかった場合は、辞書選択部334aは、検出された各領域にそれぞれ対応する認識辞書を選択する。 Next, the dictionary selection unit 334a identifies the fish-eye camera that captured the area closest to the center of the image from among the areas representing the same person identified in step S45, and recognizes the corresponding position. A dictionary is selected (step S46). In step S45, if the regions representing the same person cannot be identified, the dictionary selection unit 334a selects recognition dictionaries corresponding to the respective detected regions.
続くステップS47からステップS49で行う処理は、第1の実施形態で説明したステップS26からステップS29(図20)と同じ処理である。 The processing from step S47 to step S49 that follows is the same as the processing from step S26 to step S29 (FIG. 20) described in the first embodiment.
以上説明したように、第2の実施形態の行動認識装置300aは、複数の魚眼カメラ200,201(撮影手段)が、同じ領域を異なる方向から撮影する。したがって、観測範囲の死角が減少する。また、同じ人(被写体)を異なる方向から撮影することができるため、行動認識の認識精度を向上させることができる。
As described above, in the
また、第2の実施形態の行動認識装置300aによれば、辞書選択部334aは、複数の魚眼カメラ200,201(撮影手段)が撮影した動画に含まれる画像からそれぞれ検出した同じ人(被写体)の位置に応じた認識辞書のうち、最も歪の小さい認識辞書を選択する。したがって、特定行動の認識精度を向上させることができる。
Further, according to the
また、第2の実施形態の行動認識装置300aによれば、辞書選択部334aは、複数の魚眼カメラ200,201(撮影手段)が撮影した動画に含まれる画像からそれぞれ検出した同じ人の位置に応じた認識辞書のうち、画像の中央に近い位置に対応する認識辞書を選択する。したがって、歪の小さい位置で作成された認識辞書が選択されるため、特定行動の認識精度を向上させることができる。
Further, according to the
以上、本発明の実施の形態について説明したが、上述した実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能である。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、この実施の形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present invention have been described above, the above-described embodiments are presented as examples and are not intended to limit the scope of the present invention. This novel embodiment can be implemented in various other forms. Also, various omissions, replacements, and changes can be made without departing from the scope of the invention. Moreover, this embodiment is included in the scope and gist of the invention, and is included in the scope of the invention described in the claims and its equivalents.
200,201 魚眼カメラ(撮影手段)
300,300a 行動認識装置
321,321a 行動認識処理部
331 動画入力部
332 領域分割部
333 辞書作成部
334 辞書選択部
335 行動認識部
336 持続時間測定部
333a,335a 特徴点抽出部
333b 特徴点分類部
333c,335b 特徴ベクトル算出部
333d ヒストグラム作成部(学習ヒストグラム作成部)
335c ヒストグラム作成部
333e 認識辞書作成部
335d 行動認識部
H1,H2 人(被写体)
H(k) 学習ヒストグラム
T(k) 特定行動ヒストグラム
Vk 平均ベクトル(学習ベクトル)
200, 201 fisheye camera (photographing means)
300, 300a
335c Histogram creation unit 333e Recognition dictionary creation unit 335d Action recognition unit H1, H2 Person (subject)
H(k) learning histogram T(k) specific action histogram Vk average vector (learning vector)
Claims (14)
広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力部と、
前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力部と、
前記第1の動画入力部および前記第2の動画入力部が入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割部と、
前記第1の動画入力部が入力した動画から、前記撮影手段毎および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成部と、
異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成部が、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択部と、
前記辞書選択部が選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識部と、
を備える行動認識装置。 A behavior recognition device for recognizing a specific behavior of a subject captured in a captured moving image to be recognized,
Input a video of a subject performing a specific action at multiple positions with different distortions within the observation range of the imaging means, taken by multiple imaging means equipped with a wide-angle lens and photographing the same area from different directions . a first moving image input unit for
a second moving image input unit for inputting a moving image to be recognized by the plurality of photographing means;
an area dividing unit that divides an image included in the moving images input by the first moving image input unit and the second moving image input unit into a plurality of areas with different distortions;
a dictionary creation unit for creating a recognition dictionary for recognizing the specific behavior of the subject for each of the photographing means and each of the regions from the moving image input by the first moving image input unit ;
The dictionary creating unit creates a dictionary for each photographing means and for each area according to the position of the same subject detected from each of the areas of the image included in the moving image to be recognized input from the different photographing means. a dictionary selection unit that selects a recognition dictionary with the least distortion from among the plurality of recognition dictionaries obtained;
an action recognition unit that recognizes the specific action of the subject based on the recognition dictionary selected by the dictionary selection unit;
An action recognition device comprising:
請求項1に記載の行動認識装置。 The dictionary selection unit selects a position near the center of the image from among the recognition dictionaries corresponding to the positions of the same subject detected from the images included in the moving image to be recognized input by the second moving image input unit. select the corresponding recognition dictionary,
The action recognition device according to claim 1 .
請求項1又は請求項2に記載の行動認識装置。 Further comprising a duration measurement unit that measures the duration of the specific action based on the recognition result of the specific action,
The action recognition device according to claim 1 or 2 .
前記第1の動画入力部が入力した前記動画に含まれる複数の画像の中から特徴点を抽出する特徴点抽出部と、
抽出された前記特徴点をK種類に分類する特徴点分類部と、
分類されたK種類の特徴点グループに対して、それぞれのK個の学習ベクトルを求める特徴ベクトル算出部と、
前記学習ベクトルの出現頻度を表す学習ヒストグラムを作成する学習ヒストグラム作成部と、を備える
請求項1から請求項3のいずれか1項に記載の行動認識装置。 The dictionary creation unit
a feature point extraction unit for extracting feature points from a plurality of images included in the moving image input by the first moving image input unit ;
a feature point classification unit that classifies the extracted feature points into K types;
a feature vector calculation unit that obtains K learning vectors for each of the K types of classified feature point groups;
The action recognition device according to any one of claims 1 to 3 , further comprising a learning histogram creation unit that creates a learning histogram representing the appearance frequency of the learning vector.
前記第1の動画入力部によって入力された、プラス学習データを構成する、前記特定行動を行っている被写体の動画と、マイナス学習データを構成する、前記特定行動を行っていない被写体の動画とから、各データの特徴点が有する特徴量による前記学習ベクトルを用いて、それぞれ学習ヒストグラムを作成して、
前記辞書作成部は、
前記プラス学習データから生成した学習ヒストグラムと、前記マイナス学習データから生成した学習ヒストグラムとに基づいて、前記認識辞書を作成する、
請求項4に記載の行動認識装置。 The learning histogram creation unit
from the moving image of the subject performing the specific action, which constitutes the positive learning data, and the moving image of the subject not performing the specific action, which constitutes the negative learning data, which are input by the first moving image input unit; , using the learning vectors based on the feature amounts of the feature points of each data, create a learning histogram,
The dictionary creation unit
creating the recognition dictionary based on the learning histogram generated from the positive learning data and the learning histogram generated from the negative learning data;
The action recognition device according to claim 4 .
前記第2の動画入力部が入力した前記認識対象となる動画に含まれる複数の画像の中から特徴点を抽出する特徴点抽出部と、
抽出された前記特徴点における時空間エッジの大きさと方向を示す特徴ベクトルを算出する特徴ベクトル算出部と、
前記特徴点における前記特徴ベクトルの出現頻度を表すヒストグラムを作成するヒストグラム作成部と、を備えて、
前記ヒストグラムと、前記認識辞書とに基づいて、前記被写体の特定行動を認識する、
請求項4又は請求項5に記載の行動認識装置。 The action recognition unit is
a feature point extracting unit for extracting feature points from among a plurality of images included in the moving image to be recognized input by the second moving image input unit ;
a feature vector calculation unit that calculates a feature vector indicating the magnitude and direction of the spatiotemporal edge at the extracted feature point;
a histogram creation unit that creates a histogram representing the frequency of appearance of the feature vectors at the feature points,
Recognizing the specific behavior of the subject based on the histogram and the recognition dictionary;
The action recognition device according to claim 4 or 5 .
入力された複数の画像をM×N×Tサイズのフロックに分割し、各ブロックを微分処理することで、M×N×T×3次元の微分ベクトルを計算して、
計算した前記微分ベクトルと事前に学習した前記学習ベクトルとを比較し、当該比較の結果に基づいて前記微分ベクトルを最も近い前記学習ベクトルと同じ種類の特徴点に分類して、
前記ヒストグラム作成部は、
当該分類の結果に基づいて前記ヒストグラムを作成する、
請求項6に記載の行動認識装置。 The feature vector calculator,
A plurality of input images are divided into blocks of size M×N×T, and each block is differentiated to calculate an M×N×T×3-dimensional differential vector,
Comparing the calculated differential vector with the learning vector learned in advance, classifying the differential vector into the same type of feature points as the closest learning vector based on the result of the comparison,
The histogram creating unit
creating the histogram based on the results of the classification;
The action recognition device according to claim 6 .
前記第1の動画入力部が入力した前記動画、および前記第2の動画入力部が入力した前記認識対象となる動画に対して、時間軸でのフィルタリング処理を行い、
前記特徴点抽出部は、
前記フィルタリング処理を行った結果、M×N×Tのブロック内における平均値が所定の閾値より大きい場合に、前記ブロックを特徴点として抽出する、
請求項4から請求項7のいずれか1項に記載の行動認識装置。 The dictionary creation unit and the action recognition unit are
Filtering the moving image input by the first moving image input unit and the moving image to be recognized input by the second moving image input unit on the time axis,
The feature point extraction unit is
As a result of performing the filtering process, if the average value in the M × N × T block is larger than a predetermined threshold, extracting the block as a feature point;
The action recognition device according to any one of claims 4 to 7 .
請求項8に記載の行動認識装置。 Let g ev and g od be the kernel of the Gabor filter shown in the following equations (1) and (2), * be the convolution process, and τ and ω be the parameters of the kernel. A Gabor filtering process using the following equation (3),
The action recognition device according to claim 8 .
前記フィルタリング処理を行う前に、各画像に対して平滑化処理を行う、
請求項8又は請求項9に記載の行動認識装置。 The feature point extraction unit is
Performing a smoothing process on each image before performing the filtering process,
The action recognition device according to claim 8 or 9 .
前記被写体の特定行動を認識する場合に、所定の順序で特定行動を認識し、特定行動が認識された場合は認識結果を出力して、
特定行動が認識されない場合は、次の特定行動を認識する、
請求項1から請求項10のいずれか1項に記載の行動認識装置。 The action recognition unit is
when recognizing the specific action of the subject, recognizing the specific action in a predetermined order, and outputting the recognition result when the specific action is recognized,
If the specific action is not recognized, recognize the next specific action,
The action recognition device according to any one of claims 1 to 10 .
請求項1から請求項11のいずれか1項に記載の行動認識装置。 The wide-angle lens is a fisheye lens,
The action recognition device according to any one of claims 1 to 11 .
広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力ステップと、
前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力ステップと、
前記第1の動画入力ステップおよび前記第2の動画入力ステップで入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割ステップと、
前記第1の動画入力ステップで入力した動画から、前記撮影手段毎、および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成ステップと、
異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成ステップが、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択ステップと、
前記辞書選択ステップで選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識ステップと、
を実行する行動認識方法。 When recognizing the specific behavior of the subject in the video from the captured video to be recognized,
Input a video of a subject performing a specific action at multiple positions with different distortions within the observation range of the imaging means, taken by multiple imaging means equipped with a wide-angle lens and photographing the same area from different directions . a first video input step of
a second moving image input step of inputting a moving image to be recognized by the plurality of photographing means;
an area dividing step of dividing an image included in the moving images input in the first moving image input step and the second moving image input step into a plurality of areas each having a different distortion;
a dictionary creation step of creating a recognition dictionary for recognizing the specific behavior of the subject for each of the photographing means and each of the regions from the moving image input in the first moving image input step ;
The dictionary creation step creates the dictionary for each imaging means and for each area according to the position of the same subject detected from each of the areas of the image included in the moving image to be recognized input from the different imaging means . a dictionary selection step of selecting a recognition dictionary with the least distortion from among the plurality of recognition dictionaries obtained;
an action recognition step of recognizing the specific action of the subject based on the recognition dictionary selected in the dictionary selection step;
An action recognition method that performs
広角レンズを備えて、同じ領域を異なる方向から撮影する複数の撮影手段が、当該撮影手段の観測範囲の中の歪の異なる複数の位置で特定行動を行っている被写体をそれぞれ撮影した動画を入力する第1の動画入力部と、
前記複数の撮影手段によって、認識対象となる動画を入力する第2の動画入力部と、
前記第1の動画入力部および前記第2の動画入力部が入力した動画に含まれる画像を、それぞれ、歪の異なる複数の領域に分割する領域分割部と、
前記第1の動画入力部が入力した動画から、前記撮影手段毎および前記領域毎に、前記被写体の特定行動を認識するための認識辞書を作成する辞書作成部と、
異なる前記撮影手段から入力された前記認識対象となる動画に含まれる画像の前記領域からそれぞれ検出された同じ被写体の位置に応じて、前記辞書作成部が、前記撮影手段毎および前記領域毎に作成した複数の認識辞書の中から、最も歪の小さい認識辞書を選択する辞書選択部と、
前記辞書選択部が選択した認識辞書に基づいて、前記被写体の特定行動を認識する行動認識部と、
して機能させるプログラム。 A computer that controls an action recognition device that recognizes a specific action of a subject captured in a captured video to be recognized,
Input a video of a subject performing a specific action at multiple positions with different distortions within the observation range of the imaging means, taken by multiple imaging means equipped with a wide-angle lens and photographing the same area from different directions . a first moving image input unit for
a second moving image input unit for inputting a moving image to be recognized by the plurality of photographing means;
an area dividing unit that divides an image included in the moving images input by the first moving image input unit and the second moving image input unit into a plurality of areas with different distortions;
a dictionary creation unit for creating a recognition dictionary for recognizing the specific behavior of the subject for each of the photographing means and each of the regions from the moving image input by the first moving image input unit ;
The dictionary creating unit creates a dictionary for each photographing means and for each area according to the position of the same subject detected from each of the areas of the image included in the moving image to be recognized input from the different photographing means. a dictionary selection unit that selects a recognition dictionary with the least distortion from among the plurality of recognition dictionaries obtained;
an action recognition unit that recognizes the specific action of the subject based on the recognition dictionary selected by the dictionary selection unit;
A program that works as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019051167A JP7338182B2 (en) | 2019-03-19 | 2019-03-19 | Action recognition device, action recognition method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019051167A JP7338182B2 (en) | 2019-03-19 | 2019-03-19 | Action recognition device, action recognition method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154552A JP2020154552A (en) | 2020-09-24 |
JP7338182B2 true JP7338182B2 (en) | 2023-09-05 |
Family
ID=72559041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019051167A Active JP7338182B2 (en) | 2019-03-19 | 2019-03-19 | Action recognition device, action recognition method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7338182B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088850A (en) | 2007-09-28 | 2009-04-23 | Nec Corp | Moving image distribution system and moving image distributing method |
JP2011100175A (en) | 2009-11-04 | 2011-05-19 | Nippon Hoso Kyokai <Nhk> | Device and program for deciding personal action |
JP2015194901A (en) | 2014-03-31 | 2015-11-05 | セコム株式会社 | Tracking device and tracking system |
JP2016171526A (en) | 2015-03-13 | 2016-09-23 | 株式会社東芝 | Image sensor, person detection method, control system, control method, and computer program |
-
2019
- 2019-03-19 JP JP2019051167A patent/JP7338182B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088850A (en) | 2007-09-28 | 2009-04-23 | Nec Corp | Moving image distribution system and moving image distributing method |
JP2011100175A (en) | 2009-11-04 | 2011-05-19 | Nippon Hoso Kyokai <Nhk> | Device and program for deciding personal action |
JP2015194901A (en) | 2014-03-31 | 2015-11-05 | セコム株式会社 | Tracking device and tracking system |
JP2016171526A (en) | 2015-03-13 | 2016-09-23 | 株式会社東芝 | Image sensor, person detection method, control system, control method, and computer program |
Non-Patent Citations (2)
Title |
---|
関 海克,職場における行動認識,第23回 画像センシングシンポジウム SSII2017 [USB],日本,画像センシング技術研究会,2017年06月07日,SO2-IS2-05 |
青木 義満,視覚センサによる見守り技術について,通信ソサイエティマガジン,日本,電気情報通信学会,2017年06月01日,11巻,1号,p.30-38,<URL: https://doi.org/10.1587/bplus.11.30>,(検索日 令和4年1月12日)、インターネット |
Also Published As
Publication number | Publication date |
---|---|
JP2020154552A (en) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11882357B2 (en) | Image display method and device | |
CN110163114B (en) | Method and system for analyzing face angle and face blurriness and computer equipment | |
EP3798975B1 (en) | Method and apparatus for detecting subject, electronic device, and computer readable storage medium | |
CN109241985B (en) | Image identification method and device | |
JP4952625B2 (en) | Perspective transformation distortion generating document image correcting apparatus and method | |
US8508599B2 (en) | Motion vector detection apparatus, motion vector detection method, and image capturing apparatus | |
JP4772839B2 (en) | Image identification method and imaging apparatus | |
US8773548B2 (en) | Image selection device and image selecting method | |
US10079974B2 (en) | Image processing apparatus, method, and medium for extracting feature amount of image | |
US8983202B2 (en) | Smile detection systems and methods | |
CN104202547B (en) | Method, projection interactive approach and its system of target object are extracted in projected picture | |
CN113449606B (en) | Target object identification method and device, computer equipment and storage medium | |
CN110796041B (en) | Principal identification method and apparatus, electronic device, and computer-readable storage medium | |
JP6157165B2 (en) | Gaze detection device and imaging device | |
JP2018026115A (en) | Flame detection method, flame detector, and electronic apparatus | |
JP7222231B2 (en) | Action recognition device, action recognition method and program | |
US10832058B2 (en) | Behavior recognition apparatus, behavior recognition method, and recording medium | |
US20220414827A1 (en) | Training apparatus, training method, and medium | |
US10880457B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP7338182B2 (en) | Action recognition device, action recognition method and program | |
JP2004199200A (en) | Pattern recognition device, imaging apparatus, information processing system, pattern recognition method, recording medium and program | |
JP2021039647A (en) | Image data classification device and image data classification method | |
JP6776532B2 (en) | Image processing equipment, imaging equipment, electronic devices and image processing programs | |
CN108268824A (en) | A kind of stereoscopic face tracking and expression recognition method | |
JP6525693B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230807 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7338182 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |