JP2020135747A - Action analysis device and action analysis method - Google Patents
Action analysis device and action analysis method Download PDFInfo
- Publication number
- JP2020135747A JP2020135747A JP2019031913A JP2019031913A JP2020135747A JP 2020135747 A JP2020135747 A JP 2020135747A JP 2019031913 A JP2019031913 A JP 2019031913A JP 2019031913 A JP2019031913 A JP 2019031913A JP 2020135747 A JP2020135747 A JP 2020135747A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- behavior
- skeleton
- original image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、行動分析装置および行動分析方法に関する。 The present invention relates to a behavior analyzer and a behavior analysis method.
画像に写っている人物がどのような行動をしたかを認識する技術は知られている(特許文献1)。特許文献1では、動画中の時系列画像から、行動の変化が検出された画像を抽出して学習することにより、人物の行動を認識する技術が提案されている。運転者を撮影した画像に基づいて、運転者が携帯電話の使用などの特定行動をする可能性を判断し、警報を出力する技術も知られている(特許文献2)。
A technique for recognizing what kind of behavior a person in an image has performed is known (Patent Document 1).
なお、画像に写った人物の骨格を推定することにより、二次元画像における姿勢を検出する技術も知られている(非特許文献1)。 A technique for detecting a posture in a two-dimensional image by estimating the skeleton of a person in an image is also known (Non-Patent Document 1).
特許文献1では、撮影された画像(元の画像)に基づいて対象人物の行動を認識するため、画像に対象人物以外の物体(例えば人物の持ち物、背景など)が存在すると、それら対象人物以外の物体がノイズとなってしまう。例えば、電車または車両などの移動物体に乗車している人物を撮影した場合は、車外の風景が変化するため、対象とする人物の行動を正確に認識することが難しくなる。また例えば、対象とする人物の周囲の明るさが激しく変化する場合も、対象の人物の背景が大きく変動するため、対象の人物の行動を正確に認識するのが難しい。
In
さらに、元の画像だけを用いる特許文献1では、対象の人物の特徴と対象の人物の動作とを正確に認識するのは難しい。また、元の画像だけを用いる特許文献1では、対象の人物の行動の時間変化を正確にとらえるのは難しい。このように、特許文献1の技術では、対象人物の行動を正確に認識するのが難しい。
Further, in
本発明は、上記問題に鑑みてなされたもので、その目的は、画像に含まれる人物の行動を従来よりも高精度に認識することのできるようにした行動分析装置および行動分析方法を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a behavior analysis device and a behavior analysis method capable of recognizing the behavior of a person included in an image with higher accuracy than before. There is.
上記課題を解決すべく、本発明の一つの観点に従う行動分析装置は、画像に含まれる人物の行動を分析する行動分析装置であって、撮影時間の異なる複数の元画像データを取得する元画像取得部と、各元画像データ内の人物の骨格画像データを生成する骨格画像生成部と、各骨格画像データに基づいて人物の骨格の時間変化を示す挙動画像データを生成する挙動画像生成部と、各元画像データと各骨格画像データと各挙動画像データとに基づいて、人物の行動パターンの学習と推論とが可能な所定のモデルを生成するモデル生成部と、を有する。 In order to solve the above problem, the behavior analysis device according to one viewpoint of the present invention is a behavior analysis device that analyzes the behavior of a person included in an image, and is an original image that acquires a plurality of original image data having different shooting times. An acquisition unit, a skeletal image generation unit that generates skeletal image data of a person in each original image data, and a behavior image generation unit that generates behavior image data indicating a time change of a person's skeleton based on each skeletal image data. It has a model generation unit that generates a predetermined model capable of learning and inferring a person's behavior pattern based on each original image data, each skeleton image data, and each behavior image data.
本発明によれば、元画像データだけでなく、元画像データから生成される骨格画像データおよび挙動画像データを用いて行動パターンの学習と推論とが可能な所定のモデルを生成するため、元画像に含まれる人物の行動をより精度良く分析することができる。 According to the present invention, not only the original image data but also the skeleton image data and the behavior image data generated from the original image data are used to generate a predetermined model capable of learning and inferring the behavior pattern. It is possible to analyze the behavior of the person included in the above more accurately.
以下、図面に基づいて、本発明の実施の形態を説明する。本実施形態に係る行動分析装置は、人物を含む元画像データだけでなく、元画像データ内の人物の行動に由来する他のデータ(骨格画像データ、挙動画像データ)も用いることにより、元画像内の人物の行動を分析する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The behavior analyzer according to the present embodiment uses not only the original image data including the person but also other data (skeleton image data, behavior image data) derived from the behavior of the person in the original image data to obtain the original image. Analyze the behavior of the person inside.
本実施形態では、人物の行動に由来する他のデータも用いるため、人物以外の画像(背景、風景)が変化する場合でも、人物の行動を正確に分析することができる。そして、本実施形態に係る行動分析装置は、例えば、運転手、乗客、歩行者、買い物客などの様々な人物の行動を監視するシステムに適用することができる。 In the present embodiment, since other data derived from the behavior of the person is also used, the behavior of the person can be accurately analyzed even when the image (background, landscape) other than the person changes. Then, the behavior analysis device according to the present embodiment can be applied to a system for monitoring the behavior of various persons such as a driver, a passenger, a pedestrian, and a shopper.
すなわち、本実施形態では、時系列の画像群に写っている人間の行動を認識する装置を提供する。本実施形態では、動画に映っている人の行動を、ニューラルネットワーク等の機械学習を用いて認識する。 That is, the present embodiment provides a device that recognizes human behavior in a time-series image group. In this embodiment, the behavior of a person shown in a moving image is recognized by using machine learning such as a neural network.
本実施形態に係る行動分析装置は、動画からフレームごとに分割された画像群を読み込み、骨格推定技術を適用して、画像から人間の主要な骨格を抽出することにより、骨格として画像化する。さらに、本実施形態では、時間軸上で連続した骨格画像からオプティカルフロー等の画像間の動きの変化を抽出し、挙動画像として画像化する。 The behavioral analyzer according to the present embodiment reads an image group divided into frames from a moving image, applies a skeleton estimation technique, extracts a main human skeleton from the image, and images the image as a skeleton. Further, in the present embodiment, changes in movement between images such as optical flow are extracted from continuous skeleton images on the time axis and imaged as a behavior image.
本実施形態では、それらの画像群(元画像群、骨格画像群、挙動画像群)を元に時系列のシーケンスデータとしてまとめ、ニューラルネットワーク等の機械学習技術により、入力データと行動との関係性を学習する。 In the present embodiment, the image groups (original image group, skeleton image group, behavior image group) are summarized as time-series sequence data, and the relationship between the input data and the behavior is achieved by a machine learning technique such as a neural network. To learn.
機械学習に入力するデータとして骨格画像のデータと挙動画像のデータも含めることにより、人間以外の物体に起因するノイズ、および背景の変化に起因するノイズによる影響を抑制できる。さらに、人間の骨格に基づく姿勢の情報と姿勢の変化の情報とを機械学習に用いることにより、元画像データのみを使用する従来技術に比べて、高精度な行動認識が可能となる。 By including the skeleton image data and the behavior image data as the data to be input to machine learning, it is possible to suppress the influence of noise caused by objects other than humans and noise caused by changes in the background. Further, by using the posture information based on the human skeleton and the posture change information for machine learning, it is possible to recognize the behavior with higher accuracy than the conventional technique using only the original image data.
本実施形態に係る行動分析装置は、プロセッサと記憶装置を備える計算機を用いることにより実現してもよい。プロセッサは、例えば、元画像データの加工と、機械学習による学習および推論とを実行する。記憶装置は、例えば、各画像データと、各中間データと、機械学習モデルと、推論結果とを格納する。 The behavior analysis device according to the present embodiment may be realized by using a computer including a processor and a storage device. The processor performs, for example, processing of the original image data and learning and inference by machine learning. The storage device stores, for example, each image data, each intermediate data, a machine learning model, and an inference result.
プロセッサは、例えば、動画データから抽出された各元画像データに対し、骨格画像データと挙動画像データとを算出する。次に、プロセッサは、各元画像データと各骨格画像データと各挙動画像データとを時系列データ(シーケンスデータ)としてまとめる。プロセッサは、ニューラルネットワーク等の機械学習を用いることにより、時系列データと元画像データに写っている人間の行動との関係を学習し、モデルデータを算出する。プロセッサは、推論時には、時系列データをモデルデータへ入力することにより、元画像データに写っている人間の行動の認識結果を算出する。 The processor calculates skeleton image data and behavior image data for each original image data extracted from the moving image data, for example. Next, the processor collects each original image data, each skeleton image data, and each behavior image data as time series data (sequence data). The processor learns the relationship between the time series data and the human behavior shown in the original image data by using machine learning such as a neural network, and calculates the model data. At the time of inference, the processor inputs the time series data into the model data to calculate the recognition result of the human behavior reflected in the original image data.
図1〜図15を用いて第1実施例を説明する。本実施例は、本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。 The first embodiment will be described with reference to FIGS. 1 to 15. It should be noted that the present embodiment is merely an example for realizing the present invention and does not limit the technical scope of the present invention.
以後の説明では「コンピュータプログラム」を主語として説明する場合がある。コンピュータプログラムは、プロセッサによって実行されることで、定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行う。したがって、コンピュータプログラムに代えてプロセッサを主語として説明することもできるし、プロセッサを有する計算機を主語として説明することもできる。 In the following description, "computer program" may be used as the subject. A computer program is executed by a processor to perform a defined process while using a memory and a communication port (communication control device). Therefore, a processor can be described as a subject instead of a computer program, or a computer having a processor can be described as a subject.
なお、コンピュータプログラムの少なくとも一部または全部を専用ハードウェアで実現してもよい。コンピュータプログラムは、モジュール化されていてもよい。コンピュータプログラムは、記録媒体に固定されて流通してもよいし、あるいは、プログラム配信サーバから通信ネットワークを介して配布されてもよい。プロセッサがコンピュータプログラムを読み込んで実施することにより、後述する機能11〜16が実現される。 At least a part or all of the computer program may be realized by dedicated hardware. The computer program may be modular. The computer program may be fixedly distributed on a recording medium, or may be distributed from a program distribution server via a communication network. When the processor reads and executes the computer program, the functions 11 to 16 described later are realized.
図1は、「行動分析装置」としての行動認識装置1の全体構成を示す。行動認識装置1は、元画像データに含まれる人物の行動がどのような行動であるか認識する。
FIG. 1 shows the overall configuration of the
行動認識装置1は、例えば、元画像取得部11と、骨格画像生成部12と、挙動画像生成部13と、シーケンスデータ生成部14と、モデル生成部15と、推論部16とを備えることができる。
The
元画像取得部11は、撮影時間の異なる複数の元画像データ131を取得する。元画像取得部11は、例えば、動画ファイル、連続的に撮影された静止画ファイルなどから、同一の被写体についての撮影時間の異なる画像データ131を取得する。これら撮影時間の異なる画像データ131に基づいて骨格画像データ132が作成されるため、元画像データ131と呼ぶ。元画像データは、行動認識装置1内に保存されていてもよいし、行動認識装置1がアクセス可能な外部のストレージ装置に保存されていてもよい。
The original image acquisition unit 11 acquires a plurality of
骨格画像生成部12は、元画像取得部11により取得された元画像データ131に基づいて、元画像データ131に写っている人物1311の骨格を推定し、推定された骨格の画像データ132を生成する。
The skeleton
挙動画像生成部13は、骨格画像生成部12により生成された骨格画像132に基づいて、骨格の時間変化(動作方向、挙動)を示す挙動画像データ133を生成する。
The behavior
シーケンスデータ生成部14は、各元画像データ131と各骨格画像データ132と各挙動画像データ133とを含むシーケンスデータを生成する。
The sequence data generation unit 14 generates sequence data including each
モデル生成部15は、シーケンスデータ生成部14により生成される学習用シーケンスデータ(図7で後述)に基づいて、人物の行動パターンの学習と推論とが可能な所定のモデルのデータを生成する。
The
推論部16は、シーケンスデータ生成部14により作成された推論用シーケンスデータ(図9で後述)とモデル生成部15により生成されたモデルデータとに基づいて、推論用シーケンスデータに含まれる人物の行動を認識し、その認識結果を出力する。
The inference unit 16 is based on the inference sequence data (described later in FIG. 9) created by the sequence data generation unit 14 and the model data generated by the
<行動認識装置の構成> <Configuration of behavior recognition device>
図2は、行動認識装置1のハードウェアおよびソフトウェアの構成例(機能ブロック図)である。
FIG. 2 is a configuration example (functional block diagram) of the hardware and software of the
行動認識装置1は、例えば、中央演算処理装置110と、入出力装置120と、記憶装置130とを備える。
The
中央演算処理装置110は、マイクロプロセッサおよびプログラムメモリ(いずれも不図示)を有し、行動認識装置1として機能するための必要な演算処理および制御処理等を行う。中央演算処理装置110は、所定のコンピュータプログラム111〜116を実行する。各コンピュータプログラム111〜116は、図1で述べた各機能11〜16に対応する。
The
元画像取得プログラム111は、元画像データを取得するコンピュータプログラムである。元画像取得プログラム111は、例えば、記憶装置130に格納されている元画像データ131を認識対象(分析対象)のデータとして読み込む。元画像取得プログラム111は、カメラ140で撮影された元画像データを読み込んでもよいし、記憶装置130に格納された元画像データを読み込んでもよい。元画像取得プログラム111は、オペレーティングシステムの有する機能、あるいはデバイスドライバなどが持つ機能として実現されてもよい。または、元画像取得プログラム111は、骨格画像生成プログラム112の一部として設けられてもよい。
The original
骨格画像生成プログラム112は、元画像データ131に写っている人間の主要部分(例えば、顔および手足等)のパーツを認識して骨格として抽出し、骨格画像データ132を生成するコンピュータプログラムである。
The skeleton
挙動画像生成プログラム113は、時間的に連続した骨格画像データ132をもとに骨格の動きを表す挙動を抽出し、挙動画像データ133を生成するコンピュータプログラムである。
The behavior
シーケンスデータ生成プログラム114は、一連の動きを表す時系列の画像データ131〜133を集約して、シーケンスデータ135,137を生成するコンピュータプログラムである。
The sequence
モデル生成プログラム115は、シーケンスデータから被写体である人間の動きを機械学習して、「モデル」としてのモデルデータ136を生成するコンピュータプログラム(学習プログラム)である。
The
推論プログラム116は、推論用シーケンスデータをモデルへ入力することにより、各シーケンスでの人間の動きを認識するコンピュータプログラムである。
The
入出力装置120は、ユーザとの間で情報を入出力する装置である。入出力装置120は、情報出力装置121と情報入力装置122とを備える。情報出力装置121としては、例えば、ディスプレイ、プリンタ(いずれも不図示)などがある。情報入力装置122としては、例えば、キーボード、マウス、タッチパネル、カメラ、スキャナ(いずれも不図示)などがある。情報出力装置と情報入力装置との両方を兼ねる装置でもよい。外部のカメラ140で撮影された動画ファイルを記憶装置130または中央演算処理装置110のいずれかまたは両方に入力させることもできる。
The input /
記憶装置130は、例えば、中央演算処理装置110での処理対象となるデータと処理後のデータ等とを格納する装置である。
The
記憶装置130には、例えば、元画像データ131と、骨格画像データ132と、挙動画像データ133と、正解データ134と、学習用シーケンスデータ135と、モデルデータ136と、推論用シーケンスデータ137とが格納される。
In the
上述の通り、元画像データ131は、動画を例えばフレーム毎の画像単位で分割した元画像群である。骨格画像データ132は、元画像データ131をもとに人の主要な骨格を抽出した画像データである。挙動画像データ133は、骨格画像データ132をもとに時間的に連続した画像内の人間の動きにどのような変化があったかの情報を抽出した画像データである。
As described above, the
正解データ134は、元画像データ131に含まれる人間の行動パターンの正解を示すデータである。学習用シーケンスデータ135は、元画像データ131と骨格画像データ132と挙動画像データ133と正解データ134とをもとに、ひとまとまりの時系列データとして加工されたデータである。モデルデータ136は、学習用シーケンスデータ135を機械学習させることで得られる学習済モデルのデータである。推論用シーケンスデータ137は、元画像データ131と骨格画像データ132と挙動画像データ133とをもとに、ひとまとまりの時系列データとして加工されたデータである。
The
上述のコンピュータプログラムとデータの少なくとも一部または全部を、フラッシュメモリデバイス、ハードディスク、磁気テープ、光ディスクなどの記録媒体MMに格納して流通させることもできる。コンピュータプログラムおよびデータの少なくとも一部を、通信ネットワークを介して配信することもできる。 At least a part or all of the above-mentioned computer program and data can be stored and distributed in a recording medium MM such as a flash memory device, a hard disk, a magnetic tape, or an optical disk. At least a portion of computer programs and data can also be distributed over communication networks.
<元画像データ> <Original image data>
図3は、元画像データ131の例を示す。元画像データ131は、例えば、動画データ(動画ファイル)をフレーム単位で分割してファイルとして格納したデータである。
FIG. 3 shows an example of the
図3(1),図3(2)は、撮影時間の異なる元画像データ131(1),131(2)を示す。各元画像データ131(1),131(2)には、対象の人物1311(1),1311(2)と、背景1312とが含まれている。図3は、被写体である人間1311が街路灯1312の前を横切って走っている画像を例に挙げている。この場合、元画像データ131(1),131(2)は、動作中の人物を撮影しているため、それぞれ人間1311の画像が異なる。これに対して、固定された街路灯などの背景1312は、元画像データ131(1),131(2)間で変化しない。
3 (1) and 3 (2) show the original image data 131 (1) and 131 (2) having different shooting times. The original image data 131 (1) and 131 (2) include the target person 1311 (1) and 1311 (2) and the
図3(1)に示すように、各元画像データ131には、ファイル名F131が自動的に付与される。図3に示す例では、元画像であることを示す「raw」に時間的順序を示す数値を付与することにより、元画像データのファイル名が生成される。
As shown in FIG. 3 (1), the file name F131 is automatically assigned to each
<骨格画像データ> <Skeletal image data>
図4は、骨格画像データ132の例を示す。図4(1)に示す骨格画像データ132(1)は、図3(1)に示す元画像データ131(1)から得られる骨格情報から生成されたデータである。図4(2)に示す骨格画像データ132(2)は、図3(2)に示す元画像データ131(2)から得られる骨格情報から生成されたデータである。
FIG. 4 shows an example of
図3(1)の元画像データ131(1)に含まれる人間1311(1)から骨格だけの人物1322(1)が生成される。同様に、図3(2)の元画像データ131(2)に含まれる人間1311(2)から骨格だけの人物1322(2)が生成される。 A person 1322 (1) having only a skeleton is generated from a person 1311 (1) included in the original image data 131 (1) of FIG. 3 (1). Similarly, a person 1322 (2) having only a skeleton is generated from a person 1311 (2) included in the original image data 131 (2) of FIG. 3 (2).
骨格画像は、人の頭および手足等の主要なパーツにおける主要な関節を点でプロットし、一部の点と点とを線で結合したものである。骨格画像データ132には元画像データ131における背景は含まれないため、人間の行動を認識する上でノイズとなる情報は除外される。さらに、骨格情報を抽出することにより、人間の姿勢をより明確に認識することができる。
The skeletal image is a plot of major joints in major parts such as the human head and limbs with dots, and some dots connected by lines. Since the
図4(3)に示すように、骨格画像データ132にもファイル名F132が自動的に付与される。図4に示す例では、骨格画像であることを示す「pose」に時間的順序を示す数値を付与することにより、骨格画像データのファイル名が生成される。
As shown in FIG. 4 (3), the file name F132 is automatically assigned to the
<挙動画像データ> <Behavior image data>
図5は、挙動画像データ133の例を示す。挙動画像データ133は、骨格画像データ132の各画像のうち、時間的に隣接する画像から人間の骨格の動きの変化を挙動情報として抽出し、抽出された挙動情報を画像として保存したデータである。
FIG. 5 shows an example of the
図5(1)に示す挙動画像データ133(1)は、図4(1)に示す骨格画像データ132(1)と図4(2)に示す骨格画像データ132(2)とからオプティカルフローを抽出し、抽出された画素毎のオプティカルフローを矢印で表現したデータである。同様に、図5(2)に示す挙動画像データ133(2)は、図4(2)に示す骨格画像データ132(2)と時間的に次の骨格画像データ(不図示)とからオプティカルフローを抽出することにより生成されたデータである。 The behavior image data 133 (1) shown in FIG. 5 (1) has an optical flow from the skeleton image data 132 (1) shown in FIG. 4 (1) and the skeleton image data 132 (2) shown in FIG. 4 (2). It is the data extracted and the optical flow for each extracted pixel is represented by an arrow. Similarly, the behavior image data 133 (2) shown in FIG. 5 (2) is an optical flow from the skeleton image data 132 (2) shown in FIG. 4 (2) and the next skeleton image data (not shown) in terms of time. It is the data generated by extracting.
図5(3)に示すように、挙動画像データ133にもファイル名F133が自動的に付与される。図5に示す例では、挙動画像であることを示す「flow」に時間的順序を示す数値を付与することにより、挙動画像データのファイル名が生成される。
As shown in FIG. 5 (3), the file name F133 is automatically assigned to the
<正解データ> <Correct answer data>
図6は、正解データ134の例を示す。正解データ134は、元画像データ131のファイル名1341と正解1342とから構成される。
FIG. 6 shows an example of
正解1342とは、画像に写っている人間の行動を分類する識別子(ID)である。正解1342では、例えば、歩いている人は「0」、走っている人は「1」、座っている人は「2」、のように任意の分類を定義可能である。図6の例では、各ファイル1341には、いずれも走っている人を示すID「1」が付与されている。
The
これら以外に、ジャンプしている、しゃがもうとしている、立ち上がろうとしている、座ろうとしている、何かを持ち上げようとしている、何かを置こうとしている、のような行動パターンを定義し、その行動パターンに識別子を割り当ててもよい。 Other than these, define behavioral patterns such as jumping, crouching, standing up, sitting, lifting something, trying to put something down, An identifier may be assigned to the behavior pattern.
<学習用シーケンスデータ> <Sequence data for learning>
図7は、学習用シーケンスデータ135の例を示す。学習用シーケンスデータ135は、一連の時系列データ(元画像データ131,骨格画像データ132,挙動画像データ133)をもとに生成されている。人間の行動を認識するモデルデータは、学習用シーケンスデータ135を用いて機械学習を行うことにより生成される。
FIG. 7 shows an example of the
学習用シーケンスデータ135は、例えば、シーケンス識別子1351(図中、sid)と、時間的順序識別子1352(図中、tid)と、元画像データのファイル名1353と、骨格画像データのファイル名1354と、挙動画像データのファイル名1355と、分類クラス(分類結果)1356とを備える。識別子1351,1352は、行動認識装置1内で一意であればよい。
The
図7の例では、時間的順序識別子1352の数は「3」である場合を示す。識別子1352の数は「3」以外の数でもよい。図7の例では、骨格画像データと挙動画像データとは、それぞれ同一時刻の元画像データから生成された画像データである。
In the example of FIG. 7, the number of the
<モデルデータ> <Model data>
図8は、モデルデータ136の例を示す。モデルデータ136は、例えば、データ種類1361と、データ項目1362と、値1363とを備える。
FIG. 8 shows an example of
データ種類1361は、機械学習により得られたモデルの設定データ13611と学習済モデル13612とを備える。設定データ13611および学習済モデル13612は、それぞれデータ項目1362とその値1363とを含む。
The
設定データ13611のデータ項目1362は、例えば、元画像shape 1362Aと、骨格画像shape 1362Bと、挙動画像shape 1362Cと、出力shape 1362Dと、各層の処理内容1362Eおよび1362Fとを含む。
The
元画像shape 1362Aは、元画像データ131の構造を表す。元画像shape 1362Aの値1363には、例えば(256,256,3)が設定される。これは、高さ256画素、幅256画素、3チャンネル(通常RGB)であることを表す。
The
骨格画像shape 1362Bと挙動画像shape 1362Cも同様である。すなわち、骨格画像shape 1362Bは、骨格画像データ132の構造を示す。挙動画像shape 1362Cは、挙動画像データ133の構造を示す。挙動画像データはグレー画像であるため、1チャンネルである。
The same applies to the
出力shape 1362Dの値1363には、(10)が設定されている。これは、10種類の行動パターンがあることを表す。
(10) is set in the
機械学習のアルゴリズムがニューラルネットワークの場合、各層の処理内容が、1層目処理1362E、2層目処理1362Fのように表される。その他、処理内容に関する様々な設定が設定データ13611に記載される。
When the machine learning algorithm is a neural network, the processing content of each layer is represented as the
学習済モデル13612には、シーケンスデータから人間の行動の認識結果(行動の識別子)を得るためのモデルのパラメータが格納される。機械学習による学習処理が行われるまで、学習済モデル13612の値1363には値が格納されない。学習処理が行われた後で、自動的に計算された値が値1363へ格納される。なお、モデルのパラメータはユーザが把握している必要はなく、機械学習モデルを呼び出した際にコンピュータプログラム内で自動的に使用される。
The trained
<推論用シーケンスデータ> <Sequence data for inference>
図9は、推論用シーケンスデータ137の例を示す。推論用シーケンスデータ137は、画像に含まれる人間の行動を判別する際に使用されるデータであり、図8で述べたモデルに入力される。
FIG. 9 shows an example of
推論用シーケンスデータ137は、図7で述べた学習用シーケンスデータ135と同様に、例えば、シーケンス識別子1371と、時間的順序識別子1372と、元画像データのファイル名1373と、骨格画像データのファイル名1374と、挙動画像データのファイル名1375と、分類クラス1376とを備える。分類クラス1376には、推論処理後に、行動パターンの判定結果である識別子が格納される。
The
<行動認識装置における処理概要> <Outline of processing in the behavior recognition device>
行動認識装置1の処理概要を説明する。中央演算処理装置110は、骨格画像生成プログラム112により呼び出される元画像取得プログラム111を用いて、記憶装置130から元画像データ131を読み込む。続いて中央演算処理装置110は、骨格画像生成プログラム112を用いて、元画像データ131から骨格画像データ132を生成し、生成した骨格画像データ132を記憶装置130へ格納する。次に、中央演算処理装置110は、挙動画像生成プログラム113を実行し、記憶装置130から骨格画像データ132を読み込み、骨格画像データ132から挙動画像データ133を生成する。中央演算処理装置110は、生成した挙動画像データ133を記憶装置130へ格納する。
The processing outline of the
中央演算処理装置110は、シーケンスデータ生成プログラム114を実行する。中央演算処理装置110は、記憶装置130から、元画像データ131と骨格画像データ132と挙動画像データ133と正解データ134とを読み込み、学習用シーケンスデータ135を生成する。中央演算処理装置110は、生成した学習用シーケンスデータ135を記憶装置130へ格納する。
The
中央演算処理装置110は、モデル生成プログラム115を実行する。中央演算処理装置110は、記憶装置130から学習用シーケンスデータ135とモデルデータ136とを読み込んで機械学習を行い、モデルデータ136を得る。中央演算処理装置110は、新たに生成されたモデルデータ136を記憶装置130に上書き保存する。
The
中央演算処理装置110は、推論プログラム116を実行する。中央演算処理装置110は、記憶装置130からモデルデータ136と推論用シーケンスデータ137とを読み込み、各シーケンスにおける認識結果(行動分類クラス)を求める。中央演算処理装置110は、生成した推論用シーケンスデータ137を記憶装置130に上書き保存する。それぞれの処理について、以下詳細に説明する。
The
<骨格推定処理> <Skeletal estimation processing>
図10は、骨格画像生成プログラム112が実行する骨格画像データ生成処理を示すフローチャートである。ここでの動作主体は、中央演算処理装置110により実行される骨格画像生成プログラム112である。骨格画王データ生成処理では、図3のような元画像データ群から、各元画像データに写っている人間の骨格の座標を推定し、骨格画像として描画する。
FIG. 10 is a flowchart showing a skeleton image data generation process executed by the skeleton
骨格画像生成プログラム112は、記憶装置130から元画像データ131を読み込む(S21)。以下では、図3で述べた元画像データ131が中央演算処理装置110に読み込まれたと仮定して説明する。
The skeleton
骨格画像生成プログラム112は、各元画像データ131から被写体である人間の骨格座標を算出し、骨格画像データ132を生成する(S22)。
The skeleton
人間の骨格座標を求める手法には種々あるが、例えば非特許文献1に記載された方法を用いてもよい。この方法は、画像内に写っている人間の、人体の各部位の位置と各部位間の関係性の特徴とを抽出し、人体毎の骨格座標を求める。
There are various methods for obtaining human skeleton coordinates, and for example, the method described in
算出対象の骨格の部位は、用途に応じて変更可能である。本実施例では、例えば、鼻、首、右肩、左肩、右肘、左肘、右手、左手、右腰、左腰、右膝、左膝、右足、左足、の合計14点を取得する場合を説明する。算出対象の各部位の座標を抽出した後、抽出された骨格座標群をプロットし、プロットされた骨格座標群のうち一部の座標間を直線で結合することにより、骨格画像データ132を生成する。
The part of the skeleton to be calculated can be changed according to the application. In this embodiment, for example, when acquiring a total of 14 points of nose, neck, right shoulder, left shoulder, right elbow, left elbow, right hand, left hand, right waist, left waist, right knee, left knee, right foot, left foot. Will be explained. After extracting the coordinates of each part to be calculated, the extracted skeleton coordinate group is plotted, and the
例えば、図3(1),(2)に示す元画像データ131(1),(2)に対して、抽出後の骨格座標をもとに計算すると、図4(1),(2)に示す骨格画像データ132(1),132(2)が生成される。なお、骨格画像データ132の背景は、例えば白色や黒色等にすればよい。
For example, when the original image data 131 (1) and (2) shown in FIGS. 3 (1) and 3 (2) are calculated based on the skeleton coordinates after extraction, the results are shown in FIGS. 4 (1) and (2). The skeleton image data 132 (1) and 132 (2) shown are generated. The background of the
最後に、骨格画像生成プログラム112は、ステップS22で生成した骨格画像データ132を記憶装置130へ格納する(S23)。
Finally, the skeleton
<挙動抽出処理> <Behavior extraction process>
図11は、挙動画像生成プログラム113が実行する挙動画像データ生成処理を示すフローチャートである。ここでの動作主体は、中央演算処理装置110により実行される挙動画像生成プログラム113である。挙動画像データ生成処理では、図4に示す骨格画像群から、各部位の時間的変化を抽出し、挙動画像データ133として描画する。
FIG. 11 is a flowchart showing a behavior image data generation process executed by the behavior
挙動画像生成プログラム113は、記憶装置130から骨格画像データ132を読み込む(S31)。以下では、例えば、図4に示す骨格画像データ132(1),(2)のようなデータが読み込まれたものとして説明する。
The behavior
挙動画像生成プログラム113は、各骨格画像データ132から、骨格の動きとしてのオプティカルフローを抽出し、挙動画像データ133を生成する(S32)。ここでオプティカルフローとは、時間的に連続する画像の中で、物体の動きをベクトルで表現したものである。オプティカルフローの計算方法には種々あるが、例えばLucas−Kanade法を用いることができる。図4(1),(2)に示す骨格画像データ132(1),(2)を元にオプティカルフローを求めると、図5(1)に示す挙動画像データ133(1)が生成される。挙動画像データ内の矢印は、矢印の始点から終点に向かって、画像内の画素に動きがあったことを表している。
The behavior
挙動画像生成プログラム113は、ステップS32で生成した挙動画像データ133を記憶装置130へ格納する(S33)。
The behavior
<シーケンス生成処理> <Sequence generation process>
図12は、シーケンスデータ生成プログラム114が実行するシーケンスデータ生成処理を示すフローチャートである。ここでの動作主体は、中央演算処理装置110により実行されるシーケンスデータ生成プログラム114である。シーケンスデータ生成処理では、図7で述べた学習用シーケンスデータ135または図9で述べた推論用シーケンスデータ137を生成する。
FIG. 12 is a flowchart showing a sequence data generation process executed by the sequence
まず最初に、シーケンスデータ生成プログラム114は、元画像データ131と骨格画像データ132と挙動画像データ133と正解データ134とを記憶装置130から読み込む(S41)。例えば、図3、図4、図5、図6で述べたデータが読み込まれたものとして、以下説明する。
First, the sequence
シーケンスデータ生成プログラム114は、各画像データ131,132,133に一意に付与されている時系列を表す変数tに「1」を代入する(S42)。シーケンスデータ生成プログラム114は、一つのシーケンスとして構成する所定時間内のデータを取得する(S43)。ここでは、「t」から「t+n−1」までのデータを一つのシーケンスとして取り扱う。変数nは、一つのシーケンスの長さを表している。例えば、「t=1、n=3」の場合、一つのシーケンスとなるのは、時間が「1」、「2」、「3」のデータである。
The sequence
例えば図7では、元画像データのファイル名1353、骨格画像データのファイル名1354、挙動画像データのファイル名1355のうち、各ファイル名中の時間的順序を示す値が「0001」、「0002」、「0003」であるデータが一つのシーケンスとして使用される。すなわちこの場合は「1」、「2」、「3」となる。
For example, in FIG. 7, among the original image
シーケンスデータ生成プログラム114は、シーケンスデータのシーケンス識別子(sid)と時間的順序識別子(tid)とを設定する(S44)。シーケンス識別子には、各シーケンスデータを一意に識別する値を格納する。図7のシーケンス識別子1351に示すように、「1」から順に格納する。時間的順序識別子は、各シーケンスデータ内での順序を表す値である。図7の時間的順序識別子1352に示すように、時間が古いものから順に「1」、「2」、「3」のように設定される。
The sequence
シーケンスデータ生成プログラム114は、各シーケンスデータの分類クラスを設定する(S45)。分類クラスとは、各シーケンスにおける人間の行動パターンを表す識別子である。例えば、「歩いている人」は「0」、「走っている人」は「1」のように、分類クラスは設定される。
The sequence
分類クラスは、学習処理時と推論処理時とで、それぞれ格納する値が異なる。推論処理時には、分類クラスの値を設定せず、空白にしておく。学習処理時には、正解データをもとに分類クラスの値を設定する。分類クラスの値の決め方には種々あるが、例えば、同一シーケンス内における多数決で分類クラスを決定する方法が考えられる。 The value to be stored in the classification class differs between the learning process and the inference process. At the time of inference processing, the value of the classification class is not set and is left blank. At the time of learning process, the value of the classification class is set based on the correct answer data. There are various methods for determining the value of the classification class, but for example, a method of determining the classification class by majority voting within the same sequence can be considered.
図7の「sid=1」の場合で説明する。元画像データは、「raw_0001.jpg」、「raw_0002.jpg」、「raw_0003.jpg」の3つである。これら3つの元画像データを正解データと照合すると、すべて正解は「1」である。したがって、3つのファイルの多数決により、「sid=1」のシーケンスの分類クラスは「1」となる。分類クラスを多数決で決定できない場合は、例えば、候補となる分類クラスの中からランダムで決定したり、またはそのシーケンスにおける最大の「tid」を持つ分類クラスを使用するなどすればよい。 The case of “sid = 1” in FIG. 7 will be described. There are three original image data, "raw_0001.jpg", "raw_0002.jpg", and "raw_0003.jpg". When these three original image data are collated with the correct answer data, the correct answer is "1". Therefore, the classification class of the sequence of "sid = 1" becomes "1" by the majority vote of the three files. If the classification class cannot be determined by majority vote, for example, it may be randomly determined from the candidate classification classes, or the classification class having the maximum "tid" in the sequence may be used.
続いて、シーケンスデータ生成プログラム114は、変数tに「t+n」を代入する(S46)。すなわち、次のシーケンスの開始の時間を設定する。
Subsequently, the sequence
シーケンスデータ生成プログラム114は、「t+n−1」が最大の時間tmaxより大きいかどうか判定する(S47)。この条件が成立する場合(S47:YES)、シーケンスをこれ以上設定できないことを表す。条件が成立しない場合(S47:NO)、シーケンスデータ生成プログラム114は、ステップS43へ戻って、次のシーケンスを生成する。条件が成立する場合(S47:YES)、ステップS48へ進む。
The sequence
シーケンスデータ生成プログラム114は、生成されたシーケンスデータを記憶装置130へ格納する(S48)。学習処理用にシーケンスデータ生成処理が呼び出された場合は、学習用シーケンスデータ135として記憶装置130に格納される。推論処理用にシーケンスデータ生成処理が呼び出された場合は、推論用シーケンスデータ137として記憶装置130へ格納される。
The sequence
<学習処理> <Learning process>
図13は、モデル生成プログラム115が実行するモデル生成処理(学習処理)を示すフローチャートである。ここでの動作主体は中央演算処理装置110により実行されるモデル生成プログラム115である。モデル生成処理では、図7で述べた学習用シーケンスデータ135を生成した後で、この学習用シーケンスデータ135から図8で述べたモデルデータ136を生成する。
FIG. 13 is a flowchart showing a model generation process (learning process) executed by the
モデル生成プログラム115は、シーケンスデータ生成プログラム114により学習用シーケンスデータ135を生成させる(S51)。このステップS51では、図12で述べたシーケンスデータ生成処理が呼び出され、前述した処理が実行される。
The
モデル生成プログラム115は、生成された学習用シーケンスデータ135を記憶装置130から読み込み(S52)、機械学習により学習用シーケンスデータ135からモデルデータ136を生成する(S53)。
The
機械学習の手法は種々あるが、例えばディープラーニングを用いることができる。ディープラーニングを用いる場合、様々なモデルを定義可能である。図14にニューラルネットワークの構成例を示す。 There are various machine learning methods, but for example, deep learning can be used. When using deep learning, various models can be defined. FIG. 14 shows a configuration example of the neural network.
図14では、入力として、元画像データ131、骨格画像データ132、挙動画像データ133を、時間的順序識別子(tid)毎にひとつにまとめたマルチチャンネルの画像データとして、CNN(Convolutional Neural Network)21に入力して特徴を抽出し、さらにLSTM(Long Short−Term Memory)22により時系列としての特徴抽出を行って、最終的な分類クラスを出力する(23,24)。CNNとLSTMとでの処理時には、活性化関数またはプーリングまたはドロップアウト等の処理を加えてもよい。
In FIG. 14, CNN (Convolutional Neural Network) 21 is used as multi-channel image data in which the
ディープラーニングの出力として、各シーケンスデータの分類クラスを設定する。図14の構成は一例であり、様々な変更が可能である。図14で述べたニューラルネットワークに学習用シーケンスデータ135を入力し、誤差逆伝播法等により学習させることにより、画像内の人間の行動パターンを推測可能なモデルデータ136が生成される。
Set the classification class of each sequence data as the output of deep learning. The configuration of FIG. 14 is an example, and various changes can be made. By inputting the
図13に戻る。モデル生成プログラム115は、ステップS53で生成されたモデルデータ136を記憶装置130に格納する(S54)。
Return to FIG. The
<推論処理> <Inference processing>
図15は、推論プログラム116の実行する推論処理を示すフローチャートである。動作主体は、中央演算処理装置110により実行される推論プログラム116である。推論処理では、図9で述べた推論用シーケンスデータ137を生成した後、この推論用シーケンスデータ137と図8で述べたモデルデータ136とをもとに、各シーケンスにおける分類クラスを推定する。
FIG. 15 is a flowchart showing an inference process executed by the
推論プログラム116は、シーケンスデータ生成プログラム114により推論用シーケンスデータ137を生成させる(S61)。ステップS61では、シーケンスデータ生成処理が呼び出され、前述の処理が実行される。
The
推論プログラム116は、推論用シーケンスデータ137とモデルデータ136とを記憶装置130から読み込み(S62)、推論処理により、推論用シーケンスデータ137をモデルデータ136へ入力して、各シーケンスの分類クラスを求める(S63)。
The
図14で述べたニューラルネットワークに対し、学習時と同様に、元画像データと骨格画像データと挙動画像データとを時間的順序識別子(tid)毎のひとまとまりのマルチチャンネル画像データとして入力すると、softmax処理23により、各シーケンスの分類クラスの確率が出力される。例えば、「走っている」を表す分類クラス「1」の確率が「0.9」であれば、入力されたデータ群に含まれる人間の行動を「走っている」と判定できる。行動の認識結果を示す識別子は、分類クラスに格納される。
When the original image data, the skeleton image data, and the behavior image data are input to the neural network described in FIG. 14 as a set of multi-channel image data for each temporal order identifier (ted), softmax The
推論プログラム116は、ステップS63で生成された推論用シーケンスデータ137を記憶装置130に上書き保存する(S64)。
The
以上説明したように、本実施例によれば、元画像データ131から骨格画像データ132および挙動画像133データを生成し、機械学習によるモデルデータ136を生成することにより、時系列の画像データに写っている人間の行動を判定することができる。
As described above, according to the present embodiment, the
本実施例では、人間の行動の認識に際して骨格画像データ132を使用するため、人間とは無関係の背景の情報を排除できる。さらに、本実施例では、人間の骨格としての特徴を抽出するため、人間の行動を高精度に判定することができる。さらに、本実施例では、挙動画像データ133も使用するため、時系列的な人間の動きの特徴を抽出することができ、さらに判定精度を向上させることができる。
In this embodiment, since the
図16,図17を用いて第2実施例を説明する。本実施例を含む以下の各実施例では、第1実施例との相違を中心に述べる。本実施例では、各元画像データ131内の背景の時間変化が所定値以上の場合に、行動認識装置1Aを作動させて、画像に写った人間の行動を認識する。本実施例に係る行動認識装置1Aは、例えば、乗用車、商用車、建設機械などの各種移動体を運転する運転手の監視システムとして使用されてもよい。
The second embodiment will be described with reference to FIGS. 16 and 17. In each of the following examples including this embodiment, the differences from the first embodiment will be mainly described. In this embodiment, when the time change of the background in each
行動認識装置1Aには、センサ31からのセンサデータが入力される。センサ31は、行動認識装置1Aの監視対象である人間が運転する移動体30に設けられており、例えば、速度センサ、加速度センサ、位置センサなどが該当する。行動認識装置1Aは、移動体30に設けることもできるし、移動体30の外部に設けることもできる。
The sensor data from the
行動認識装置1Aを例えば移動体30の外部にあるサーバに設ける場合、移動体30のセンサ31からのセンサデータとカメラ140等で撮影した元画像データとを通信ネットワークを介してサーバ内の行動認識装置1Aへ送信する。行動認識装置1Aは、移動体30から受信したセンサデータおよび元画像データに基づいて、運転手の行動を認識し、その認識結果(分類クラス)を通信ネットワークを介して移動体30へ送信する。移動体30内の情報出力装置は、行動の認識結果に応じた警報を出力する。
When the
図17は、行動認識装置1Aを監視システムとして用いる場合の、行動監視処理S70を示すフローチャートである。ここでは、移動体30に行動認識装置1Aが設けられている場合を例に挙げて説明する。
FIG. 17 is a flowchart showing the behavior monitoring process S70 when the
行動認識装置1Aは、センサ31からセンサデータを取得すると(S71)、移動体30が移動中であるかをセンサデータに基づいて判断する(S72)。ここでは、一例として、移動体30が停止していない場合、すなわち移動体30の速度が「0」を超えている場合に、「移動中である」と判断するものとする。これに代えて、任意の自然数に設定される所定速度以上の場合に、移動体30が移動中であると判定することもできる。
When the
移動体30が移動中ではない場合(S72:NO)、行動監視処理は終了する。これに対し、移動体30が移動中の場合(S72:YES)、行動認識装置1Aは、第1実施例で述べたように、元画像データ131と骨格画像データ132と挙動画像データ133とに基づく推論用シーケンスデータ137をモデルデータ136に適用することにより、対象者である移動体30の運転手の行動を認識する(S73)。ここでは、行動の分類として、「前を向いている」、「よそ見をしている」、「スマートフォンを操作している」、「飲食している」、「下を向いている」などを挙げる。
When the moving
行動認識装置1Aは、ステップS73で認識された行動が正常な行動であるか判定する(S74)。ここでは、「前を向いている」が正常な行動としてあらかじめ設定されており、それ以外の行動は正常な行動ではないとして設定されているものとする。
The
行動認識装置1Aは、運転手の行動が正常な行動であると判定すると(S74:YES)、本処理を終了する。これに対し、行動認識装置1Aは、運転手の行動が正常な行動ではないと判定すると(S74:NO)、警報を出力する(S75)。警報は、例えば、カーナビゲーションシステムなどの移動体30に搭載された情報出力装置を通じて出力することができる。
When the
このように構成される本実施例によれば、移動体30が移動中に、運転手の行動を認識し、その認識結果に応じた情報を出力することができる。第1実施例で述べたように、行動認識装置1Aは、元画像データだけでなく骨格画像データおよび挙動画像データも利用して運転手の行動を認識するため、移動体30が移動して運転手の背景が変化する場合であっても、運転手の行動を適切に認識することができる。
According to the present embodiment configured as described above, the moving
図18,図19を用いて第3実施例を説明する。本実施例に係る行動認識装置1Bは、元画像データ131から対象の人物(ここでは運転手)の視線を検出し、検出された視線を対象人物の行動の判定に利用する。
A third embodiment will be described with reference to FIGS. 18 and 19. The
図18に示す行動認識装置1Bも、第2実施例と同様に、移動体30の運転手の行動を監視する監視システムとして用いられる。行動認識装置1Bには、センサ31からのセンサデータが入力される。さらに、行動認識装置1Bは、元画像データ131を分析することにより視線を検出する視線解析部17が設けられている。視線解析部17は、中央演算処理装置110が所定のコンピュータプログラム(図示せぬ視線解析プログラム)を実行することにより実現される機能である。
The
図19は、本実施例に係る行動監視処理S70Bのフローチャートである。この処理は、図17で述べたステップS71〜S74を全て備えている。本実施例では、図17で述べたステップS75に代えて、複数種類の警報を出力する(S78,S79)。さらに、本実施例では、新規なステップS76およびS77を有する。 FIG. 19 is a flowchart of the behavior monitoring process S70B according to this embodiment. This process includes all steps S71 to S74 described in FIG. In this embodiment, a plurality of types of alarms are output instead of step S75 described in FIG. 17 (S78, S79). In addition, this example has novel steps S76 and S77.
行動認識装置1Bは、推論用シーケンスデータ137をモデルデータ136に適用することにより得られる運転手の行動が正常であるか判定し(S74)、正常な行動ではないと判定した場合には(S74:NO)、視線解析部17から運転手の視線の解析結果を読み込む(S76)。
The
行動認識装置1Bは、視線の解析結果が正常であるか判定する(S77)。ここで、正常な視線とは、移動体30の移動方向を向いている状態である。行動認識装置1Bは、運転手の行動が正常ではない場合であっても(S74:NO)、その視線が移動方向を向いているのであれば(S77:YES)、一定の安全は保たれていると判断し、注意を促す警報を出力する(S78)。
The
これに対し、運転手の行動が正常ではなく(S74:NO)、かつその視線も正常ではない場合(S77:NO)、安全性を向上させるべく、運転手に向けて警告を示す警報を出力する(S79)。注意または警告を示す警報は、移動体30内の運転手だけに向けて出力してもよいし、移動体30を管理する管理システムまたは管理者の持つ情報処理装置へ向けて出力してもよい。
On the other hand, when the driver's behavior is not normal (S74: NO) and the line of sight is also not normal (S77: NO), an alarm indicating a warning is output to the driver in order to improve safety. (S79). The warning indicating caution or warning may be output only to the driver in the moving
このように構成される本実施例によれば、運転手の行動が正常ではないと判定された場合に、運転手の視線も考慮して警報を出力するため、実際には安全性が確保されている状況下で警告が発せられる事態を抑制することができ、運転手に与える違和感または不快感を低減することができ、使い勝手が向上する。 According to this embodiment configured in this way, when it is determined that the driver's behavior is not normal, an alarm is output in consideration of the driver's line of sight, so that safety is actually ensured. It is possible to suppress the situation where a warning is issued under the circumstances, reduce the discomfort or discomfort given to the driver, and improve the usability.
なお、本発明は、実施形態そのままに限定されるものではなく、実施段階では、その要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the embodiment as it is, and at the implementation stage, the components can be modified and embodied without departing from the gist thereof. In addition, various inventions can be formed by appropriately combining the plurality of components disclosed in the embodiments. For example, some components may be removed from all the components shown in the embodiments. In addition, components across different embodiments may be combined as appropriate.
実施形態で示された各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。上記各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能等を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録或いは記憶装置、またはICカード、SDカード、DVD等の記録或いは記憶媒体に格納することができる。 Each configuration, function, processing unit, processing means, etc. shown in the embodiment may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function is stored in a memory, hard disk, recording or storage device such as SSD (Solid State Drive), or recording or storage medium such as IC card, SD card, DVD, etc. be able to.
さらに、上述の実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 Further, in the above-described embodiment, the control lines and information lines are shown as necessary for explanation, and not all the control lines and information lines are necessarily shown in the product. All configurations may be interconnected.
本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれる。さらに特許請求の範囲に記載された構成は、特許請求の範囲で明示している組合せ以外にも組み合わせることができる。 Each component of the present invention can be arbitrarily selected, and an invention having the selected configuration is also included in the present invention. Further, the configurations described in the claims can be combined in addition to the combinations specified in the claims.
1,1A,1B:行動認識装置、11:元画像取得部、12:骨格画像生成部、13:挙動画像生成部、14:シーケンスデータ生成部、15:モデル生成部、16:推論部、30:移動体、31:センサ、110:中央演算処理装置、120:入出力装置、130:記憶装置、131:元画像データ、132:骨格画像データ、133:挙動画像データ、134:正解データ、135:学習用シーケンスデータ、136:モデルデータ、137:推論用シーケンスデータ 1,1A, 1B: Behavior recognition device, 11: Original image acquisition unit, 12: Skeletal image generation unit, 13: Behavior image generation unit, 14: Sequence data generation unit, 15: Model generation unit, 16: Inference unit, 30 : Moving body, 31: Sensor, 110: Central arithmetic processing device, 120: Input / output device, 130: Storage device, 131: Original image data, 132: Skeletal image data, 133: Behavior image data, 134: Correct answer data, 135 : Training sequence data, 136: Model data, 137: Inference sequence data
Claims (7)
撮影時間の異なる複数の元画像データを取得する元画像取得部と、
前記各元画像データ内の人物の骨格画像データを生成する骨格画像生成部と、
前記各骨格画像データに基づいて前記人物の骨格の時間変化を示す挙動画像データを生成する挙動画像生成部と、
前記各元画像データと前記各骨格画像データと前記各挙動画像データとに基づいて、人物の行動パターンの学習と推論とが可能な所定のモデルを生成するモデル生成部と、
を有する行動分析装置。 A behavior analyzer that analyzes the behavior of a person included in an image.
An original image acquisition unit that acquires multiple original image data with different shooting times,
A skeleton image generation unit that generates skeleton image data of a person in each of the original image data,
A behavior image generation unit that generates behavior image data indicating a time change of the skeleton of the person based on each skeleton image data.
A model generation unit that generates a predetermined model capable of learning and inferring a person's behavior pattern based on the original image data, the skeleton image data, and the behavior image data.
Behavior analyzer with.
請求項1に記載の行動分析装置。 It further includes an inference unit that estimates the behavior of a person in each of the original image data to be analyzed based on the plurality of original image data to be analyzed and the predetermined model, and outputs the estimation result.
The behavior analyzer according to claim 1.
請求項2に記載の行動分析装置。 When the time change of the background in each of the original image data is equal to or greater than a predetermined value, the inference unit is generated by the skeleton image generation unit from each of the original image data of the analysis target and each of the original image data of the analysis target. It is included in each image data to be analyzed based on the plurality of skeleton image data to be generated, the plurality of behavior image data generated by the behavior image generation unit from each skeleton image data, and the predetermined model. Estimate the behavior of a person and output the estimation result,
The behavior analyzer according to claim 2.
前記推論部は、前記解析された視線と前記分析対象の各元画像データと前記所定のモデルとに基づいて前記人物の行動を推定し、推定結果を出力する、
請求項2に記載の行動分析装置。 A line-of-sight analysis unit that analyzes the line of sight of the person included in each original image data to be analyzed is further provided.
The inference unit estimates the behavior of the person based on the analyzed line of sight, each original image data of the analysis target, and the predetermined model, and outputs the estimation result.
The behavior analyzer according to claim 2.
前記各元画像データ内の背景の時間変化が所定値以上の場合に、前記分析対象の各元画像データと、前記分析対象の各元画像データから前記骨格画像生成部により生成される複数の骨格画像データと、前記各骨格画像データから前記挙動画像生成部により生成される複数の挙動画像データと、前記所定のモデルとに基づいて、前記人物の行動を推定して推定結果を出力し、
前記推定結果が正常状態を示さない場合に、前記解析された視線が予め設定された所定範囲にあるときは第1の警報を出力し、前記解析された視線が前記所定範囲から外れているときは第2の警報を出力する、
請求項4に記載の行動分析装置。 The inference unit
When the time change of the background in each of the original image data is equal to or greater than a predetermined value, each of the original image data to be analyzed and a plurality of skeletons generated by the skeleton image generation unit from each of the original image data to be analyzed Based on the image data, a plurality of behavior image data generated by the behavior image generation unit from each of the skeleton image data, and the predetermined model, the behavior of the person is estimated and the estimation result is output.
When the estimation result does not indicate a normal state, the first alarm is output when the analyzed line of sight is within a preset predetermined range, and when the analyzed line of sight is out of the predetermined range. Outputs a second alarm,
The behavior analyzer according to claim 4.
前記演算装置が前記記憶装置に記憶された所定のコンピュータプログラムを実行することにより、前記元画像取得部と前記骨格画像生成部と前記挙動画像生成部と前記モデル生成部とが実現され、
前記元画像データと前記骨格画像データと前記挙動画像データと前記所定のモデルとは、前記記憶装置に記憶される、
請求項1に記載の行動分析装置。 Further equipped with an arithmetic unit and a storage device,
When the arithmetic unit executes a predetermined computer program stored in the storage device, the original image acquisition unit, the skeleton image generation unit, the behavior image generation unit, and the model generation unit are realized.
The original image data, the skeleton image data, the behavior image data, and the predetermined model are stored in the storage device.
The behavior analyzer according to claim 1.
前記計算機は、
撮影時間の異なる複数の元画像データを取得し、
前記各元画像データ内の人物の骨格画像データを生成し、
前記各骨格画像データに基づいて前記人物の骨格の時間変化を示す挙動画像データを生成し、
前記各元画像データと前記各骨格画像データと前記各挙動画像データとに基づいて、人物の行動パターンの学習と推論とが可能な所定のモデルを生成し、
分析対象の複数の元画像データと前記所定のモデルとを取得し、
前記分析対象の各元画像データ内の人物の行動を推定して推定結果を出力する、
行動分析方法。 It is a behavior analysis method that analyzes the behavior of a person included in an image using a computer.
The calculator
Acquire multiple original image data with different shooting times,
The skeleton image data of the person in each of the original image data is generated,
Based on each of the skeleton image data, behavior image data showing the time change of the skeleton of the person is generated.
Based on the original image data, the skeleton image data, and the behavior image data, a predetermined model capable of learning and inferring the behavior pattern of a person is generated.
Acquire a plurality of original image data to be analyzed and the predetermined model,
The behavior of the person in each original image data to be analyzed is estimated and the estimation result is output.
Behavior analysis method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019031913A JP7149202B2 (en) | 2019-02-25 | 2019-02-25 | Behavior analysis device and behavior analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019031913A JP7149202B2 (en) | 2019-02-25 | 2019-02-25 | Behavior analysis device and behavior analysis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135747A true JP2020135747A (en) | 2020-08-31 |
JP7149202B2 JP7149202B2 (en) | 2022-10-06 |
Family
ID=72278806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019031913A Active JP7149202B2 (en) | 2019-02-25 | 2019-02-25 | Behavior analysis device and behavior analysis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7149202B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022249278A1 (en) * | 2021-05-25 | 2022-12-01 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2022249331A1 (en) * | 2021-05-26 | 2022-12-01 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2023084780A1 (en) * | 2021-11-15 | 2023-05-19 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2023084778A1 (en) * | 2021-11-15 | 2023-05-19 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2023112128A1 (en) * | 2021-12-14 | 2023-06-22 | 日本電気株式会社 | Information processing device, information processing method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018528536A (en) * | 2015-08-31 | 2018-09-27 | エスアールアイ インターナショナルSRI International | Method and system for monitoring driving behavior |
-
2019
- 2019-02-25 JP JP2019031913A patent/JP7149202B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018528536A (en) * | 2015-08-31 | 2018-09-27 | エスアールアイ インターナショナルSRI International | Method and system for monitoring driving behavior |
Non-Patent Citations (1)
Title |
---|
CHO NILAR PHYO, THI THI ZIN, PYKE TIN: "Skeleton Motion History based Human Action Recognition Using Deep Learning", 2017 IEEE 6TH GLOBAL CONFERENCE ON CONSUMER ELECTRONICS (GCCE), JPN6022037332, 24 October 2017 (2017-10-24), US, pages 1 - 2, XP033287053, ISSN: 0004867048, DOI: 10.1109/GCCE.2017.8229448 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022249278A1 (en) * | 2021-05-25 | 2022-12-01 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2022249331A1 (en) * | 2021-05-26 | 2022-12-01 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2023084780A1 (en) * | 2021-11-15 | 2023-05-19 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2023084778A1 (en) * | 2021-11-15 | 2023-05-19 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2023112128A1 (en) * | 2021-12-14 | 2023-06-22 | 日本電気株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7149202B2 (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7149202B2 (en) | Behavior analysis device and behavior analysis method | |
CN109685037B (en) | Real-time action recognition method and device and electronic equipment | |
CN111753747B (en) | Violent motion detection method based on monocular camera and three-dimensional attitude estimation | |
KR20210142177A (en) | Methods and devices for detecting children's conditions, electronic devices, memory | |
CN115427982A (en) | Methods, systems, and media for identifying human behavior in digital video using convolutional neural networks | |
Tammvee et al. | Human activity recognition-based path planning for autonomous vehicles | |
Hasan et al. | Robust pose-based human fall detection using recurrent neural network | |
CN113298047B (en) | 3D form and posture estimation method and device based on space-time correlation image | |
JP2020135551A (en) | Object recognition device, object recognition method and object recognition program | |
JP2019003565A (en) | Image processing apparatus, image processing method and image processing program | |
CN104794446A (en) | Human body action recognition method and system based on synthetic descriptors | |
CN110910426A (en) | Action process and action trend identification method, storage medium and electronic device | |
CN108268125A (en) | A kind of motion gesture detection and tracking based on computer vision | |
JP7409390B2 (en) | Movement recognition method, movement recognition program and information processing device | |
JP6635848B2 (en) | Three-dimensional video data generation device, three-dimensional video data generation program, and method therefor | |
JP7263094B2 (en) | Information processing device, information processing method and program | |
JP2017033556A (en) | Image processing method and electronic apparatus | |
KR101447958B1 (en) | Method and apparatus for recognizing body point | |
Siam et al. | Human computer interaction using marker based hand gesture recognition | |
KR101909326B1 (en) | User interface control method and system using triangular mesh model according to the change in facial motion | |
Kantharia et al. | Facial behavior recognition using soft computing techniques: A survey | |
KR102573796B1 (en) | Apparatus and method for determining musculoskeletal disease | |
JPWO2020022362A1 (en) | Motion detection device, characteristic detection device, fluid detection device, motion detection system, motion detection method, program, and recording medium | |
WO2022049820A1 (en) | Skeleton detection system | |
JP6282121B2 (en) | Image recognition apparatus, image recognition method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7149202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |