JP2023080835A - Setting program, setting method, and information processing apparatus - Google Patents
Setting program, setting method, and information processing apparatus Download PDFInfo
- Publication number
- JP2023080835A JP2023080835A JP2021194362A JP2021194362A JP2023080835A JP 2023080835 A JP2023080835 A JP 2023080835A JP 2021194362 A JP2021194362 A JP 2021194362A JP 2021194362 A JP2021194362 A JP 2021194362A JP 2023080835 A JP2023080835 A JP 2023080835A
- Authority
- JP
- Japan
- Prior art keywords
- area
- person
- orientation
- face
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000010801 machine learning Methods 0.000 claims description 34
- 230000011218 segmentation Effects 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 22
- 230000006399 behavior Effects 0.000 claims description 19
- 230000006866 deterioration Effects 0.000 abstract description 4
- 230000033001 locomotion Effects 0.000 description 50
- 238000000605 extraction Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 239000000284 extract Substances 0.000 description 13
- 238000012549 training Methods 0.000 description 11
- 210000003423 ankle Anatomy 0.000 description 10
- 238000001514 detection method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000007704 transition Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 210000002683 foot Anatomy 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、設定プログラム、設定方法および情報処理装置に関する。 The present invention relates to a setting program, a setting method, and an information processing apparatus.
カメラで撮像された映像データから人の行動を分析する技術開発が進められている。例えば、映像データに含まれる各画像データから、購買行動を起こしやすい領域である注目領域を抽出し、注目領域において腕を一定の位置まで上げる動作をピッキング動作として検出することで、購買行動を分析する。近年では、注目領域の検出手法として、各画像データに対して、人手による注目領域の設定やセマンティックセグメンテーションを用いた注目領域の設定が利用されている。 Techniques for analyzing human behavior from video data captured by cameras are being developed. For example, from each image data included in the video data, we extract the attention area, which is the area where purchasing behavior is likely to occur, and detect the movement of raising the arm to a certain position in the attention area as a picking motion, thereby analyzing the purchase behavior. do. In recent years, as an attention area detection method, manual attention area setting and attention area setting using semantic segmentation are used for each image data.
しかしながら、上記技術では、注目領域を正確に設定することが難しく、結果として、行動分析の精度が劣化する。例えば、人手による手法では、膨大な画像データに対して注目領域を設定することになり、時間がかかるだけでなく、人為的なミスを防ぐことが難しい。また、セマンティックセグメンテーションを用いた手法では、店舗内で消費者が歩く通路全体が注目領域に設定されるので、不要なピッキング動作が検出されてしまい、行動分析の精度が劣化する。 However, with the above technique, it is difficult to accurately set the attention area, and as a result, the accuracy of behavior analysis deteriorates. For example, in a manual method, an attention area is set for a huge amount of image data, which not only takes time but also makes it difficult to prevent human error. In addition, in the method using semantic segmentation, the entire aisle that the consumer walks in the store is set as the region of interest, so unnecessary picking actions are detected, and the accuracy of behavior analysis deteriorates.
一つの側面では、行動分析の精度劣化を抑制することができる設定プログラム、設定方法および情報処理装置を提供することを目的とする。 An object of one aspect of the present invention is to provide a setting program, a setting method, and an information processing apparatus capable of suppressing deterioration in accuracy of behavior analysis.
第1の案では、設定プログラムは、コンピュータに、室内を撮影した画像データから、通路に対応する第一のエリアを特定し、特定された前記第一のエリアを移動する人物の身体の向きと人物の顔の向きを特定し、特定された前記人物の身体の向きが前記人物の顔の向きと異なる場合に、前記人物の顔の向きまたは前記人物の身体の向きに基づいて、前記室内を構成する複数のエリアのうちの第一のエリアと隣接する第二のエリアを特定し、特定された前記第二のエリアを、前記人物に関連する物体が収納されたエリアと設定する、処理を実行させることを特徴とする。 In the first scheme, the setting program causes the computer to specify a first area corresponding to the passage from the image data of the interior, and the direction of the body of the person moving in the specified first area. a face orientation of a person is identified, and when the identified body orientation of the person is different from the person's face orientation, the room is navigated based on the person's face orientation or the person's body orientation; A process of identifying a second area adjacent to a first area among a plurality of areas, and setting the identified second area as an area containing an object related to the person. It is characterized by executing
一実施形態によれば、行動分析の精度劣化を抑制することができる。 According to one embodiment, deterioration in accuracy of behavior analysis can be suppressed.
以下に、本願の開示する設定プログラム、設定方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。 Hereinafter, embodiments of a setting program, a setting method, and an information processing apparatus disclosed in the present application will be described in detail based on the drawings. In addition, this invention is not limited by this Example. Moreover, each embodiment can be appropriately combined within a range without contradiction.
[全体構成]
図1は、実施例1にかかる情報処理装置10を含むシステムの全体構成を説明する図である。図1に示すように、このシステムは、空間の一例である店舗1と、店舗1内の異なる場所に設置された複数のカメラ2と、情報処理装置10とを有する。
[overall structure]
FIG. 1 is a diagram illustrating the overall configuration of a system including an
複数のカメラ2それぞれは、店舗1内の所定領域を撮像する監視カメラの一例であり、撮像した映像のデータを、情報処理装置100に送信する。以下の説明では、映像のデータを「映像データ」と表記する場合がある。また、映像データには、時系列の複数の画像フレームが含まれる。各画像フレームには、時系列の昇順に、フレーム番号が付与される。1つの画像フレームは、カメラ2があるタイミングで撮影した静止画像の画像データである。
Each of the plurality of
情報処理装置10は、複数のカメラ2それぞれにより撮像された各画像データを解析するコンピュータの一例である。なお、複数のカメラ2それぞれと情報処理装置10とは、有線や無線を問わず、インターネットや専用線などの各種ネットワークを用いて接続される。
The
近年、カメラ2で撮像された映像データから人の行動を分析する技術開発が進められている。例えば、映像データに含まれる各画像データから、購買行動を起こしやすい領域である注目領域を抽出し、注目領域において腕を一定の位置まで上げる動作をピッキング動作として検出することで、購買行動を分析することが行われている。
In recent years, technology development for analyzing human behavior from video data captured by the
図2は、実施例1にかかる認識対象の行動を説明する図である。図2に示す領域Aが注目領域と仮定する。この場合、図2の(1)に示す、商品棚の前に位置する人物(ユーザ)のピッキング動作が認識対象である。しかし、図2の(2)や(3)に示す、商品棚がない場所で、商品に手を伸ばしていないもののピッキング動作と似た動作を行った人物も認識されてしまうことで、誤検出が発生する。 FIG. 2 is a diagram for explaining behavior of a recognition target according to the first embodiment; Assume that the region A shown in FIG. 2 is the region of interest. In this case, the picking motion of the person (user) positioned in front of the product shelf shown in (1) of FIG. 2 is the recognition target. However, as shown in (2) and (3) in Fig. 2, a person who does not reach out to pick a product in a place where there is no product shelf but performs a similar picking action is also recognized, resulting in erroneous detection. occurs.
誤検出を減らすために、手を伸ばす商品棚の領域を注目領域として設定することが考えられるが、その場合、図2の(2)に示す人物は、画像データ上、手が棚に入っていることから、誤検出されてしまう。別の手法としては、足元の通路を注目領域と設定することが行われる。例えば、図1に示す領域Aを注目領域に設定した場合、図2の(2)や(3)に示す人物は、検出されなくなり、誤検出が抑制される。 In order to reduce erroneous detection, it is conceivable to set the area of the product shelf where the hand reaches as the attention area. In that case, the person shown in FIG. Therefore, it is erroneously detected. Another method is to set the passage at your feet as the attention area. For example, when the area A shown in FIG. 1 is set as the attention area, the persons shown in (2) and (3) in FIG. 2 are not detected, and erroneous detection is suppressed.
足元の領域を注目領域と設定する手法は、手動設定で行われることが多い。しかし、手動設定では、膨大な画像データに対して注目領域を設定することになり、時間がかかるだけでなく、人為的なミスを防ぐことが難しい。 Manual setting is often used to set the foot area as the attention area. However, with manual setting, the attention area is set for a huge amount of image data, which not only takes time but also makes it difficult to prevent human error.
別の手法として、画像データのピクセル単位で何が写っているのかをカテゴリ分けする技術であるセマンティックセグメンテーションによる自動設定が利用されている。図3は、セマンティックセグメンテーションによる注目領域の検出を説明する図である。図3に示すように、セマンティックセグメンテーションは、画像データを機械学習モデル(convolutional encoder-decoder)に入力し、画像データの各領域にラベルが設定された出力結果を取得する。しかし、注目領域に限らず、注目領域以外を含んだ全通路に、ラベル「通路」が設定されてしまい、図2の(2)や(3)の人物も認識対象となることから、これらの人物のピッキング動作を検出する誤検出が発生する。 Another technique uses automatic configuration through semantic segmentation, a technique that categorizes what is in each pixel of image data. FIG. 3 is a diagram explaining detection of a region of interest by semantic segmentation. As shown in FIG. 3, semantic segmentation inputs image data into a machine learning model (convolutional encoder-decoder) and obtains an output result in which each region of the image data is labeled. However, the label "passage" is set not only for the attention area but also for all passages including areas other than the attention area, and the persons (2) and (3) in FIG. An erroneous detection occurs when a person's picking action is detected.
なお、カメラの映像データから人の作業位置を抽出し、作業位置のクラスタリングによってROI(Region Of Interest)を自動的に提供する参考技術も利用も考えられる。図4は、参考技術における注目領域の検出を説明する図である。図4に示すように、参考技術では、静止しての購買行動が生じた領域を抽出するので、図4の(B)に示した人物が静止した位置のみが抽出されてしまい、注目領域Aを十分にカバーすることが難しい。つまり、参考技術では、ゆっくり移動して商品を取る動作(ピッキング動作)を検出することが難しい。 In addition, it is possible to use a reference technology that automatically provides ROI (Region Of Interest) by extracting the working positions of people from the image data of the camera and clustering the working positions. FIG. 4 is a diagram illustrating detection of a region of interest in the reference technique. As shown in FIG. 4, in the reference technique, since the area where the purchase behavior occurs while still is extracted, only the position where the person is stationary shown in FIG. difficult to adequately cover. In other words, with the reference technology, it is difficult to detect an action of moving slowly to pick up an item (picking action).
一般的に、画像データ内で、注目領域と設定する領域やピッキング動作が検出された領域を、人物が手に取る商品等が陳列される商品棚エリアの設定した上で、人物の行動分析等が行われる。しかし、上述したように、手動設定、セマンティックセグメンテーション、または、参考技術による注目領域の設定では、注目領域を正確に抽出することが難しい。このため、商品棚エリアの設定ミスが発生し、最終的な行動分析の精度も劣化する。 In general, in image data, areas set as attention areas and areas where picking motions are detected are set as product shelf areas where products picked up by people are displayed, and then human behavior analysis, etc. is performed. is done. However, as described above, it is difficult to accurately extract the attention area by manual setting, semantic segmentation, or setting the attention area by the reference technique. For this reason, a product shelf area setting error occurs, and the accuracy of the final behavior analysis also deteriorates.
そこで、実施例1にかかる情報処理装置10は、室内を撮影した画像データから、通路に対応する第一のエリアを特定する。情報処理装置10は、特定された第一のエリアを移動する人物の身体と人物の顔の向きを測定する。情報処理装置10は、測定された人物の身体の向きが人物の顔の向きと異なる場合に、人物の顔の向きまたは身体の向きに基づいて、店舗1内を構成する複数のエリアのうちの第一のエリアと隣接する第二のエリアを特定する。情報処理装置10は、特定された第二のエリアを、商品棚のエリアと設定する。
Therefore, the
すなわち、情報処理装置10は、リテール店舗での購買行動では移動と商品を選び取る行動が主として発生するので、移動時は顏と身体の向きが同じ方向を向き、選び取る行動の時は顏と身体の向きにバラつきが生じることを用いて注目領域を抽出する。この結果、情報処理装置10は、注目領域を誤差なく正確に抽出することができるので、行動分析の精度劣化を抑制することができる。
That is, in the
[機能構成]
図5は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図5に示すように、情報処理装置10は、通信部11、記憶部12、制御部20を有する。
[Function configuration]
FIG. 5 is a functional block diagram of the functional configuration of the
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどにより実現される。例えば、通信部11は、カメラ2から映像データを受信し、制御部20による処理結果を管理端末などに送信する。
The communication unit 11 is a processing unit that controls communication with other devices, and is realized by, for example, a communication interface. For example, the communication unit 11 receives video data from the
記憶部12は、各種データや制御部20が実行するプログラムなどを記憶する処理部であり、メモリやハードディスクなどにより実現される。記憶部12は、訓練データDB13、第1機械学習モデル14、第2機械学習モデル15、映像データDB16、セグメント結果DB17、ROI情報DB18、設定結果DB19を記憶する。
The
訓練データDB13は、第1機械学習モデル14の訓練に使用される各訓練データを記憶するデータベースである。具体的には、各訓練データは、説明変数であるRGBの画像データと、目的変数(正解情報)である当該画像データに対するセマンティックセグメンテーションの実行結果(以下では、セグメント結果またはセグメンテーション結果と記載することがある)とが対応付けられたデータである。
The
第1機械学習モデル14は、セマンティックセグメンテーションを実行するモデルである。具体的には、第1機械学習モデル14は、RGBの画像データの入力に応じて、セグメンテーション結果を出力する。セグメンテーション結果には、画像データ内の各領域に対して、識別されたラベルが設定される。例えば、第1機械学習モデル14には、convolutional encoder-decoderなどを採用することができる。
The first
第2機械学習モデル15は、動作解析を実行するモデルである。具体的には、第2機械学習モデル15は、機械学習済みのモデルであり、人物の2次元画像データに対して、頭、手首、腰、足首などの2次元の関節位置(骨格座標)を推定し、基本となる動作の認識やユーザが定義したルールの認識を行う深層学習器の一例である。この第2機械学習モデル15を用いることで、人物の基本動作を認識することができ、足首の位置、顏の向き、身体の向きを取得することができる。なお、基本となる動作とは、例えば歩く、走る、止まるなどである。ユーザが定義したルールとは、商品を手に取るまでの各行動に該当する骨格情報の遷移などである。
The second
映像データDB16は、店舗1に設置される複数のカメラ2それぞれにより撮像された映像データを記憶するデータベースである。例えば、映像データDB16は、カメラ2ごと、または、撮像された時間帯ごとに、映像データを記憶する。
The image data DB 16 is a database that stores image data captured by each of the plurality of
セグメント結果DB17は、セマンティックセグメンテーションの実行結果を記憶するデータベースである。具体的には、セグメント結果DB17は、第1機械学習モデル14の出力結果を記憶する。例えば、セグメント結果DB17は、RGBの画像データとセマンティックセグメンテーションの実行結果とを対応付けて記憶する。
The
ROI情報DB18は、後述する制御部20により得られた注目領域のROI、商品棚のROIなどを記憶するデータベースである。例えば、ROI情報DB18は、RGBの画像データごとに、注目領域のROI、商品棚のROIなどを対応付けて記憶する。
The
設定結果DB19は、後述する制御部20によりセグメント結果に対して商品棚のエリアを設定した結果を記憶するデータベースである。例えば、設定結果DB19は、RGBの画像データと、画像データに対して設定された各ラベルの設定情報とを対応付けて記憶する。
The setting
制御部20は、情報処理装置10全体を司る処理部であり、例えばプロセッサなどによる実現される。この制御部20は、事前学習部21、取得部22、動作解析部23、バラつき抽出部24、軌跡生成部25、注目領域抽出部26、エリア設定部27を有する。なお、事前学習部21、取得部22、動作解析部23、バラつき抽出部24、軌跡生成部25、注目領域抽出部26、エリア設定部27は、プロセッサが有する電子回路やプロセッサが実行するプロセスなどにより実現される。
The control unit 20 is a processing unit that controls the entire
事前学習部21は、第1機械学習モデル14を生成する処理部である。具体的には、事前学習部21は、訓練データDB13に記憶される各訓練データを用いた機械学習により、第1機械学習モデルの訓練を実行する。
The pre-learning unit 21 is a processing unit that generates the first
図6は、第1機械学習モデル14の生成を説明する図である。図6に示すように、事前学習部21は、RGBの画像データと正解情報(セグメンテーション結果)とを含む訓練データを第1機械学習モデル14に入力し、出力結果(セグメンテーション結果)を取得する。そして、事前学習部21は、訓練データの正解情報と出力結果との誤差が最小化するように、第1機械学習モデル14のパラメータ等を最適化する。
FIG. 6 is a diagram illustrating generation of the first
取得部22は、各カメラ2から映像データを取得して映像データDB16に格納する処理部である。例えば、取得部22は、各カメラ2から随時取得してもよく、定期的に取得してもよい。
The
動作解析部23は、カメラ2により撮像された映像データに写っている人物の動作解析を実行する処理部である。具体的には、動作解析部23は、映像データに含まれる各画像データ(フレーム)を第2機械学習モデル15に入力し、各画像データに写っている人物の動作を認識する。
The
図7は、第2機械学習モデル15を用いた動作解析を説明する図である。図7に示すように、動作解析部23は、RGBの画像データを第2機械学習モデル15に入力し、画像データに写っている人物の2次元骨格座標を取得する。そして、動作解析部23は、2次元骨格座標にしたがって、人物の足首の位置、顔の向き、身体の向きを特定し、特定した結果を、バラつき抽出部24や軌跡生成部25などに出力する。
FIG. 7 is a diagram for explaining motion analysis using the second
このように、動作解析部23は、所定時間間隔で取得された各映像データに含まれる各画像データ(例えば100フレーム)それぞれを第2機械学習モデル15に入力し、各画像データに写っている人物の足首の位置、顔の向き、身体の向きを測定することで、映像データ内における人物の足首の位置の遷移、顔の向きの遷移、身体の向きの遷移を特定することができる。
In this way, the
バラつき抽出部24は、動作解析部23により特定された人物の2次元骨格座標を用いて、当該人物の身体の向きと顔の向きとのバラつきを抽出する処理部である。上記例で説明すると、バラつき抽出部24は、映像データに含まれる各画像データ(例えば100フレーム)についての顔の向きと身体の向きとを、動作解析部23から取得する。続いて、バラつき抽出部24は、バラつきとして、各画像データ内の人物の顔の向きと顔の向きとのなす角度を算出する。
The
軌跡生成部25は、映像データに写っている各人物の移動軌跡を生成する処理部である。具体的には、軌跡生成部25は、映像データ内の画像データに対するセマンティックセグメンテーションの実行結果に、動作解析部23により得られた人物の足首の位置をプロットすることで、人物の移動軌跡を生成する。
The
図8は、ユーザの移動軌跡の生成を説明する図である。図8に示すように、軌跡生成部25は、映像データ内の画像データ(例えば最後の画像データ)を、第1機械学習モデル14に入力する。そして、動作解析部23は、第1機械学習モデル14により領域(エリア)が識別されて、各エリアにラベルが設定されたセグメンテーション結果を取得する。
FIG. 8 is a diagram illustrating generation of a user's movement trajectory. As shown in FIG. 8 , the
その後、軌跡生成部25は、セグメンテーション結果に含まれる各ラベルから、ラベル「通路」が設定された通路の領域を特定する。続いて、軌跡生成部25は、通路の領域に対して、映像データ内の各画像データから特定された各人物の足首の位置を、軌跡としてプロットする。そして、軌跡生成部25は、プロット結果を注目領域抽出部26に出力する。
After that, the
このようにして、軌跡生成部25は、映像データについて、映像データ内の出現する人物が通路の領域を移動する移動軌跡を生成することができる。
In this way, the
注目領域抽出部26は、人物の身体の向きと顔の向きとのバラつきに基づき、注目領域を抽出する処理部である。具体的には、注目領域抽出部26は、軌跡生成部25により生成された移動軌跡のうち、人物の顔の向きと顔の向きとのなす角度が閾値以上である移動軌跡を含む領域を、注目領域として抽出する。
The attention area extraction unit 26 is a processing unit that extracts an attention area based on the variation between the orientation of the body and the orientation of the face of the person. Specifically, the region-of-interest extraction unit 26 selects, from among the movement trajectories generated by the
図9は、顔の向きと身体の向きのプロットを説明する図であり、図10は、注目領域の抽出を説明する図である。図9に示すように、注目領域抽出部26は、軌跡生成部25により生成された移動軌跡に、動作解析部23により特定された人物の顔の向きと身体の向きとをプロットする。続いて、注目領域抽出部26は、バラつき抽出部24により算出された角度(バラつき)に基づき、各軌跡について、人物の顔の向きと身体の向きの角度を特定する。
FIG. 9 is a diagram for explaining plotting of the orientation of the face and the orientation of the body, and FIG. 10 is a diagram for explaining the extraction of the region of interest. As shown in FIG. 9 , the attention area extraction unit 26 plots the face direction and body direction of the person specified by the
その後、図10に示すように、注目領域抽出部26は、移動軌跡の点群に対して、顔の向きと身体の向きとのバラつきをベースにクラスタリングを実行する。そして、注目領域抽出部26は、角度が閾値以上であり、バラつきが大きいとしてクラスタリングされた領域A1とA2を注目領域として抽出し、角度が閾値未満であり、バラつきが小さいとしてクラスタリングされた領域A3を通路の領域として抽出する。 After that, as shown in FIG. 10, the region-of-interest extraction unit 26 clusters the point group of the movement trajectory based on variations in the orientation of the face and the orientation of the body. Then, the attention area extracting unit 26 extracts the areas A1 and A2 clustered as having an angle equal to or larger than the threshold and having large variations as attention areas, and extracts the area A3 clustered as having an angle less than the threshold and having small variations. is extracted as the passage region.
このようにして、注目領域抽出部26は、映像データ内で人物の行動分析の対象である領域であって、商品に対するピッキング動作の検出対象となる領域である注目領域を絞り込むことができる。なお、注目領域抽出部26は、クラスタリングに限らず、例えば、角度が閾値以上である軌跡を最大に含む各領域を注目領域として抽出するなどの手法を用いることもできる。 In this manner, the attention area extracting unit 26 can narrow down the attention area, which is the target area for the behavior analysis of the person in the video data and the target area for detecting the picking motion for the product. Note that the attention area extracting unit 26 is not limited to clustering, and can also use a method such as extracting each area that includes the maximum number of trajectories whose angles are equal to or greater than a threshold as attention areas.
エリア設定部27は、室内を構成する複数のエリアのうちの注目領域に該当する第一のエリアと隣接する第二のエリアを特定し、特定された第二のエリアを、人物に関連する物体が収納されたエリアと設定する処理部である。具体的には、エリア設定部27は、セマンティックセグメンテーションの実行結果から得られた各ラベルが付与されたエリアのうち、注目領域抽出部26により抽出された注目領域と接するエリアを、商品棚エリアに設定する。 The area setting unit 27 identifies a second area adjacent to the first area corresponding to the attention area among the plurality of areas constituting the room, and designates the identified second area as an object related to the person. is a processing unit that sets an area in which is stored. Specifically, the area setting unit 27 assigns an area, which is in contact with the attention area extracted by the attention area extraction unit 26, among the areas to which each label obtained from the execution result of the semantic segmentation is attached, to the product shelf area. set.
図11は、商品棚エリアの設定を説明する図である。図11に示すように、エリア設定部27は、注目領域抽出部26により注目領域として抽出された各クラスタについて、クラスタ内に含まれる軌跡(点群)を囲む多角形の座標を取得する。そして、エリア設定部27は、多角形に囲まれる領域Cと領域Dを特定する。その後、エリア設定部27は、領域Cを生成する多角形の座標と、領域Dを生成する多角形の座標とを、注目領域としてROI情報DB18に格納する。
FIG. 11 is a diagram for explaining the setting of the product shelf area. As shown in FIG. 11 , the area setting unit 27 acquires the coordinates of a polygon surrounding the trajectory (point group) included in each cluster extracted as the attention area by the attention area extraction unit 26 . Then, the area setting unit 27 specifies the area C and the area D surrounded by polygons. After that, the area setting unit 27 stores the coordinates of the polygon for generating the area C and the coordinates of the polygon for generating the area D in the
また、エリア設定部27は、領域Cを生成する多角形の各点群(軌跡)に対して、バラつき抽出部24により特定された顔の向きを対応付ける。そして、エリア設定部27は、顔の向きの方向にあるエリアのうち、領域Cを含む通路エリア(ラベル:通路)と隣接するエリアC1とエリアC2を、商品棚エリアに設定する。すなわち、エリア設定部27は、セグメンテーション結果においてエリアC1とエリアC2とのそれぞれに設定されるラベルを、商品棚を示すラベルに設定し直す。
In addition, the area setting unit 27 associates each point group (trajectory) of the polygon that generates the area C with the orientation of the face specified by the
同様に、エリア設定部27は、領域Dを生成する多角形の各点群(軌跡)に対して、バラつき抽出部24により特定された顔の向きを対応付ける。そして、エリア設定部27は、顔の向きの方向にあるエリアのうち、領域Dを含む通路エリアと隣接するエリアC3とエリアC4を、商品棚エリアに設定する。すなわち、エリア設定部27は、セグメンテーション結果においてエリアC3とエリアC4とのそれぞれに設定されるラベルを、商品棚を示すラベルに設定し直す。
Similarly, the area setting unit 27 associates each point group (trajectory) of the polygon that generates the area D with the orientation of the face identified by the
その後、エリア設定部27は、各ラベルが設定されたセグメンテーション結果を、設定結果DB19に格納する。このようにして、エリア設定部27は、映像データから生成されたセグメンテーション結果に対して、ピッキング動作を特定する対象の注目領域の設定と、ピッキング動作の対象である商品棚エリアを設定することができる。
After that, the area setting unit 27 stores the segmentation result with each label set in the
なお、エリア設定部27は、映像データ内の代表的な画像データに限らず、各画像データに対しても上記各設定を実行することができ、代表的な画像データに対して実行された注目領域の設定および商品棚エリアの設定を、各画像データに対しても流用することもできる。つまり、エリア設定部27は、セグメンテーション結果を用いた商品棚エリアの設定結果を用いて、映像データの各画像データに対して、エリアC1、C2、C3、C4のそれぞれに該当する領域を商品棚エリアと設定することもできる。 Note that the area setting unit 27 can perform the above settings not only for the representative image data in the video data, but also for each image data. The setting of the area and the setting of the product shelf area can also be applied to each image data. That is, the area setting unit 27 uses the setting result of the product shelf area using the segmentation result to set the regions corresponding to the areas C1, C2, C3, and C4 for each image data of the video data to the product shelf area. Area can also be set.
[処理の流れ]
図12は、処理の流れを示すフローチャートである。なお、ここでは、事前学習により第1機械学習モデル14が生成済みである例で説明する。
[Process flow]
FIG. 12 is a flowchart showing the flow of processing. Here, an example in which the first
図12に示すように、処理開始が指示されると(S101:Yes)、動作解析部23は、取得部22により取得された映像データに基づき、動作解析を実行する(S102)。そして、動作解析部23は、動作解析に基づき、人物の顔の向き等を検出する(S103)。例えば、動作解析部23は、映像データに含まれる各画像データを第2機械学習モデルに入力して、各画像データに含まれる人物の2次元骨格情報や2次元骨格情報の遷移を特定し、各人物の足首の位置、顏の向き、身体の向きを検出する。
As shown in FIG. 12, when the start of processing is instructed (S101: Yes), the
続いて、軌跡生成部25は、映像データに含まれる画像データを、第1機械学習モデル14に入力し、セマンティックセグメンテーションの実行結果であるセグメンテーション結果を取得する(S104)。
Subsequently, the
そして、軌跡生成部25は、映像データに含まれる各画像データから、人物の移動軌跡を生成する(S105)。例えば、軌跡生成部25は、各画像データ内の人物に対して特定された足首の位置を、セグメンテーション結果にプロットすることで、各人物の移動軌跡を生成する。
Then, the
その後、注目領域抽出部26は、移動軌跡をプロットしたセグメンテーション結果内の各移動軌跡に、顔の向きと身体の向きとをプロットする(S106)。そして、注目領域抽出部26は、顔の向きと身体の向きとのバラつきを検出する(S107)。例えば、注目領域抽出部26は、各移動軌跡について、顔の向きと身体の向きの各ベクトルのなす角度を、バラつきとして取得する。 After that, the region-of-interest extraction unit 26 plots the orientation of the face and the orientation of the body on each trajectory in the segmentation results in which the trajectories are plotted (S106). Then, the region-of-interest extraction unit 26 detects variations between the orientation of the face and the orientation of the body (S107). For example, the region-of-interest extracting unit 26 acquires the angle formed by each vector of the orientation of the face and the orientation of the body for each movement trajectory as a variation.
続いて、注目領域抽出部26は、顔の向きと身体の向きとのバラつきをベースにクラスタリングを実行し(S108)、クラスタリング結果に基づき、注目領域を抽出する(S109)。例えば、注目領域抽出部26は、角度が閾値以上である軌跡のクラスタを注目領域として抽出する。 Subsequently, the attention area extracting unit 26 performs clustering based on variations in the orientation of the face and the orientation of the body (S108), and extracts the attention area based on the clustering result (S109). For example, the attention area extracting unit 26 extracts a cluster of trajectories whose angles are equal to or greater than a threshold as attention areas.
その後、エリア設定部27は、注目領域のROI座標を生成し(S110)、商品棚エリアを設定する(S111)。例えば、エリア設定部27は、クラスタ内に含まれる軌跡(点群)を囲む多角形の座標をROI座標として生成する。また、エリア設定部27は、注目領域と隣接する領域であって、軌跡に対応付けられた顔の向きのベクトル方向にある領域を、商品棚エリアに設定する。 After that, the area setting unit 27 generates the ROI coordinates of the attention area (S110), and sets the product shelf area (S111). For example, the area setting unit 27 generates, as ROI coordinates, the coordinates of a polygon surrounding the trajectory (point group) included in the cluster. In addition, the area setting unit 27 sets, as the product shelf area, an area that is adjacent to the attention area and that is in the vector direction of the face orientation associated with the trajectory.
[効果]
上述したように、情報処理装置10は、画像データから領域分割をするセグメンテーション結果を生成し、セグメンテーション結果と動作解析結果から通路領域を再抽出し、動作解析結果から顏の向きと体向きのバラつきを抽出する。そして、情報処理装置10は、通路領域とバラつき情報からクラスタリングにより注目領域を抽出する。この結果、情報処理装置10は、過不足のない注目領域を自動的に提供することができる。
[effect]
As described above, the
例えば、この情報処理装置10を用いることで、手動で注目領域を設定する必要がないので、人為的なミスを削減でき、手動設定に比べて、膨大な画像データに対して正確かつ高速な注目領域の設定を実現することができる。また、情報処理装置10は、人物が興味を示す顔を動かす動作が行われた領域を注目領域として抽出することができるので、図4の参考技術と異なり、過不足のない注目領域を設定できる。
For example, by using the
また、情報処理装置10は、過不足のない注目領域と隣接する領域を商品棚と特定することができるので、参考技術とは異なり、停止した状態でのピッキング動作に限らず、ゆっくり移動して商品を取るピッキング動作を検出することができる。この結果、情報処理装置10は、ピッキング動作の検出精度を向上させることができ、行動分析などの精度を向上させることができる。
In addition, the
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。 Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above.
[数値等]
上記実施例で用いた数値例、カメラ数、ラベル名、軌跡の数等は、あくまで一例であり、任意に変更することができる。また、各フローチャートで説明した処理の流れも矛盾のない範囲内で適宜変更することができる。また、上記実施例では、店舗を例にして説明したが、これに限定されるものではなく、例えば倉庫、工場、教室、電車の車内や飛行機の客室などにも流用することができる。これらの場合、人物に関連する物体が収納された領域の一例として説明した商品棚の領域に代わりに、物を置く領域や荷物をしまう領域が検出、設定対象となる。
[Numbers, etc.]
Numerical examples, the number of cameras, label names, the number of trajectories, etc. used in the above embodiment are only examples, and can be changed arbitrarily. Also, the flow of processing described in each flowchart can be changed as appropriate within a consistent range. In addition, in the above embodiment, the store was explained as an example, but the present invention is not limited to this, and can be applied to, for example, a warehouse, a factory, a classroom, a train car, an airplane cabin, and the like. In these cases, instead of the product shelf area described as an example of the area in which objects related to people are stored, an area where objects are placed and an area where luggage is stored are detected and set.
また、上記実施例では、人物の足首の位置を用いる例を説明したが、これに限定されるものではなく、例えば足の位置、靴の位置などを用いることもできる。また、上記実施例では、顔の向きの方向にあるエリアを商品棚エリアと特定する例を説明したが、身体の向きの方向にあるエリアを商品棚エリアと特定することもできる。また、各機械学習モデルは、ニューラルネットワークなどを用いることができる。 Also, in the above embodiment, an example using the position of the person's ankle has been described, but the present invention is not limited to this, and the position of the foot, the position of the shoe, or the like can also be used. In the above embodiment, an example was described in which the area in the direction of the face is specified as the product shelf area, but the area in the direction of the body can also be specified as the product shelf area. Also, each machine learning model can use a neural network or the like.
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[system]
Information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific forms of distribution and integration of each device are not limited to those shown in the drawings. That is, all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions.
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Further, each processing function performed by each device may be implemented in whole or in part by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.
[ハードウェア]
図13は、ハードウェア構成例を説明する図である。図13に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図13に示した各部は、バス等で相互に接続される。
[hardware]
FIG. 13 is a diagram illustrating a hardware configuration example. As shown in FIG. 13, the
通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図5に示した機能を動作させるプログラムやDBを記憶する。
The
プロセッサ10dは、図5に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図5等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、事前学習部21、取得部22、動作解析部23、バラつき抽出部24、軌跡生成部25、注目領域抽出部26、エリア設定部27等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、事前学習部21、取得部22、動作解析部23、バラつき抽出部24、軌跡生成部25、注目領域抽出部26、エリア設定部27等と同様の処理を実行するプロセスを実行する。
The
このように、情報処理装置10は、プログラムを読み出して実行することで設定方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、上記実施例が同様に適用されてもよい。
Thus, the
このプログラムは、インターネットなどのネットワークを介して配布されてもよい。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行されてもよい。 This program may be distributed via a network such as the Internet. In addition, this program is recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO (Magneto-Optical disk), DVD (Digital Versatile Disc), etc., and is read from the recording medium by a computer. It may be executed by being read.
10 情報処理装置
11 通信部
12 記憶部
13 訓練データDB
14 第1機械学習モデル
15 第2機械学習モデル
16 映像データDB
17 セグメント結果DB
18 ROI情報DB
19 設定結果DB
20 制御部
21 事前学習部
22 取得部
23 動作解析部
24 バラつき抽出部
25 軌跡生成部
26 注目領域抽出部
27 エリア設定部
10 Information Processing Device 11
14 first
17 Segment result DB
18 ROI information DB
19 Setting result DB
20 control unit 21
Claims (8)
室内を撮影した画像データから、通路に対応する第一のエリアを特定し、
特定された前記第一のエリアを移動する人物の身体の向きと人物の顔の向きを特定し、
特定された前記人物の身体の向きが前記人物の顔の向きと異なる場合に、前記人物の顔の向きまたは前記人物の身体の向きに基づいて、前記室内を構成する複数のエリアのうちの第一のエリアと隣接する第二のエリアを特定し、
特定された前記第二のエリアを、前記人物に関連する物体が収納されたエリアと設定する、
処理を実行させることを特徴とする設定プログラム。 to the computer,
Identify the first area corresponding to the passage from the image data taken in the room,
identifying the orientation of the body and the orientation of the face of a person moving in the identified first area;
When the identified orientation of the person's body is different from the orientation of the person's face, the first area among the plurality of areas forming the room is based on the orientation of the person's face or the orientation of the person's body. identifying one area and an adjacent second area;
setting the identified second area as an area containing an object related to the person;
A setting program characterized by executing processing.
前記各人物の位置における前記人物の顔の向きと前記人物の身体の向きとに基づき、前記第一のエリア内で、前記人物の行動分析の対象となる注目領域を特定する、処理を前記コンピュータに実行させ、
前記特定する処理は、
前記第一のエリア内の前記注目領域と隣接する前記第二のエリアを特定し、
前記設定する処理は、
前記第二のエリアを、前記人物に関連する物体が収納されたエリアと設定する、ことを特徴とする請求項1に記載の設定プログラム。 identifying the position of each person appearing in the video data from each image data in the video data including the image data;
The computer performs a process of identifying a region of interest to be analyzed for behavior of the person in the first area based on the orientation of the person's face and the orientation of the body of the person at the position of each person. and run
The process of specifying
Identifying the second area adjacent to the attention area in the first area;
The setting process is
2. The setting program according to claim 1, wherein said second area is set as an area in which an object related to said person is stored.
前記人物の顔の向きと前記人物の身体の向きとがなす角度に基づくクラスタリングを実行し、
前記クラスタリングの結果、前記角度が閾値以上であるとクラスタに属する前記人物の位置を含む領域を、前記注目領域と特定する、ことを特徴とする請求項2に記載の設定プログラム。 The process of specifying
performing clustering based on the angle formed by the orientation of the face of the person and the orientation of the body of the person;
3. The setting program according to claim 2, wherein, as a result of said clustering, when said angle is equal to or greater than a threshold, an area including said person's position belonging to a cluster is specified as said attention area.
前記画像データ内で前記第一のエリアと隣接する複数のエリアのうち、前記注目領域に含まれる前記人物の顔の向きまたは前記人物の身体の向きを示すベクトル方向に位置するエリアを、前記第二のエリアと特定する、ことを特徴とする請求項3に記載の設定プログラム。 The process of specifying
Among a plurality of areas adjacent to the first area in the image data, an area located in a direction of a vector indicating the orientation of the face of the person or the orientation of the body of the person included in the attention area is defined as the first area. 4. The setting program according to claim 3, wherein the second area is specified.
セマンティックセグメンテーションにより、前記画像データの各エリアを識別したセグメント結果に基づき、前記第一のエリアを特定し、
前記特定する処理は、
機械学習済みである機械学習モデルに前記画像データを入力し、前記機械学習モデルの出力結果により、前記人物の身体と前記人物の顔の向きを特定する、ことを特徴とする請求項1から4のいずれか一つに記載の設定プログラム。 The process of specifying
Identifying the first area based on segmentation results of identifying each area of the image data by semantic segmentation;
The process of specifying
5. Inputting the image data to a machine learning model that has undergone machine learning, and identifying the orientation of the person's body and the person's face based on the output result of the machine learning model. A configuration program according to any one of .
前記セグメント結果、または、前記セグメント結果の元となる前記画像データに対して、前記第二のエリアを設定する、ことを特徴とする請求項5に記載の設定プログラム。 The setting process is
6. The setting program according to claim 5, wherein the second area is set for the segment result or the image data on which the segment result is based.
室内を撮影した画像データから、通路に対応する第一のエリアを特定し、
特定された前記第一のエリアを移動する人物の身体の向きと人物の顔の向きを特定し、
特定された前記人物の身体の向きが前記人物の顔の向きと異なる場合に、前記人物の顔の向きまたは前記人物の身体の向きに基づいて、前記室内を構成する複数のエリアのうちの第一のエリアと隣接する第二のエリアを特定し、
特定された前記第二のエリアを、前記人物に関連する物体が収納されたエリアと設定する、
処理を実行することを特徴とする設定方法。 the computer
Identify the first area corresponding to the passage from the image data taken in the room,
identifying the orientation of the body and the orientation of the face of a person moving in the identified first area;
When the identified orientation of the person's body is different from the orientation of the person's face, the first area among the plurality of areas forming the room is based on the orientation of the person's face or the orientation of the person's body. identifying one area and an adjacent second area;
setting the identified second area as an area containing an object related to the person;
A setting method characterized by executing processing.
特定された前記第一のエリアを移動する人物の身体の向きと人物の顔の向きを特定し、
特定された前記人物の身体の向きが前記人物の顔の向きと異なる場合に、前記人物の顔の向きまたは前記人物の身体の向きに基づいて、前記室内を構成する複数のエリアのうちの第一のエリアと隣接する第二のエリアを特定し、
特定された前記第二のエリアを、前記人物に関連する物体が収納されたエリアと設定する、
制御部を有することを特徴とする情報処理装置。
Identify the first area corresponding to the passage from the image data taken in the room,
identifying the orientation of the body and the orientation of the face of a person moving in the identified first area;
When the identified orientation of the person's body is different from the orientation of the person's face, the first area among the plurality of areas forming the room is based on the orientation of the person's face or the orientation of the person's body. identifying one area and an adjacent second area;
setting the identified second area as an area containing an object related to the person;
An information processing apparatus comprising a control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021194362A JP2023080835A (en) | 2021-11-30 | 2021-11-30 | Setting program, setting method, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021194362A JP2023080835A (en) | 2021-11-30 | 2021-11-30 | Setting program, setting method, and information processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023080835A true JP2023080835A (en) | 2023-06-09 |
Family
ID=86656508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021194362A Pending JP2023080835A (en) | 2021-11-30 | 2021-11-30 | Setting program, setting method, and information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023080835A (en) |
-
2021
- 2021-11-30 JP JP2021194362A patent/JP2023080835A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021043073A1 (en) | Urban pet movement trajectory monitoring method based on image recognition and related devices | |
Zeng et al. | Silhouette-based gait recognition via deterministic learning | |
Jalal et al. | Depth maps-based human segmentation and action recognition using full-body plus body color cues via recognizer engine | |
Akhter et al. | Adaptive pose estimation for gait event detection using context-aware model and hierarchical optimization | |
Chaaraoui et al. | Abnormal gait detection with RGB-D devices using joint motion history features | |
CN102456135A (en) | Imaging processing apparatus, method and program | |
CN111985333B (en) | Behavior detection method based on graph structure information interaction enhancement and electronic device | |
Ghadi et al. | Multiple events detection using context-intelligence features | |
CN115331314A (en) | Exercise effect evaluation method and system based on APP screening function | |
KR20120089948A (en) | Real-time gesture recognition using mhi shape information | |
Abedi et al. | Modification of deep learning technique for face expressions and body postures recognitions | |
JP2023080835A (en) | Setting program, setting method, and information processing apparatus | |
Abdulghani et al. | Discover human poses similarity and action recognition based on machine learning | |
Sugimoto et al. | Robust rule-based method for human activity recognition | |
Półrola et al. | Real-time hand pose estimation using classifiers | |
Parashar et al. | Improved Yoga Pose Detection Using MediaPipe and MoveNet in a Deep Learning Model. | |
JP2023081062A (en) | Extraction program, extraction method and information processing device | |
JP2023080864A (en) | Label change program, label change method, and information processing apparatus | |
Thompson et al. | Gait | |
KR101556696B1 (en) | Method and system for recognizing action of human based on unit operation | |
Hazra et al. | A pilot study for investigating gait signatures in multi-scenario applications | |
EP4231222A1 (en) | Information processing program, information processing method, and information processing apparatus | |
Rathore et al. | Human action categorization system using body pose estimation for multimodal observations from single camera | |
Fihl et al. | Invariant gait continuum based on the duty-factor | |
Suma et al. | Activity recognition in egocentric videos using bag of key action units |