JP2023081638A - 情報処理方法、情報処理システム及びコンピュータプログラム - Google Patents
情報処理方法、情報処理システム及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2023081638A JP2023081638A JP2021195502A JP2021195502A JP2023081638A JP 2023081638 A JP2023081638 A JP 2023081638A JP 2021195502 A JP2021195502 A JP 2021195502A JP 2021195502 A JP2021195502 A JP 2021195502A JP 2023081638 A JP2023081638 A JP 2023081638A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- person
- monitoring area
- captured image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 132
- 238000004590 computer program Methods 0.000 title claims abstract description 19
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000012544 monitoring process Methods 0.000 claims abstract description 99
- 238000000034 method Methods 0.000 claims description 53
- 238000001514 detection method Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 abstract description 28
- 238000004364 calculation method Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 22
- 238000004378 air conditioning Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 208000035473 Communicable disease Diseases 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】物体の動作パターンを解析するための情報処理方法、情報処理システム及びコンピュータプログラムを提供する。【解決手段】監視領域を設定する処理の手順では、カメラにより撮影された撮影画像を取得し、撮影画像に含まれる特定の物体を検出し、検出した物体の前記撮影画像内での位置を特定し、複数の撮影画像から特定した複数の物体の位置をクラスタリングし、クラスタリングにより得られたクラスターに対応する撮影画像内の領域を、特定の物体の存在を監視すべき監視領域として決定する。【選択図】図3
Description
本発明は、物体の動作パターンを解析するための情報処理方法、情報処理システム及びコンピュータプログラムに関する。
従来、カメラを用いて撮影された撮影画像から、人物又は車等の物体を検出することが可能となっている。例えば、撮影画像から人物を検出し、検出結果を防犯に役立てることができる。特許文献1には、カメラを用いて撮影された画像から不審人物を検出する技術の例が開示されている。
店舗等の多数の人物が利用する施設では、人物がどのような経路を移動しどのような位置に留まるかといった人物の動作パターンを知りたいというニーズがある。例えば、店舗の中で人物が集まり易い場所が判明すれば、より多くの人物に商品を販売できるように商品の配置を調整することができる。例えば、人物が密になる場所が判明すれば、人物が密になる場所に重点的に空調を行うことにより、効率的に空調を行うことができる。また、車等、人物以外の物体についても、動作パターンを知ることに対するニーズがある。このように、撮影画像から物体を検出するだけでなく、物体の動作パターンを解析するための技術が求められている。
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、物体の動作パターンを解析するための情報処理方法、情報処理システム及びコンピュータプログラムを提供することにある。
本発明に係る情報処理方法は、カメラにより撮影された撮影画像を取得し、前記撮影画像に含まれる特定の物体を検出し、検出した物体の前記撮影画像内での位置を特定し、複数の撮影画像から特定した複数の物体の位置をクラスタリングし、クラスタリングにより得られたクラスターに対応する撮影画像内の領域を、特定の物体の存在を監視すべき監視領域として決定することを特徴とする。
本発明に係るコンピュータプログラムは、カメラにより撮影された撮影画像を取得し、前記撮影画像に含まれる特定の物体を検出し、検出した物体の前記撮影画像内での位置を特定し、複数の撮影画像から特定した複数の物体の位置をクラスタリングし、クラスタリングにより得られたクラスターに対応する撮影画像内の領域を、特定の物体の存在を監視すべき監視領域として決定する処理をコンピュータに実行させることを特徴とする。
本発明に係る情報処理システムは、外部を撮影するカメラと、情報処理装置とを備え、前記情報処理装置は、前記カメラにより撮影された撮影画像を取得し、前記撮影画像に含まれる特定の物体を検出し、検出した物体の前記撮影画像内での位置を特定し、複数の撮影画像から特定した複数の物体の位置をクラスタリングし、クラスタリングにより得られたクラスターに対応する撮影画像内の領域を、特定の物体の存在を監視すべき監視領域として決定することを特徴とする。
本発明の一形態においては、撮影画像に含まれる人物等の特定の物体を検出し、物体の位置を特定し、特定した複数の位置をクラスタリングし、クラスタリングにより得られたクラスターに対応する撮影画像内の監視領域を決定する。監視領域を決定した後に取得した撮影画像を用いて、監視領域に含まれる物体を検出することにより、物体の動作パターンを解析することが可能となる。
本発明にあっては、物体の動作パターンを解析することが可能となり、動作パターンに応じて物体が利用する施設を適切に調整することが可能となる等、優れた効果を奏する。
以下本発明をその実施の形態を示す図面に基づき具体的に説明する。
<実施形態1>
図1は、物体の動作パターンを解析するための実施形態1に係る情報処理システム100の構成例を示す模式図である。情報処理システム100は、情報処理方法を実行する。図1には、スポーツジムに情報処理システム100が設けられた例を示している。スポーツジムは、人物4に利用される施設の例である。スポーツジムには、複数のトレッドミル3が配置されている。トレッドミル3を用いて、人物4がトレーニングを行う。情報処理システム100は、カメラ2を備えている。カメラ2は、スポーツジムの内部の、複数のトレッドミル3を含んだ領域を撮影する。カメラ2が撮影する領域は、固定されている。例えば、カメラ2は、可及的に広い領域を撮影することができるように、広角カメラ又は魚眼カメラを用いて構成されている。
<実施形態1>
図1は、物体の動作パターンを解析するための実施形態1に係る情報処理システム100の構成例を示す模式図である。情報処理システム100は、情報処理方法を実行する。図1には、スポーツジムに情報処理システム100が設けられた例を示している。スポーツジムは、人物4に利用される施設の例である。スポーツジムには、複数のトレッドミル3が配置されている。トレッドミル3を用いて、人物4がトレーニングを行う。情報処理システム100は、カメラ2を備えている。カメラ2は、スポーツジムの内部の、複数のトレッドミル3を含んだ領域を撮影する。カメラ2が撮影する領域は、固定されている。例えば、カメラ2は、可及的に広い領域を撮影することができるように、広角カメラ又は魚眼カメラを用いて構成されている。
カメラ2には、情報処理装置1が接続されている。図2は、情報処理装置1の内部の機能構成例を示すブロック図である。情報処理装置1は、サーバ装置又はパーソナルコンピュータ等のコンピュータである。情報処理装置1は、演算部11と、メモリ12と、ドライブ部13と、記憶部14と、操作部15と、表示部16と、インタフェース部17とを備えている。演算部11は、例えばCPU(Central Processing Unit )、GPU(Graphics Processing Unit)、又はマルチコアCPUを用いて構成されている。演算部11は、量子コンピュータを用いて構成されていてもよい。メモリ12は、演算に伴って発生する一時的なデータを記憶する。メモリ12は、例えばRAM(Random Access Memory)である。ドライブ部13は、光ディスク又は可搬型メモリ等の記録媒体10から情報を読み取る。記憶部14は、不揮発性であり、例えばハードディスク又は不揮発性半導体メモリである。
演算部11は、記録媒体10に記録されたコンピュータプログラム141をドライブ部13に読み取らせ、読み取ったコンピュータプログラム141を記憶部14に記憶させる。演算部11は、コンピュータプログラム141に従って、情報処理装置1に必要な処理を実行する。コンピュータプログラム141はコンピュータプログラム製品であってもよい。コンピュータプログラム141は、情報処理装置1の外部からダウンロードされてもよい。又は、コンピュータプログラム141は、情報処理装置1に予め記憶されていてもよい。これらの場合は、情報処理装置1はドライブ部13を備えていなくてもよい。
操作部15は、使用者からの操作を受け付けることにより、テキスト等の情報の入力を受け付ける。操作部15は、例えばタッチパネル、ペンタブレット、キーボード又はポインティングデバイスである。表示部16は、画像を表示する。表示部16は、例えば液晶ディスプレイ又はELディスプレイ(Electroluminescent Display)である。操作部15及び表示部16は、一体になっていてもよい。
インタフェース部17には、カメラ2が接続されている。カメラ2は、カメラ2の外部の固定された領域を撮影した撮影画像を作成し、情報処理装置1へ入力する。インタフェース部17は、カメラ2から入力された撮影画像を受け付ける。インタフェース部17で撮影画像を受け付けることにより、情報処理装置1は、撮影画像を取得する。カメラ2は、連続的に撮影画像を作成するか、又は定期的に繰り返し撮影画像を作成する。情報処理装置1は、連続的に撮影画像を取得するか、又は定期的に繰り返し撮影画像を取得する。
情報処理装置1は、複数のコンピュータにより構成され、データが複数のコンピュータによって分散して記憶されていてもよく、処理が複数のコンピュータによって分散して実行されてもよい。情報処理装置1は、クラウドコンピューティングを利用して実現されてもよく、一台のコンピュータ内に設けられた複数の仮想マシンによって実現されてもよい。或は、情報処理装置1はカメラ2に内蔵されていてもよい。
情報処理装置1は、学習済みの学習モデル142を備えている。学習モデル142は、コンピュータプログラム141に従って演算部11が情報処理を実行することにより実現される。学習モデル142は、ハードウェアにより構成されていてもよい。学習モデル142は、量子コンピュータを用いて実現されてもよい。或は、学習モデル142は情報処理装置1の外部に設けられており、情報処理装置1は、外部の学習モデル142を利用して処理を実行する形態であってもよい。例えば、学習モデル142は、クラウドで構成されていてもよい。
学習モデル142は、撮影画像を入力した場合に撮影画像に含まれる人物4を検出した検出結果を出力するように予め機械学習により学習されている。人物4は特定の物体である。学習モデル142が出力する検出結果には、撮影画像内での人物4の位置が含まれる。例えば、撮影画像内での人物4の位置を示したバウンディングボックス及びバウンディングボックスの中心が出力される。例えば、学習モデル142は、YOLO(You Only Look Once)を用いて構成されている。学習モデル142は、R-CNN(Region Based Convolutional Neural Networks)、又はセグメンテーション等、YOLO以外の方法を用いたモデルであってもよい。
情報処理装置1は、撮影画像内に人物4の存在を監視すべき監視領域を設定する処理を実行する。図3は、監視領域を設定する処理の手順の例を示すフローチャートである。以下、ステップをSと略す。情報処理装置1の演算部11は、コンピュータプログラム141に従って処理を実行する。
カメラ2は、撮影を行うことにより撮影画像を作成し、撮影画像を情報処理装置1へ入力する。情報処理装置1は、カメラ2から入力された撮影画像をインタフェース部17で受け付けることにより、撮影画像を取得する(S11)。演算部11は、撮影画像を記憶部14に記憶する。情報処理装置1は、撮影画像を学習モデル142へ入力する(S12)。S12では、演算部11は、撮影画像を学習モデル142へ入力し、学習モデル142に処理を実行させる。学習モデル142は、撮影画像が入力されたことに応じて、入力された撮影画像に含まれる人物4を検出した検出結果を出力する。情報処理装置1は、学習モデル142が出力した人物4の検出結果を取得する(S13)。
情報処理装置1は、次に、学習モデル142によって人物4が検出されたか否かを判定する(S14)。S14では、演算部11は、学習モデル142が出力した人物4の検出結果が、人物4が検出されたことを示しているか否かを判定する。例えば、撮影画像の一部を囲うバウンディングボックスと、バウンディングボックスに囲われた部分が人物4である確率とが検出結果に含まれており、確率が所定の閾値以上である場合に、演算部11は、人物4が検出されたと判定する。
図4は、人物4が含まれていない撮影画像の例を示す模式図である。図4には、無人状態のスポーツジムを撮影した撮影画像の例を示している。カメラ2はスポーツジムの天井に配置されており、複数のトレッドミル3を上から撮影した撮影画像が作成される。図5は、人物4が含まれている撮影画像の第1の例を示す模式図である。図5に示した撮影画像には、人物4が含まれている。人物4を囲うバウンディングボックス51と、バウンディングボックス51の中心点52とが示されている。バウンディングボックス51の中心点52は、撮影画像内での人物4の位置である。なお、情報処理装置1は、S12~S14の代わりに、学習モデルを用いる方法以外の方法で撮影画像に含まれる人物4を検出する形態であってもよい。例えば、情報処理装置1は、所定のルールに従って撮影画像に含まれる人物4を検出してもよい。
人物4が検出された場合に(S14:YES)、情報処理装置1は、検出された人物4の撮影画像内での位置を記憶する(S15)。記憶部14は、バウンディングボックス51の中心点52の位置を記録した位置データを記憶している。S15では、演算部11は、人物4の位置として、バウンディングボックス51の中心点52の位置を位置データに追加することにより、人物4の位置を記憶部14に記憶する。例えば、演算部11は、撮影画像内の位置をxy座標で表し、中心点52に対応するxy座標の成分を位置データに記録する。人物4の位置として、人物4の重心等、中心点52の位置以外の値が記録されてもよい。
情報処理装置1は、次に、人物4の検出を終了するか否かを判定する(S16)。例えば、演算部11は、カメラ2での撮影を開始してから経過した時間を計測し、所定時間が経過した場合に人物4の検出を終了すると判定し、まだ所定時間が経過していない場合に人物4の検出を終了しないと判定する。例えば、演算部11は、位置データに記録された人物4の位置の数が所定数以上である場合に、人物4の検出を終了すると判定し、位置データに記録された人物4の位置の数が所定数未満である場合に、人物4の検出を終了しないと判定する。例えば、使用者が操作部15を操作することによって、人物4の検出を終了する指示が入力された場合に、演算部11は、人物4の検出を終了すると判定する。
人物4の検出を終了しないと判定した場合は(S16:NO)、情報処理装置1は、処理をS11へ戻し、S11~S16の処理を繰り返す。S11~S16の処理を繰り返すことにより、情報処理装置1は、撮影画像の取得と、撮影画像内での人物4の検出とを繰り返す。この結果、情報処理装置1は、複数の撮影画像から複数の人物4の位置を特定する。カメラ2は動画像を作成し、情報処理装置1は動画像を取得してもよく、S11~S16の処理では、情報処理装置1は、動画像を構成する複数の撮影画像の夫々から、人物4の位置を特定する。例えば、情報処理装置1は、動画像に含まれる一フレームを撮影画像として用いてS11~S16の処理を行い、処理をS11へ戻す際に次のフレームを撮影画像とし、動画像に含まれる複数のフレームの夫々を撮影画像としてS11~S16の処理を繰り返す。なお、情報処理装置2の処理は、複数の撮影画像の全てから人物4の位置を特定するものに限らない。情報処理装置2は、所定数の撮影画像が得られる度に人物4の位置を特定するか、又は動画像の複数のフレームが得られる度に一つのフレームから人物4の位置を特定する等、複数の撮影画像の一部から人物4の位置を特定してもよい。
図6は、人物4が含まれている撮影画像の第2の例を示す模式図である。図6には、図5に示した例とは別の位置に人物4が含まれている撮影画像を示す。図5に示した例とは異なるバウンディングボックス51の中心点52が得られ、撮影画像内での人物4の位置として中心点52の位置が位置データに追加される。S11~S16の処理が繰り返されることにより、人物4の検出が繰り返され、位置データには、多数の撮影画像内での人物4の位置が記録される。
図7は、人物4の検出を繰り返した結果の例を示す模式図である。図7では、繰り返し検出された人物4に対応するバウンディングボックス51及びバウンディングボックス51の中心点52を撮影画像に重ねて示している。図7中に示した長方形及び黒点は、バウンディングボックス51及び中心点52である。撮影画像には、多数のバウンディングボックス51が集中する位置と、バウンディングボックス51があまり存在しない位置とがある。
多数のバウンディングボックス51が集中する撮影画像内の位置は、人物4を検出した回数が多い位置であり、人物4が長く滞留する設備に対応する。バウンディングボックス51があまり存在しない撮影画像内の位置は、人物4を検出した回数が少ない位置であり、人物4が滞留しない設備に対応する。人物4が使用するトレッドミル3に対応する撮影画像内の位置に、多数のバウンディングボックス51が集中する。トレッドミル3に対応する位置以外の位置では、バウンディングボックス51は少ない。多数のバウンディングボックス51が集中した領域を特定することにより、撮影画像内でのトレッドミル3の位置を特定することができる。なお、情報処理装置1は、撮影画像内での人物4の位置として、バウンディングボックス51の中心点52の位置以外の情報を取得する形態であってもよい。例えば、情報処理装置1は、人物4の顔の位置又は人物4の重心の位置を人物4の位置として取得してもよい。
人物4の検出を終了すると判定した場合は(S16:YES)、情報処理装置1は、検出された複数の人物4の位置をクラスタリングする(S17)。S17では、演算部11は、記憶部14から位置データを読み出し、位置データに記録された複数のバウンディングボックス51の中心点52の位置をクラスタリングする。例えば、撮影画像内での位置が互いに近い複数の中心点52が同じクラスターに含まれるように、クラスタリングを行う。S17では、演算部11は、例えば、k-means法を用いてクラスタリングを行う。使用者が操作部15を操作することにより、クラスターの数等のクラスタリングに必要な情報が入力されてもよい。演算部11は、k-means法以外の方法を用いてクラスタリングを行ってもよい。
情報処理装置1は、クラスタリングの結果に基づいて、人物4の存在を監視すべき監視領域を決定する(S18)。S18では、演算部11は、クラスタリングにより得られた複数のクラスターの中から、含まれる人物4の位置の数が所定の閾値以上であるクラスターを選択する。閾値は予め記憶部14に記憶されているか、又はコンピュータプログラム141に含まれている。演算部11は、選択したクラスターに対応する撮影画像内での領域を、監視領域と決定する。複数のクラスターが選択された場合は、複数の監視領域が決定される。なお、演算部11は、含まれる人物4の位置の数が閾値を超過するクラスターに対応する領域を監視領域と決定する処理を行ってもよい。
例えば、S18で、演算部11は、クラスターに含まれる人物4の位置の平均を監視領域の中心点とし、撮影画像内で中心点から所定距離以内の範囲を監視領域とする。所定距離は予め記憶部14に記憶されているか、又はコンピュータプログラム141に含まれている。図8は、撮影画像内の監視領域53の例を示す模式図である。監視領域53と、監視領域53の中心点54とが撮影画像に重ねて示されている。図8には、監視領域53の形状が円である例を示したが、監視領域53の形状は、正方形等、円以外であってもよい。
含まれる人物4の位置の数が所定の閾値以上であるクラスターに対応する領域を監視領域53とすることにより、人物4が検出された回数が多い領域が監視領域53となり、人物4が検出された回数が少ない領域は監視領域53にはならない。即ち、トレッドミル3に対応する撮影画像内の領域が監視領域53となり、トレッドミル3以外の場所に対応する撮影画像内の領域は、監視領域53にはならない。撮影画像に複数のトレッドミル3が映っている場合は、複数のトレッドミル3に対応する複数の監視領域53が定められる。監視領域53に含まれる人物4を検出することにより、トレッドミル3を使用する人物4の動作パターンを調べることが可能となる。
S18が終了した後、情報処理装置1は、監視領域53を示した情報を記録した領域データを記憶部14に記憶し、監視領域53を設定する処理を終了する。S11~S18の処理は、所定のタイミングで繰り返し実行され、監視領域53は決定し直される。例えば、所定時間が経過する度等、定期的にS11~S18の処理が実行される。又は、スポーツジムの模様替えが行われた際等、任意のタイミングで、使用者が操作部15を操作することによって、処理実行の指示が情報処理装置1へ入力され、S11~S18の処理が実行される。監視領域53が決定し直されることにより、最新の設備の状態に応じた監視領域53を設定することができる。なお、S11~S18の処理では、撮影画像を取得する都度人物4の検出を行っているが、情報処理装置1は、撮影を長時間継続して得られた撮影画像又は蓄積した複数の撮影画像から人物4を検出する処理を行う形態であってもよい。
監視領域53を決定した後、情報処理装置1は、撮影画像内の監視領域53に含まれる人物4を検出する処理を実行する。監視領域53を設定する処理を行った情報処理装置1とは異なる情報処理装置1によって、監視領域53に含まれる人物4を検出する処理が実行されてもよい。図9は、監視領域53に含まれる人物4を検出する処理の手順の例を示すフローチャートである。情報処理装置1は、監視領域53を決定した後にカメラ2で作成された撮影画像を取得する(S21)。演算部11は、撮影画像を記憶部14に記憶する。情報処理装置1は、撮影画像を学習モデル142へ入力する(S22)。S22では、演算部11は、撮影画像を学習モデル142へ入力し、学習モデル142に処理を実行させる。学習モデル142は、撮影画像が入力されたことに応じて、入力された撮影画像に含まれる人物4を検出した検出結果を出力する。情報処理装置1は、学習モデル142が出力した人物4の検出結果を取得する(S23)。
なお、情報処理装置1は、S22~S23の処理の代わりに、学習モデル142を用いない方法で監視領域53に含まれる人物4を検出する処理を行ってもよい。例えば、情報処理装置1は、撮影画像を入力した場合に監視領域53に人物4が含まれるか否かを示す情報を出力するように予め学習された、学習モデル142とは異なる学習モデルを用いて、人物4を検出してもよい。学習モデル142とは異なる学習モデルを用いることにより、情報処理装置1の計算負荷を低減し得る。例えば、情報処理装置1は、学習モデルを用いる方法以外の方法で人物4を検出する処理を行ってもよい。
情報処理装置1は、次に、監視領域53内に人物4が検出されたか否かを判定する(S24)。S24では、演算部11は、学習モデル142が出力した人物4の検出結果が、人物4が検出されたことを示しているか否かを判定し、人物4が検出されている場合に、検出された人物4の位置がいずれかの監視領域53に含まれるか否かを判定する。例えば、検出された人物4を囲うバウンディングボックス51の中心点52が監視領域53内に位置している場合に、演算部11は、監視領域53内に人物4が検出されたと判定する。例えば、人物4が検出されていない場合、又は検出された人物4を囲うバウンディングボックス51の中心点52が監視領域53の外部に位置している場合、演算部11は、監視領域53内に人物4が検出されないと判定する。監視領域53内に人物4が検出されない場合は(S24:NO)、情報処理装置1は、人物4を検出する処理を終了する。
監視領域53内に人物4が検出された場合は(S24:YES)、情報処理装置1は、検出された人物4の密度を特定する(S25)。S25では、演算部11は、人物4が検出された監視領域53の数に応じて、人物4の密度を特定する。例えば、演算部11は、人物4が検出された監視領域53の数を監視領域53の総数で除した値を、人物4の密度として特定する。情報処理装置1は、次に、特定した人物4の密度が所定の限界密度以上であるか否かを判定する(S26)。限界密度は、予め記憶部14に記憶されているか、又はコンピュータプログラム141に含まれている。S26では、演算部11は、人物4の密度と限界密度とを比較する。
人物4の密度が限界密度以上である場合は(S26:YES)、情報処理装置1は、人物4の密度が高いことを示す警告を出力する(S27)。例えば、S27では、演算部11は、人物4の密度が高いことを警告する画像を表示部16に表示することにより、警告を出力する。或は、情報処理装置1は、音声出力部を備え、演算部11は、人物4の密度が高いことを警告する音声を音声出力部から出力してもよい。人物4の密度が高いことが警告されることにより、トレッドミル3を使用している人物4に警告し、散開を促すことができる。例えば、警告により、感染症の感染防止を図ることができる。なお、演算部11は、人物4の密度が限界密度を超過する場合に警告を出力する処理を行ってもよい。
人物4の密度が限界密度未満である場合(S26:NO)、又はS27が終了した後は、情報処理装置1は、時刻と人物4が検出された監視領域53とを関連付けて記憶する(S28)。演算部11は、時刻を取得する処理を行う。例えば、演算部11は、時刻を計測する。例えば、カメラ2は、時刻を計測し、撮影を行った時刻を撮影画像に付して情報処理装置1へ入力し、演算部11は、撮影画像に付された時刻を取得する。時刻は年月日を含む。記憶部14は、時刻と人物4が検出された監視領域53を示す情報とを関連付けて記録した検出結果データを記憶している。S28では、演算部11は、人物4が検出された時刻、又は検出された人物4が含まれる撮影画像を作成した時刻と、人物4が検出された監視領域53を示す情報とを、互いに関連付けて検出結果データに追加することにより、時刻及び人物4が検出された監視領域53を記憶部14に記憶する。
S28が終了した後、情報処理装置1は、監視領域53に含まれる人物4を検出する処理を終了する。S21~S28の処理は、繰り返し実行される。例えば、S21~S28の処理は、終日繰り返し実行される。S21~S28の処理により、人物4が含まれる監視領域53が特定される。特定された監視領域53に対応するトレッドミル3は人物4が利用したトレッドミル3であるので、人物4に利用されたトレッドミル3が特定される。S21~S28の処理を繰り返すことにより、トレッドミル3が人物4に利用された回数が特定され、回数に応じて、トレッドミル3が人物4に利用された時間が特定され得る。
S21~S28の処理が繰り返され、時刻及び人物4が検出された監視領域53の情報が検出結果データに蓄積された後、情報処理装置1は、スポーツジム内での人物4の動作パターンを解析する処理を行う。監視領域53を設定する処理、又は監視領域53に含まれる人物4を検出する処理を行った情報処理装置1とは異なる情報処理装置1によって、人物4の動作パターンを解析する処理が実行されてもよい。
図10は、人物4の動作パターンを解析する処理の手順の例を示すフローチャートである。情報処理装置1は、検出結果データに基づいて、特定の時間帯において監視領域53に人物4が含まれていた時間を特定する(S31)。特定の時間帯は、一日を複数に分割した期間である。例えば、0時~1時の間、1時~2時の間、…の夫々を特定の時間帯とする。S31では、演算部11は、検出結果データから、特定の時間帯に含まれる時刻及び人物4が検出された監視領域53を示す情報を読み出し、読み出した情報に基づいて、監視領域53に人物4が含まれていた時間を計算する。例えば、一分間隔で人物4の検出が行われた場合は、監視領域53に含まれる人物4が検出された回数を一分に乗じた時間が、監視領域53に人物4が含まれていた時間となる。演算部11は、複数の監視領域53の夫々に人物4が含まれていた時間を計算する。
S31では、演算部11は、一日の中の特定の時間帯において監視領域53に人物4が含まれていた時間を、複数の日に亘って合計してもよい。例えば、演算部11は、0時~1時の間、1時~2時の間、…の夫々において監視領域53に人物4が含まれていた時間を、一週間又は一か月間等の複数の日に亘って合計する。演算部11は、各時間帯において監視領域53に人物4が含まれていた時間を、日の種類別に合計してもよい。例えば、演算部11は、0時~1時の間、1時~2時の間、…の夫々において監視領域53に人物4が含まれていた時間を、曜日別に、又は平日と休日とで区別して、合計してもよい。
図11は、監視領域53に人物4が含まれていた時間を特定した例を示す図表である。複数の監視領域53に対応するトレッドミル3を、トレッドミル01、トレッドミル02、トレッドミル03及びトレッドミル04とする。0時~1時の間、1時~2時の間、…の夫々の時間帯において夫々の監視領域53に人物4が含まれていた時間の一か月間の合計を、図11に示している。スポーツジムは、10時~20時の間は一か月に25日間営業が行われ、0時~10時及び20時~24時の間は、一か月に20日間営業が行われるとする。図11に示した数値の単位は分である。図11に示すように、各時間帯において夫々の監視領域53に人物4が含まれていた時間が特定される。
情報処理装置1は、次に、S31で特定した時間に基づいて、特定の時間帯において監視領域53に対応する設備が利用されている時間の割合を示す利用率を特定する(S32)。監視領域53に人物4が含まれていた時間は、監視領域53に対応する設備が人物4によって利用されていた時間であり、この時間を時間帯の長さで除することにより、設備の利用率が得られる。監視領域53に対応する設備は、例えば、トレッドミル3である。S31では、演算部11は、監視領域53に人物4が含まれていた時間を、時間帯の長さで除することにより、利用率を計算する。監視領域53に人物4が含まれていた時間を複数の日に亘って合計している場合は、監視領域53に人物4が含まれていた時間を、時間帯の長さに日数を乗じた値で除することにより、利用率が計算される。
図12は、設備の利用率を特定した例を示す図表である。監視領域53に対応する設備は、トレッドミル01、トレッドミル02、トレッドミル03及びトレッドミル04である。図12には、0時~1時の間、1時~2時の間、…の夫々の時間帯における夫々のトレッドミル3の一か月間の利用率を示している。夫々のトレッドミル3及び時間帯に利用率が関連付けられている。図12には、更に、各トレッドミル3の一日の利用率と、各時間帯における複数のトレッドミル3全体の利用率とが示されている。演算部11は、これらの利用率を計算してもよい。一日の利用率は、複数の時間帯における利用率の平均である。複数のトレッドミル3全体の利用率は、複数のトレッドミル3の利用率の平均である。
時間帯の長さは一時間である必要はなく、その他の長さであってもよい。例えば、時間帯の長さは一日であってもよい。例えば、特定の曜日において監視領域53に人物4が含まれていた時間が複数週間に亘って合計され、特定の曜日における設備の複数週間の利用率が計算されてもよい。
情報処理装置1は、次に、特定の時間帯及び設備に関連付けた利用率を出力する(S33)。記憶部14は、利用率を時間帯及び設備に関連付けて記録した利用率データを記憶している。S33では、演算部11は、特定した利用率を特定の時間帯及び設備に関連付けて利用率データに追加し、特定の時間帯及び設備に関連付けた利用率を表示部16に表示することによって、利用率を出力する。例えば、演算部11は、図12に示す如き、夫々の時間帯及び設備に利用率を関連付けた図表を、表示部16に表示する。情報処理装置1は、表示部16に表示する以外の方法で利用率を出力してもよい。例えば、情報処理装置1は、プリンタを備え、夫々の時間帯及び設備に利用率を関連付けた図表をプリンタから出力する。例えば、情報処理装置1は、利用率データを電子データの形態で出力する。
設備の利用率が出力されることで、使用者は、各時間帯における設備の利用率を知ることができる。設備の利用率が明らかになることによって、人物4がどの時間帯にどの設備を利用するのかを表す人物4の動作パターンが明らかとなる。明らかになった人物4の動作パターンに応じて設備を調整することにより、設備が配置された施設の効率化を図ることができる。例えば、利用率の低いトレッドミル3を撤去する、利用率が低くなる時間帯にトレッドミル3を停止させる、又はトレッドミル3全体の利用率が上昇するようにトレッドミル3の配置を調整する等の方法により、スポーツジムの効率化を図ることができる。
情報処理装置1は、次に、特定の時間帯及び設備に関連付けた利用率に基づいて、電力消費の計画を作成する(S34)。S34では、例えば、演算部11は、あるトレッドミル3の利用率がある時間帯で所定値を下回る場合に、当該時間帯では当該トレッドミル3を停止させるようにした電力消費の計画を作成する。例えば、演算部11は、利用率が所定値以上である時間帯は空調の電力消費を高め、利用率が所定値を下回る時間帯は空調の電力消費を低下させるように、電力消費の計画を作成する。
情報処理装置1は、次に、作成した電力消費の計画を出力する(S35)。S35では、演算部11は、電力消費の計画を記録した計画データを記憶部14に記憶し、電力消費の計画を表示部16に表示することによって出力する。情報処理装置1は、表示部16に表示する以外の方法で電力消費の計画を出力してもよい。例えば、情報処理装置1は、計画データを電子データの形態で出力する。使用者は、出力された電力消費の計画を参考にして、電力消費を適切に調整することができる。例えば、利用率の低いトレッドミル3を停止させることにより、電力消費を削減することができる。例えば、利用率の高い時間帯に空調の電力消費を高めることにより、スポーツジムの温度を適切に調整し、スポーツジムの快適性を向上させることができる。
S35が終了した後、情報処理装置1は、人物4の動作パターンを解析する処理を終了する。S31~S35の処理は、時刻及び人物4が検出された監視領域53の情報が検出結果データに蓄積された状態で、随時行われる。例えば、S11~S18の処理が所定のタイミングで実行され、監視領域53が決定し直された後、S21~S28の処理が繰り返し実行され、その後、S31~S35の処理が実行される。S31~S35の処理の内、S31~S33の処理と、S34~S35の処理とは、異なったタイミングで実行されてもよい。又は、S31~S33の処理が行われた後、S34~S35の処理は行われなくてもよい。
以上詳述した如く、本実施形態においては、撮影画像に含まれる人物4を検出し、人物4の位置を特定し、特定した複数の位置をクラスタリングし、クラスタリングにより得られたクラスターに対応する撮影画像内の監視領域53を決定する。その後、撮影画像内の監視領域53に含まれる人物4を検出する。人物4が多く利用する設備に対応する撮影画像内の領域を監視領域53として容易に設定することができる。撮影画像内の監視領域53に含まれる人物4を検出することにより、人物4がどの設備をいつ利用したかを示す行動履歴を記録することが可能となり、行動履歴に基づいて人物4の動作パターンを調べることが可能となる。例えば、スポーツジムでの各時間帯における夫々のトレッドミル3の利用率が得られる。人物4の動作パターンに応じて、人物4が利用する施設を適切に調整することができる。例えば、トレッドミル3の利用率に基づいてスポーツジムでの電力消費の計画を作成することにより、電力消費の効率化を図ることができる。
<実施形態2>
実施形態1では、単一のカメラ2が情報処理装置1に接続された例を示したが、実施形態2では、情報処理システム100は複数のカメラ2を備える。図13は、実施形態2に係る情報処理システム100の構成例を示す模式図である。情報処理システム100は、複数のカメラ2を備え、複数のカメラ2が情報処理装置1に接続されている。複数のカメラ2は、スポーツジム内の互いに異なる領域を撮影する。複数のカメラ2は、夫々に撮影画像を情報処理装置1へ入力する。情報処理装置1は、同様に、S11~S18の処理、及びS21~S28の処理を実行する。複数の撮影画像内の監視領域53が決定され、各監視領域53に含まれる人物4が検出される。
実施形態1では、単一のカメラ2が情報処理装置1に接続された例を示したが、実施形態2では、情報処理システム100は複数のカメラ2を備える。図13は、実施形態2に係る情報処理システム100の構成例を示す模式図である。情報処理システム100は、複数のカメラ2を備え、複数のカメラ2が情報処理装置1に接続されている。複数のカメラ2は、スポーツジム内の互いに異なる領域を撮影する。複数のカメラ2は、夫々に撮影画像を情報処理装置1へ入力する。情報処理装置1は、同様に、S11~S18の処理、及びS21~S28の処理を実行する。複数の撮影画像内の監視領域53が決定され、各監視領域53に含まれる人物4が検出される。
情報処理装置1は、複数のカメラと、設備と、電力を消費する機器との関係を示した関係データを記憶部14に記憶している。図14は、関係データの内容例を示す模式図である。関係データでは、カメラと設備と電力を消費する機器とが互いに関連付けられている。図14にはカメラ2と、設備であるトレッドミル3と、電力を消費する機器である照明及び空調の関係が示されている。一のカメラ2であるカメラ01が撮影する領域に、トレッドミル01~トレッドミル04が含まれている。トレッドミル01~トレッドミル04の夫々の付近に照明01~照明04の夫々が配置されている。トレッドミル01及びトレッドミル02の付近に空調01が配置されており、トレッドミル03及びトレッドミル04の付近に空調02が配置されている。同様に、カメラ02が撮影する領域にトレッドミル05~トレッドミル08が含まれ、トレッドミル05~トレッドミル08の夫々の付近に照明05~照明08の夫々が配置され、トレッドミル05及びトレッドミル06の付近に空調03が配置され、トレッドミル07及びトレッドミル08の付近に空調04が配置されている。同様に、カメラと設備と電力を消費する機器との関係が関係データに記録されている。例えば、関係データでは、夫々のカメラ、設備、及び電力を消費する機器を識別するためのIDが互いに関連付けて記録されている。
情報処理装置1は、同様に、S31~S35の処理を実行する。トレッドミル3の利用率が得られ、電力消費の計画が作成される。情報処理装置1は、関係データを参照し、電力を消費する機器に関連付けられた設備の利用率に応じて、電力消費の計画を作成する。例えば、情報処理装置1は、トレッドミル01~トレッドミル04の夫々の利用率に応じて照明01~照明04の夫々での電力消費の計画を作成する。また、情報処理装置1は、トレッドミル01及びトレッドミル02の利用率に応じて空調01の電力消費の計画を作成し、トレッドミル03及びトレッドミル04の利用率に応じて空調02の電力消費の計画を作成する。
図15は、電力消費の計画の例を示す模式図である。図15には、時間帯と各照明での電力消費とを対応付けた例を示す。例えば、情報処理装置1は、トレッドミル3の利用率が高い時間帯では、関連付けられた照明を点灯し、トレッドミル3の利用率が低い時間帯では照明を消灯するように、電力消費の計画を作成する。また、図15には、時間帯と各空調での電力消費とを対応付けた例を示す。例えば、情報処理装置1は、トレッドミル3の利用率が高い時間帯では、関連付けられた空調での電力消費を強とし、トレッドミル3の利用率が低い時間帯では空調での電力消費を弱とし、トレッドミル3の利用が無い時間帯では空調を消すように、電力消費の計画を作成する。S35では、情報処理装置1は、図15に示す如き電力消費の計画を出力する。出力される電力消費の計画には、夫々の設備を識別するためのIDが含まれる。使用者は、出力された電力消費の計画を参考にして、電力消費を適切に調整することができる。
以上のように、スポーツジム内の全てのトレッドミル3を単一のカメラ2で撮影することができない場合であっても、複数のカメラ2を用いることによって、人物4の動作パターンを調べることができる。即ち、夫々のトレッドミル3の利用率を特定し、電力消費の計画を作成することができる。従って、実施形態2では、全ての設備を単一のカメラ2で撮影することができない状態において、複数のカメラ2を用いることによって、人物4の動作パターンを調べることができる。
<実施形態3>
図16は、実施形態3に係る情報処理システム100の構成例を示す模式図である。複数の施設6があり、夫々の施設6にカメラ2が配置されている。施設6は、例えば、複数のトレッドミル3を備えたスポーツジムである。一つの施設6に複数のカメラ2が配置されていてもよい。夫々のカメラ2は、有線通信又は無線通信を利用して、インターネット等の通信ネットワークNに接続されている。通信ネットワークNには、情報処理装置1が接続されている。カメラ2は、当該カメラ2が配置された施設6の内部を撮影し、撮影画像を、通信ネットワークNを介して情報処理装置1へ送信する。情報処理装置1は、複数のカメラ2から送信された撮影画像を受信することにより、撮影画像を取得する。
図16は、実施形態3に係る情報処理システム100の構成例を示す模式図である。複数の施設6があり、夫々の施設6にカメラ2が配置されている。施設6は、例えば、複数のトレッドミル3を備えたスポーツジムである。一つの施設6に複数のカメラ2が配置されていてもよい。夫々のカメラ2は、有線通信又は無線通信を利用して、インターネット等の通信ネットワークNに接続されている。通信ネットワークNには、情報処理装置1が接続されている。カメラ2は、当該カメラ2が配置された施設6の内部を撮影し、撮影画像を、通信ネットワークNを介して情報処理装置1へ送信する。情報処理装置1は、複数のカメラ2から送信された撮影画像を受信することにより、撮影画像を取得する。
情報処理装置1は、夫々の施設6に配置されたカメラ2から取得した撮影画像に基づいて、夫々の施設6に関してS11~S18の処理、S21~S28の処理、及びS31~S35の処理を実行する。これにより、夫々の施設6に関して監視領域53が決定され、監視領域53に含まれる人物4が検出され、夫々の施設6における人物4の動作パターンを調べることができる。例えば、複数のスポーツジムの夫々におけるトレッドミル3の利用率が得られ、複数のスポーツジムの夫々における電力消費の計画を作成することができる。
実施形態1~3では、カメラ2が撮影する領域が固定されている形態を示したが、カメラ2は撮影方向を変更しながら撮影を行うことにより、より広い領域を撮影する形態であってもよい。実施形態1~3では、情報処理システム100が対象とする施設の例としてスポーツジムを挙げているが、情報処理システム100が対象とする施設はスポーツジム以外の施設であってもよい。例えば、情報処理システム100が対象とする施設は、スーパーマーケット等の店舗であってもよい。この形態では、店舗内の人物4の動作パターンが得られる。例えば、店舗に設けられた商品陳列棚又は精算所等の施設が監視領域53に対応し、各設備の利用率が特定される。利用率の高い商品陳列棚に売りたい商品を陳列する等、設備の利用率に応じて商品の配置を調整することにより、店舗の売り上げの増進を図ることができる。また、利用率に応じた電力消費の計画を作成することにより、空調又は照明の利用をより適切に調整する等、店舗における電力消費の効率化を図ることができる。
実施形態1~3では、物体が人物4であるとし、撮影画像から人物4を検出する形態を示したが、情報処理システム100は、人物以外の物体を撮影画像から検出する形態であってもよい。例えば、物体は人間以外の動物であってもよい。物体は物品であってもよい。例えば、情報処理システム100は、工場においてコンベアに運ばれながら機械によって加工される物品を物体とし、機械に対応する監視領域53に含まれる物品を検出し、各機械の利用率を特定することができる。物体は車両であってもよい。例えば、駐車場にカメラ2が配置され、駐車場内の駐車スペースに対応する監視領域53に含まれる車両が検出され、駐車スペースの利用率が特定されてもよい。
本発明は上述した実施の形態の内容に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。即ち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態も本発明の技術的範囲に含まれる。
100 情報処理システム
1 情報処理装置
10 記録媒体
141 コンピュータプログラム
142 学習モデル
2 カメラ
3 トレッドミル
4 人物(物体)
51 バウンディングボックス
52 バウンディングボックスの中心点
53 監視領域
54 監視領域の中心点
6 施設
N 通信ネットワーク
1 情報処理装置
10 記録媒体
141 コンピュータプログラム
142 学習モデル
2 カメラ
3 トレッドミル
4 人物(物体)
51 バウンディングボックス
52 バウンディングボックスの中心点
53 監視領域
54 監視領域の中心点
6 施設
N 通信ネットワーク
Claims (10)
- カメラにより撮影された撮影画像を取得し、
前記撮影画像に含まれる特定の物体を検出し、
検出した物体の前記撮影画像内での位置を特定し、
複数の撮影画像から特定した複数の物体の位置をクラスタリングし、
クラスタリングにより得られたクラスターに対応する撮影画像内の領域を、特定の物体の存在を監視すべき監視領域として決定する
ことを特徴とする情報処理方法。 - クラスターに含まれる物体の位置の数が閾値以上である場合に、当該クラスターに対応する領域を前記監視領域として決定する
ことを特徴とする請求項1に記載の情報処理方法。 - 前記監視領域を決定した後に撮影された撮影画像内の前記監視領域に含まれる特定の物体を検出する
ことを特徴とする請求項1又は2に記載の情報処理方法。 - 物体の検出結果に基づいて、特定の時間帯において前記監視領域に物体が含まれていた時間を特定し、
特定した前記時間に基づいて、前記特定の時間帯において前記監視領域に対応する設備が利用されている時間の割合を示す利用率を特定し、
前記特定の時間帯及び前記監視領域に対応する設備に関連付けた前記利用率を出力する
ことを特徴とする請求項3に記載の情報処理方法。 - 複数のカメラにより複数の場所を撮影された複数の撮影画像に基づいて、前記複数の場所の夫々における設備の利用率を特定し、出力する
ことを特徴とする請求項4に記載の情報処理方法。 - 前記特定の時間帯及び前記設備に関連付けた前記利用率に基づいて、前記設備に関する電力消費の計画を出力する
ことを特徴とする請求項4又は5に記載の情報処理方法。 - 前記監視領域に含まれる特定の物体の数に基づいて、物体の密度を特定し、
前記密度が所定の限界密度以上である場合に、警告を出力する
ことを特徴とする請求項3乃至6のいずれか一つに記載の情報処理方法。 - 所定のタイミングで、前記監視領域を決定し直す
ことを特徴とする請求項1乃至7のいずれか一つに記載の情報処理方法。 - カメラにより撮影された撮影画像を取得し、
前記撮影画像に含まれる特定の物体を検出し、
検出した物体の前記撮影画像内での位置を特定し、
複数の撮影画像から特定した複数の物体の位置をクラスタリングし、
クラスタリングにより得られたクラスターに対応する撮影画像内の領域を、特定の物体の存在を監視すべき監視領域として決定する
処理をコンピュータに実行させることを特徴とするコンピュータプログラム。 - 外部を撮影するカメラと、
情報処理装置とを備え、
前記情報処理装置は、
前記カメラにより撮影された撮影画像を取得し、
前記撮影画像に含まれる特定の物体を検出し、
検出した物体の前記撮影画像内での位置を特定し、
複数の撮影画像から特定した複数の物体の位置をクラスタリングし、
クラスタリングにより得られたクラスターに対応する撮影画像内の領域を、特定の物体の存在を監視すべき監視領域として決定する
ことを特徴とする情報処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021195502A JP2023081638A (ja) | 2021-12-01 | 2021-12-01 | 情報処理方法、情報処理システム及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021195502A JP2023081638A (ja) | 2021-12-01 | 2021-12-01 | 情報処理方法、情報処理システム及びコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023081638A true JP2023081638A (ja) | 2023-06-13 |
Family
ID=86728142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021195502A Pending JP2023081638A (ja) | 2021-12-01 | 2021-12-01 | 情報処理方法、情報処理システム及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023081638A (ja) |
-
2021
- 2021-12-01 JP JP2021195502A patent/JP2023081638A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11302117B2 (en) | Anomaly detection method, system and computer readable medium | |
US10943204B2 (en) | Realtime video monitoring applied to reduce customer wait times | |
JP4972491B2 (ja) | 顧客動作判定システム | |
US20190303684A1 (en) | Object detection in edge devices for barrier operation and parcel delivery | |
US10552687B2 (en) | Visual monitoring of queues using auxillary devices | |
US9036902B2 (en) | Detector for chemical, biological and/or radiological attacks | |
KR20150065847A (ko) | 이벤트 검출을 위해 시각 정보를 프로세싱하기 위한 시스템 및 방법 | |
JP6120404B2 (ja) | 移動体行動分析・予測装置 | |
US12051015B2 (en) | Artificial intelligence model integration and deployment for providing a service | |
CN114821483B (zh) | 应用于监控视频的可测温的监视方法及系统 | |
CN111814646A (zh) | 基于ai视觉的监控方法、装置、设备及介质 | |
CN107122743A (zh) | 安防监控方法、装置和电子设备 | |
WO2021154320A1 (en) | Systems and methods for resource analysis, optimization, or visualization | |
JP2020109644A (ja) | 転倒検出方法、転倒検出装置及び電子機器 | |
JP6399096B2 (ja) | 情報処理装置、表示方法およびコンピュータプログラム | |
JP6536643B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
Sree et al. | An evolutionary computing approach to solve object identification problem for fall detection in computer vision-based video surveillance applications | |
JP2023081638A (ja) | 情報処理方法、情報処理システム及びコンピュータプログラム | |
CN114764895A (zh) | 异常行为检测装置和方法 | |
Oztarak et al. | Efficient and accurate object classification in wireless multimedia sensor networks | |
KR102585358B1 (ko) | 인공지능 기반의 영상 분석 모델을 이용하여 무인 매장 고객의 행동 패턴을 분석하는 방법 및 장치 | |
US20150019171A1 (en) | Feature-quantity extracting apparatus | |
WO2022059223A1 (ja) | 映像解析システムおよび映像解析方法 | |
TW201822082A (zh) | 智慧型影像辨識動態規劃之系統及方法 | |
KR102633205B1 (ko) | 인공신경망을 이용해 교통상황에 대한 특이패턴을 감지하는 장치 |