JP7343973B2 - 行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法 - Google Patents

行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法 Download PDF

Info

Publication number
JP7343973B2
JP7343973B2 JP2018246788A JP2018246788A JP7343973B2 JP 7343973 B2 JP7343973 B2 JP 7343973B2 JP 2018246788 A JP2018246788 A JP 2018246788A JP 2018246788 A JP2018246788 A JP 2018246788A JP 7343973 B2 JP7343973 B2 JP 7343973B2
Authority
JP
Japan
Prior art keywords
data
analysis
field
observation
pattern analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018246788A
Other languages
English (en)
Other versions
JP2020107171A (ja
Inventor
誠也 伊藤
聡 笹谷
亮祐 三木
長 峯元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018246788A priority Critical patent/JP7343973B2/ja
Publication of JP2020107171A publication Critical patent/JP2020107171A/ja
Application granted granted Critical
Publication of JP7343973B2 publication Critical patent/JP7343973B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法に関し、移動物体の検出や追跡を伴う空間上のデータ解析において行動パタンを分析することを支援する行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法に適用して好適なものである。
従来、人や車両等の移動物体を検出する方法について、監視カメラやセンサ等を用いて計測する方法が提案されている。例えば監視カメラを用いる場合であれば、映像認識によって移動物体の位置や軌跡を算出することにより、セキュリティや対象エリアの状態のモニタリングに活用される。カメラ等の撮像機器から取得した映像に対して認識処理を施し、監視エリアに現れた移動物体を検出する機能を有する映像監視システムは、検出結果を利用することで移動物体の出現した映像のみ記録する機能、表示装置に警告アイコンを提示する機能、及び、ブザー等の警告出力を行い、監視院に注意を促す機能等を有する。このような映像監視システムによれば、以前は常時確認作業が必要であった監視業務の負担を低減することに役立つだけでなく、窃盗等の犯罪行為や不正行為が発生した場合に、記録した映像を事後の犯罪捜査等に役立てることも可能である。
そしてセンシング技術は、上記のような監視カメラを基盤にした認識とともに様々なフィールド(空間)で活用されることが多く、具体的には例えば、防犯等の用途だけでなく、マーケティング目的や、公共空間の空間利用の利便性を高める目的にも活用される。また、対象エリアもビルや公共施設だけに留まらず、街区にまで範囲を拡大しての活用も広まっている。例えば、都市開発においても、フィールドの状況理解へのニーズが高まっている。
しかし、上述したフィールドの状況理解のためには、検出精度等の向上が不可欠であり、新たなセンサを活用して特定エリアでの行動理解を深める試みが行われている。例えば特許文献1には、消費者が行った行動を分析するとともに消費者の個人情報を保護する行動解析システムが開示されている。特許文献1の行動解析システムは、複数のセンサを配置せずに詳細な行動を検出するために、3次元センサのような特長的なセンサ(特許文献1では距離画像センサと記載)を活用し、画像データだけでなく距離データも用いて、消費者の行動履歴を取得するものであり、より具体的には、距離画像センサを用いて消費者を撮影し、距離画像センサから出力される2次元距離データに含まれる距離データの差を解析することで商品棚の前に存在する消費者の領域を認識し、認識した領域をトラッキングすることで商品棚の前における消費者の行動を認識する。
特開2010-067079号公報
しかし、特許文献1に開示された従来技術では、特定エリア(フィールド)での理解精度を向上させようと試みた場合に、以下のような課題があった。まず、センサ精度について向上の限界があるため、検出可能な行動は限定的となってしまう。また、センサに撮像されない状況があったり、対象者の内面的状況や微細な行動の変化までは撮像できないというセンサによる検出自体の限界もあった。またさらに、上記従来技術では、適用先のフィールドごとに状況や行動パタンが異なる場合があるため、適用先のフィールドに合わせて、都度、パラメータ等を調整する必要があった。その結果、結局は検出可能な範囲での計測に留まってしまい、フィールドの深い理解を得ることが難しかった。
本発明は以上の点を考慮してなされたもので、既設のセンサによってフィールドから取得したフィールドデータに対して、ユーザによるフィールドの観察データを追加可能にし、より精緻な行動パタン分析ができるように支援することが可能な行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法を提案しようとするものである。
かかる課題を解決するため本発明においては、所定のフィールドにおける移動物体の行動パタンの分析を支援する以下の行動パタン分析支援装置が提供される。この行動パタン分析支援装置は、前記フィールド内の自身の検知範囲における前記移動物体の行動を計測するセンサによる計測データを取得及び集約し、前記集約したデータに対して、予め定められた分析指針に基づく第1の分析処理を実行することにより、前記フィールドにおける前記移動物体の行動に関する統計的な情報を示すフィールドデータを生成するフィールドデータ生成部と、前記フィールドデータを拡張し分析するパタン解析支援部と、を備え、前記パタン解析支援部は、ユーザによる前記センサの検知範囲以外を含む前記フィールドの観察に基づく観察データを入力する観察データ入力部と、前記フィールドデータに前記観察データを統合した統合データを生成するデータ統合部と、前記統合データに対して、前記観察データに応じて分析内容を変化可能な第2の分析処理を実行することにより、前記観察データで着目された特定エリアにおける前記移動物体の行動に関連する特徴情報を含む分析データを生成するデータ分析部と、前記統合データまたは前記分析データをユーザ側に提示するデータ提示部と、を有する。
また、かかる課題を解決するため本発明においては、所定のフィールドにおける移動物体の行動パタンの分析を支援する以下の行動パタン分析支援システムが提供される。この行動パタン分析支援システムは、前記フィールド内の自身の検知範囲における前記移動物体の行動を計測するセンサによる計測データを取得及び集約し、前記集約したデータに対して、予め定められた分析指針に基づく第1の分析処理を実行することにより、前記フィールドにおける前記移動物体の行動に関する統計的な情報を示すフィールドデータを生成するフィールドデータ生成部と、前記フィールドデータを拡張し分析するパタン解析支援部と、前記フィールドデータ生成部または前記パタン解析支援部で生成されたデータを格納するデータ格納部と、を備える、さらに、前記パタン解析支援部は、ユーザによる前記センサの検知範囲以外を含む前記フィールドの観察に基づく観察データを入力する観察データ入力部と、前記フィールドデータに前記観察データを統合した統合データを生成するデータ統合部と、前記統合データに対して、前記観察データに応じて分析内容を変化可能な第2の分析処理を実行することにより、前記観察データで着目された特定エリアにおける前記移動物体の行動に関連する特徴情報を含む分析データを生成するデータ分析部と、前記統合データまたは前記分析データをユーザ側に提示するデータ提示部と、を有する。
また、かかる課題を解決するため本発明においては、所定のフィールドにおける移動物体の行動パタンの分析を支援する行動パタン分析支援装置による行動パタン分析支援方法であって、前記行動パタン分析支援装置が、前記フィールド内の自身の検知範囲における前記移動物体の行動を計測するセンサによる計測データを取得及び集約し、前記集約したデータに対して、予め定められた分析指針に基づく第1の分析処理を実行することにより、前記フィールドにおける前記移動物体の行動に関する統計的な情報を示すフィールドデータを生成するフィールドデータ生成ステップと、前記行動パタン分析支援装置が、ユーザによる前記センサの検知範囲以外を含む前記フィールドの観察に基づく観察データを入力可能な観察データ入力ステップと、前記行動パタン分析支援装置が、前記フィールドデータ生成ステップで生成された前記フィールドデータと前記観察データ入力ステップで入力された前記観察データとを統合して統合データを生成するデータ統合ステップと、前記行動パタン分析支援装置が、前記データ統合ステップで生成された前記統合データに対して、前記観察データに応じて分析内容を変化可能な第2の分析処理を実行することにより、前記観察データで着目された特定エリアにおける前記移動物体の行動に関連する特徴情報を含む分析データを生成するデータ分析ステップと、前記行動パタン分析支援装置が、前記データ統合ステップで生成された前記統合データまたは前記データ分析ステップで生成された前記分析データをユーザ側に提示するデータ提示ステップと、を備える行動パタン分析支援方法が提供される。
本発明によれば、既設のセンサによってフィールドから取得したフィールドデータに対して、ユーザによるフィールドの観察データを追加可能にし、より精緻な行動パタン分析ができるように支援することができる。
本発明の一実施の形態に係る行動パタン分析支援システムの構成例を示すブロック図である。 行動パタン分析支援の全体プロセスを説明するための図である。 データ入出力用のユーザインタフェースの一例を示す図である。 観察情報を入力する画面の一例を示す図である。 観察情報を入力する画面の別例を示す図である。 提示データの表示画面の一例を示す図である。 提示データの表示画面の別例を示す図である。 分析指針のパラメータを変更する入力画面の一例を示す図である。
以下、図面を参照して、本発明の一実施の形態を詳述する。
本発明は、計測データに加えて、人物の観察データを統合することにより、センサでは得られない情報による分析効率や精度の向上を実現する行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法であるが、その一実施の形態として、以下では、ショッピングモールのような空間において、カメラ等のセンサによって計測されるデータを活用し、人物の行動パタンを効率的かつ精緻に取得するための行動パタン分析を支援する行動パタン分析支援システムについて詳述する。
(1)行動パタン分析支援システムの構成
図1は、本発明の一実施の形態に係る行動パタン分析支援システムの構成例を示すブロック図である。図1に示した行動パタン分析支援システム1は、センサ10が人物の行動を計測した撮像データに基づいてフィールドデータを生成するフィールドデータ生成部20、行動パタン分析支援システムで用いられる所定種別のデータ(フィールドデータ、統合データ、分析データ)を格納するデータ格納部30、及び、フィールドデータを拡張するとともに、フィールドデータの取得に関するパラメータを修正するパタン解析支援部40を備えて構成される。
センサ10は、撮像範囲の人物の行動を撮像データ(映像データでも画像データでもよいし、その他の所定形式のデータでもよい)に記録する装置であり、様々な機器を適用することができる。例えば、センサ10が画像センサを利用する場合、センサ10はレンズ及びカメラセンサ等で構成され、画像センサによって所定の画像を取得することができる。画像センサはCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子(いずれも図示せず)を含む機構である。このようなセンサ10から取得した撮像データを用いることで、環境内の人物等の状況をセンシングすることができる。また、本実施の形態におけるセンサ10としては、カメラ等の画像センサだけでなく、レーザーやビーコンセンサ、無線アクセスポイントの活用等、様々なアプローチが可能であり、用途に応じてセンサ10の種類を使い分けながら、フィールドの情報を得ることができる。本例では、特記しない限りは、画像や映像を活用した技術を利用しているものとする。
フィールドデータ生成部20は、センサ10から取得した撮像データに対して既知の画像認識技術を活用してフィールドデータ110を生成する機能を有する。詳細には、図1に示したように、フィールドデータ生成部20は、フィールドデータ取得部21とデータ集約部22とを備える。
フィールドデータ取得部21は、既知の人物検出技術や人物追跡技術を活用して、所定の分析指針に基づいて、センサ10の撮像データから人物の移動軌跡を取得する。例えば、センサ10と撮像データとの間で位置の対応関係が認識できれば、人物の位置情報等を取得することができる。またさらに、地図情報等を取得して重畳させることにより、人物の行動を実世界であるフィールドと対応させて取得することもできる。これらの手法については、これまで広く研究開発などがなされており、それらの一般的な技術を活用してよい。そして、フィールドデータ取得部21は、センサ10の撮像データに対して上記のような技術処理を行って得られた人物の行動軌跡等を示すフィールドデータ(一次フィールドデータとも称する)をデータ集約部22に送信する。
データ集約部22は、フィールドデータ取得部21から送信された一次フィールドデータを、一定時間や特定エリアといった所定の単位で集約することにより、統計的な処理を施したフィールドデータ(二次フィールドデータとも称する)を生成する。二次フィールドデータとして具体的には例えば、一定時間ごとに一次フィールドを集約して統計的処理を施せば、特定時間における人物の流量(人流)や男女比等を示す統計的な情報を得ることが出来る。また例えば、マップを特定のグリッドに区切ってグリッド単位で一次フィールドデータを集約して統計的処理を施せば、マップ上での軌跡を追跡することができ、人物がどの領域に多く行動したか等を識別可能な統計的な情報を得ることができる。このようにデータ集約部22によって生成される二次フィールドデータは、取得可能な一次フィールドデータにより、任意の視点での情報取得が可能である。
なお、データ集約部22による一次フィールドデータの集約における統計的処理は、予め定義された分析処理によって簡易・定型的な分析を行うものであり、後述するデータ分析部43による詳細分析(第2の分析)と区別して第1の分析と称することができる。この第1の分析は、予め定義された分析処理であることから、リアルタイム処理が可能という特長を有する。
そして、データ集約部22は、上記のように集約して得られたフィールドデータ(二次フィールドデータ)をデータ格納部30に送信し、データ格納部30内部の記憶領域の1つであるフィールドデータ格納部31に保存する。なお、以降の説明では、特段の断りがない限り、二次フィールドデータをフィールドデータ110と表記する。この表記を用いると、データ集約部22は、生成したフィールドデータ110をデータ格納部30に送信し、フィールドデータ格納部31に保存する、といえる。また、データ集約部22は、パタン解析支援部40にも生成したフィールドデータ110を送信する。
また、詳細はパタン解析支援部40における説明でも後述するが、フィールドデータ生成部20は、フィールドデータ110を生成する際に用いる「分析指針」を、パタン解析支援部40のパラメータ変更部46から出力される修正パラメータ150に応じて修正することができる。この修正可能な「分析指針」は、具体的には例えば、フィールドデータ取得部21が、センサ10の撮像データから一次フィールドデータを生成する際に用いる「分析指針」であってもよいし、また、データ集約部22が一次フィールドデータを集約して二次フィールドデータを生成する際に用いる「分析指針」であってもよい。これらのことから「分析指針」は、フィールドデータ110を取得するパラメータとも言える。
データ格納部30は、フィールドデータ生成部20及びパタン解析支援部40と接続されて所定のデータを格納する記憶機能を有し、例えばサーバで実現される。図1において、データ格納部30は、格納するデータの種別によって、フィールドデータ110を格納するフィールドデータ格納部31と、統合データ120を格納する統合データ格納部32と、分析データ130を格納する分析データ格納部33とに分かれているが、実際に記憶装置が分かれている必要はない。
なお、本実施の形態に係る行動パタン分析支援システム1において、フィールドデータ生成部20及びパタン解析支援部40は、CPU(Central Processing Unit)がプログラムデータを読み出して実行する計算機(例えばPC等)によって実現可能であり、これらを実現する演算処理装置を本実施の形態に係る行動パタン分析支援装置とみることもできる。一方、データ格納部30は、上記行動パタン分析支援装置と通信可能に接続されたサーバ等によって実現されてもよいし、あるいは、上記行動パタン分析支援装置の内部に搭載された記憶装置によって実現されてもよい。
パタン解析支援部40は、分析者/ユーザ50による観察データ140の入力を受け付け、入力された観察データ140を考慮して、フィールドデータ110の分析方針等を決定する機能を有する。詳細には、図1に示したように、パタン解析支援部40は、観察データ入力部41、データ統合部42、データ分析部43、データ提示部44、分析指針入力部45、及びパラメータ変更部46を備える。
観察データ入力部41は、分析者による現場の目視観察等によって得られた観察情報を観察データ140として入力する機能を有する。
データ統合部42は、データ集約部22から送信されたフィールドデータ110に対して、観察データ入力部41に入力された観察データ140を統合し、統合データ120としてデータ格納部30の統合データ格納部32に保存する機能を有する。
データ分析部43は、データ統合部42によって生成された統合データ120に対して、入力された観察データ140を活用したデータ解析を行うことによって詳細に分析し、その分析結果を分析データ130として出力する機能を有する。分析データ130は、データ格納部30の分析データ格納部33に保存される。
なお、データ分析部43による詳細分析(第2の分析)は、フィールドデータ110という定量データを集約した上で実施可能な分析であることが想定されるため、データ集約部22による第1の分析とは異なり、リアルタイム処理には不向きである。また、統合データ120は、フィールドデータ110に観察データ140を反映して生成されることから、その内容がその時々で変化する可能性があり、この統合データ120を対象として行われる第2の分析も、その分析内容が変化し得る。したがって、換言すれば、第2の分析は変化可能な分析である。
データ提示部44は、データ統合部42によって生成された統合データ120、またはデータ分析部43によって生成された分析データ130を分析者/ユーザ50に提示する機能を有する。ユーザは、これらの提示データを観察することにより、フィールドデータ110による統計的で定量的なデータに対して、観察された情報(観察データ140)に基づいて新たな気付きを得ることが可能となる。
なお、本実施の形態では、分析者/ユーザ50について、フィールドを目視等で観察して観察情報(観察データ140)を入力した分析者と、提示データ(統合データ120,分析データ130)を観察するユーザとが、同一の人物であることに限定されない。そして、それぞれの観察を別の人物が行う場合には、先の関係者(フィールドを観察した分析者)では気付かなかった洞察が、後の関係者(提示データを観察したユーザ)によって得られる可能性があり、観察された情報によって「新たな気付き」を得ることに期待できる。
分析指針入力部45は、フィールドデータ生成部20がフィールドデータ110を生成する際に用いる分析指針について、分析者/ユーザ50によって更なる分析指針(分析指針の変更や追加)が要求される場合に、その変更要求を入力する機能を有する。なお、分析指針を策定する分析者/ユーザ50は、フィールドを観察する人物や提示データを観察する人物と同一であってもよいし、別人物であってもよい。
パラメータ変更部46は、分析指針入力部45に入力された分析指針の変更要求に基づいて、フィールドデータ取得部21による分析指針のパラメータを適宜変更し、修正パラメータ150を生成する機能を有する。そして、パラメータ変更部46は、生成した修正パラメータ150をフィールドデータ生成部20に送信する。
そして、フィールドデータ生成部20は、パラメータ変更部46から送信された修正パラメータ150に応じて、自身の分析指針のパラメータを変更し、パラメータ変更後の分析指針を用いてフィールドデータ110を再取得する。この結果、フィールドデータ生成部20は、行動パタン分析により有効なデータを取得することができるようになる。
なお、本実施の形態に係る行動パタン分析支援システム1では、上記の修正パラメータ150を、上述したパラメータ変更後のデータ取得の改善を目的として活用してもよいし(オフラインのデータ分析)、あるいは、既に取得したフィールドデータ110に対するデータ分析部43の詳細分析において、その分析用のパラメータを調整する等の目的に活用してもよい(オンラインのデータ分析)。また、これらオフライン/オンラインのデータ分析を適宜切り替えて活用してもよい。
また、本実施の形態では、分析者/ユーザ50からパタン解析支援部40に情報を入力する入力手段や、分析者/ユーザ50にパタン解析支援部40が情報を出力(表示)したりする出力手段として、PC等で動作するアプリケーションで構成されるユーザインタフェース(UI)が提供されるとする。具体的には、観察データ入力部41への入力手段として観察データ入力UI410が提供され、データ提示部44による出力手段としてデータ提示UI440が提供され、分析指針入力部45への入力手段として分析指針入力UI450が提供される。そして、以降の説明では、パタン解析支援部40と分析者/ユーザ50との間の入出力は、上記の各UIによるものとして説明する。
(2)分析プロセス
次に、本実施の形態に係る行動パタン分析支援システム1による行動パタン分析支援の動作について、図2を参照しながら、分析プロセス全体の動きを合わせて説明する。
図2は、行動パタン分析支援の全体プロセスを説明するための図である。図2の上段には、行動パタン分析支援システム1による分析プロセス(ステップS11~S15)が示され、図2に下段には、分析者/ユーザ50による分析プロセス(ステップS21~S24)が示されている。また、図2の中段には、行動パタン分析支援システム1の各構成による処理の流れがデータの入出力や移動を中心として示されており、これら上段・中段・下段は、時系列を揃えて表記されている。
行動パタン分析支援システム1による分析プロセスにおいては、まず、センサ10によるデータ取得の準備が行われる(ステップS11)。このデータ取得は定量データの取得であり、例えば行動パタン分析支援システム1のフィールドデータ生成部20において、データ取得計画200が用意される。具体的には、データ取得計画200は、センサ10をどのように配置し、撮像によってどのような項目をデータ取得するか等、フィールドデータ生成部20による基本的な動作を規定するものである。
次に、フィールドデータ生成部20が、データ取得計画200に基づいて得られたセンサ10の撮像データからフィールドデータ110を取得・集約する(ステップS12)。
次に、データ統合部42が、ステップS12で取得・集約されたフィールドデータ110と、観察データ入力部41に入力された観察データ140とを統合し、統合データ120を生成する(ステップS13)。
次に、データ分析部43が、統合データ120を再度分析して分析データ130を生成する。さらに、データ提示部44が、統合データ120や分析データ130を分析者/ユーザ50に提示する(ステップS14)。
そして、分析指針入力部45が、分析者/ユーザ50による分析指針の変更要求を受けた場合には、パラメータ変更部46が、分析者/ユーザ50の意向に応じて修正パラメータ150を生成し、フィールドデータ生成部20が、当該修正パラメータ150に基づいてフィールドデータ110を取得するパラメータを変更することで、変更後の分析指針で更なるデータ取得を試みる(ステップS15)。
一方、分析者/ユーザ50による分析プロセスにおいては、まず、センサ10が配置された対象エリアにおいてフィールドの観察情報を取得する(ステップS21)。ステップS21のプロセスは、ステップS12でフィールドデータ110を取得する時間(ステップS12)と同時間帯に実施されることが好ましいが、フィールドデータ取得後の別の時間帯や視点で観察データを取得するものであってもよい。
次に、ステップS21で取得した観察情報(観察データ)を、観察データ入力UI410によって観察データ入力部41に入力する。ここで入力された観察データ140がステップS13におけるフィールドデータ110との統合に用いられることで、フィールドデータ110が拡充される(ステップS22)。
その後、データ提示部44がデータ提示UI440に出力した提示データ(統合データ120,分析データ130)を確認して、次サイクルの分析指針を策定する。そして、策定した分析指針に従って、変更したいパラメータを分析指針入力UI450によって分析指針入力部45に入力する(ステップS23)。
さらに、分析データ130を確認することで、分析者の観察ポイントを変更したり、観察場所や時間帯を決定したりといった分析者の観察方針を変更する(ステップS24)。そして、次サイクルのステップS21に移行し、変更した観察方針でフィールドの観察データを取得する。
以上のように、本実施の形態では、行動パタン分析支援システム1による分析プロセスと分析者/ユーザ50による分析プロセスとを対話的に繰り返しながら、フィールドデータ110の分析指針のパラメータやフィールドの観察方針を修正していくことで、行動パタン分析のデータ分析を熟練させていくことができる。
(3)データ入出力の具体例
図1及び図2を参照しながら説明したように、本実施の形態に係る行動パタン分析支援システム1において、分析者/ユーザ50を対象とするデータ入出力のためのユーザインタフェースとして、観察データ入力UI410、データ提示UI440、及び分析指針入力UI450が提供される。以下では、このようなデータ入出力に関して、行動パタン分析支援システム1全体で共通のユーザインタフェース(共通UI400)を利用する場合を例として、具体的な表示画面を例示しながら説明する。
図3は、データ入出力用のユーザインタフェースの一例を示す図である。図3に示したデータ表示画面500は、行動パタン分析支援システム1を用いて行動パタン分析を行う際に、データ入出力用の共通UI400によって表示される上位層の表示画面の一例である。
個々の具体的な表示態様は後述するが、共通UI400は、分析者/ユーザ50が求める様々な観点でのデータ表示を可能とし、例えば、対象エリアの地図上での行動パタンを指定時間で表示したり、所定の時間範囲でのフロア内の通行量を表示したり、特定の属性に対する割合を円グラフで表示したりすることが可能である。以下、データ表示画面500を用いて、共通UI400の操作例を説明する。
まず、ユーザが日時欄501で日時を選択し、エリア欄502で広域エリア(本例では建物)を選択すると、表示領域503に当該建物の複数フロアが表示される。さらにユーザが表示領域503に表示された複数フロアから特定のエリアを選択することで、表示領域504に当該特定エリアの情報が表示出力される。図3の場合、表示領域504には、日時「2018年11月11日15時」の広域エリア「ABC Shopping Center」における特定エリアとして、「4F」のあるフロアの情報が表示されている。
そして、表示領域504のなかで、ユーザは、確認したいフィールドデータを選択することができる。具体的には例えば、男性の人流であり(例えばデータA)、かつ滞留者である(例えばデータC)といったカテゴリ等で、フィールドデータを選択することができる。選択可能なフィールドデータは、フィールドデータ110として取得されているものに限られるが、その範囲内でユーザは表示対象を柔軟に選択することができる。
さらに、図3のデータ表示画面500では、下部の表示領域505,506において、フィールドデータに関する分析用の表示を行うことができることにより、フィールドデータ110として取得しているデータについて、様々な観点でデータを比較しながら分析を試行することが可能となる。具体的には図3の場合、表示領域505には、表示領域503で特定されたエリア(本例では4Fフロア)の通行量が時間帯別にグラフ表示されている。また、表示領域506には、表示領域504で選択されたフィールドデータについての属性A及び属性Bに対する割合が円グラフで表示されている。なお、表示領域505,506に表示可能な分析用のデータ種別は、図示した例に限定されるものではなく、ドロップダウンメニュー等を利用して、フィールドデータ110として取得されているもののなかから、表示するデータ種別を変更可能である。
また、図3のデータ表示画面500の右下部分には、ボタン507,508が設けられている。ボタン507がクリックされると、分析者/ユーザ50による観察情報(観察データ)を入力するための入力画面がポップアップ表示される。また、ボタン508がクリックされると、現在のデータ表示画面500による表示内容(選択内容でもよい)をファイル等に保存することができる。
以下に、観察情報(観察データ)の入力について具体例を挙げて説明する。
図4は、観察情報を入力する画面の一例を示す図である。図4に示した観察データ入力画面510は、分析者による現場の目視観察等によって得られた観察情報(観察データ)をパタン解析支援部40(観察データ入力部41)に入力する際に、観察データ入力UI410によって表示される表示画面の一例である。図4の観察データ入力画面510は、例えば、図3に示したデータ表示画面500においてボタン507がクリックされたことを契機としてポップアップ表示される。
ここで、本実施の形態において入力可能な観察情報は特定の情報に限定されるものではない。例えば、図4の場合、ドロップダウンメニューのモード欄511で「Flow mode」が選択されることで、観察データ入力画面510は、「人流」に着目した観察情報を入力するための画面となっている。
観察データ入力画面510の場合、表示領域512には、図3の表示領域504と同様に、データ表示画面500で選択されたエリアの情報が表示出力されており、そのなかで、センサ10(図4の場合はカメラ)のセンサ視野513も表示されている。表示領域512等には、専用の入力デバイスを用いて、分析者が環境情報を書き込むことができるとする。
このとき、観察データ入力画面510に対する具体的な観察情報の入力として例えば、フロア上を移動する人物を追尾・観察しながら動線を記載することで(軌跡514)、カメラの視野(センサ視野513)から外れた特定の人物の行動をも入力することができる。さらには、上記人物の属性について、カメラ等では取得が困難な情報も、観察情報として入力することが可能とする(基礎情報欄516)。またさらに、上記人物の軌跡514のなかに、所定エリア内の滞留時間を示す情報や会話の内容を示す情報等も入力することができるとする(詳細情報515)。
この他、備考欄517には、表示領域512や基礎情報欄516等に記入できない観察情報を補足記載することができる。そして、ボタン518がクリックされると、観察データ入力画面510に入力された観察情報が保存され、観察データ入力部41は、これらの入力された観察情報を観察データ140としてデータ統合部42に出力する。そしてデータ統合部42は、観察データ140をフィールドデータ110に統合することによって、統合データ120を生成・出力する。
図5は、観察情報を入力する画面の別例を示す図である。図5に示した観察データ入力画面520は、図4の観察データ入力画面510と同様、分析者によって得られた観察情報(観察データ)を入力する際の観察データ入力UI410による表示画面の一例であるが、図4の観察データ入力画面510とは異なる視点による観察情報を入力することができる。具体的には、図5の場合、ドロップダウンメニューのモード欄521で「Area mode」が選択されることで、観察データ入力画面520は、「エリア」に着目した観察情報を入力するための画面となっている。
観察データ入力画面520の場合、表示領域522には、図4の表示領域512と同様に、データ表示画面500で選択されたエリアの情報が表示出力されており、そのなかで、センサ10(図5の場合はカメラ)のセンサ視野523が表示されている。そして、表示領域522等には、専用の入力デバイスを用いて、分析者が環境情報を書き込むことができるとする。
このとき、観察データ入力画面520に対する具体的な観察情報の入力として例えば、分析者が、特定の時間帯や条件等(基礎情報526)において、特定のエリア(対象エリア524)を総括した情報を、テキスト形式のメモで入力することを可能としている(詳細情報525)。図5に示すように、詳細情報525には、滞留混雑の状況やエレベータの利用状況等のようにカメラ等のセンサ10では取得困難な情報を含めることができる。この他、備考欄527には、表示領域522や基礎情報526等に記入する場所がない観察情報を補足記載することができる。
また、図4の観察データ入力画面520では、ポップアップ表示される追加入力画面529において、エリアに着目した観察情報を更に入力することができる。図4の場合、追加入力画面529には、エリアごと(Area1~Area3)のエリア座標、人流、平均滞留時間、密度がまとめられており、センサ10によって取得したフィールドの定量的な情報が記載されている。そして、この追加入力画面529では、上記の定量的な情報に加えて、未記入欄(斜線部分)に、一定の尺度で観察情報を追加入力することができる。ここで一定の尺度とは、所定の程度を表現可能なものであり、具体的には例えば、人流の未記入欄に「混雑:大」と記載する等を意味する。本実施の形態では、上記の一定の尺度に基づく観察情報の入力は、分析者によって直接入力されるようにしてもよいし、あるいは、詳細情報525等の入力内容に基づく変換処理が行われて自動的に入力されるようにしてもよい。なお、追加入力画面529のポップアップ表示は、所定の操作を契機として行われ、例えばボタン528がクリックされた場合に表示される。
以上、図4,図5を参照しながら説明したように、本実施の形態では、観察情報の入力によって、センサ10によるフィールドデータ110の取得範囲以外(すなわちセンサ対象外)の領域の状況も、詳細に記録することができる。
次に、提示データ(統合データ120,分析データ130)の出力について具体例を挙げて説明する。
前述したように、パタン解析支援部40は、観察データ入力UI410で人物行動(例えば人流)やエリアに注目した観察情報が入力されることにより、分析者(観察者)の考察や目視等で確認される特徴的な情報(観察データ140)を取得することができる。そして、データ分析部43が、この観察データ140をフィールドデータ110に統合した統合データ120について、所定の処理を行って集約することにより、より詳細な第2の分析を行うことができ、データ提示部44が、その分析情報を提示データとして出力することができる。
図6は、提示データの表示画面の一例を示す図である。図6に示した提示データ表示画面530は、データ提示部44が統合データ120の分析情報(分析データ130)を分析者/ユーザ50に提示する際に、データ提示UI440によって表示される表示画面の一例である。図6の提示データ表示画面530は、図3で例示したデータ表示画面500と同様の画面構成を有しており、共通する画面構成については説明を省略する。提示データ表示画面530は、例えば、パタン解析支援部40による処理の進行に応じて、適宜データ表示画面500から遷移して表示されると考えてよい。
提示データ表示画面530では、ユーザ(または分析者)が選択したエリアの情報が表示される表示領域531において、観察情報が入力されて一定レベル以上の情報を持つ注目エリアにアイコン532,534が表示されている。
アイコン532が選択された場合、当該注目エリアに関して観察情報の入力者がメモ等で記載したドキュメント(詳細情報525や備考欄517,527等)から推測される気付きを、例えば頻度順に整列して表示することができる(特徴情報533)。
ここで、上記「気づき」の表示は、データ分析部43による第2の分析のなかで、テキストを単語レベルに分解し、所定の期間や条件で統計データとして集約することによって可能となる。別例として、統計データとして全般的(全期間的)なデータを集約した場合には、全時間帯に共通する気付きを表示することができるし、そのうちから休日のデータだけを別途集約した場合には、休日ならではの気付きを集約することもできる。
また、やや広めのエリアにおける通行量や属性情報等を統計データとして集約することも可能である。このような集約を行った場合の具体例として、例えばアイコン534が選択されると、拡張エリア535における通行量(属性A)や他の属性情報(属性B)等を、注目エリア情報536にグラフ表示することができる。また、別の方法として、拡張エリア535のように所望のエリアを選択することによって、注目するエリアだけのデータを注目エリア情報536に表示させるようにすることもできる。
次に、データ提示の別の例を説明する。図7は、提示データの表示画面の別例を示す図である。図7に示した提示データ表示画面540では、人物等の属性(人物の属性情報)に着目した際の移動情報が表示される。
ここで、「人物の属性情報」とは、観察情報でしか理解できない人物の属性情報であり、具体的には例えば、見た目では分からない国籍等や、ユーザごとに定義されたペルソナと呼ぶ独自のカテゴリに沿った分類等が挙げられる。この他にも、対象フィールドが店舗であればあるテナントを利用した人、といった具体的なカテゴリを用いてもよい。そして、上記のような所定の属性を有する人物が、例えばどのような動線で移動する頻度が多いかといった移動情報が、観察データ140を含む詳細な統合データ120を集約して分析処理した結果による提示データとして表示される。
具体的には、図7に示した提示データ表示画面540の場合、表示領域541において、選択された属性(属性A)を有する人物の移動情報が、矢印542~544で示されている。矢印542~544の太さは、頻度を表している。なお、頻度の表現は、矢印の太さによるものに限定されず、ヒートマップのような色や輝度の濃淡で表現する等、ユーザ設定によってその表現方法を決定することができる。
以上、図6,図7を参照しながら説明したように、本実施の形態では、第2の分析において統計データを集約する期間や条件は様々な設定が可能であり、設定の選択肢をシステム上で事前に設定することにより、観察対象ごとの課題に合わせた設計が可能である。そして、これらの設計に応じて第2の分析が行われた結果が提示データ表示画面530に表示されることにより、分析者/ユーザ50は、提示データに表示される情報(「気付き」や「移動情報」等)から、人物の行動パタンの特徴を認識したり、行動パタンの分析指針が適切であるかを検討したりすることができる。
次に、分析指針の修正入力(分析指針のパラメータ変更)について詳しく説明する。
図8は、分析指針のパラメータを変更する入力画面の一例を示す図である。図8に示したパラメータ変更画面550は、提示データとして表示された分析データ130や統合データ120を利用して、センサ10によるフィールドデータ110の取得に関する分析指針のパラメータを修正する際に、分析指針入力UI450によって表示される表示画面の一例である。図8のパラメータ変更画面550は、例えば、図3に示したデータ表示画面500において所定の設定ボタンがクリックされたことを契機として表示される。
具体的には、パラメータ変更画面550において表示領域551には、図6の表示領域531や図7の表示領域541と同様に提示データの情報が表示されており、これらの提示データを見ながら、分析者/ユーザ50は、所望するパラメータの修正値をパラメータ変更欄552に記入する。
そして、ボタン553がクリックされると、分析指針入力部45が、パラメータ変更欄552に記入されたパラメータの修正値(分析指針の変更要求)をパラメータ変更部46に送り、パラメータ変更部46が、当該修正値に基づいて修正パラメータ150を生成する。この修正パラメータ150に基づいて、フィールドデータ生成部20は、フィールドデータ110を生成する際に用いる分析指針を修正することができ、以後のサイクルから反映される。
(4)まとめ
以上に説明してきたように、本実施の形態に係る行動パタン分析支援システム1によれば、センサ10から取得して集約したフィールドデータ110に対して、観察データ140の入力を可能とし、入力された観察データ140をフィールドデータ110に統合した統合データ120に対して詳細な分析をするとともに、その分析結果に基づいて、フィールドデータ取得の観点を変更(修正)可能にすることで、行動パタン分析の対象となる空間への分析指針を、より好適なものに発展させることができる。
かくして、本実施の形態に係る行動パタン分析支援システム1によれば、フィールド内を利用する人物等の状況理解のために、計測されたデータ(フィールドデータ110)を活用し、さらにフィールド内で観察等によって取得したデータ(観察データ140)を前述のデータに統合することによって、データ分析に対して深い洞察を得られるものである。さらに、人物によるデータ分析の指針を対話的に入力することによって、既設のセンサ10によるデータ計測を進化させることで、更なるデータ分析の精度や分析項目の網羅性を向上させることに期待できる。
すなわち、本実施の形態に係る行動パタン分析支援システム1によれば、ユーザによるデータ分析(行動パタン分析)の指針を対話的に入力可能にし、既設のセンサ10によって取得したフィールドデータ110に対して、より精緻な行動パタン分析ができるように支援することができる。
なお、本実施の形態では、観察情報の入力やパラメータの変更値の入力といった分析者/ユーザ50による入力について、PC上の画面入力等によって行うプロセスを用いて説明してきたが、分析者/ユーザ50による入力プロセスはこれに限定されるものではなく、他のプロセスによってもよい。具体的には例えば、タブレット端末による現地でのリアルタイム入力を可能としてもよいし、紙面への記入を基にして、当該紙面をスキャニングによってデータ化するようなプロセス等であってもよい。
以上に詳述した本発明の一実施の形態からも分かるように、本発明は、センサで取得した人物の軌跡データや統計データ等の定量的な情報であるフィールドデータの分析において、エスノグラフィー調査のような現場観察や人間行動観察の情報を有効活用することで、フィールドデータに対してより精緻で深い洞察を得られるようにするものである。さらに本発明は、センサでの計測手段も状況に応じて変更できるものとし、またさらに、変更後に取得されるフィールドデータに基づいて、現場観察の方法も改善することができる。このように、本発明は、フィールドデータ分析の指針や方法等について、行動パタン分析支援装置(あるいは行動パタン分析支援システム)によるデータ分析と、観察者(分析者/ユーザ)による洞察とを対話的に繰り返すことができるものであり、この繰り返しによって、フィールドへの理解をより豊かにしていくとともに、行動パタン分析のためにより有効な情報を得られるようになる。
なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、各図面において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実施には殆ど全ての構成が相互に接続されていると考えてもよい。
1 行動パタン分析支援システム
10 センサ
20 フィールドデータ生成部
21 フィールドデータ取得部
22 データ集約部
30 データ格納部
31 フィールドデータ格納部
32 統合データ格納部
33 分析データ格納部
40 パタン解析支援部
41 観察データ入力部
42 データ統合部
43 データ分析部
44 データ提示部
45 分析指針入力部
46 パラメータ変更部
50 分析者/ユーザ
110 フィールドデータ
120 統合データ
130 分析データ
140 観察データ
150 修正パラメータ
200 データ取得計画
400 共通UI
410 観察データ入力UI
440 データ提示UI
450 分析指針入力UI

Claims (11)

  1. 所定のフィールドにおける移動物体の行動パタンの分析を支援する行動パタン分析支援装置であって、
    前記フィールド内の自身の検知範囲における前記移動物体の行動を計測するセンサによる計測データを取得及び集約し、前記集約したデータに対して、予め定められた分析指針に基づく第1の分析処理を実行することにより、前記フィールドにおける前記移動物体の行動に関する統計的な情報を示すフィールドデータを生成するフィールドデータ生成部と、
    前記フィールドデータを拡張し分析するパタン解析支援部と、
    を備え、
    前記パタン解析支援部は、
    ユーザによる前記センサの検知範囲以外を含む前記フィールドの観察に基づく観察データを入力する観察データ入力部と、
    前記フィールドデータに前記観察データを統合した統合データを生成するデータ統合部と、
    前記統合データに対して、前記観察データに応じて分析内容を変化可能な第2の分析処理を実行することにより、前記観察データで着目された特定エリアにおける前記移動物体の行動に関連する特徴情報を含む分析データを生成するデータ分析部と、
    前記統合データまたは前記分析データをユーザ側に提示するデータ提示部と、
    を有する
    ことを特徴とする行動パタン分析支援装置。
  2. 前記フィールドデータ生成部は、前記フィールドデータを生成する際に用いる分析指針を変更することができ、当該変更を行った場合は、変更後の前記分析指針を用いて次回の前記フィールドデータを生成する
    ことを特徴とする請求項1に記載の行動パタン分析支援装置。
  3. 前記パタン解析支援部は、
    ユーザによる前記分析指針の変更要求を入力する分析指針入力部と、
    前記分析指針入力部に入力された前記変更要求に応じて、前記分析指針の修正パラメータを生成するパラメータ変更部と、
    をさらに有し、
    前記フィールドデータ生成部は、前記パラメータ変更部で生成された前記修正パラメータに基づいて前記分析指針を変更する
    ことを特徴とする請求項2に記載の行動パタン分析支援装置。
  4. 前記フィールドデータ生成部による処理と、前記パタン解析支援部による処理とが、交互に繰り返される
    ことを特徴とする請求項3に記載の行動パタン分析支援装置。
  5. 前記観察データ入力部に入力される前記観察データは、前記フィールドデータが示す人物の行動に着目した観察に基づいて得られる第1の前記観察データ、または前記フィールドデータを取得した対象エリア内の特定エリアに着目した観察に基づいて得られる第2の前記観察データのうちから、少なくとも1つを選択可能とする
    ことを特徴とする請求項1に記載の行動パタン分析支援装置。
  6. 所定のフィールドにおける移動物体の行動パタンの分析を支援する行動パタン分析支援システムであって、
    前記フィールド内の自身の検知範囲における前記移動物体の行動を計測するセンサによる計測データを取得及び集約し、前記集約したデータに対して、予め定められた分析指針に基づく第1の分析処理を実行することにより、前記フィールドにおける前記移動物体の行動に関する統計的な情報を示すフィールドデータを生成するフィールドデータ生成部と、
    前記フィールドデータを拡張し分析するパタン解析支援部と、
    前記フィールドデータ生成部または前記パタン解析支援部で生成されたデータを格納するデータ格納部と、
    を備え、
    前記パタン解析支援部は、
    ユーザによる前記センサの検知範囲以外を含む前記フィールドの観察に基づく観察データを入力する観察データ入力部と、
    前記フィールドデータに前記観察データを統合した統合データを生成するデータ統合部と、
    前記統合データに対して、前記観察データに応じて分析内容を変化可能な第2の分析処理を実行することにより、前記観察データで着目された特定エリアにおける前記移動物体の行動に関連する特徴情報を含む分析データを生成するデータ分析部と、
    前記統合データまたは前記分析データをユーザ側に提示するデータ提示部と、
    を有する
    ことを特徴とする行動パタン分析支援システム。
  7. 所定のフィールドにおける移動物体の行動パタンの分析を支援する行動パタン分析支援装置による行動パタン分析支援方法であって、
    前記行動パタン分析支援装置が、前記フィールド内の自身の検知範囲における前記移動物体の行動を計測するセンサによる計測データを取得及び集約し、前記集約したデータに対して、予め定められた分析指針に基づく第1の分析処理を実行することにより、前記フィールドにおける前記移動物体の行動に関する統計的な情報を示すフィールドデータを生成するフィールドデータ生成ステップと、
    前記行動パタン分析支援装置が、ユーザによる前記センサの検知範囲以外を含む前記フィールドの観察に基づく観察データを入力可能な観察データ入力ステップと、
    前記行動パタン分析支援装置が、前記フィールドデータ生成ステップで生成された前記フィールドデータと前記観察データ入力ステップで入力された前記観察データとを統合して統合データを生成するデータ統合ステップと、
    前記行動パタン分析支援装置が、前記データ統合ステップで生成された前記統合データに対して、前記観察データに応じて分析内容を変化可能な第2の分析処理を実行することにより、前記観察データで着目された特定エリアにおける前記移動物体の行動に関連する特徴情報を含む分析データを生成するデータ分析ステップと、
    前記行動パタン分析支援装置が、前記データ統合ステップで生成された前記統合データまたは前記データ分析ステップで生成された前記分析データをユーザ側に提示するデータ提示ステップと、
    を備えることを特徴とする行動パタン分析支援方法。
  8. 前記行動パタン分析支援装置は、前記フィールドデータ生成ステップで前記フィールドデータを生成する際に用いる分析指針を変更することができ、
    前記分析指針を変更した場合は、前記フィールドデータ生成ステップにおいて前記行動パタン分析支援装置は、変更後の前記分析指針を用いて前記フィールドデータを生成する
    ことを特徴とする請求項7に記載の行動パタン分析支援方法。
  9. 前記データ提示ステップの後に、
    前記行動パタン分析支援装置が、ユーザによる前記分析指針の変更要求を入力可能な分析指針入力ステップと、
    前記行動パタン分析支援装置が、前記分析指針入力ステップで入力された前記変更要求に応じて、前記分析指針の修正パラメータを生成し、当該修正パラメータに基づいて前記分析指針を変更するパラメータ変更ステップと、
    をさらに備える
    ことを特徴とする請求項8に記載の行動パタン分析支援方法。
  10. 前記行動パタン分析支援装置が、前記フィールドデータ生成ステップにおける処理と、前記観察データ入力ステップ、前記データ統合ステップ、前記データ提示ステップ、前記分析指針入力ステップ、及び前記パラメータ変更ステップにおける各処理とを、交互に繰り返す
    ことを特徴とする請求項9に記載の行動パタン分析支援方法。
  11. 前記観察データ入力ステップで入力可能な前記観察データは、前記フィールドデータが示す人物の行動に着目した観察に基づいて得られる第1の前記観察データ、または前記フィールドデータを取得した対象エリア内の特定エリアに着目した観察に基づいて得られる第2の前記観察データのうちから、少なくとも1つを選択可能とする
    ことを特徴とする請求項7に記載の行動パタン分析支援方法。
JP2018246788A 2018-12-28 2018-12-28 行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法 Active JP7343973B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018246788A JP7343973B2 (ja) 2018-12-28 2018-12-28 行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018246788A JP7343973B2 (ja) 2018-12-28 2018-12-28 行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法

Publications (2)

Publication Number Publication Date
JP2020107171A JP2020107171A (ja) 2020-07-09
JP7343973B2 true JP7343973B2 (ja) 2023-09-13

Family

ID=71449196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018246788A Active JP7343973B2 (ja) 2018-12-28 2018-12-28 行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法

Country Status (1)

Country Link
JP (1) JP7343973B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012096175A1 (ja) 2011-01-14 2012-07-19 日本電気株式会社 行動パタン解析装置、行動パタン解析方法および行動パタン解析プログラム
JP2013131170A (ja) 2011-12-22 2013-07-04 Hitachi Ltd 行動属性分析方法および装置
JP2015225128A (ja) 2014-05-26 2015-12-14 株式会社Nttドコモ 提示システム、提示装置、及び提示方法
WO2015190611A1 (ja) 2014-06-14 2015-12-17 株式会社ウィリルモバイル マーケティングシステム及びマーケティング方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012096175A1 (ja) 2011-01-14 2012-07-19 日本電気株式会社 行動パタン解析装置、行動パタン解析方法および行動パタン解析プログラム
JP2013131170A (ja) 2011-12-22 2013-07-04 Hitachi Ltd 行動属性分析方法および装置
JP2015225128A (ja) 2014-05-26 2015-12-14 株式会社Nttドコモ 提示システム、提示装置、及び提示方法
WO2015190611A1 (ja) 2014-06-14 2015-12-17 株式会社ウィリルモバイル マーケティングシステム及びマーケティング方法

Also Published As

Publication number Publication date
JP2020107171A (ja) 2020-07-09

Similar Documents

Publication Publication Date Title
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US8577087B2 (en) Adjusting a consumer experience based on a 3D captured image stream of a consumer response
JP5227911B2 (ja) 監視映像検索装置及び監視システム
CN104811660B (zh) 控制装置及控制方法
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
JP5319260B2 (ja) 作業モニタリング装置
US20110243397A1 (en) Searching digital image collections using face recognition
US20060090141A1 (en) Method and system for browsing large digital multimedia object collections
JP2007267294A (ja) 複数カメラを用いた移動物体監視装置
JP6852293B2 (ja) 画像処理システム、情報処理装置、情報端末、プログラム
US20180150683A1 (en) Systems, methods, and devices for information sharing and matching
US20210240454A1 (en) System and method for creating a process flow diagram which incorporates knowledge of the technical implementations of flow nodes
JP6575845B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP5768265B2 (ja) 類似画像検索システム
JP2021507436A5 (ja)
JP2019176378A (ja) 制御装置、監視システム、及び監視カメラ制御方法
CN110709857A (zh) 人数管理设备、人数管理方法以及程序
JP7343973B2 (ja) 行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法
JP2009086952A (ja) 情報処理システム及び情報処理プログラム
JP5826513B2 (ja) 類似画像検索システム
Guduru et al. Prediction framework for upper body sedentary working behaviour by using deep learning and machine learning techniques
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
JP2017028688A (ja) 画像管理装置、画像管理方法及びプログラム
US11917289B2 (en) System and method for interactive feedback in data collection for machine learning in computer vision tasks using augmented reality
WO2024014293A1 (ja) 送信装置、受信装置、情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230901

R150 Certificate of patent or registration of utility model

Ref document number: 7343973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150