JP2019185237A - 解析システム - Google Patents
解析システム Download PDFInfo
- Publication number
- JP2019185237A JP2019185237A JP2018072889A JP2018072889A JP2019185237A JP 2019185237 A JP2019185237 A JP 2019185237A JP 2018072889 A JP2018072889 A JP 2018072889A JP 2018072889 A JP2018072889 A JP 2018072889A JP 2019185237 A JP2019185237 A JP 2019185237A
- Authority
- JP
- Japan
- Prior art keywords
- data
- analysis
- image
- person
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 405
- 238000007405 data analysis Methods 0.000 claims abstract description 46
- 238000013480 data collection Methods 0.000 claims abstract description 15
- 239000000284 extract Substances 0.000 claims description 4
- 230000003542 behavioural effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 96
- 238000000034 method Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 23
- 238000007781 pre-processing Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】解析精度を向上することができる解析システムを提供することを目的とする。【解決手段】解析システム1は、移動体Vに搭載され、当該移動体Vの移動に伴って撮像された当該移動体Vの外部の画像を表す第1画像データ、及び、移動体Vの外部の画像が撮像された位置を表す第1位置データを含む第1解析用データを収集する移動体解析データ収集装置10と、移動体解析データ収集装置10によって収集された第1解析用データに基づいて、第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析するデータ解析装置20とを備える。【選択図】図1
Description
本発明は、解析システムに関する。
従来の解析システムとして、例えば、特許文献1には、集計装置が開示されている。この集計装置は、第1〜第3の撮影装置によって撮影された画像データに基づいて、店舗付近の通行人の人数、店舗へ入店する人数、店舗内において商品を購入する人数を検出し、それぞれ検出した人数を所定の時間単位別に集計する。
ところで、上述のような解析システムは、例えば、解析精度の向上の点で更なる改善の余地がある。
本発明は、上記の事情に鑑みてなされたものであって、解析精度を向上することができる解析システムを提供することを目的とする。
上記目的を達成するために、本発明に係る解析システムは、移動体に搭載され、当該移動体の移動に伴って撮像された当該移動体の外部の画像を表す第1画像データ、及び、前記移動体の外部の画像が撮像された位置を表す第1位置データを含む第1解析用データを収集する移動体解析データ収集装置と、前記移動体解析データ収集装置によって収集された前記第1解析用データに基づいて、前記第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析するデータ解析装置とを備えることを特徴とする。
また、上記解析システムでは、前記データ解析装置は、前記第1画像データが表す複数の画像から人物の属性を特定可能である当該人物の特徴点を含む画像を抽出し、当該抽出した画像に基づいて当該画像に含まれる人物の属性を解析するものとすることができる。
また、上記解析システムでは、前記移動体解析データ収集装置は、さらに、前記移動体の内部の画像を表す第2画像データ、及び、前記移動体の内部の画像が撮像された位置を表す第2位置データを含む第2解析用データを収集し、前記データ解析装置は、さらに、前記移動体解析データ収集装置によって収集された前記第2解析用データに基づいて、前記第2画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析するものとすることができる。
また、上記解析システムでは、路上に設置された固定体に搭載され、当該固定体に搭載された状態で撮像された当該固定体の外部の画像を表す第3画像データ、及び、前記固定体の外部の画像が撮像された位置を表す第3位置データを含む第3解析用データを収集する固定体解析データ収集装置を備え、前記データ解析装置は、さらに、前記固定体解析データ収集装置によって収集された前記第3解析用データに基づいて、前記第3画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析するものとすることができる。
また、上記解析システムでは、前記移動体は、予め定められた経路を繰り返し走行するものであるものとすることができる。
また、上記解析システムでは、前記データ解析装置は、当該データ解析装置によって解析された解析結果を表す解析結果データを蓄積する記憶部を含むものとすることができる。
また、上記解析システムでは、前記データ解析装置によって解析される人物の属性は、性別、年齢、体格、社会的地位、嗜好、又は、行動志向を含むものとすることができる。
本発明に係る解析システムは、データ解析装置によって第1解析用データに基づいて第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析することができる。この場合に、解析システムは、第1解析用データを構成する第1画像データ、及び、第1位置データを、移動体に搭載された移動体解析データ収集装置によって移動体の移動に伴って収集することができる。この結果、この解析システムは、データ解析装置による解析に用いることができる第1解析用データの収集量を相対的に多く確保することができるので、解析精度を向上することができる、という効果を奏する。
以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
[実施形態1]
図1に示す本実施形態の解析システム1は、移動体解析データ収集装置としての記録装置10と、データ解析装置としての解析装置20とを備え、解析装置20によって解析された解析結果データをクライアント端末CLに提供するシステムである。本実施形態の解析装置20は、記録装置10によって収集される画像に基づいて人物の属性、及び、当該属性が特定された人物の人流を解析する。そしてこの場合に、解析システム1は、解析装置20による解析に用いる解析用データを収集するための装置として、移動体Vに搭載された記録装置10を活用することで、解析精度の向上を図ったものである。以下、各図を参照して解析システム1の構成について詳細に説明する。
図1に示す本実施形態の解析システム1は、移動体解析データ収集装置としての記録装置10と、データ解析装置としての解析装置20とを備え、解析装置20によって解析された解析結果データをクライアント端末CLに提供するシステムである。本実施形態の解析装置20は、記録装置10によって収集される画像に基づいて人物の属性、及び、当該属性が特定された人物の人流を解析する。そしてこの場合に、解析システム1は、解析装置20による解析に用いる解析用データを収集するための装置として、移動体Vに搭載された記録装置10を活用することで、解析精度の向上を図ったものである。以下、各図を参照して解析システム1の構成について詳細に説明する。
記録装置10は、解析装置20による解析に用いる第1解析用データを収集するものである。第1解析用データは、画像を表す第1画像データ、及び、当該画像が撮像された位置を表す第1位置データを含むデータである。本実施形態の記録装置10は、移動体Vに搭載される。記録装置10が搭載される移動体Vは、典型的には、路面を走行する車両であり、例えば、自家用車、レンタカー、シェアリングカー、ライドシェアカー、バス、タクシー、トラック、輸送車、作業車等のいずれであってもよい。記録装置10は、典型的には、複数の移動体Vにそれぞれ搭載される。つまり、本実施形態の解析システム1は、複数の移動体Vにそれぞれ搭載された複数の記録装置10を備え、当該複数の記録装置10から解析用データを収集することが可能である。複数の記録装置10の少なくとも一部は、予め定められた経路を繰り返し走行する車両、例えば、路線バスや長距離輸送用トラック等に搭載されることが好ましい。そして、記録装置10は、第1解析用データとして、移動体Vの移動に伴って撮像された当該移動体Vの外部の画像を表す第1画像データ、及び、移動体Vの外部の画像が撮像された位置を表す第1位置データを収集する。記録装置10は、例えば、移動体Vに搭載されるいわゆるドライブレコーダ等の車載機器を用いることができるがこれに限らない。
具体的には、記録装置10は、外部カメラ11と、位置情報測定器12と、データ入出力部13と、制御部14とを備える。
外部カメラ11は、移動体Vの外部の画像を撮像する外部撮像装置である。外部カメラ11は、移動体Vの移動に伴って当該移動体Vの外部の画像を撮像し、当該移動体Vの外部の画像を表す第1画像データを収集する。外部カメラ11は、典型的には、移動体Vの外部の動画像を撮像する。外部カメラ11は、解析システム1による解析対象である人物、ここでは、移動体Vの外部の路上に位置する人物を撮像可能な画角となるように移動体Vに設置される。外部カメラ11は、移動体Vから路上の人物をより好適に撮像可能なように、移動体Vの前部、側部、後部、屋根部等に複数設けられてもよい。外部カメラ11は、単眼カメラであってもよいし、ステレオカメラであってもよい。また、外部カメラ11が撮像する画像は、モノクロであってもよいしカラーであってもよい。外部カメラ11は、制御部14と通信可能に接続されており、収集した第1画像データを制御部14に出力する。
位置情報測定器12は、移動体Vの現在位置を測定する測位器である。位置情報測定器12は、例えば、GPS(Global Positioning System))衛星から送信される電波を受信するGPS受信器等を用いることができる。位置情報測定器12は、GPS衛星から送信される電波を受信し移動体Vの現在位置を表す情報としてGPS情報(緯度経度座標)を取得することで、移動体Vの外部の画像が撮像された位置を表す第1位置データを収集する。位置情報測定器12は、制御部14と通信可能に接続されており、収集した第1位置データを制御部14に出力する。
データ入出力部13は、記録装置10とは異なる機器と当該記録装置10との間で各種データを入出力するものである。本実施形態のデータ入出力部13は、記録装置10とは異なる機器である解析装置20に対して、第1解析用データを出力可能である。データ入出力部13は、例えば、ネットワークを介した通信(有線、無線を問わない)によって、記録装置10とは異なる機器との間でデータを入出力する構成であってもよい。また、データ入出力部13は、例えば、スロット部を有し当該スロット部に差し込まれた記録媒体を介して、記録装置10とは異なる機器との間でデータを入出力する構成であってもよい。ここで、記録媒体は、例えば、スロット部を介して記録装置10に脱着可能なメモリ(リムーバブルメディア)である。記録媒体は、例えば、様々な形式のメモリカード、例えばSDカードなどを用いることができるがこれに限らない。
制御部14は、記録装置10の各部を統括的に制御するものである。制御部14は、第1解析用データを収集するための種々の演算処理を実行する。制御部14は、CPU(Central Processing Unit)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、インターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御部14は、外部カメラ11、位置情報測定器12、データ入出力部13等の各部と通信可能に接続され、各部との間で相互に各種信号、データを授受可能である。
より具体的には、制御部14は、記憶部14A、及び、処理部14Bを含んで構成される。記憶部14A、及び、処理部14Bは、各部との間で相互に各種信号、データを授受可能である。記憶部14Aは、処理部14Bでの各種処理に必要な条件や情報、制御部14で実行する各種プログラムやアプリケーション、制御データ等が格納されている。記憶部14Aは、第1解析用データを、収集した時刻等と共に記憶することができる。言い換えれば、第1解析用データは、当該データを収集した時刻を表す時刻データやその他のデータも含む。記憶部14Aは、例えば、処理部14Bによる処理の過程で生成される各種データを一時的に記憶することもできる。記憶部14Aは、処理部14B、データ入出力部13等によってこれらのデータが必要に応じて読み出される。記憶部14Aは、例えば、ハードディスク、SSD(Solid State Drive)、光ディスクなどの比較的に大容量の記憶装置、あるいは、RAM、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。処理部14Bは、各種入力信号等に基づいて、記憶部14Aに記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する。処理部14Bは、外部カメラ11、位置情報測定器12の動作を制御し、第1画像データ、第1位置データを含む第1解析用データを収集する処理を実行する。また、処理部14Bは、データ入出力部13を介したデータの入出力に関わる処理を実行する。処理部14Bは、例えば、第1解析用データを、データ入出力部13を介して解析装置20に出力する処理を実行する。
解析装置20は、記録装置10によって収集された第1解析用データを解析し、解析結果を表す解析結果データをクライアント端末CLに提供するものである。解析装置20、及び、クライアント端末CLは、ネットワーク上に実装されるいわゆるクラウドサービス型の装置(クラウドサーバ)を構成してもよいし、ネットワークから切り離されたいわゆるスタンドアローン型の装置を構成してもよい。解析装置20は、記録装置10によって収集された第1解析用データに基づいて、当該第1解析用データを構成する第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する。本実施形態の解析装置20は、当該人物の属性を表す人物属性データ、及び、当該属性が特定された人物の人流を表す属性別人流データを生成する。そして、解析装置20は、人物属性データ、及び、属性別人流データを含む解析結果データをクライアント端末CLに提供する。
解析装置20は、第1解析用データに基づいて人物の属性、及び、人物の人流を解析するための種々の演算処理を実行する。解析装置20は、CPU等の中央演算処理装置、ROM、RAM、及び、インターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。解析装置20は、既知のPCやワークステーションなどのコンピュータシステムに下記で説明する種々の処理を実現させるアプリケーションをインストールすることで構成することもできる。
具体的には、解析装置20は、データ入出力部21と、記憶部22と、処理部23とを備える。データ入出力部21、記憶部22、及び、処理部23は、各部との間で相互に各種信号、データを授受可能である。
データ入出力部21は、解析装置20とは異なる機器と当該解析装置20との間で各種データを入出力するものである。本実施形態のデータ入出力部21は、解析装置20とは異なる機器である記録装置10から第1解析用データを入力可能である。さらに、本実施形態のデータ入出力部21は、解析装置20とは異なる機器であるクライアント端末CLに対して解析結果データを出力可能である。データ入出力部21は、データ入出力部13と同様に、例えば、ネットワークを介した通信(有線、無線を問わない)によって、解析装置20とは異なる機器との間でデータを入出力する構成であってもよい。同様に、データ入出力部21は、例えば、スロット部を有し当該スロット部に差し込まれた記録媒体を介して、解析装置20とは異なる機器との間でデータを入出力する構成であってもよい。
記憶部22は、処理部23での各種処理に必要な条件や情報、処理部23で実行する各種プログラムやアプリケーション、制御データ等が格納されている。記憶部22は、データ入出力部21によって入力された第1解析用データを記憶することができる。記憶部22は、例えば、処理部23による処理の過程で生成される各種データを一時的に記憶することもできる。記憶部22は、データ入出力部21、処理部23等によってこれらのデータが必要に応じて読み出される。記憶部22は、例えば、ハードディスク、SSD、光ディスクなどの比較的に大容量の記憶装置、あるいは、RAM、フラッシュメモリ、NVSRAMなどのデータを書き換え可能な半導体メモリであってもよい。
より具体的には、記憶部22は、機能概念的に、解析対象データベース(以下、「解析対象DB」と略記する。)22A、解析参照データベース(以下、「解析参照DB」と略記する。)22B、及び、解析結果データベース(以下、「解析結果DB」と略記する。)22Cを含んで構成される。
解析対象DB22Aは、処理部23による解析対象データである第1解析用データ(第1画像データ、第1位置データ、時刻データ等)を蓄積しデータベース化して記憶する部分である。記録装置10からデータ入出力部21に入力された第1解析用データは、この解析対象DB22Aに記憶される。
解析参照DB22Bは、処理部23による第1解析用データの解析の際に参照する解析参照データを蓄積しデータベース化して記憶する部分である。解析参照データは、例えば、地図参照データ、属性予測参照データ等を含む。地図参照データは、第1位置データ等に基づいて移動体Vの位置、言い換えれば、移動体Vの外部の画像が撮像された位置を特定する際に参照する地図を表すデータである。属性予測参照データは、第1画像データが表す画像に含まれる人物の属性の推定等に参照するデータである。属性予測参照データについては、後で詳細に説明する。解析参照データは、処理部23によって第1解析用データの解析の際に参照される。
解析結果DB22Cは、処理部23による第1解析用データの解析結果を表す解析結果データを蓄積しデータベース化して記憶する部分である。解析結果データは、例えば、第1画像データが表す画像に含まれる人物の属性を表す人物属性データ、及び、属性が特定された人物の人流を表す属性別人流データ等を含む。解析結果データは、処理部23によって所望の形式に加工されて、データ入出力部21からクライアント端末CLに出力、提供される。
なお、解析対象DB22A、解析参照DB22B、解析結果DB22Cに記憶される各種データは、いわゆるビッグデータ(big data)として活用することができる。
処理部23は、各種入力信号等に基づいて、記憶部22に記憶されている各種プログラムを実行し、当該プログラムが動作することにより第1解析用データを解析するための種々の処理を実行する。また、処理部23は、解析結果データを所望の形式に加工する処理を実行する。また、処理部23は、データ入出力部21を介したデータの入出力に関わる処理を実行する。処理部23は、例えば、所望の形式に加工された解析結果データを、データ入出力部21を介してクライアント端末CLに出力する処理を実行する。
より具体的には、処理部23は、機能概念的に、データ前処理部23A、データ解析処理部23B、及び、データ加工処理部23Cを含んで構成される。
データ前処理部23Aは、解析対象データである第1解析用データに対して種々の前処理を施す部分である。データ前処理部23Aは、前処理として、例えば、解析対象DB22Aから解析対象データとなる第1解析用データを読み出し、当該第1解析用データに含まれる第1画像データが表す動画像から静止画像を切り出す処理を実行する。また、データ前処理部23Aは、前処理として、例えば、切り出した当該静止画像と、解析対象データとなる第1解析用データに含まれる第1位置データが表す位置とを紐付する処理を実行する。また、データ前処理部23Aは、前処理として、種々の公知の画像処理技術を用いて、切り出した静止画像から人物を検出し抽出する。また、データ前処理部23Aは、第1画像データが表す複数の画像から当該人物の特徴点を含む画像を抽出する処理を実行する。ここで、当該人物の特徴点とは、画像に含まれる人物において当該人物の属性を特定可能な部位である。当該人物の特徴点とは、例えば、当該人物の表情が現われる顔、しぐさ・ジェスチャが現れる手足、アクセサリ等が装着されやすい傾向にある位置等の部位である。本実施形態の第1画像データは、移動体Vに搭載された記録装置10によって当該移動体Vの移動に伴って収集されたものであるため、同一の人物に対して異なる角度から撮像した画像が多数含まれる可能性が高い。このことを利用し、データ前処理部23Aは、移動体Vの移動に伴って異なる角度から撮像された多数の画像から、人物の属性特定に用いることができる当該人物の特徴点が写った画像を抽出することで、人物の属性特定に用いるデータをできる限り多数確保する。
データ解析処理部23Bは、データ前処理部23Aによって前処理が施された第1解析用データに基づいて、第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する部分である。ここでは、データ解析処理部23Bは、例えば、種々の公知の人工知能(Artificial Intelligence)技術や深層学習(Deep Learning)技術を用いて第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する処理を実行可能に構成される。
本実施形態のデータ解析処理部23Bは、データ前処理部23Aによって第1画像データから抽出された人物の特徴点を含む画像に基づいて、当該画像に含まれる人物の属性を解析する。データ解析処理部23Bは、例えば、解析参照DB22Bに記憶されている属性予測参照データ(解析参照データ)と、データ前処理部23Aによって第1画像データから抽出された画像に含まれる人物の特徴点とに基づいて、当該人物の属性を解析する。ここで、属性予測参照データは、人工知能技術や深層学習技術を用いた様々な手法によって、画像に含まれる人物の特徴点等に応じて推定可能な当該人物の属性を学習した結果が反映される情報である。言い換えれば、属性予測参照データは、画像に含まれる人物の特徴点等に基づいて人物の属性を推定するために、人工知能技術や深層学習技術を用いた様々な手法を用いてデータベース化されたデータである。この属性予測参照データは、逐次更新可能である。属性予測参照データは、例えば、データ解析処理部23Bによる解析結果を表す解析結果データ(人物属性データ)自体を学習のためのデータとすることもできる。
データ解析処理部23Bによって解析される人物の属性としては、典型的には、当該人物の外観の特徴点から解析可能な事項、例えば、当該人物の性別、年齢、体格、社会的地位、嗜好、又は、行動志向等を含む。ここで、性別とは、男性、女性の別を表す属性である。年齢とは、生まれてから現在(その時)までの年月の長さを表す属性である。体格とは、身長、体重、各種寸法等を表す属性である。社会的地位とは、職業(自営業、ビジネスマン、警官、学生、無職、アルバイト)、年収、身分、同行者等を表す属性である。嗜好とは、服装・所持品・ファッションの傾向(カジュアル志向、エレガント志向、ブランド志向、高級志向、ファストファッション志向)、趣味(スポーツ/サブカルチャー/アウトドア/美容等)等を表す属性である。行動志向とは、その時点での気分、興味関心(やりたいこと、行きたいところ)等を表す属性である。つまりここでは、データ解析処理部23Bは、人物の属性として、性別、年齢、体格、社会的地位、嗜好、行動志向等を推定する。
データ解析処理部23Bは、属性予測参照データを参照して、画像に含まれる人物の特徴点に対応する属性(性別、年齢、体格、社会的地位、嗜好、又は、行動志向)を抽出し、抽出した属性を当該画像に映り込んだ人物の属性であるものと推定する。データ解析処理部23Bは、例えば、画像に含まれる人物の特徴点である顔の表情、手足のしぐさ・ジェスチャ、装着されているアクセサリや洋服等に応じて、属性予測参照データを参照し、当該特徴点にあう属性をマッチングし、当該人物の性別、年齢、体格、社会的地位、嗜好、行動志向等の属性を推定する。
そしてさらに、データ解析処理部23Bは、人物の属性が特定された画像データに紐付された位置データに基づいて、上記のようにして属性が特定された人物の人流を解析する処理を実行する。データ解析処理部23Bは、例えば、解析対象DB22Aから、人物の属性が特定された第1画像データに紐付された第1位置データを読み出す。そして、データ解析処理部23Bは、解析参照DB22Bに記憶されている地図参照データ(解析参照データ)と、読み出した第1位置データとに基づいて、当該属性が特定された人物の人流を解析する。例えば、データ解析処理部23Bは、地図参照データを参照して、当該第1位置データに基づいて当該画像が撮像された位置を特定する。そして、データ解析処理部23Bは、当該第1位置データが表す位置に基づいて、属性が特定された人物の位置を特定し、これを時系列で並べることで人流を特定する。データ解析処理部23Bによって解析される人物の人流は、典型的には、当該人物の各時間帯における分布、移動方向、移動速度、動きの始点・終点等によって表される。つまりここでは、データ解析処理部23Bは、属性が特定された人物の人流として、当該人物の各時間帯における分布、移動方向、移動速度、動きの始点・終点等を推定する。
データ解析処理部23Bは、第1解析用データを解析した解析結果データとして、上記のように解析した人物の属性を表す人物属性データ、及び、属性が特定された人物の人流を表す属性別人流データを生成する。そして、データ解析処理部23Bは、生成した人物属性データ、及び、属性別人流データを含む解析結果データを解析結果DB22Cに蓄積しデータベース化して記憶させる。
データ加工処理部23Cは、データ解析処理部23Bによって解析された解析結果データを所望の形式に加工する処理を実行する部分である。データ加工処理部23Cは、解析結果データに含まれる人物属性データ、属性別人流データを所望の形式に加工する。データ加工処理部23Cは、例えば、図2に例示するように、人物属性データ、属性別人流データを含む解析結果データを、いつ、どこに、どんな属性の人が何人いたか等を地図上にプロットしたものや各種グラフ、ダイヤグラム等に加工する。そして、処理部23は、データ加工処理部23Cによって所望の形式に加工された解析結果データを、データ入出力部21を介してクライアント端末CLに出力する処理を実行する。クライアント端末CLは、解析装置20から提供された解析結果データを、例えば、商圏調査、マーケティング、広告、防災・都市計画等の各種用途にて利用可能とする端末である。クライアント端末CLは、例えば、ノート型PC、デスクトップ型PC、タブレット型PC、スマートフォン、携帯端末等によって構成される。
次に、図3のフローチャート図を参照し解析システム1における処理の一例を説明する。
まず、記録装置10は、移動体Vの移動に伴って第1画像データ、第1位置データを含む第1解析用データを収集する(ステップS1)。
次に、記録装置10は、収集した第1解析用データを、データ入出力部13を介して出力し、解析装置20のデータ入出力部21を介して解析装置20に入力する(ステップS2)。解析装置20に入力された第1解析用データは、解析対象DB22Aに記憶される。
次に、解析装置20のデータ前処理部23Aは、解析対象DB22Aに記憶されている第1解析用データに対して、上述したような種々の前処理を施す(ステップS3)。
次に、解析装置20のデータ解析処理部23Bは、データ前処理部23Aによって前処理が施された第1解析用データに基づいて、第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する(ステップS4)。
そして、データ解析処理部23Bは、解析結果データとして、人物属性データ、及び、属性別人流データを生成し、解析結果DB22Cに蓄積しデータベース化して記憶させる(ステップS5)。
次に、解析装置20のデータ加工処理部23Cは、クライアント端末CL等からの要求に応じて、解析結果DB22Cに記憶されている解析結果データ(人物属性データ、属性別人流データ)を、図2に例示したような所望の形式に加工する(ステップS6)。
そして、解析装置20の処理部23は、データ加工処理部23Cによって所望の形式に加工された解析結果データを、データ入出力部21を介してクライアント端末CLに出力、提供し(ステップS7)、一連の処理を終了する。
以上で説明した解析システム1は、解析装置20によって第1解析用データに基づいて第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析することができる。この場合に、解析システム1は、第1解析用データを構成する第1画像データ、及び、第1位置データを、移動体Vに搭載された記録装置10によって移動体Vの移動に伴って収集することができる。この構成により、この解析システム1は、記録装置10が移動体Vによって路上を移動しながら第1解析用データを収集することで、例えば、路上に固定されたデータ収集装置によって第1解析用データを収集する場合と比較して、第1解析用データの収集量を飛躍的に多く確保することができる。また、この解析システム1は、第1画像データが記録装置10によって移動体Vの移動に伴って収集されたものであるため、同一の人物に対して異なる角度から撮像した画像を表す第1画像データを多数収集することができる。この結果、この解析システム1は、解析装置20による解析に用いることができる第1解析用データの収集量を相対的に多く確保することができるので、解析精度を向上することができる。
また、解析システム1は、例えば、特定のアプリケーション、記入式のアンケート、特定の人物がまとめた資料等を用いて解析用データを収集するような場合と比較して、データの収集対象となる地域に現実に存在する人物から無作為で属性に偏りの少ない第1解析用データを収集することができる。この点でも、この解析システム1は、解析精度を向上することができる。また、解析システム1は、例えば、個人が所有る携帯端末等から直接的に解析用データを収集するような場合と比較して、相対的に高い匿名性が確保された第1解析用データを収集することができる。これにより、解析システム1は、個人情報保護の観点で、相対的に匿名性の高い解析結果データを得ることができる。
以上で説明した解析システム1は、記録装置10によって移動体Vの移動に伴って異なる角度から撮像された多数の画像から、人物の属性特定に用いることができる当該人物の特徴点を含む画像を抽出することで、人物の属性特定に用いることができるデータをできる限り多数確保することができる。この結果、この解析システム1は、さら解析精度を向上することができる。
また、以上で説明した解析システム1は、記録装置10が搭載される移動体Vとして、予め定められた経路を繰り返し走行するものが含まれることが好ましい。この場合、解析システム1は、定められた経路を繰り返し走行する移動体Vに搭載された記録装置10によって、同一の地域において異なる時間帯の第1解析用データを効率的に多数収集することができ、この点でも解析精度を向上することができる。
また、以上で説明した解析システム1は、解析結果データを蓄積する記憶部22(解析結果DB22C)を含んで構成されるので、例えば、当該解析結果データをビッグデータとして活用し易くすることができる。
一例として、以上で説明した解析システム1は、第1画像データが表す画像に含まれる人物の属性として、性別、年齢、体格、社会的地位、嗜好、行動志向等を推定するので、当該解析結果データを商圏調査、マーケティング、広告、防災・都市計画等の様々な用途で活用することができる。
[実施形態2]
実施形態2に係る解析システムは、第2解析用データも踏まえた解析を行う点で実施形態1とは異なる。以下では、上述した実施形態と同様の構成要素には共通の符号が付されるとともに、共通する構成、作用、効果については、重複した説明はできるだけ省略する(以下同様)。
実施形態2に係る解析システムは、第2解析用データも踏まえた解析を行う点で実施形態1とは異なる。以下では、上述した実施形態と同様の構成要素には共通の符号が付されるとともに、共通する構成、作用、効果については、重複した説明はできるだけ省略する(以下同様)。
図4に示す本実施形態に係る解析システム201は、記録装置10にかえて移動体解析データ収集装置としての記録装置210を備える点で上述の解析システム1と異なる。解析システム201のその他の構成は、当該解析システム1と略同様の構成である。記録装置210は、外部カメラ11、位置情報測定器12、データ入出力部13、制御部14に加えて、さらに、内部カメラ215を備える点で上述の記録装置10と異なる。記録装置210のその他の構成は、当該記録装置10と略同様の構成である。
本実施形態の記録装置210は、解析装置20による解析に用いる解析用データとして第1解析用データに加えて、さらに、第2解析用データを収集するものである。第2解析用データは、移動体Vの内部の画像を表す第2画像データ、及び、当該移動体Vの内部の画像が撮像された位置を表す第2位置データを含むデータである。記録装置210は、第2解析用データとして、当該第2画像データ、及び、当該第2位置データを収集する。当該第2画像データは、上述の内部カメラ215によって収集される。
内部カメラ215は、移動体Vの内部、すなわち、車内の画像を撮像する内部撮像装置である。内部カメラ215は、当該移動体Vの内部の画像を撮像し、当該移動体Vの内部の画像を表す第2画像データを収集する。内部カメラ215は、典型的には、移動体Vの内部の動画像を撮像する。内部カメラ215は、解析システム201による解析対象である人物、ここでは、移動体Vの車内の乗客等を撮像可能な画角となるように移動体Vに設置される。内部カメラ215は、移動体Vの内部の人物をより好適に撮像可能なように、移動体Vの内部の天井部等に複数設けられてもよい。内部カメラ215は、単眼カメラであってもよいし、ステレオカメラであってもよい。また、内部カメラ215が撮像する画像は、モノクロであってもよいしカラーであってもよい。制御部14は、この内部カメラ215とも通信可能に接続され、相互に各種信号、データを授受可能である。内部カメラ215は、収集した第2画像データを制御部14に出力する。
そして、位置情報測定器12は、第1位置データに加えて、移動体Vの内部の画像が撮像された位置を表す第2位置データも収集する。位置情報測定器12は、第1位置データに加えて、収集した第2位置データも制御部14に出力する。
処理部14Bは、第1解析用データを収集する処理に加え、内部カメラ215、位置情報測定器12の動作を制御し、第2画像データ、第2位置データを含む第2解析用データを収集する処理を実行する。また、記憶部14Aは、第2解析用データを、収集した時刻等と共に記憶することができる。言い換えれば、第2解析用データは、第1解析用データと同様に、当該データを収集した時刻を表す時刻データやその他のデータも含む。そして、データ入出力部13は、解析装置20に対して、第1解析用データに加えて、第2解析用データも出力可能である。処理部14Bは、第2解析用データを、データ入出力部13を介して解析装置20に出力する処理を実行する。
そして、本実施形態の解析装置20は、記録装置210によって収集された第1解析用データに加えて、第2解析用データも解析し、解析結果を表す解析結果データをクライアント端末CLに提供する。
データ入出力部21は、記録装置210から、第1解析用データに加えて、第2解析用データを入力可能である。また、解析対象DB22Aは、第1解析用データに加えて、処理部23による解析対象データである第2解析用データ(第2画像データ、第2位置データ、時刻データ等)も蓄積しデータベース化して記憶する。記録装置210からデータ入出力部21に入力された第2解析用データは、この解析対象DB22Aに記憶される。また、解析参照DB22Bに記憶されている解析参照データは、処理部23によって第2解析用データの解析の際にも参照される。
データ前処理部23Aは、解析対象データである第2解析用データに対して、第1解析用データと同様に種々の前処理を施す。そして、データ解析処理部23Bは、データ前処理部23Aによって前処理が施された第2解析用データに基づいて、第2画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する。データ解析処理部23Bは、上述した第1解析用データに対する解析と同様に第2解析用データの解析を行い、解析結果データとして、第2画像データが表す画像に含まれる人物の属性を表す人物属性データ、及び、属性が特定された人物の人流を表す属性別人流データを生成する。解析結果DB22Cは、第1解析用データの解析結果を表す解析結果データと同様に、データ解析処理部23Bによる第2解析用データの解析結果を表す解析結果データも蓄積しデータベース化して記憶する。当該解析結果データは、第2画像データが表す画像に含まれる人物の属性を表す人物属性データ、及び、属性が特定された人物の人流を表す属性別人流データ等を含む。そして、データ加工処理部23Cは、上記と同様に、当該解析結果データに含まれる人物属性データ、属性別人流データを所望の形式に加工する。そして、処理部23は、データ加工処理部23Cによって所望の形式に加工された解析結果データを、データ入出力部21を介してクライアント端末CLに出力、提供する。
以上で説明した解析システム201は、解析システム1と同様に、解析装置20による解析に用いることができる第1解析用データの収集量を相対的に多く確保することができるので、解析精度を向上することができる。
その上でさらに、以上で説明した解析システム201は、記録装置210によって移動体Vの内部の画像を表す第2画像データ、及び、これに対応する第2位置データを含む第2解析用データも収集し、解析装置20による解析に用いることができる。この結果、解析システム201は、移動体Vが走行する路上の人物だけでなく移動体Vの内部の人物(乗客)の属性や人流を踏まえた解析結果データを得るができ、解析精度をさらに向上することができる。これにより、解析システム201は、例えば、当該解析結果データを、バスやタクシーの乗客の属性、乗降位置、乗降前後の人流分析やバスやタクシーの運行・配車の効率化等の用途でも活用することができる。
[実施形態3]
実施形態3に係る解析システムは、第3解析用データも踏まえた解析を行う点で実施形態2とは異なる。
実施形態3に係る解析システムは、第3解析用データも踏まえた解析を行う点で実施形態2とは異なる。
図5に示す本実施形態に係る解析システム301は、移動体Vに搭載された記録装置210の他に、固定体Fに搭載された固定体解析データ収集装置としての記録装置310を備える点で上述の解析システム201と異なる。解析システム301のその他の構成は、当該解析システム201と略同様の構成である。
本実施形態の記録装置310は、路上に設置された固定体Fに搭載されるものであり、搭載対象が固定体Fである点で上述の記録装置10(図1参照)や記録装置210と異なる。この記録装置310の構成は、上述の記録装置10と略同様の構成であるので、その説明を省略する。このため、以下では、記録装置310の各構成は、適宜図1の記録装置10の構成を参照する。
ここで、本実施形態の記録装置310が搭載される固定体Fは、路上に据え付けられ固定されたものである。固定体Fは、例えば、バス停留所、デジタルサイネージ、自動販販売機、標識、電柱等であってもよいし、記録装置310を設置するために設けられた専用の構造体であってもよい。
そして、本実施形態の記録装置310は、解析装置20による解析に用いる解析用データとして、さらに、第3解析用データを収集するものである。第3解析用データは、固定体Fに搭載された状態で撮像された当該固定体Fの外部の画像を表す第3画像データ、及び、当該固定体Fの外部の画像が撮像された位置を表す第3位置データを含むデータである。記録装置310は、第3解析用データとして、当該第3画像データ、及び、当該第3位置データを収集する。当該第3画像データは、上述の外部カメラ11(図1参照)によって収集される。
この場合、外部カメラ11は、解析システム1による解析対象である人物、ここでは、固定体Fの外部の路上の人物を撮像可能な画角となるように固定体Fに設置される。外部カメラ11は、固定体Fの外部の路上の人物をより好適に撮像可能なように、固定体Fに複数設けられてもよい。外部カメラ11は、収集した第3画像データを制御部14に出力する。
そして、位置情報測定器12(図1参照)は、固定体Fの外部の画像が撮像された位置を表す第3位置データを収集する。位置情報測定器12は、収集した第3位置データを制御部14に出力する。
処理部14B(図1参照)は、外部カメラ11、位置情報測定器12の動作を制御し、第3画像データ、第3位置データを含む第3解析用データを収集する処理を実行する。また、記憶部14A(図1参照)は、第3解析用データを、収集した時刻等と共に記憶することができる。言い換えれば、第3解析用データは、第1解析用データ等と同様に、当該データを収集した時刻を表す時刻データやその他のデータも含む。そして、データ入出力部13(図1参照)は、解析装置20に対して、第3解析用データを出力可能である。処理部14Bは、第3解析用データを、データ入出力部13を介して解析装置20に出力する処理を実行する。
そして、本実施形態の解析装置20は、記録装置210によって収集された第1解析用データ、第2解析用データに加えて、記録装置310よって収集された第3解析用データも解析し、解析結果を表す解析結果データをクライアント端末CLに提供する。
データ入出力部21は、第1解析用データ、第2解析用データに加えて、記録装置310から、第3解析用データを入力可能である。また、解析対象DB22Aは、第1解析用データ、第2解析用データに加えて、処理部23による解析対象データである第3解析用データ(第3画像データ、第3位置データ、時刻データ等)も蓄積しデータベース化して記憶する。記録装置310からデータ入出力部21に入力された第3解析用データは、この解析対象DB22Aに記憶される。また、解析参照DB22Bに記憶されている解析参照データは、処理部23によって第3解析用データの解析の際にも参照される。
データ前処理部23Aは、解析対象データである第3解析用データに対して、第1解析用データ、第2解析用データと同様に種々の前処理を施す。そして、データ解析処理部23Bは、データ前処理部23Aによって前処理が施された第3解析用データに基づいて、第3画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する。データ解析処理部23Bは、上述した第1解析用データ、第2解析用データに対する解析と同様に第3解析用データの解析を行い、解析結果データとして、第3画像データが表す画像に含まれる人物の属性を表す人物属性データ、及び、属性が特定された人物の人流を表す属性別人流データを生成する。解析結果DB22Cは、第1解析用データ、第2解析用データの解析結果を表す解析結果データと同様に、データ解析処理部23Bによる第3解析用データの解析結果を表す解析結果データも蓄積しデータベース化して記憶する。当該解析結果データは、第3画像データが表す画像に含まれる人物の属性を表す人物属性データ、及び、属性が特定された人物の人流を表す属性別人流データ等を含む。そして、データ加工処理部23Cは、上記と同様に、当該解析結果データに含まれる人物属性データ、属性別人流データを所望の形式に加工する。そして、処理部23は、このデータ加工処理部23Cによって所望の形式に加工された解析結果データを、データ入出力部21を介してクライアント端末CLに出力、提供する。
以上で説明した解析システム301は、解析システム1、201と同様に、解析装置20による解析に用いることができる第1解析用データの収集量を相対的に多く確保することができるので、解析精度を向上することができる。
また、以上で説明した解析システム301は、解析システム201と同様に、移動体Vが走行する路上の人物だけでなく移動体Vの内部の人物(乗客)の属性や人流を踏まえた解析結果データを得るができ、解析精度をさらに向上することができる。
その上でさらに、以上で説明した解析システム301は、記録装置310によって固定体Fの外部の画像を表す第3画像データ、及び、これに対応する第3位置データを含む第3解析用データも収集し、解析装置20による解析に用いることができる。この結果、解析システム301は、路上の人物を解析するために用いる解析用データとして、固定体Fに搭載された記録装置310によって収集された第3解析用データも加えることができる。したがって、解析システム301は、解析精度をさらに向上することができる。
なお、上述した本発明の実施形態に係る解析システムは、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。本実施形態に係る解析システムは、以上で説明した各実施形態、変形例の構成要素を適宜組み合わせることで構成してもよい。
以上で説明した解析システム1、201、301は、解析に用いる解析用データとして、さらに、特定のアプリケーション、記入式のアンケート、特定の人物がまとめた資料等を用いて取集したデータも用いてもよい。
以上で説明した制御部14、解析装置20は、各部が別体に構成され、当該各部が各種の電気信号を相互に授受可能に接続されることで構成されてもよく、一部の機能が他の制御装置によって実現されてもよい。また、以上で説明したプログラム、アプリケーション、各種データ等は、適宜、更新されてもよいし、解析システム1、201、301に対して任意のネットワークを介して接続されたサーバに記憶されていてもよい。以上で説明したプログラム、アプリケーション、各種データ等は、例えば、必要に応じてその全部又は一部をダウンロードすることも可能である。また、例えば、制御部14、解析装置20が備える処理機能については、その全部又は任意の一部を、例えば、CPU等及び当該CPU等にて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。
1、201、301 解析システム
10、210 記録装置(移動体解析データ収集装置)
20 解析装置(データ解析装置)
14A、22 記憶部
310 記録装置(固定体解析データ収集装置)
F 固定体
V 移動体
10、210 記録装置(移動体解析データ収集装置)
20 解析装置(データ解析装置)
14A、22 記憶部
310 記録装置(固定体解析データ収集装置)
F 固定体
V 移動体
Claims (7)
- 移動体に搭載され、当該移動体の移動に伴って撮像された当該移動体の外部の画像を表す第1画像データ、及び、前記移動体の外部の画像が撮像された位置を表す第1位置データを含む第1解析用データを収集する移動体解析データ収集装置と、
前記移動体解析データ収集装置によって収集された前記第1解析用データに基づいて、前記第1画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析するデータ解析装置とを備えることを特徴とする、
解析システム。 - 前記データ解析装置は、前記第1画像データが表す複数の画像から人物の属性を特定可能である当該人物の特徴点を含む画像を抽出し、当該抽出した画像に基づいて当該画像に含まれる人物の属性を解析する、
請求項1に記載の解析システム。 - 前記移動体解析データ収集装置は、さらに、前記移動体の内部の画像を表す第2画像データ、及び、前記移動体の内部の画像が撮像された位置を表す第2位置データを含む第2解析用データを収集し、
前記データ解析装置は、さらに、前記移動体解析データ収集装置によって収集された前記第2解析用データに基づいて、前記第2画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する、
請求項1又は請求項2に記載の解析システム。 - 路上に設置された固定体に搭載され、当該固定体に搭載された状態で撮像された当該固定体の外部の画像を表す第3画像データ、及び、前記固定体の外部の画像が撮像された位置を表す第3位置データを含む第3解析用データを収集する固定体解析データ収集装置を備え、
前記データ解析装置は、さらに、前記固定体解析データ収集装置によって収集された前記第3解析用データに基づいて、前記第3画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する、
請求項1乃至請求項3のいずれか1項に記載の解析システム。 - 前記移動体は、予め定められた経路を繰り返し走行するものである、
請求項1乃至請求項4のいずれか1項に記載の解析システム。 - 前記データ解析装置は、当該データ解析装置によって解析された解析結果を表す解析結果データを蓄積する記憶部を含む、
請求項1乃至請求項5のいずれか1項に記載の解析システム。 - 前記データ解析装置によって解析される人物の属性は、性別、年齢、体格、社会的地位、嗜好、又は、行動志向を含む、
請求項1乃至請求項6のいずれか1項に記載の解析システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072889A JP2019185237A (ja) | 2018-04-05 | 2018-04-05 | 解析システム |
PCT/JP2019/002171 WO2019193817A1 (ja) | 2018-04-05 | 2019-01-24 | 解析システム |
SG11202009797UA SG11202009797UA (en) | 2018-04-05 | 2019-01-24 | Analysis system |
CN201980024084.3A CN111937026A (zh) | 2018-04-05 | 2019-01-24 | 解析系统 |
TW108107249A TW201944325A (zh) | 2018-04-05 | 2019-03-05 | 解析系統 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072889A JP2019185237A (ja) | 2018-04-05 | 2018-04-05 | 解析システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019185237A true JP2019185237A (ja) | 2019-10-24 |
Family
ID=68100429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018072889A Abandoned JP2019185237A (ja) | 2018-04-05 | 2018-04-05 | 解析システム |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP2019185237A (ja) |
CN (1) | CN111937026A (ja) |
SG (1) | SG11202009797UA (ja) |
TW (1) | TW201944325A (ja) |
WO (1) | WO2019193817A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021089639A (ja) * | 2019-12-05 | 2021-06-10 | トヨタ自動車株式会社 | 情報提供システム、情報提供方法、情報端末及び情報表示方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7272244B2 (ja) * | 2019-11-22 | 2023-05-12 | トヨタ自動車株式会社 | 画像データ配信システム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101464882B1 (ko) * | 2013-06-13 | 2014-12-04 | 이화여자대학교 산학협력단 | 로보카를 이용한 실시간 영상 전송 방법 및 시스템 |
JP2015072578A (ja) * | 2013-10-02 | 2015-04-16 | 株式会社東芝 | 人物特定装置、人物特定方法及びプログラム |
JP5856702B1 (ja) * | 2015-01-29 | 2016-02-10 | パナソニックIpマネジメント株式会社 | ウェアラブルカメラシステム及び属性情報付与方法 |
JP2016062414A (ja) * | 2014-09-19 | 2016-04-25 | クラリオン株式会社 | 車内監視装置及び車内監視システム |
WO2017159060A1 (ja) * | 2016-03-18 | 2017-09-21 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5668643B2 (ja) * | 2011-08-23 | 2015-02-12 | 株式会社デンソー | 地図表示システム、サーバ、及び端末 |
JP6662653B2 (ja) * | 2016-02-04 | 2020-03-11 | ソフトバンク株式会社 | 道路交通調査システム |
JP2018022343A (ja) * | 2016-08-03 | 2018-02-08 | 株式会社東芝 | 画像処理装置、および画像処理方法 |
-
2018
- 2018-04-05 JP JP2018072889A patent/JP2019185237A/ja not_active Abandoned
-
2019
- 2019-01-24 CN CN201980024084.3A patent/CN111937026A/zh not_active Withdrawn
- 2019-01-24 SG SG11202009797UA patent/SG11202009797UA/en unknown
- 2019-01-24 WO PCT/JP2019/002171 patent/WO2019193817A1/ja active Application Filing
- 2019-03-05 TW TW108107249A patent/TW201944325A/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101464882B1 (ko) * | 2013-06-13 | 2014-12-04 | 이화여자대학교 산학협력단 | 로보카를 이용한 실시간 영상 전송 방법 및 시스템 |
JP2015072578A (ja) * | 2013-10-02 | 2015-04-16 | 株式会社東芝 | 人物特定装置、人物特定方法及びプログラム |
JP2016062414A (ja) * | 2014-09-19 | 2016-04-25 | クラリオン株式会社 | 車内監視装置及び車内監視システム |
JP5856702B1 (ja) * | 2015-01-29 | 2016-02-10 | パナソニックIpマネジメント株式会社 | ウェアラブルカメラシステム及び属性情報付与方法 |
WO2017159060A1 (ja) * | 2016-03-18 | 2017-09-21 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021089639A (ja) * | 2019-12-05 | 2021-06-10 | トヨタ自動車株式会社 | 情報提供システム、情報提供方法、情報端末及び情報表示方法 |
JP7264028B2 (ja) | 2019-12-05 | 2023-04-25 | トヨタ自動車株式会社 | 情報提供システム、情報提供方法、情報端末及び情報表示方法 |
US11718176B2 (en) | 2019-12-05 | 2023-08-08 | Toyota Jidosha Kabushiki Kaisha | Information providing system, information providing method, information terminal, and information display method |
Also Published As
Publication number | Publication date |
---|---|
TW201944325A (zh) | 2019-11-16 |
WO2019193817A1 (ja) | 2019-10-10 |
SG11202009797UA (en) | 2020-11-27 |
CN111937026A (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6999237B2 (ja) | 案内システム | |
Blanco-Claraco et al. | The Málaga urban dataset: High-rate stereo and LiDAR in a realistic urban scenario | |
EP2791908B1 (en) | Augmented reality personalization | |
Suel et al. | Multimodal deep learning from satellite and street-level imagery for measuring income, overcrowding, and environmental deprivation in urban areas | |
EP3410378A1 (en) | Provision and management of advertising via mobile entity | |
CN107369207A (zh) | 在无人驾驶车辆中提供增强虚拟现实内容的系统和方法 | |
US20090208054A1 (en) | Measuring a cohort's velocity, acceleration and direction using digital video | |
US8862500B1 (en) | Automated billboard tagging and selling | |
JP5356100B2 (ja) | 情報処理システム及び方法 | |
US20160299902A1 (en) | Device information providing system and device information providing method | |
Lambert et al. | Trust, but verify: Cross-modality fusion for hd map change detection | |
WO2019193817A1 (ja) | 解析システム | |
JP2017228115A (ja) | 情報を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および情報を提供するための装置 | |
US20220180776A1 (en) | Determination of parameters for use of an outdoor display unit | |
Cho et al. | Space-time density of field trip trajectory: exploring spatio-temporal patterns in movement data | |
Ahmed et al. | Survey of machine learning methods applied to urban mobility | |
US11718176B2 (en) | Information providing system, information providing method, information terminal, and information display method | |
Chen et al. | Deep learning based real-time tourist spots detection and recognition mechanism | |
WO2020090310A1 (ja) | 解析システム | |
JP6914983B2 (ja) | 解析システム | |
KR102038141B1 (ko) | 부동산 정보를 제공하는 방법, 이를 이용하는 서버 및 시스템 | |
CN111126118A (zh) | 信息处理方法和设备 | |
US11252379B2 (en) | Information processing system, information processing method, and non-transitory storage medium | |
Viegas | Smart bus stop: people counting in a multi-view camera environment | |
EP3420494A1 (en) | Method for managing advanced plugins in an electronic device for analyzing the people behaviour in a physical space, electronic device for analyzing the people behaviour in a physical space and related program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20201007 |