JP2020096255A - Information processing method, program, information processing apparatus, learned model generation method, and learned model - Google Patents
Information processing method, program, information processing apparatus, learned model generation method, and learned model Download PDFInfo
- Publication number
- JP2020096255A JP2020096255A JP2018231829A JP2018231829A JP2020096255A JP 2020096255 A JP2020096255 A JP 2020096255A JP 2018231829 A JP2018231829 A JP 2018231829A JP 2018231829 A JP2018231829 A JP 2018231829A JP 2020096255 A JP2020096255 A JP 2020096255A
- Authority
- JP
- Japan
- Prior art keywords
- passerby
- image
- information
- passers
- classification result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理方法、プログラム、情報処理装置、学習済みモデルの生成方法及び学習済みモデルに関する。 The present invention relates to an information processing method, a program, an information processing device, a learned model generation method, and a learned model.
街頭、施設内等に設置された監視カメラ等の撮像装置を用いて遠隔監視を行う種々のシステムが提案されている。例えば特許文献1では、街頭の電柱等に設置された撮像装置が撮像した画像をリアルタイムで配信する撮影情報提供装置等が開示されている。また、特許文献2では、店舗、駅等の固定点、あるいは鉄道車両、自動車等の移動可能な物体に撮像装置を設けて遠隔監視を行う遠隔監視システム等が開示されている。
Various systems have been proposed for performing remote monitoring using an imaging device such as a monitoring camera installed on the street or in a facility. For example, Patent Document 1 discloses a photographic information providing device and the like that delivers in real time an image captured by an imaging device installed on a street pole or the like. Further,
しかしながら、特許文献1、2に係る発明は撮像装置で撮像された画像の配信、共有等を行うに過ぎず、撮像画像に含まれる被写体を分析するに至っていない。
However, the inventions of
一つの側面では、公共空間を通行する通行者を的確に把握することができる情報処理方法等を提供することを目的とする。 In one aspect, it is an object of the present invention to provide an information processing method and the like that can accurately grasp a passerby passing through a public space.
一つの側面では、情報処理方法は、公共空間に設置された配電設備に取り付けた撮像装置から、前記公共空間を通行する通行者を撮像した画像を取得し、前記画像を入力した場合に前記通行者を分類するよう学習済みの学習済みモデルに、取得した前記画像を入力し、前記学習済みモデルから前記通行者の分類結果を取得する処理をコンピュータに実行させることを特徴とする。 In one aspect, the information processing method includes acquiring an image of a passerby passing through the public space from an image pickup device attached to a power distribution facility installed in the public space, and when the image is input, the traffic passing is performed. The acquired image is input to a trained model that has been trained to classify a person, and the computer is caused to execute a process of acquiring a classification result of the passerby from the trained model.
一つの側面では、公共空間を通行する通行者を的確に把握することができる。 In one aspect, it is possible to accurately understand the passersby who pass through public spaces.
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、通行者分析システムの構成例を示す模式図である。本実施の形態では、道路等の公共空間に設置されたカメラ2により通行者を撮像し、撮像した画像から通行者の属性等を分析する通行者分析システムについて説明する。通行者分析システムは、情報処理装置1、カメラ2、センサ3、端末4を含む。各装置は、インターネット等のネットワークNを介して通信接続されている。
Hereinafter, the present invention will be described in detail with reference to the drawings showing an embodiment thereof.
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of a passerby analysis system. In the present embodiment, a passerby analysis system will be described in which a passerby is imaged by a
情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばサーバ装置、パーソナルコンピュータ等である。本実施の形態では情報処理装置1がサーバ装置であるものとし、以下の説明では簡潔のためサーバ1と読み替える。サーバ1は、道路を通行する通行者を撮像した画像をカメラ2から取得し、取得した画像を分析して、年齢、性別等の属性、あるいは歩行速度、方向、動作といった行動、あるいは所持品などの種々の分類基準に応じて通行者を分類し、通行者の情報を蓄積したビッグデータを構築する。本実施の形態でサーバ1は、撮像画像から通行者を分類(識別)するよう機械学習により学習済みの分類モデル(学習済みモデル)を用いて通行者の分類を行う。
The information processing device 1 is an information processing device capable of various information processing and information transmission/reception, and is, for example, a server device, a personal computer, or the like. In the present embodiment, the information processing device 1 is assumed to be a server device, and will be read as server 1 for simplicity in the following description. The server 1 acquires from the
カメラ2は、公共空間に設置された撮像装置であり、道路を通行する通行者を撮像する。本実施の形態では、カメラ2は道路沿いに設置された配電設備、具体的には電柱に取り付けられている。カメラ2は、道路沿いの複数の地点それぞれに設置された電柱にそれぞれ取り付けられており、道路を通行する通行者を各地点から継続的に撮像する。サーバ1は、カメラ2において撮像された画像を取得し、取得した画像に映っている通行者の属性等を分析する。また、測定環境によっては,カメラ2の代わりにレーザー、赤外線により人を感知する人感センサを設置し、対象の人数、速度、滞留時間等の人の動線情報について、データを取得してもよい。
The
なお、本実施の形態では配電設備の一例として電柱を挙げるが、配電設備は電柱に限定されず、例えば地中化された電線の地上機器(トランス)などであってもよい。また、配電設備が設置される場所(地点)は道路に限定されず、通行者が通行可能な公共空間であればよい。また、本明細書における「道路」は歩道及び車道のいずれも含み得る。 In the present embodiment, a power pole is taken as an example of the power distribution equipment, but the power distribution equipment is not limited to the power pole, and may be, for example, a ground equipment (transformer) of an underground electric wire. Further, the place (point) where the power distribution equipment is installed is not limited to the road, and may be any public space where passersby can pass. Further, the “road” in the present specification may include both a sidewalk and a roadway.
センサ3は、カメラ2と共に電柱に取り付けられたセンシングデバイスであり、例えば温度計、湿度計、降雨量計、照度計、風速計等である。センサ3は、カメラ2が設置された地点の気温、湿度、降雨量等の天候情報を計測する。サーバ1は、センサ3から画像の撮像地点の天候情報を取得し、通行者の分類結果と関連付けて保存する。
The sensor 3 is a sensing device attached to the telephone pole together with the
端末4は、サーバ1からビッグデータの提供を受けるユーザが使用する端末装置であり、例えばパーソナルコンピュータ、スマートフォン、タブレット端末等の情報処理端末である。本システムを利用するユーザは特に限定されないが、例えばユーザは該当地点のマーケティングを行う事業者であり、端末4はサーバ1から該当地点の通行者に関する通行情報の配信を受け、通行情報を表示する。 The terminal 4 is a terminal device used by a user who receives the big data provided from the server 1, and is an information processing terminal such as a personal computer, a smartphone, or a tablet terminal. Although the user who uses this system is not particularly limited, for example, the user is a business operator who markets the relevant point, and the terminal 4 receives the traffic information regarding the passerby at the relevant point from the server 1 and displays the traffic information. ..
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、主記憶部12、通信部13、補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムPを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
FIG. 2 is a block diagram showing a configuration example of the server 1. The server 1 includes a
The
補助記憶部14は大容量メモリ、ハードディスク等であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。また、補助記憶部14は、分類モデル141、電柱DB142、通行者DB143を記憶している。分類モデル141は、撮像画像に映る通行者を分類する分類器(識別器)であり、機械学習により生成された学習済みモデルである。電柱DB142は、カメラ2が設置された電柱の情報を格納したデータベースである。通行者DB143は、分類モデル141を用いて分類した通行者の分類結果を格納するデータベースである。
The
なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであってもよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。
The
また、本実施の形態においてサーバ1は上記の構成に限られず、例えば可搬型記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。 Further, in the present embodiment, server 1 is not limited to the above-described configuration, and may include, for example, a reading unit that reads information stored in a portable storage medium, an input unit that receives an operation input, a display unit that displays an image, and the like. ..
図3は、電柱DB142及び通行者DB143のレコードレイアウトの一例を示す説明図である。電柱DB142は、電柱ID列、位置情報列、カメラ情報列、センサ情報列を含む。電柱ID列は、道路上に設置された各電柱を識別するための電柱IDを記憶している。位置情報列、カメラ情報列、センサ情報列はそれぞれ、電柱IDと対応付けて、電柱が設置された地点の位置情報、電柱に設置されたカメラ2の情報、及びセンサ3の情報を記憶している。カメラ2の情報は、例えばカメラ2が取り付けられた高さ、撮像角度、倍率、撮像範囲等の情報を含み得る。センサ3の情報は、温度計、湿度計、降雨量計等のセンサ3の種類に関する情報を含み得る。
FIG. 3 is an explanatory diagram showing an example of a record layout of the
通行者DB143は、電柱ID列、日時列、天候列、通行者列を含む。電柱IDは、道路上に設置された各電柱を識別するための電柱IDを記憶している。日時列、天候列、通行者列はそれぞれ、電柱IDと対応付けて、電柱に取り付けられたカメラ2で画像を撮像した日時、該日時における電柱周辺の天候情報、及び画像から分類した通行者の分類結果を記憶している。
The
図4は、分類モデル141の生成処理に関する説明図である。図4では、機械学習を行って分類モデル141を生成する処理を概念的に図示している。図4に基づき、分類モデル141の生成処理について説明する。
FIG. 4 is an explanatory diagram regarding the generation process of the
本実施の形態でサーバ1は、分類モデル141として、カメラ2において撮像された画像内に映る通行者の外見、行動、所持品等に関する画像特徴量を学習するディープラーニングを行うことで、撮像画像を入力とし、通行者を分類した分類結果を出力とするニューラルネットワークを生成する。ニューラルネットワークは例えばCNN(Convolution Neural Network)、具体的にはR−CNN(Regions with CNN)であり、撮像画像の入力を受け付ける入力層と、分類結果を出力する出力層と、撮像画像の画像特徴量を抽出する中間層とを有する。
In the present embodiment, the server 1 performs the deep learning for learning the image feature amount regarding the appearance, behavior, belongings, etc. of the passerby appearing in the image captured by the
入力層は、撮像画像に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は複数のニューロンを有し、撮像画像内から対象物(通行者等)を認識し、認識した対象物が映っている画像領域(図4では点線矩形枠で図示)の特徴量を抽出して出力層に受け渡す。例えば分類モデル141がCNNである場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成を有し、対象物の画像領域の画素情報を圧縮しながら最終的に画像特徴量を抽出する。出力層はSVM(Support Vector Machine)に係る識別器であり、通行者の分類結果を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて通行者を分類する。
The input layer has a plurality of neurons that receive the input of the pixel value of each pixel included in the captured image, and transfers the input pixel value to the intermediate layer. The intermediate layer has a plurality of neurons, recognizes an object (passerby, etc.) from the captured image, and extracts the feature amount of the image area (indicated by a dotted rectangular frame in FIG. 4) in which the recognized object is reflected. And pass it to the output layer. For example, when the
なお、本実施の形態では分類モデル141がCNNであるものとして説明するが、分類モデル141はCNNに限定されず、CNN以外のニューラルネットワーク、ベイジアンネットワーク、決定木など、他の学習アルゴリズムで構築された学習済みモデルであってよい。
Although the
サーバ1は、通行者を撮像した複数の画像と、各画像における通行者を属性等に応じて分類した場合の分類結果の正解値とが対応付けられた教師データを用いて学習を行う。例えば図4に示すように、教師データは、通行者の撮像画像に対し、通行者が映っている画像領域の座標範囲と、通行者の分類結果とがラベル付けされたデータである。 The server 1 performs learning using teacher data in which a plurality of images of the passers-by are associated with the correct values of the classification result when the passers-by in each image are classified according to attributes and the like. For example, as shown in FIG. 4, the teacher data is data obtained by labeling the captured image of the passerby with the coordinate range of the image area in which the passerby is shown and the classification result of the passerby.
なお、本明細書の図面では簡略のため一の画像に一人の通行者が映っているものとして図示するが、一の画像内に複数の通行者が映り込んでいても良いことは勿論である。 Note that, in the drawings of this specification, one image of one passer-by is shown for simplification, but it is needless to say that a plurality of passers-by may be shown in one image. ..
サーバ1は、教師データである撮像画像を入力層に入力し、中間層での演算処理を経て、出力層から通行者の分類結果を取得する。なお、出力層から出力される分類結果は離散的な値(例えば「0」又は「1」の値)であってもよく、連続的な確率値(例えば「0」から「1」までの範囲の値)であってもよい。例えばサーバ1は、出力層から出力される分類結果として、性別、年齢といった通行者の属性、歩行速度、歩行する方向、施設(例えば道路脇の店舗)への入退場動作といった通行者の行動、及び所持品などに応じて分類した分類結果を取得する。なお、上記の分類基準の詳細については後述する。 The server 1 inputs the captured image, which is the teacher data, into the input layer, performs the arithmetic processing in the intermediate layer, and acquires the passerby classification result from the output layer. The classification result output from the output layer may be a discrete value (for example, a value of “0” or “1”), and a continuous probability value (for example, a range from “0” to “1”). Value). For example, the server 1 includes, as the classification result output from the output layer, the attributes of the passerby such as gender and age, the walking speed, the walking direction, and the action of the passerby such as entering and leaving the facility (for example, a roadside store). Also, obtain the classification results classified according to your belongings. The details of the above classification criteria will be described later.
サーバ1は、出力層から出力された分類結果を、教師データにおいて撮像画像に対しラベル付けされた情報、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えばサーバ1は誤差逆伝播法を用いて各種パラメータの最適化を行う。 The server 1 compares the classification result output from the output layer with the information labeled on the captured image in the teacher data, that is, the correct value, and the intermediate layer so that the output value from the output layer approaches the correct value. Optimize the parameters used for the calculation processing in. The parameter is, for example, a weight between neurons (coupling coefficient), a coefficient of an activation function used in each neuron, or the like. The method of optimizing the parameters is not particularly limited, but the server 1 optimizes various parameters using the error back propagation method, for example.
サーバ1は、教師データに含まれる各撮像画像について上記の処理を行い、分類モデル141を生成する。カメラ2から撮像画像を取得した場合、サーバ1は分類モデル141を用いて通行者を分類する。
The server 1 performs the above processing on each captured image included in the teacher data to generate the
図5は、通行者の分類処理に関する説明図である。図5では、撮像画像から通行者を種々の基準で分類する様子を概念的に図示している。図5に基づき、通行者の分類処理について説明する。
サーバ1は、道路沿いの複数の地点に設置された各電柱に取り付けられているカメラ2、2、2…からそれぞれ、通行者を撮像した画像を取得する。例えばカメラ2は継続的に撮像を行っており、サーバ1は、通行者が通行する道路をカメラ2が撮像した動画像をリアルタイムに、あるいは動画像の録画データを定期的に取得する。
FIG. 5 is an explanatory diagram relating to a passer-by classification process. FIG. 5 conceptually illustrates how a passerby is classified based on various criteria from a captured image. The passer-by classification process will be described with reference to FIG.
The server 1 acquires an image of a passerby from each of the
また、サーバ1は、各カメラ2と同じ電柱に取り付けられている各センサ3から、画像を撮像した時点の気温、湿度、降雨量等の天候情報を取得する。なお、サーバ1はセンサ3によらず、例えば所定の外部API(Application Programmable Interface)から該当地点の天候情報を取得するようにしてもよい。すなわち、電柱へのセンサ3の設置は必須ではない。
Further, the server 1 acquires weather information such as temperature, humidity, and rainfall amount at the time of capturing an image from each sensor 3 attached to the same utility pole as each
サーバ1は、カメラ2から取得した画像を分類モデル141に入力し、画像内に映る通行者を分類した分類結果を出力として取得する。例えばサーバ1は、カメラ2で撮像された動画像を構成する各撮像時点でのフレーム画像を分類モデル141に順次入力する。サーバ1は、分類モデル141の中間層にてフレーム画像の特徴量を抽出する演算処理を行い、抽出した特徴量を分類モデル141の出力層に入力して、各地点、各撮像時点で撮像されたフレーム画像に映る通行者を分類した分類結果を出力として取得する。
The server 1 inputs the image acquired from the
本実施の形態でサーバ1は、通行者を分類する場合に、種々の基準で分類を行う。第1の分類基準として、サーバ1は、通行者の属性に応じて分類を行う。通行者の属性は、例えば性別及び年齢である。例えばサーバ1は、通行者の男女の別、及び未成年、20〜30代、40〜50代、60代以上の年代を分類することで、計8分類で分類する。 In the present embodiment, the server 1 classifies passers by various criteria. As a first classification criterion, the server 1 classifies according to the attributes of passersby. The passerby attributes are, for example, sex and age. For example, the server 1 classifies the males and females of passersby and the ages of minors in their 20s, 40s, 50s, and 60s or more into a total of 8 classifications.
なお、通行者の属性は性別及び年齢に限定されず、例えば通行者の顔(表情)から認識可能な感情等を属性として検知(分類)してもよい。 Note that the attributes of the passerby are not limited to gender and age, and for example, emotions that can be recognized from the face (expression) of the passerby may be detected (classified) as attributes.
サーバ1は、第2の分類基準として、通行者の行動に応じて分類を行う。通行者の行動は、例えば通行者の歩行速度、歩いている方向(行先)、道路上の歩いている位置(右側通行であるか左側通行であるか等)、その他の動作である。 As a second classification criterion, the server 1 classifies according to the behavior of the passerby. The behavior of the passerby is, for example, the walking speed of the passerby, the walking direction (destination), the walking position on the road (whether it is on the right side or the left side, etc.) and other actions.
特に本実施の形態では、サーバ1は、道路脇に立地する店舗、すなわち公共空間に存在する施設への通行者の入退場動作を検出し、検出した入退場動作に応じて通行者を分類する。入退場動作は、通行者が店舗出入口に入場(入店)、又は店舗出入口から退場(退店)する動作である。なお、サーバ1は、入場又は退場のうちいずれか一方のみを検出するようにしてもよい。また、入退場動作は店舗に現に入退場した際の動作に限定されず、例えば店舗前での立ち止まり動作、店舗に視線を向ける動作など、入退場に間接的に関わる動作であってもよい。サーバ1は、検出した入退場動作に応じて、店舗前を通行した通行者のうち、店舗に入退場した通行者と、店舗に入場せず通過した通行者とを分類する。 In particular, in the present embodiment, the server 1 detects an entry/exit action of a passerby to a store located on the side of a road, that is, a facility existing in a public space, and classifies the passerby according to the detected enter/exit action. .. The entry/exit operation is an operation in which a passerby enters (enters) the entrance/exit of the store or exits (exits) from the entrance/exit of the store. It should be noted that the server 1 may detect only one of entry and exit. Further, the entry/exit operation is not limited to the operation at the time of actual entry/exit of the store, and may be an operation indirectly involved in the entry/exit such as a stop operation in front of the store and an operation of directing a line of sight to the store. The server 1 classifies the passers-by who enter and exit the store and the passers-by who pass without entering the store among passers who pass in front of the store according to the detected entry-exit operation.
サーバ1は、第3の分類基準として、通行者の所持品に応じて分類を行う。通行者の所持品は、例えば通行者が所持している傘、紙袋、カバン、スーツケース、飲み物の容器、あるいは通行者の服装、通行者が連れているペット(犬等)などである。サーバ1は、学習時にこれらの所持品の画像特徴量を学習した分類モデル141を生成し、分類モデル141を用いて通行者の所持品を検出し、検出した所持品の種類を判定する。
As a third classification criterion, the server 1 classifies according to the belongings of the passerby. The belongings of the passerby are, for example, an umbrella, a paper bag, a bag, a suitcase, a container for drinks that the passerby possesses, clothes of the passerby, pets (dogs, etc.) taken by the passerby. The server 1 generates a
なお、サーバ1は撮像画像から通行者の所持品を検出するだけでなく、所持品に応じて通行者の性別、年齢等を推定することで、通行者の属性を精度良く分類する。例えばサーバ1は、天気が晴れで傘を所持している場合、日傘であるものと判断し、通行者を女性に分類する。また、例えばサーバ1は、通行者がハイヒール、スカート等を身に付けている場合、通行者を女性に分類する。このように、サーバ1は分類モデル141を用いて所持品を検出すると共に、検出した所持品に応じて通行者の属性を分類する。
The server 1 not only detects the belongings of the passerby from the captured image, but also estimates the gender, age, etc. of the passerby according to the belongings, thereby accurately classifying the attributes of the passerby. For example, when the weather is fine and the user has an umbrella, the server 1 determines that the parasol is a parasol and classifies the passerby as a woman. Also, for example, the server 1 classifies a passerby as a woman when the passerby wears high heels, a skirt, or the like. In this way, the server 1 detects the belongings using the
サーバ1は、各カメラ2から取得した動画像内の各フレーム画像を分類モデル141に入力し、各撮像時点において各地点を通行した通行者を、上記の各分類基準に応じて分類する。なお、サーバ1は一の分類モデル141で上記の各分類基準に応じた分類を行ってもよく、各分類基準に応じて分類モデル141を複数用意しておき、複数の分類モデル141を用いて分類を行ってもよい。
The server 1 inputs each frame image in the moving image acquired from each
サーバ1は、フレーム画像に映る通行者を分類した分類結果を、当該フレーム画像を撮像した撮像時点(日時)、及び当該フレーム画像を撮像したカメラ2の設置地点と関連付けて通行者DB143に記憶する。サーバ1は上記の処理を継続して行い、通行者DB143に通行者の情報を蓄積する。
The server 1 stores the classification result obtained by classifying the passers-by shown in the frame image in the passer-
図6は、通行情報の表示画面の一例を示す説明図である。サーバ1は端末4からのアクセスに応じて、通行者DB143に記憶してある通行者の情報を端末4に出力(配信)する。図6に基づき、通行情報の出力処理について述べる。
FIG. 6 is an explanatory diagram showing an example of a display screen of traffic information. The server 1 outputs (delivers) the information of the passerby stored in the
端末4から出力要求を受け付けた場合、サーバ1は通行者DB143を参照して通行情報を生成し、端末4に出力する。例えばサーバ1はまず、端末4を介して、出力対象とする通行情報の地点、及び日時(撮像時点)に関する指定入力を受け付ける。具体的には、サーバ1は、通行情報の提供を所望する地点と、所望する日付(例えば月及び曜日)とを指定する指定入力を受け付ける。サーバ1は、指定された地点に設置されたカメラ2において、指定された地点及び日付に関連付けて通行者DB143に格納されている通行者の分類結果を参照して、指定された日付に指定された地点を通行した通行者の分類結果を分析した通行情報を生成し、端末4に出力する。
When the output request is received from the terminal 4, the server 1 refers to the passer-
図6下側に、サーバ1から出力された通行情報の表示画面の一例を図示する。例えば端末4は、指定された日付に指定された地点を通行した通行者の人数を、時間帯別かつ天候別に集計したグラフを表示する。さらに端末4は、性別、年代といった属性別に通行者を集計したグラフを表示する。また、端末4は、各方向(方角)に歩行していた通行者の人数を天候別に集計したグラフを表示する。また、端末4は、各種所持品を所持していた歩行者の割合を示すグラフを気温別に集計したグラフを表示する。 An example of a display screen of the traffic information output from the server 1 is illustrated on the lower side of FIG. For example, the terminal 4 displays a graph in which the number of passersby who pass through a designated point on a designated date is totaled by time zone and weather. Further, the terminal 4 displays a graph in which passers-by are classified by attributes such as gender and age. In addition, the terminal 4 displays a graph in which the number of passersby walking in each direction (direction) is tabulated according to the weather. In addition, the terminal 4 displays a graph showing the ratio of pedestrians who have various belongings by temperature.
さらにサーバ1は、分類モデル141を用いて検出した、該当地点に存在する施設(店舗)への通行者の入退場動作に基づき、該当施設に入退場する通行者に関する入退場情報を通行情報の一つとして生成し、端末4に出力する。例えばサーバ1は、該当施設に入退場した通行者の人数を時間帯別に集計したグラフと、該当施設に通行者が滞在していた時間を人数別に示すグラフとを生成し、端末4に表示させる。なお、例えばサーバ1は、通行者の入退場人数及び滞在時間を属性別に集計するなど、より詳細な入退場情報を生成するようにしてもよい。これにより、単に道路上の通行者の情報を提示するのみならず、店舗に入退場する通行者の情報を提示することができ、よりマーケティングに適したデータをユーザに提供ことができる。
Further, the server 1 detects the passage information of the entrance/exit information regarding the passers-by/passers entering/exiting the facility based on the entry/exiting action of the passer-by to/from the facility (store) existing at the spot detected by using the
サーバ1は、上記のように通行者の人数等を各分類基準(属性、行動、所持品)に応じて集計することにより、指定された地点及び日付(撮像時点)における通行者の分布状況を示す通行情報を生成し、端末4に出力する。これによりサーバ1は、例えばユーザが該当地点のマーケティングを行う際の参考情報を提供することができる。 As described above, the server 1 collects the number of passersby according to each classification criterion (attribute, behavior, belongings) to determine the distribution status of passersby at a designated point and date (imaging time). The traffic information shown is generated and output to the terminal 4. Thereby, the server 1 can provide reference information, for example, when the user performs marketing at the corresponding point.
以上より、サーバ1は機械学習により生成された分類モデル141を用いて通行者を分類し、道路を通行する通行者の情報を提供することができる。特に本実施の形態では、道路沿いに設置された各電柱にカメラ2を取り付けておき、各カメラ2で継続的に道路を撮像することで、ストリートビューのように線的、面的な観察を可能としつつ、監視カメラのように時系列に則した観察も可能となる。すなわち、両者の特性を併せ持つシステムを実現することができ、マーケティング等に適した通行者の分析を行うことができる。特に電柱は既に多くの道路に設置されており、しかも所定間隔毎に設置されている。これを利用して各電柱にカメラ2を設置することで、観察対象とするエリアを好適にカバーすることができ、通行者の情報をより的確に収集することができる。
As described above, the server 1 can classify the passers-by using the
図7は、分類モデル141の生成処理の処理手順を示すフローチャートである。図7に基づき、教師データから分類モデル141を生成する機械学習処理の内容について説明する。
サーバ1の制御部11は、道路を通行する通行者を撮像した画像と、当該画像に映っている通行者を分類した場合の分類結果の正解値とを対応付けた教師データを取得する(ステップS11)。教師データは、例えば画像内の一又は複数の通行者それぞれに対し、性別、年齢等の属性、行動、所持品といった情報をラベル付けしたデータである。
FIG. 7 is a flowchart showing a processing procedure of generation processing of the
The
制御部11は教師データを用いて、通行者の撮像画像を入力した場合に当該通行者を分類した分類結果を出力する分類モデル141(学習済みモデル)を生成する(ステップS12)。具体的には、制御部11は、教師データである撮像画像をニューラルネットワークの入力層に入力し、撮像画像内の通行者を分類した分類結果を出力層から取得する。制御部11は、取得した分類結果を教師データの正解値(撮像画像に対してラベル付けられた情報)と比較し、出力層から出力される分類結果が正解値に近づくよう、中間層での演算処理に用いるパラメータ(重み等)を最適化する。制御部11は、生成した分類モデル141を補助記憶部14に格納し、一連の処理を終了する。
The
図8は、通行者の分類処理の処理手順を示すフローチャートである。図8に基づき、分類モデル141を用いて通行者を分類する処理の内容を説明する。
サーバ1の制御部11は、道路沿いに設置された電柱に設けられたカメラ2から、道路を通行する通行者を撮像した画像を取得する(ステップS31)。具体的には、制御部11は、道路沿いの複数の地点それぞれに設置されている各電柱に対応するカメラ2、2、2…からそれぞれ、道路を継続的に撮像した動画像を取得する。また、制御部11は、画像を撮像した際の日時、及び各撮像時点における各地点の天候情報等を取得する(ステップS32)。
FIG. 8 is a flowchart showing the processing procedure of the passer-by classification. The contents of the process of classifying passers by using the
The
制御部11は、カメラ2から取得した画像を分類モデル141に入力し、画像に映る通行者を分類した分類結果を分類モデル141から取得する(ステップS33)。具体的には、制御部11は、各カメラ2から取得した動画像を構成する各フレーム画像を分類モデル141に入力し、各撮像時点、及び各地点で撮像された通行者を分類した分類結果を取得する。例えば制御部11は、通行者を性別、年齢等で区分した属性、施設への入退場動作を含む行動、所持品等の基準で分類した分類結果を取得する。制御部11は、撮像時点及び撮像地点と関連付けて通行者の分類結果を通行者DB143に記憶し(ステップS34)、一連の処理を終了する。
The
図9は、通行情報の出力処理の処理手順を示すフローチャートである。図9に基づき、通行情報の出力処理の内容について説明する。
サーバ1の制御部11は、端末4から、出力対象とする通行情報の地点、日時(撮像時点)等に関する指定入力を受け付ける(ステップS51)。例えば制御部11は、通行情報の出力対象とする地点と、出力対象とする日付とを指定する指定入力を受け付ける。制御部11は、指定された地点付近に設置されたカメラ2による撮像画像から得た通行者の分類結果であって、指定された日付に撮像された画像から得た通行者の分類結果を通行者DB143から読み出す(ステップS52)。例えば制御部11は、指定された地点及び日付と関連付けて通行者DB143に記憶されている通行者の分類結果と、指定された地点及び日付における天候情報とを読み出す。
FIG. 9 is a flowchart showing the processing procedure of the output processing of the traffic information. The contents of the traffic information output process will be described with reference to FIG.
The
制御部11は、読み出した通行者の分類結果に基づき、指定された日付において指定された地点を通行した通行者に関する通行情報を生成する(ステップS53)。例えば制御部11は、該当地点を通行した通行者の人数を時間帯別及び天候別に示すグラフのほか、属性、動作、所持品等の分類基準別に通行者の人数を集計したグラフなど、指定された地点及び日付(撮像時点)における通行者の分布状況を示す通行情報を生成する。また、制御部11は、分類モデル141を用いて検出した通行者の入退場動作に基づき、道路脇に存在する施設(店舗)に入退場する通行者に関する入退場情報を通行情報の一つとして生成する。制御部11は、生成した通行情報を端末4に出力し(ステップS54)、一連の処理を終了する。
The
以上より、本実施の形態1によれば、既に道路(公共空間)に多く設置されている電柱(配電設備)にカメラ2(撮像装置)を取り付けることで通行者を好適に撮像可能であると共に、機械学習により生成された分類モデル141を用いて通行者を分類することで、通行者の特徴を正確に分析することができる。これにより、公共空間を通行する通行者を的確に把握することができる。
As described above, according to the first embodiment, by attaching the camera 2 (imaging device) to the telephone pole (power distribution equipment) which is already installed in many places on the road (public space), the passerby can be suitably imaged. By classifying the passers-by using the
また、本実施の形態1によれば、道路に数多く設置されている各電柱にカメラ2を取り付けると共に、各カメラ2で継続的に撮像を行うことで、空間的に広範な観察を可能としつつ、時系列に則した観察も可能となる。
In addition, according to the first embodiment, the
また、本実施の形態1によれば、通行者が通行した地点及び時刻(撮像時点)と関連付けて通行者の分類結果を記憶しておくことで、各地点を通行する通行者の情報を蓄積したビッグデータを構築することができる。 Further, according to the first embodiment, by storing the classification result of the passerby in association with the point and the time (imaging time) at which the passerby passes, the information of the passerby passing through each point is accumulated. Big data can be constructed.
また、本実施の形態1によれば、天候情報と関連付けて通行者の分類結果を記憶しておくことで、天候に応じた通行量、通行する人の属性等を把握することができる。 In addition, according to the first embodiment, by storing the classification result of the passers-by in association with the weather information, it is possible to grasp the passing amount according to the weather, the attributes of the passing people, and the like.
また、本実施の形態1によれば、マーケティング等に有用な情報をユーザに提供することができる。 Further, according to the first embodiment, it is possible to provide the user with information useful for marketing and the like.
また、本実施の形態1によれば、撮像画像を元に処理を行うため、単に通行者の属性を把握(分類)可能なだけでなく、通行者がどのような行動(振る舞い)をしていたかまで把握可能となる。これにより、例えばスマートフォン等のGPS(Global Positioning System)機能などを用いたビッグデータ収集よりも深度が高い分析が可能であり、通行者の情報をより的確に把握可能となる。 Further, according to the first embodiment, since the processing is performed based on the captured image, not only the attributes of the passerby can be grasped (classified), but also the behavior (behavior) of the passerby is performing. It will be possible to grasp even the highest. This enables a deeper analysis than the big data collection using a GPS (Global Positioning System) function of a smartphone or the like, and makes it possible to more accurately grasp the information of passersby.
また、本実施の形態1によれば、道路脇に存在する施設(店舗)への通行者の入退場動作を検出して入退場情報を提供することができ、よりマーケティングに有用な情報をユーザに提供することができる。 In addition, according to the first embodiment, it is possible to detect the entry/exit action of a passerby to/from the facility (store) existing on the side of the road and provide the entry/exit information, so that the user can obtain more useful information for marketing. Can be provided to.
また、本実施の形態1によれば、通行者の所持品も識別(分類)することで、性別等の属性を始めとする通行者の情報をより的確に把握可能となる。 Further, according to the first embodiment, by identifying (classifying) the belongings of the passerby, it is possible to more accurately grasp the passerby information including attributes such as gender.
(実施の形態2)
本実施の形態では、複数の地点で撮像された画像から通行者の動線を特定する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図10は、実施の形態2の概要を示す説明図である。サーバ1は実施の形態1と同様に、複数の地点それぞれに設置された各電柱に取り付けられている各カメラ2から動画像を取得し、各地点、各撮像時点(時刻)において撮像されたフレーム画像から通行者を認識し、年齢、性別等の属性、歩行速度、方向等の行動、あるいは所持品などに応じて分類する。本実施の形態ではさらに、サーバ1はマルチカメラ連携を行い、複数の地点それぞれで撮像された各フレーム画像から分類(識別)した通行者の分類結果に基づき、同一の通行者が各地点を通行した動線を特定する。
(Embodiment 2)
In the present embodiment, a mode in which the flow line of a passerby is specified from images captured at a plurality of points will be described. In addition, the same reference numerals will be given to the same contents as those in the first embodiment, and the description thereof will be omitted.
FIG. 10 is an explanatory diagram showing an outline of the second embodiment. Similar to the first embodiment, the server 1 acquires a moving image from each
例えばサーバ1は、分類モデル141から出力された属性、所持品等の分類結果に基づき、通行者の匿名認証を行う。サーバ1は、分類結果が同一の通行者が撮像された地点(例えばカメラ2の設置地点)、撮像時点を特定し、当該通行者が撮像された地点及び撮像時点をマッピングする。サーバ1は、撮像時点に従った順序で通行者が撮像された各地点を並べ、通行者が移動したと推定される動線を特定する。
For example, the server 1 performs anonymity authentication of passers-by based on the classification result output from the
なお、上記においてサーバ1は、各カメラ2で撮像した画像から特定した各地点での通行者の歩行速度、方向、位置、入退場動作などの行動に基づき、通行者がどの店舗の前を通過し、どの店舗の前で立ち止まり、どの店舗に入退場したか等を特定してもよい。すなわちサーバ1は、単に複数のカメラ2の画像から個々の通行者の動線を特定するだけでなく、動線上における個々の通行者の動作(立ち振る舞い)を特定するようにしてもよい。これにより、通行者がどのような経路でどのように行動していたかを、より詳細に把握することができる。
In the above, the server 1 allows the passerby to pass in front of which store based on the behavior such as the walking speed, the direction, the position, and the entry/exit operation of the passerby at each point specified from the images captured by the
図11は、動線分布情報の表示画面の一例を示す説明図である。サーバ1は、上記で特定した各通行者の動線に基づき、対象地域(公共空間)を通行者らがどのように移動するか、動線の分布状況を示す動線分布情報を生成して端末4に出力する。 FIG. 11 is an explanatory diagram showing an example of a display screen of flow line distribution information. The server 1 generates flow line distribution information indicating how the passersby move in the target area (public space) based on the flow lines of the passers identified above and the flow line distribution information. Output to the terminal 4.
例えばサーバ1は、端末4を介して対象地域の指定入力を受け付ける。具体的には、サーバ1は鉄道駅の駅名等の入力を受け付ける。サーバ1は、該当する駅周辺の地域における各通行者の動線を特定し、各通行者の動線をマップ上で重ね合わせて動線分布情報を生成する。なお、図11では線の太さが通行者の人数の大小を表す。図11に示すように、対象地域において通行者らがどのような経路で移動しているか、特に多くの通行者が共通して行き来する鉄道駅から、あるいは鉄道駅に向かってどのような経路で移動するかを一目で把握可能となる。 For example, the server 1 receives a designation input of the target area via the terminal 4. Specifically, the server 1 receives the input of the station name of the railway station. The server 1 identifies the flow line of each passerby in the area around the corresponding station, and superimposes the flow line of each passerby on the map to generate flow line distribution information. In FIG. 11, the thickness of the line indicates the size of the number of passersby. As shown in FIG. 11, how the passers-by move in the target area, especially from the railway station where many passers-by come and go in common, or the route toward the railway station. It is possible to grasp at a glance whether to move.
なお、サーバ1は単に全ての通行者の動線を重ね合わせて動線分布情報を生成するのみならず、例えば通行者の属性、時間帯等の基準で対象者を絞り込んで動線分布情報を生成してもよいことは勿論である。あるいはサーバ1は、施設(店舗)をキーに対象者を絞り込み、該当する施設に入退場した通行者の動線分布情報を生成するようにしてもよい。あるいはサーバ1は、該当する施設に入退場した通行者の動線を、他の通行者の動線とは異なる色で表示するなど、異なる態様で表示する動線分布情報を生成するようにしてもよい。これにより、該当する施設のマーケティング対策のためにより有用な情報を提供することができる。 The server 1 does not simply generate the flow line distribution information by superimposing the flow lines of all the passers-by, but narrows down the target people based on, for example, the attributes of the passers-by, time zones, etc. to obtain the flow-line distribution information. Of course, it may be generated. Alternatively, the server 1 may narrow down the target persons by using the facility (store) as a key and generate the flow line distribution information of the passers-by who enter and exit the relevant facility. Alternatively, the server 1 may generate flow line distribution information to be displayed in a different manner, such as displaying the flow lines of passers-by who have entered or exited the relevant facility in a different color from the flow lines of other passers-by. Good. This makes it possible to provide more useful information for marketing measures for the relevant facility.
また、図11で例示する表示画面では通行者の人数の大小を線の太さで表すのみであったが、例えば端末4は、各通行者が撮像された時点の時系列に沿って、各通行者の動き(動線)を再生する形で動線分布情報を表示してもよい。これにより、各地点で各時間帯にどの程度の通行者が存在するか、ユーザは直感的に把握することができる。 Further, in the display screen illustrated in FIG. 11, the size of the number of passersby is only represented by the thickness of the line, but for example, the terminal 4 displays each passerby in a time series at the time when each passerby is imaged. The flow line distribution information may be displayed by reproducing the movement (flow line) of the passerby. This allows the user to intuitively understand how many passers-by at each time zone exist at each point.
図12は、動線特定処理の処理手順を示すフローチャートである。
サーバ1の制御部11は、端末4を介して、動線分布情報を生成する対象地域の指定入力を受け付ける(ステップS201)。なお、制御部11はステップS201において、対象とする通行者の属性、日時(時間帯等)、あるいは通行者が入退場した施設等を絞り込み条件として指定入力を受け付けてもよい。制御部11は、対象地域の複数の地点それぞれに対応するフレーム画像からそれぞれ取得した通行者の分類結果に基づき、各通行者が通行した動線を特定する(ステップS202)。具体的には、制御部11は分類モデル141から出力された分類結果に基づいて通行者の匿名認証を行い、複数の地点それぞれで撮像された通行者を特定する。制御部11は、通行者が通行した各地点、及び通行者が通行した時刻(撮像時点)に基づいてマッピングを行い、通行者毎に動線を特定する。
FIG. 12 is a flowchart showing the processing procedure of the flow line identification processing.
The
制御部11は、複数の通行者それぞれについて特定した動線の分布状況を示す動線分布情報を生成する(ステップS203)。例えば制御部11は、対象地域のマップ上に各通行者の動線を重ね合わせた動線分布情報を生成する。制御部11は、生成した動線分布情報を端末4に出力し(ステップS204)、一連の処理を終了する。
The
以上より、本実施の形態2によれば、通行者の追跡(トラッキング)を行うことができ、通行者の行動をより的確に把握可能となる。 As described above, according to the second embodiment, the passerby can be tracked (tracking), and the behavior of the passerby can be more accurately grasped.
また、本実施の形態2によれば、各通行者の動線分布情報を提示することができ、マーケティング等においてより有用な情報を提供することができる。 Further, according to the second embodiment, it is possible to present the flow line distribution information of each passerby, and it is possible to provide more useful information in marketing and the like.
(実施の形態3)
本実施の形態では、通行者を撮像時の撮像条件に応じて、通行者を分類する際に用いる分類モデル141を選択する形態について説明する。
図13は、実施の形態3の概要を示す説明図である。本実施の形態においてサーバ1は、通行者を撮像する際の撮像条件に応じて、予め複数の分類モデル141を生成して保持しておく。撮像条件は、例えば撮像時点における電柱付近の天気(天候情報)である。例えばサーバ1は、晴天時に撮像された画像を元に学習を行った晴天時用の分類モデル141と、雨天時に撮像された画像を元に学習を行った雨天時用の分類モデル141との2種類の分類モデル141を用意しておく。
(Embodiment 3)
In the present embodiment, a mode will be described in which a
FIG. 13 is an explanatory diagram showing an outline of the third embodiment. In the present embodiment, the server 1 generates and holds a plurality of
電柱におけるカメラ2の取付位置は特に限定されないが、多くの場合はカメラ2をアーム(腕金)上、あるいはアーム付近に取り付け、通行者を高所から撮像することが想定される。一方で、雨天時において通行者の多くは傘を差していることが想定される。従って、雨天時に通行者を撮像した場合、通行者の上半身が撮像されず、通行者の属性等が認識されず、適切な分類が不可能となる虞がある。
The mounting position of the
そこで本実施の形態では、晴天時用及び雨天時用の2種類の分類モデル141を用意しておく。なお、サーバ1が用意する分類モデル141の数は2種類に限定されず、例えば積雪時用の分類モデル141を用意するなど、3種類以上としてもよい。
Therefore, in this embodiment, two types of
サーバ1は、雨天時に撮像された画像、すなわち多くの通行者が傘を差している画像を元に学習を行い、雨天時用の分類モデル141を生成する。具体的には、サーバ1は、撮像画像から通行者が差している傘を認識し、認識した傘の画像特徴量を分類モデル141に学習させることで、通行者の傘から通行者の属性を分類する分類モデル141を生成する。例えばサーバ1は、男性用傘及び女性用傘それぞれの色、形状等の画像特徴量を学習させ、男性用の傘であるか、あるいは女性用の傘であるかに応じて通行者の性別を分類する分類モデル141を生成する。
The server 1 performs learning based on an image taken in the rain, that is, an image in which many passersby are holding umbrellas, and generates a
また、例えばサーバ1は、上記の傘に加えて、通行者の身長を学習対象とし、身長から成人又は子供の別を推定して通行者の年齢を分類可能なように学習を行ってもよい。あるいはサーバ1は、ズボン、靴等の下半身の服装を学習対象に加え、下半身の服装から性別、年齢等を分類可能なように学習を行ってもよい。このように、傘によって通行者の上半身(特に顔)が隠れてしまう場合に備えて、雨天時用の分類モデル141を生成する。
Further, for example, the server 1 may perform learning such that the height of a passerby is a learning target in addition to the umbrella described above, and whether the adult is a child or a child is estimated from the height so that the age of the passerby can be classified. .. Alternatively, the server 1 may add the lower body clothes such as pants and shoes to the learning target, and perform learning so that the sex, age, etc. can be classified from the lower body clothes. In this way, the
サーバ1は、撮像時点の天気を元に分類モデル141を選択し、選択した分類モデル141に画像を入力して通行者を分類する。具体的には、サーバ1は、分類モデル141を用いて通行者の傘、身長、下半身の服装等の特徴量を抽出し、抽出した特徴量に応じて通行者の性別、年齢等の属性を分類する。サーバ1は、分類結果を撮像地点、撮像時点等のほかに天気(天候情報)と関連付けて通行者DB143に記憶する。
The server 1 selects the
なお、上記では分類モデル141の種類を規定する撮像条件として天気を用いたが、例えば気温、湿度、風速等のその他の天候情報を撮像条件として用いてもよい。また、例えば撮像条件として、時間帯(昼又は夜)、季節等の時期的条件、あるいは地域等の地理的条件を用いてもよい。すなわち、撮像条件は撮像時点及び撮像地点に関連する条件であればよく、その内容は特に限定されない。
Although weather is used as the imaging condition that defines the type of the
図14は、実施の形態3に係る通行者の分類処理の処理手順を示すフローチャートである。
カメラ2から撮像画像を取得し(ステップS31)、撮像時点の日時、撮像地点の天候情報等を取得した後(ステップS32)、サーバ1の制御部11は以下の処理を実行する。制御部11は、画像を撮像した際の撮像条件に応じて分類モデル141を選択する(ステップS301)。例えば制御部11は、ステップS32で取得した天候情報に応じて分類モデル141を選択する。制御部11は、選択した分類モデル141に撮像画像を入力し、通行者を分類する(ステップS302)。制御部11は処理をステップS34に移行する。
FIG. 14 is a flowchart showing the processing procedure of the passerby classification processing according to the third embodiment.
After acquiring the captured image from the camera 2 (step S31) and acquiring the date and time of the image capturing, the weather information of the image capturing point, and the like (step S32), the
以上より、本実施の形態3によれば、撮像条件に応じて異なる分類モデル141を用いることで、通行者をより的確に把握可能となる。
As described above, according to the third embodiment, by using
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the meanings described above but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.
1 サーバ(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P プログラム
141 分類モデル
142 電柱DB
143 通行者DB
2 カメラ
3 センサ
4 端末
1 server (information processing device)
143 Passer DB
2 camera 3 sensor 4 terminal
Claims (16)
前記画像を入力した場合に前記通行者を分類するよう学習済みの学習済みモデルに、取得した前記画像を入力し、
前記学習済みモデルから前記通行者の分類結果を取得する
処理をコンピュータに実行させることを特徴とする情報処理方法。 From an image pickup device attached to a power distribution facility installed in a public space, an image of a passerby passing through the public space is acquired,
In the learned model that has been trained to classify the passers-by when the image is input, input the acquired image,
An information processing method, comprising causing a computer to execute a process of acquiring the classification result of the passers-by from the learned model.
前記動画像を構成する各撮像時点のフレーム画像を前記学習済みモデルに入力し、
前記学習済みモデルから、各地点及び撮像時点に対応する前記フレーム画像に映る前記通行者の分類結果を取得する
ことを特徴とする請求項1に記載の情報処理方法。 From each of the imaging devices corresponding to each of the power distribution equipment installed in each of the plurality of points of the public space, to obtain a moving image continuously captured the public space,
The frame images at the time of each image forming the moving image are input to the learned model,
The information processing method according to claim 1, wherein a classification result of the passerby reflected in the frame image corresponding to each point and an imaging time point is acquired from the learned model.
ことを特徴とする請求項2に記載の情報処理方法。 The information processing method according to claim 2, wherein the storage unit stores a classification result of the passers-by shown in the frame image in association with the point corresponding to the frame image and the image capturing time.
前記地点及び撮像時点と関連付けて、前記通行者の分類結果及び前記天候情報を前記記憶部に記憶する
ことを特徴とする請求項3に記載の情報処理方法。 Obtaining weather information of the point at the time of the imaging,
The information processing method according to claim 3, wherein the classification result of the passerby and the weather information are stored in the storage unit in association with the point and the image capturing time.
指定された前記地点及び撮像時点に対応する前記通行者の分類結果に基づき、前記撮像時点に前記地点を通行した前記通行者に関する通行情報を生成し、
前記通行情報を出力する
ことを特徴とする請求項4に記載の情報処理方法。 Accept the specified input about the point and the time of imaging,
Based on a classification result of the passerby corresponding to the designated point and the image capturing time point, generate passer information about the passerby who has passed the point at the image capturing point point,
The information processing method according to claim 4, wherein the traffic information is output.
ことを特徴とする請求項2〜5のいずれか1項に記載の情報処理方法。 The flow line of the same passerby is specified based on a classification result of the passerby obtained from the frame images corresponding to a plurality of points, respectively. The information processing method described in the section.
生成した前記動線分布情報を出力する
ことを特徴とする請求項6に記載の情報処理方法。 Based on the flow lines of each of the plurality of passers-by, generate flow line distribution information indicating a distribution state of the flow lines in the public space,
The information processing method according to claim 6, wherein the generated flow line distribution information is output.
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理方法。 The information processing method according to claim 1, wherein a classification result obtained by classifying the passers-by according to the behavior of the passers-by is acquired from the learned model.
取得した分類結果に基づき、前記施設に入退場する前記通行者に関する入退場情報を生成し、
生成した前記入退場情報を出力する
ことを特徴とする請求項8に記載の情報処理方法。 From the learned model, obtain a classification result that classifies the passers-by according to the entrance and exit actions of the passers-by to the facilities existing in the public space,
Generate entrance/exit information about the passers-by entering/leaving the facility based on the obtained classification result,
The information processing method according to claim 8, wherein the generated entrance/exit information is output.
ことを特徴とする請求項1〜9のいずれか1項に記載の情報処理方法。 The information processing according to any one of claims 1 to 9, wherein a classification result in which the attributes of the passerby are classified according to the belongings possessed by the passerby is acquired from the learned model. Method.
前記撮像条件に応じて前記通行者を分類する複数の前記学習済みモデルのうちいずれかを、取得した前記撮像条件に関する情報に基づいて選択し、
選択した前記学習済みモデルに前記画像を入力する
ことを特徴とする請求項1〜10のいずれか1項に記載の情報処理方法。 Acquiring information about the imaging conditions when the imaging device images the passerby,
Any one of the plurality of learned models that classify the passers-by according to the imaging conditions is selected based on the acquired information about the imaging conditions,
The information processing method according to any one of claims 1 to 10, wherein the image is input to the selected learned model.
前記天候情報に応じて、前記通行者が差している傘から前記通行者を分類する前記学習済みモデルを選択する
ことを特徴とする請求項11に記載の情報処理方法。 The information regarding the imaging conditions is weather information when the imaging device images the passerby,
The information processing method according to claim 11, wherein the learned model for classifying the passerby is selected from an umbrella held by the passerby according to the weather information.
前記画像を入力した場合に前記通行者を分類するよう学習済みの学習済みモデルに、取得した前記画像を入力し、
前記学習済みモデルから前記通行者の分類結果を取得する
処理をコンピュータに実行させることを特徴とするプログラム。 From an image pickup device attached to a power distribution facility installed in a public space, an image of a passerby passing through the public space is acquired,
In the learned model that has been trained to classify the passers-by when the image is input, input the acquired image,
A program for causing a computer to execute a process of acquiring the classification result of the passerby from the learned model.
前記画像を入力した場合に前記通行者を分類するよう学習済みの学習済みモデルに、取得した前記画像を入力する入力部と、
前記学習済みモデルから前記通行者の分類結果を取得する分類部と
を備えることを特徴とする情報処理装置。 An acquisition unit that acquires an image of a passerby passing through the public space from an imaging device attached to a power distribution facility installed in the public space,
An input unit that inputs the acquired image into a learned model that has been learned to classify the passers-by when the image is input,
An information processing device, comprising: a classification unit that acquires a classification result of the passerby from the learned model.
取得した教師データに基づき、前記画像を入力した場合に前記通行者を分類した分類結果を出力する学習済みモデルを生成する
処理をコンピュータに実行させることを特徴とする学習済みモデルの生成方法。 Acquiring teacher data in which an image of a passerby passing through a public space and a correct value of a classification result obtained by classifying the passerby are associated with each other,
A method of generating a learned model, comprising causing a computer to execute a process of generating a learned model that outputs a classification result obtained by classifying the passersby when the image is input based on the acquired teacher data.
前記入力層からの出力が入力されるように結合されており、前記画像と、前記通行者を分類した分類結果の正解値とを対応付けた教師データに基づき、前記画像から画像特徴量を抽出する演算処理に用いるパラメータを学習済みの中間層と、
前記中間層からの出力が入力されるよう結合されており、前記中間層における演算結果に基づいて、前記通行者を分類した分類結果を出力する出力層と
を備え、
前記画像を前記入力層に入力し、前記中間層における演算処理を行い、前記出力層から前記通行者の分類結果を出力するようコンピュータを機能させるための学習済みモデル。 An input layer that receives an input of an image obtained by imaging a passerby from an imaging device attached to a power distribution facility installed in a public space,
An image feature amount is extracted from the image based on teacher data that is combined so that an output from the input layer is input and that associates the image with a correct value of a classification result of classifying the passerby. The middle layer that has already learned the parameters used for the arithmetic processing
An output layer that is coupled so that the output from the middle layer is input, and that outputs a classification result in which the passers-by are classified based on a calculation result in the middle layer,
A learned model for causing a computer to input the image to the input layer, perform arithmetic processing on the intermediate layer, and output the classification result of the passerby from the output layer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018231829A JP6874754B2 (en) | 2018-12-11 | 2018-12-11 | Information processing method, program, information processing device, trained model generation method and trained model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018231829A JP6874754B2 (en) | 2018-12-11 | 2018-12-11 | Information processing method, program, information processing device, trained model generation method and trained model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020096255A true JP2020096255A (en) | 2020-06-18 |
JP6874754B2 JP6874754B2 (en) | 2021-05-19 |
Family
ID=71085086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018231829A Active JP6874754B2 (en) | 2018-12-11 | 2018-12-11 | Information processing method, program, information processing device, trained model generation method and trained model |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6874754B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023187958A1 (en) * | 2022-03-29 | 2023-10-05 | 日本電気株式会社 | Traffic flow analysis device, traffic flow analysis method, and program recording medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011008571A (en) * | 2009-06-26 | 2011-01-13 | Shunkosha:Kk | Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method |
JP2011103019A (en) * | 2009-11-10 | 2011-05-26 | Omron Corp | Effect controller |
JP2012038089A (en) * | 2010-08-06 | 2012-02-23 | Nikon Corp | Information management device, data analysis device, signal, server, information management system, and program |
JP2013257637A (en) * | 2012-06-11 | 2013-12-26 | Denso Corp | Person detection device |
JP2015002553A (en) * | 2013-06-18 | 2015-01-05 | キヤノン株式会社 | Information system and control method thereof |
JP2017138861A (en) * | 2016-02-04 | 2017-08-10 | ソフトバンク株式会社 | Road traffic investigation system |
WO2018110164A1 (en) * | 2016-12-15 | 2018-06-21 | 日本電気株式会社 | Information processing system, information processing method, and information processing program |
JP2018142137A (en) * | 2017-02-27 | 2018-09-13 | 日本電気株式会社 | Information processing device, information processing method and program |
-
2018
- 2018-12-11 JP JP2018231829A patent/JP6874754B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011008571A (en) * | 2009-06-26 | 2011-01-13 | Shunkosha:Kk | Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method |
JP2011103019A (en) * | 2009-11-10 | 2011-05-26 | Omron Corp | Effect controller |
JP2012038089A (en) * | 2010-08-06 | 2012-02-23 | Nikon Corp | Information management device, data analysis device, signal, server, information management system, and program |
JP2013257637A (en) * | 2012-06-11 | 2013-12-26 | Denso Corp | Person detection device |
JP2015002553A (en) * | 2013-06-18 | 2015-01-05 | キヤノン株式会社 | Information system and control method thereof |
JP2017138861A (en) * | 2016-02-04 | 2017-08-10 | ソフトバンク株式会社 | Road traffic investigation system |
WO2018110164A1 (en) * | 2016-12-15 | 2018-06-21 | 日本電気株式会社 | Information processing system, information processing method, and information processing program |
JP2018142137A (en) * | 2017-02-27 | 2018-09-13 | 日本電気株式会社 | Information processing device, information processing method and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023187958A1 (en) * | 2022-03-29 | 2023-10-05 | 日本電気株式会社 | Traffic flow analysis device, traffic flow analysis method, and program recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP6874754B2 (en) | 2021-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ye et al. | Measuring daily accessed street greenery: A human-scale approach for informing better urban planning practices | |
Zhang et al. | Social sensing from street-level imagery: A case study in learning spatio-temporal urban mobility patterns | |
Li et al. | Exploring the association between street built environment and street vitality using deep learning methods | |
Wieland et al. | Estimating building inventory for rapid seismic vulnerability assessment: Towards an integrated approach based on multi-source imaging | |
US20170287170A1 (en) | System and Method for Locating and Performing Fine Grained Classification from Multi-View Image Data | |
Li et al. | Integrating GIS, deep learning, and environmental sensors for multicriteria evaluation of urban street walkability | |
JP4069932B2 (en) | Human detection device and human detection method | |
JP5002441B2 (en) | Marketing data analysis method, marketing data analysis system, data analysis server device, and program | |
CN116227834A (en) | Intelligent scenic spot digital platform based on three-dimensional point cloud model | |
CN110532970A (en) | Age-sex's property analysis method, system, equipment and the medium of face 2D image | |
Park et al. | The usability of Unmanned Aerial Vehicles (UAVs) for pedestrian observation | |
JP6825613B2 (en) | Information processing method, program, information processing device and trained model generation method | |
CN105989174A (en) | Extraction device and extraction method of area of interest | |
Li et al. | Multi-view crowd congestion monitoring system based on an ensemble of convolutional neural network classifiers | |
Huang et al. | Comprehensive urban space representation with varying numbers of street-level images | |
JP6988975B2 (en) | Information processing methods, programs and information processing equipment | |
Rumora et al. | Spatial video remote sensing for urban vegetation mapping using vegetation indices | |
Torrens | Data science for pedestrian and high street retailing as a framework for advancing urban informatics to individual scales | |
Wang et al. | Investigating the potential of crowdsourced street-level imagery in understanding the spatiotemporal dynamics of cities: A case study of walkability in Inner London | |
JP6874754B2 (en) | Information processing method, program, information processing device, trained model generation method and trained model | |
Huang et al. | Estimating urban noise along road network from street view imagery | |
Liu et al. | Clarity or confusion: A review of computer vision street attributes in urban studies and planning | |
Ito et al. | Translating street view imagery to correct perspectives to enhance bikeability and walkability studies | |
CN117407543A (en) | Dynamic hierarchical information database system for historical building | |
Milotta et al. | Visitors Localization in Natural Sites Exploiting EgoVision and GPS. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6874754 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |