JP2020096255A - Information processing method, program, information processing apparatus, learned model generation method, and learned model - Google Patents

Information processing method, program, information processing apparatus, learned model generation method, and learned model Download PDF

Info

Publication number
JP2020096255A
JP2020096255A JP2018231829A JP2018231829A JP2020096255A JP 2020096255 A JP2020096255 A JP 2020096255A JP 2018231829 A JP2018231829 A JP 2018231829A JP 2018231829 A JP2018231829 A JP 2018231829A JP 2020096255 A JP2020096255 A JP 2020096255A
Authority
JP
Japan
Prior art keywords
passerby
image
information
passers
classification result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018231829A
Other languages
Japanese (ja)
Other versions
JP6874754B2 (en
Inventor
公則 古川
Kiminori Furukawa
公則 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Holdings Inc
Original Assignee
Tokyo Electric Power Co Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Holdings Inc filed Critical Tokyo Electric Power Co Holdings Inc
Priority to JP2018231829A priority Critical patent/JP6874754B2/en
Publication of JP2020096255A publication Critical patent/JP2020096255A/en
Application granted granted Critical
Publication of JP6874754B2 publication Critical patent/JP6874754B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing method and the like that can accurately grasp a passerby passing through a public space.SOLUTION: An information processing method causes a computer to execute processing of acquiring an image of a passerby passing through a public space from an imaging device attached to a power distribution facility installed in the public space, inputting the learned model so as to classify the passerby when the image is input, and acquiring the classification result of the passerby from the learned model.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理方法、プログラム、情報処理装置、学習済みモデルの生成方法及び学習済みモデルに関する。 The present invention relates to an information processing method, a program, an information processing device, a learned model generation method, and a learned model.

街頭、施設内等に設置された監視カメラ等の撮像装置を用いて遠隔監視を行う種々のシステムが提案されている。例えば特許文献1では、街頭の電柱等に設置された撮像装置が撮像した画像をリアルタイムで配信する撮影情報提供装置等が開示されている。また、特許文献2では、店舗、駅等の固定点、あるいは鉄道車両、自動車等の移動可能な物体に撮像装置を設けて遠隔監視を行う遠隔監視システム等が開示されている。 Various systems have been proposed for performing remote monitoring using an imaging device such as a monitoring camera installed on the street or in a facility. For example, Patent Document 1 discloses a photographic information providing device and the like that delivers in real time an image captured by an imaging device installed on a street pole or the like. Further, Patent Document 2 discloses a remote monitoring system or the like for performing remote monitoring by providing an imaging device on a fixed point such as a store, a station, or a movable object such as a railroad vehicle or an automobile.

特開2002−185953号公報JP 2002-185953 A 特開2004−312695号公報[Patent Document 1] Japanese Patent Application Laid-Open No. 2004-313695

しかしながら、特許文献1、2に係る発明は撮像装置で撮像された画像の配信、共有等を行うに過ぎず、撮像画像に含まれる被写体を分析するに至っていない。 However, the inventions of Patent Documents 1 and 2 merely distribute and share images captured by the image capturing apparatus, and have not yet analyzed the subject included in the captured images.

一つの側面では、公共空間を通行する通行者を的確に把握することができる情報処理方法等を提供することを目的とする。 In one aspect, it is an object of the present invention to provide an information processing method and the like that can accurately grasp a passerby passing through a public space.

一つの側面では、情報処理方法は、公共空間に設置された配電設備に取り付けた撮像装置から、前記公共空間を通行する通行者を撮像した画像を取得し、前記画像を入力した場合に前記通行者を分類するよう学習済みの学習済みモデルに、取得した前記画像を入力し、前記学習済みモデルから前記通行者の分類結果を取得する処理をコンピュータに実行させることを特徴とする。 In one aspect, the information processing method includes acquiring an image of a passerby passing through the public space from an image pickup device attached to a power distribution facility installed in the public space, and when the image is input, the traffic passing is performed. The acquired image is input to a trained model that has been trained to classify a person, and the computer is caused to execute a process of acquiring a classification result of the passerby from the trained model.

一つの側面では、公共空間を通行する通行者を的確に把握することができる。 In one aspect, it is possible to accurately understand the passersby who pass through public spaces.

通行者分析システムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of a passer-by analysis system. サーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a server. 電柱DB及び通行者DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of a record layout of a telephone pole DB and a passerby DB. 分類モデルの生成処理に関する説明図である。It is explanatory drawing regarding the production|generation process of a classification model. 通行者の分類処理に関する説明図である。It is an explanatory view about classification processing of a passerby. 通行情報の表示画面の一例を示す説明図である。It is an explanatory view showing an example of a display screen of traffic information. 分類モデルの生成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a classification model generation process. 通行者の分類処理の処理手順を示すフローチャートである。It is a flow chart which shows a processing procedure of classification processing of a passerby. 通行情報の出力処理の処理手順を示すフローチャートである。It is a flow chart which shows a processing procedure of output processing of traffic information. 実施の形態2の概要を示す説明図である。FIG. 9 is an explanatory diagram showing an outline of the second embodiment. 動線分布情報の表示画面の一例を示す説明図である。It is explanatory drawing which shows an example of the display screen of flow line distribution information. 動線特定処理の処理手順を示すフローチャートである。It is a flow chart which shows a processing procedure of flow line specific processing. 実施の形態3の概要を示す説明図である。It is explanatory drawing which shows the outline|summary of Embodiment 3. 実施の形態3に係る通行者の分類処理の処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure of passerby classification processing according to the third embodiment.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、通行者分析システムの構成例を示す模式図である。本実施の形態では、道路等の公共空間に設置されたカメラ2により通行者を撮像し、撮像した画像から通行者の属性等を分析する通行者分析システムについて説明する。通行者分析システムは、情報処理装置1、カメラ2、センサ3、端末4を含む。各装置は、インターネット等のネットワークNを介して通信接続されている。
Hereinafter, the present invention will be described in detail with reference to the drawings showing an embodiment thereof.
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of a passerby analysis system. In the present embodiment, a passerby analysis system will be described in which a passerby is imaged by a camera 2 installed in a public space such as a road, and attributes of the passerby are analyzed from the captured image. The passerby analysis system includes an information processing device 1, a camera 2, a sensor 3, and a terminal 4. Each device is communicatively connected via a network N such as the Internet.

情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばサーバ装置、パーソナルコンピュータ等である。本実施の形態では情報処理装置1がサーバ装置であるものとし、以下の説明では簡潔のためサーバ1と読み替える。サーバ1は、道路を通行する通行者を撮像した画像をカメラ2から取得し、取得した画像を分析して、年齢、性別等の属性、あるいは歩行速度、方向、動作といった行動、あるいは所持品などの種々の分類基準に応じて通行者を分類し、通行者の情報を蓄積したビッグデータを構築する。本実施の形態でサーバ1は、撮像画像から通行者を分類(識別)するよう機械学習により学習済みの分類モデル(学習済みモデル)を用いて通行者の分類を行う。 The information processing device 1 is an information processing device capable of various information processing and information transmission/reception, and is, for example, a server device, a personal computer, or the like. In the present embodiment, the information processing device 1 is assumed to be a server device, and will be read as server 1 for simplicity in the following description. The server 1 acquires from the camera 2 an image of a passerby who passes by on the road, analyzes the acquired image, and attributes such as age and sex, or actions such as walking speed, direction, movement, or personal belongings. Passers are classified according to various classification criteria, and big data in which passerby information is accumulated is constructed. In the present embodiment, the server 1 classifies passers by using a classification model (learned model) that has been learned by machine learning so as to classify (identify) passers from the captured image.

カメラ2は、公共空間に設置された撮像装置であり、道路を通行する通行者を撮像する。本実施の形態では、カメラ2は道路沿いに設置された配電設備、具体的には電柱に取り付けられている。カメラ2は、道路沿いの複数の地点それぞれに設置された電柱にそれぞれ取り付けられており、道路を通行する通行者を各地点から継続的に撮像する。サーバ1は、カメラ2において撮像された画像を取得し、取得した画像に映っている通行者の属性等を分析する。また、測定環境によっては,カメラ2の代わりにレーザー、赤外線により人を感知する人感センサを設置し、対象の人数、速度、滞留時間等の人の動線情報について、データを取得してもよい。 The camera 2 is an image pickup device installed in a public space, and picks up an image of a passerby passing through a road. In the present embodiment, the camera 2 is attached to a distribution facility installed along a road, specifically, a utility pole. The cameras 2 are respectively attached to telephone poles installed at a plurality of points along the road, and continuously capture images of passers-by who pass by the road from the points. The server 1 acquires the image captured by the camera 2 and analyzes the attributes of the passerby in the acquired image. Further, depending on the measurement environment, a human sensor for detecting a person by a laser or an infrared ray may be installed in place of the camera 2 and data about the flow line information of the person such as the number of people, speed and dwell time may be acquired. Good.

なお、本実施の形態では配電設備の一例として電柱を挙げるが、配電設備は電柱に限定されず、例えば地中化された電線の地上機器(トランス)などであってもよい。また、配電設備が設置される場所(地点)は道路に限定されず、通行者が通行可能な公共空間であればよい。また、本明細書における「道路」は歩道及び車道のいずれも含み得る。 In the present embodiment, a power pole is taken as an example of the power distribution equipment, but the power distribution equipment is not limited to the power pole, and may be, for example, a ground equipment (transformer) of an underground electric wire. Further, the place (point) where the power distribution equipment is installed is not limited to the road, and may be any public space where passersby can pass. Further, the “road” in the present specification may include both a sidewalk and a roadway.

センサ3は、カメラ2と共に電柱に取り付けられたセンシングデバイスであり、例えば温度計、湿度計、降雨量計、照度計、風速計等である。センサ3は、カメラ2が設置された地点の気温、湿度、降雨量等の天候情報を計測する。サーバ1は、センサ3から画像の撮像地点の天候情報を取得し、通行者の分類結果と関連付けて保存する。 The sensor 3 is a sensing device attached to the telephone pole together with the camera 2, and is, for example, a thermometer, a hygrometer, a rainfall meter, an illuminance meter, an anemometer, or the like. The sensor 3 measures weather information such as temperature, humidity, and rainfall at the point where the camera 2 is installed. The server 1 acquires the weather information of the image capturing point from the sensor 3 and stores it in association with the passerby classification result.

端末4は、サーバ1からビッグデータの提供を受けるユーザが使用する端末装置であり、例えばパーソナルコンピュータ、スマートフォン、タブレット端末等の情報処理端末である。本システムを利用するユーザは特に限定されないが、例えばユーザは該当地点のマーケティングを行う事業者であり、端末4はサーバ1から該当地点の通行者に関する通行情報の配信を受け、通行情報を表示する。 The terminal 4 is a terminal device used by a user who receives the big data provided from the server 1, and is an information processing terminal such as a personal computer, a smartphone, or a tablet terminal. Although the user who uses this system is not particularly limited, for example, the user is a business operator who markets the relevant point, and the terminal 4 receives the traffic information regarding the passerby at the relevant point from the server 1 and displays the traffic information. ..

図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、主記憶部12、通信部13、補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムPを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
FIG. 2 is a block diagram showing a configuration example of the server 1. The server 1 includes a control unit 11, a main storage unit 12, a communication unit 13, and an auxiliary storage unit 14.
The control unit 11 has an arithmetic processing unit such as one or more CPUs (Central Processing Units), MPUs (Micro-Processing Units), and GPUs (Graphics Processing Units), and stores the programs P stored in the auxiliary storage unit 14. By reading and executing, various information processing, control processing, and the like related to the server 1 are performed. The main storage unit 12 is a temporary storage area such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), and a flash memory, and temporarily stores data necessary for the control unit 11 to execute arithmetic processing. Remember. The communication unit 13 is a communication module for performing processing relating to communication, and transmits/receives information to/from the outside.

補助記憶部14は大容量メモリ、ハードディスク等であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。また、補助記憶部14は、分類モデル141、電柱DB142、通行者DB143を記憶している。分類モデル141は、撮像画像に映る通行者を分類する分類器(識別器)であり、機械学習により生成された学習済みモデルである。電柱DB142は、カメラ2が設置された電柱の情報を格納したデータベースである。通行者DB143は、分類モデル141を用いて分類した通行者の分類結果を格納するデータベースである。 The auxiliary storage unit 14 is a large-capacity memory, a hard disk, or the like, and stores the program P and other data necessary for the control unit 11 to execute processing. The auxiliary storage unit 14 also stores a classification model 141, a telephone pole DB 142, and a passer-by DB 143. The classification model 141 is a classifier (classifier) that classifies a passerby in a captured image, and is a learned model generated by machine learning. The utility pole DB 142 is a database that stores information on utility poles in which the camera 2 is installed. The passerby DB 143 is a database that stores the classification results of passersby classified by using the classification model 141.

なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであってもよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。 The auxiliary storage unit 14 may be an external storage device connected to the server 1. Moreover, the server 1 may be a multi-computer including a plurality of computers, or may be a virtual machine virtually constructed by software.

また、本実施の形態においてサーバ1は上記の構成に限られず、例えば可搬型記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。 Further, in the present embodiment, server 1 is not limited to the above-described configuration, and may include, for example, a reading unit that reads information stored in a portable storage medium, an input unit that receives an operation input, a display unit that displays an image, and the like. ..

図3は、電柱DB142及び通行者DB143のレコードレイアウトの一例を示す説明図である。電柱DB142は、電柱ID列、位置情報列、カメラ情報列、センサ情報列を含む。電柱ID列は、道路上に設置された各電柱を識別するための電柱IDを記憶している。位置情報列、カメラ情報列、センサ情報列はそれぞれ、電柱IDと対応付けて、電柱が設置された地点の位置情報、電柱に設置されたカメラ2の情報、及びセンサ3の情報を記憶している。カメラ2の情報は、例えばカメラ2が取り付けられた高さ、撮像角度、倍率、撮像範囲等の情報を含み得る。センサ3の情報は、温度計、湿度計、降雨量計等のセンサ3の種類に関する情報を含み得る。 FIG. 3 is an explanatory diagram showing an example of a record layout of the telephone pole DB 142 and the passer-by DB 143. The utility pole DB 142 includes a utility pole ID sequence, a position information sequence, a camera information sequence, and a sensor information sequence. The telephone pole ID column stores telephone pole IDs for identifying each telephone pole installed on the road. The position information sequence, the camera information sequence, and the sensor information sequence are associated with utility pole IDs, and store the location information of the point where the utility pole is installed, the information of the camera 2 installed on the utility pole, and the information of the sensor 3. There is. The information of the camera 2 may include information such as a height at which the camera 2 is attached, an imaging angle, a magnification, an imaging range, and the like. The information of the sensor 3 may include information about the type of the sensor 3 such as a thermometer, a hygrometer, a rainfall meter, and the like.

通行者DB143は、電柱ID列、日時列、天候列、通行者列を含む。電柱IDは、道路上に設置された各電柱を識別するための電柱IDを記憶している。日時列、天候列、通行者列はそれぞれ、電柱IDと対応付けて、電柱に取り付けられたカメラ2で画像を撮像した日時、該日時における電柱周辺の天候情報、及び画像から分類した通行者の分類結果を記憶している。 The passerby DB 143 includes a telephone pole ID column, a date and time column, a weather column, and a passerby column. The electric pole ID stores the electric pole ID for identifying each electric pole installed on the road. The date/time column, the weather column, and the passerby column are respectively associated with the telephone pole ID, and the date and time when the image is captured by the camera 2 attached to the telephone pole, the weather information around the telephone pole at the date and time, and the passers-by classified by the image. It stores the classification result.

図4は、分類モデル141の生成処理に関する説明図である。図4では、機械学習を行って分類モデル141を生成する処理を概念的に図示している。図4に基づき、分類モデル141の生成処理について説明する。 FIG. 4 is an explanatory diagram regarding the generation process of the classification model 141. FIG. 4 conceptually illustrates a process of performing the machine learning to generate the classification model 141. The generation process of the classification model 141 will be described with reference to FIG.

本実施の形態でサーバ1は、分類モデル141として、カメラ2において撮像された画像内に映る通行者の外見、行動、所持品等に関する画像特徴量を学習するディープラーニングを行うことで、撮像画像を入力とし、通行者を分類した分類結果を出力とするニューラルネットワークを生成する。ニューラルネットワークは例えばCNN(Convolution Neural Network)、具体的にはR−CNN(Regions with CNN)であり、撮像画像の入力を受け付ける入力層と、分類結果を出力する出力層と、撮像画像の画像特徴量を抽出する中間層とを有する。 In the present embodiment, the server 1 performs the deep learning for learning the image feature amount regarding the appearance, behavior, belongings, etc. of the passerby appearing in the image captured by the camera 2 as the classification model 141, thereby capturing the captured image. Generates a neural network that outputs the classification result obtained by classifying the passersby. The neural network is, for example, a CNN (Convolution Neural Network), specifically, an R-CNN (Regions with CNN), and has an input layer that receives an input of a captured image, an output layer that outputs a classification result, and image characteristics of the captured image. And an intermediate layer for extracting an amount.

入力層は、撮像画像に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は複数のニューロンを有し、撮像画像内から対象物(通行者等)を認識し、認識した対象物が映っている画像領域(図4では点線矩形枠で図示)の特徴量を抽出して出力層に受け渡す。例えば分類モデル141がCNNである場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成を有し、対象物の画像領域の画素情報を圧縮しながら最終的に画像特徴量を抽出する。出力層はSVM(Support Vector Machine)に係る識別器であり、通行者の分類結果を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて通行者を分類する。 The input layer has a plurality of neurons that receive the input of the pixel value of each pixel included in the captured image, and transfers the input pixel value to the intermediate layer. The intermediate layer has a plurality of neurons, recognizes an object (passerby, etc.) from the captured image, and extracts the feature amount of the image area (indicated by a dotted rectangular frame in FIG. 4) in which the recognized object is reflected. And pass it to the output layer. For example, when the classification model 141 is CNN, the middle layer alternately includes a convolution layer that convolves the pixel values of each pixel input from the input layer and a pooling layer that maps the pixel values that are convolved by the convolution layer. It has a connected configuration and finally extracts the image feature amount while compressing the pixel information of the image region of the object. The output layer is a classifier related to SVM (Support Vector Machine), has one or a plurality of neurons that output the classification result of the passerby, and classifies the passerby based on the image feature amount output from the intermediate layer. ..

なお、本実施の形態では分類モデル141がCNNであるものとして説明するが、分類モデル141はCNNに限定されず、CNN以外のニューラルネットワーク、ベイジアンネットワーク、決定木など、他の学習アルゴリズムで構築された学習済みモデルであってよい。 Although the classification model 141 is described as a CNN in the present embodiment, the classification model 141 is not limited to CNN, and may be constructed by another learning algorithm such as a neural network other than CNN, a Bayesian network, a decision tree, or the like. It may be a trained model.

サーバ1は、通行者を撮像した複数の画像と、各画像における通行者を属性等に応じて分類した場合の分類結果の正解値とが対応付けられた教師データを用いて学習を行う。例えば図4に示すように、教師データは、通行者の撮像画像に対し、通行者が映っている画像領域の座標範囲と、通行者の分類結果とがラベル付けされたデータである。 The server 1 performs learning using teacher data in which a plurality of images of the passers-by are associated with the correct values of the classification result when the passers-by in each image are classified according to attributes and the like. For example, as shown in FIG. 4, the teacher data is data obtained by labeling the captured image of the passerby with the coordinate range of the image area in which the passerby is shown and the classification result of the passerby.

なお、本明細書の図面では簡略のため一の画像に一人の通行者が映っているものとして図示するが、一の画像内に複数の通行者が映り込んでいても良いことは勿論である。 Note that, in the drawings of this specification, one image of one passer-by is shown for simplification, but it is needless to say that a plurality of passers-by may be shown in one image. ..

サーバ1は、教師データである撮像画像を入力層に入力し、中間層での演算処理を経て、出力層から通行者の分類結果を取得する。なお、出力層から出力される分類結果は離散的な値(例えば「0」又は「1」の値)であってもよく、連続的な確率値(例えば「0」から「1」までの範囲の値)であってもよい。例えばサーバ1は、出力層から出力される分類結果として、性別、年齢といった通行者の属性、歩行速度、歩行する方向、施設(例えば道路脇の店舗)への入退場動作といった通行者の行動、及び所持品などに応じて分類した分類結果を取得する。なお、上記の分類基準の詳細については後述する。 The server 1 inputs the captured image, which is the teacher data, into the input layer, performs the arithmetic processing in the intermediate layer, and acquires the passerby classification result from the output layer. The classification result output from the output layer may be a discrete value (for example, a value of “0” or “1”), and a continuous probability value (for example, a range from “0” to “1”). Value). For example, the server 1 includes, as the classification result output from the output layer, the attributes of the passerby such as gender and age, the walking speed, the walking direction, and the action of the passerby such as entering and leaving the facility (for example, a roadside store). Also, obtain the classification results classified according to your belongings. The details of the above classification criteria will be described later.

サーバ1は、出力層から出力された分類結果を、教師データにおいて撮像画像に対しラベル付けされた情報、すなわち正解値と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えばサーバ1は誤差逆伝播法を用いて各種パラメータの最適化を行う。 The server 1 compares the classification result output from the output layer with the information labeled on the captured image in the teacher data, that is, the correct value, and the intermediate layer so that the output value from the output layer approaches the correct value. Optimize the parameters used for the calculation processing in. The parameter is, for example, a weight between neurons (coupling coefficient), a coefficient of an activation function used in each neuron, or the like. The method of optimizing the parameters is not particularly limited, but the server 1 optimizes various parameters using the error back propagation method, for example.

サーバ1は、教師データに含まれる各撮像画像について上記の処理を行い、分類モデル141を生成する。カメラ2から撮像画像を取得した場合、サーバ1は分類モデル141を用いて通行者を分類する。 The server 1 performs the above processing on each captured image included in the teacher data to generate the classification model 141. When the captured image is acquired from the camera 2, the server 1 classifies the passers-by using the classification model 141.

図5は、通行者の分類処理に関する説明図である。図5では、撮像画像から通行者を種々の基準で分類する様子を概念的に図示している。図5に基づき、通行者の分類処理について説明する。
サーバ1は、道路沿いの複数の地点に設置された各電柱に取り付けられているカメラ2、2、2…からそれぞれ、通行者を撮像した画像を取得する。例えばカメラ2は継続的に撮像を行っており、サーバ1は、通行者が通行する道路をカメラ2が撮像した動画像をリアルタイムに、あるいは動画像の録画データを定期的に取得する。
FIG. 5 is an explanatory diagram relating to a passer-by classification process. FIG. 5 conceptually illustrates how a passerby is classified based on various criteria from a captured image. The passer-by classification process will be described with reference to FIG.
The server 1 acquires an image of a passerby from each of the cameras 2, 2, 2... Attached to each power pole installed at a plurality of points along the road. For example, the camera 2 continuously captures images, and the server 1 acquires in real time a moving image captured by the camera 2 of a road on which a passerby passes, or periodically acquires recorded data of the moving image.

また、サーバ1は、各カメラ2と同じ電柱に取り付けられている各センサ3から、画像を撮像した時点の気温、湿度、降雨量等の天候情報を取得する。なお、サーバ1はセンサ3によらず、例えば所定の外部API(Application Programmable Interface)から該当地点の天候情報を取得するようにしてもよい。すなわち、電柱へのセンサ3の設置は必須ではない。 Further, the server 1 acquires weather information such as temperature, humidity, and rainfall amount at the time of capturing an image from each sensor 3 attached to the same utility pole as each camera 2. It should be noted that the server 1 may acquire the weather information of the point from a predetermined external API (Application Programmable Interface) instead of using the sensor 3. That is, it is not essential to install the sensor 3 on the utility pole.

サーバ1は、カメラ2から取得した画像を分類モデル141に入力し、画像内に映る通行者を分類した分類結果を出力として取得する。例えばサーバ1は、カメラ2で撮像された動画像を構成する各撮像時点でのフレーム画像を分類モデル141に順次入力する。サーバ1は、分類モデル141の中間層にてフレーム画像の特徴量を抽出する演算処理を行い、抽出した特徴量を分類モデル141の出力層に入力して、各地点、各撮像時点で撮像されたフレーム画像に映る通行者を分類した分類結果を出力として取得する。 The server 1 inputs the image acquired from the camera 2 into the classification model 141, and acquires the classification result obtained by classifying the passers-by shown in the image as an output. For example, the server 1 sequentially inputs, into the classification model 141, the frame images at the respective image capturing times that form the moving image captured by the camera 2. The server 1 performs arithmetic processing to extract the feature amount of the frame image in the middle layer of the classification model 141, inputs the extracted feature amount to the output layer of the classification model 141, and is imaged at each point at each imaging time. The classification result obtained by classifying the passersby in the frame image is acquired as an output.

本実施の形態でサーバ1は、通行者を分類する場合に、種々の基準で分類を行う。第1の分類基準として、サーバ1は、通行者の属性に応じて分類を行う。通行者の属性は、例えば性別及び年齢である。例えばサーバ1は、通行者の男女の別、及び未成年、20〜30代、40〜50代、60代以上の年代を分類することで、計8分類で分類する。 In the present embodiment, the server 1 classifies passers by various criteria. As a first classification criterion, the server 1 classifies according to the attributes of passersby. The passerby attributes are, for example, sex and age. For example, the server 1 classifies the males and females of passersby and the ages of minors in their 20s, 40s, 50s, and 60s or more into a total of 8 classifications.

なお、通行者の属性は性別及び年齢に限定されず、例えば通行者の顔(表情)から認識可能な感情等を属性として検知(分類)してもよい。 Note that the attributes of the passerby are not limited to gender and age, and for example, emotions that can be recognized from the face (expression) of the passerby may be detected (classified) as attributes.

サーバ1は、第2の分類基準として、通行者の行動に応じて分類を行う。通行者の行動は、例えば通行者の歩行速度、歩いている方向(行先)、道路上の歩いている位置(右側通行であるか左側通行であるか等)、その他の動作である。 As a second classification criterion, the server 1 classifies according to the behavior of the passerby. The behavior of the passerby is, for example, the walking speed of the passerby, the walking direction (destination), the walking position on the road (whether it is on the right side or the left side, etc.) and other actions.

特に本実施の形態では、サーバ1は、道路脇に立地する店舗、すなわち公共空間に存在する施設への通行者の入退場動作を検出し、検出した入退場動作に応じて通行者を分類する。入退場動作は、通行者が店舗出入口に入場(入店)、又は店舗出入口から退場(退店)する動作である。なお、サーバ1は、入場又は退場のうちいずれか一方のみを検出するようにしてもよい。また、入退場動作は店舗に現に入退場した際の動作に限定されず、例えば店舗前での立ち止まり動作、店舗に視線を向ける動作など、入退場に間接的に関わる動作であってもよい。サーバ1は、検出した入退場動作に応じて、店舗前を通行した通行者のうち、店舗に入退場した通行者と、店舗に入場せず通過した通行者とを分類する。 In particular, in the present embodiment, the server 1 detects an entry/exit action of a passerby to a store located on the side of a road, that is, a facility existing in a public space, and classifies the passerby according to the detected enter/exit action. .. The entry/exit operation is an operation in which a passerby enters (enters) the entrance/exit of the store or exits (exits) from the entrance/exit of the store. It should be noted that the server 1 may detect only one of entry and exit. Further, the entry/exit operation is not limited to the operation at the time of actual entry/exit of the store, and may be an operation indirectly involved in the entry/exit such as a stop operation in front of the store and an operation of directing a line of sight to the store. The server 1 classifies the passers-by who enter and exit the store and the passers-by who pass without entering the store among passers who pass in front of the store according to the detected entry-exit operation.

サーバ1は、第3の分類基準として、通行者の所持品に応じて分類を行う。通行者の所持品は、例えば通行者が所持している傘、紙袋、カバン、スーツケース、飲み物の容器、あるいは通行者の服装、通行者が連れているペット(犬等)などである。サーバ1は、学習時にこれらの所持品の画像特徴量を学習した分類モデル141を生成し、分類モデル141を用いて通行者の所持品を検出し、検出した所持品の種類を判定する。 As a third classification criterion, the server 1 classifies according to the belongings of the passerby. The belongings of the passerby are, for example, an umbrella, a paper bag, a bag, a suitcase, a container for drinks that the passerby possesses, clothes of the passerby, pets (dogs, etc.) taken by the passerby. The server 1 generates a classification model 141 in which the image feature amounts of these belongings are learned during learning, detects the belongings of the passerby using the classification model 141, and determines the type of the detected belongings.

なお、サーバ1は撮像画像から通行者の所持品を検出するだけでなく、所持品に応じて通行者の性別、年齢等を推定することで、通行者の属性を精度良く分類する。例えばサーバ1は、天気が晴れで傘を所持している場合、日傘であるものと判断し、通行者を女性に分類する。また、例えばサーバ1は、通行者がハイヒール、スカート等を身に付けている場合、通行者を女性に分類する。このように、サーバ1は分類モデル141を用いて所持品を検出すると共に、検出した所持品に応じて通行者の属性を分類する。 The server 1 not only detects the belongings of the passerby from the captured image, but also estimates the gender, age, etc. of the passerby according to the belongings, thereby accurately classifying the attributes of the passerby. For example, when the weather is fine and the user has an umbrella, the server 1 determines that the parasol is a parasol and classifies the passerby as a woman. Also, for example, the server 1 classifies a passerby as a woman when the passerby wears high heels, a skirt, or the like. In this way, the server 1 detects the belongings using the classification model 141 and classifies the attributes of passers-by according to the detected belongings.

サーバ1は、各カメラ2から取得した動画像内の各フレーム画像を分類モデル141に入力し、各撮像時点において各地点を通行した通行者を、上記の各分類基準に応じて分類する。なお、サーバ1は一の分類モデル141で上記の各分類基準に応じた分類を行ってもよく、各分類基準に応じて分類モデル141を複数用意しておき、複数の分類モデル141を用いて分類を行ってもよい。 The server 1 inputs each frame image in the moving image acquired from each camera 2 to the classification model 141, and classifies the passers-by who pass through each point at each image capturing time according to each of the above classification criteria. It should be noted that the server 1 may perform classification according to each of the above-described classification standards with one classification model 141, and a plurality of classification models 141 are prepared according to each classification standard, and the plurality of classification models 141 are used. You may classify.

サーバ1は、フレーム画像に映る通行者を分類した分類結果を、当該フレーム画像を撮像した撮像時点(日時)、及び当該フレーム画像を撮像したカメラ2の設置地点と関連付けて通行者DB143に記憶する。サーバ1は上記の処理を継続して行い、通行者DB143に通行者の情報を蓄積する。 The server 1 stores the classification result obtained by classifying the passers-by shown in the frame image in the passer-by DB 143 in association with the image capturing time (date and time) at which the frame image was captured and the installation point of the camera 2 at which the frame image was captured. .. The server 1 continuously performs the above-mentioned processing, and stores the information of the passerby in the passerby DB 143.

図6は、通行情報の表示画面の一例を示す説明図である。サーバ1は端末4からのアクセスに応じて、通行者DB143に記憶してある通行者の情報を端末4に出力(配信)する。図6に基づき、通行情報の出力処理について述べる。 FIG. 6 is an explanatory diagram showing an example of a display screen of traffic information. The server 1 outputs (delivers) the information of the passerby stored in the passerby DB 143 to the terminal 4 in response to the access from the terminal 4. The output processing of the traffic information will be described with reference to FIG.

端末4から出力要求を受け付けた場合、サーバ1は通行者DB143を参照して通行情報を生成し、端末4に出力する。例えばサーバ1はまず、端末4を介して、出力対象とする通行情報の地点、及び日時(撮像時点)に関する指定入力を受け付ける。具体的には、サーバ1は、通行情報の提供を所望する地点と、所望する日付(例えば月及び曜日)とを指定する指定入力を受け付ける。サーバ1は、指定された地点に設置されたカメラ2において、指定された地点及び日付に関連付けて通行者DB143に格納されている通行者の分類結果を参照して、指定された日付に指定された地点を通行した通行者の分類結果を分析した通行情報を生成し、端末4に出力する。 When the output request is received from the terminal 4, the server 1 refers to the passer-by DB 143 to generate the pass information, and outputs the pass information to the terminal 4. For example, the server 1 first accepts, via the terminal 4, a designated input regarding the location of the traffic information to be output and the date and time (imaging time). Specifically, the server 1 accepts a designation input that designates a point at which the traffic information is desired to be provided and a desired date (for example, month and day of the week). The server 1 refers to the passer-by classification result stored in the passer-by DB 143 in association with the designated spot and date in the camera 2 installed at the designated spot, and specifies the designated date. Passage information is generated by analyzing the classification results of passers-by who have passed through the specified point and output to the terminal 4.

図6下側に、サーバ1から出力された通行情報の表示画面の一例を図示する。例えば端末4は、指定された日付に指定された地点を通行した通行者の人数を、時間帯別かつ天候別に集計したグラフを表示する。さらに端末4は、性別、年代といった属性別に通行者を集計したグラフを表示する。また、端末4は、各方向(方角)に歩行していた通行者の人数を天候別に集計したグラフを表示する。また、端末4は、各種所持品を所持していた歩行者の割合を示すグラフを気温別に集計したグラフを表示する。 An example of a display screen of the traffic information output from the server 1 is illustrated on the lower side of FIG. For example, the terminal 4 displays a graph in which the number of passersby who pass through a designated point on a designated date is totaled by time zone and weather. Further, the terminal 4 displays a graph in which passers-by are classified by attributes such as gender and age. In addition, the terminal 4 displays a graph in which the number of passersby walking in each direction (direction) is tabulated according to the weather. In addition, the terminal 4 displays a graph showing the ratio of pedestrians who have various belongings by temperature.

さらにサーバ1は、分類モデル141を用いて検出した、該当地点に存在する施設(店舗)への通行者の入退場動作に基づき、該当施設に入退場する通行者に関する入退場情報を通行情報の一つとして生成し、端末4に出力する。例えばサーバ1は、該当施設に入退場した通行者の人数を時間帯別に集計したグラフと、該当施設に通行者が滞在していた時間を人数別に示すグラフとを生成し、端末4に表示させる。なお、例えばサーバ1は、通行者の入退場人数及び滞在時間を属性別に集計するなど、より詳細な入退場情報を生成するようにしてもよい。これにより、単に道路上の通行者の情報を提示するのみならず、店舗に入退場する通行者の情報を提示することができ、よりマーケティングに適したデータをユーザに提供ことができる。 Further, the server 1 detects the passage information of the entrance/exit information regarding the passers-by/passers entering/exiting the facility based on the entry/exiting action of the passer-by to/from the facility (store) existing at the spot detected by using the classification model 141. It is generated as one and is output to the terminal 4. For example, the server 1 generates a graph in which the number of passers-by who enter and exit the relevant facility is aggregated by time zone, and a graph showing the number of times the passer-by stays in the relevant facility by the number of people, and displays it on the terminal 4. .. In addition, for example, the server 1 may generate more detailed entrance/exit information, such as totaling the number of people who enter and leave the passerby and the staying time for each attribute. Thereby, not only the information of the passers-by on the road but also the information of the passers-by who enter and exit the store can be presented, and the data more suitable for marketing can be provided to the user.

サーバ1は、上記のように通行者の人数等を各分類基準(属性、行動、所持品)に応じて集計することにより、指定された地点及び日付(撮像時点)における通行者の分布状況を示す通行情報を生成し、端末4に出力する。これによりサーバ1は、例えばユーザが該当地点のマーケティングを行う際の参考情報を提供することができる。 As described above, the server 1 collects the number of passersby according to each classification criterion (attribute, behavior, belongings) to determine the distribution status of passersby at a designated point and date (imaging time). The traffic information shown is generated and output to the terminal 4. Thereby, the server 1 can provide reference information, for example, when the user performs marketing at the corresponding point.

以上より、サーバ1は機械学習により生成された分類モデル141を用いて通行者を分類し、道路を通行する通行者の情報を提供することができる。特に本実施の形態では、道路沿いに設置された各電柱にカメラ2を取り付けておき、各カメラ2で継続的に道路を撮像することで、ストリートビューのように線的、面的な観察を可能としつつ、監視カメラのように時系列に則した観察も可能となる。すなわち、両者の特性を併せ持つシステムを実現することができ、マーケティング等に適した通行者の分析を行うことができる。特に電柱は既に多くの道路に設置されており、しかも所定間隔毎に設置されている。これを利用して各電柱にカメラ2を設置することで、観察対象とするエリアを好適にカバーすることができ、通行者の情報をより的確に収集することができる。 As described above, the server 1 can classify the passers-by using the classification model 141 generated by machine learning and provide the information of the passers-by on the road. In particular, in the present embodiment, the camera 2 is attached to each power pole installed along the road, and the road is continuously captured by each camera 2, so that linear and planar observation such as street view can be performed. While making it possible, it is possible to perform observation in time series like a surveillance camera. That is, it is possible to realize a system having both characteristics and analyze a passerby suitable for marketing and the like. In particular, telephone poles have already been installed on many roads and are installed at predetermined intervals. By using this to install the camera 2 on each telephone pole, the area to be observed can be appropriately covered, and the information of passersby can be collected more accurately.

図7は、分類モデル141の生成処理の処理手順を示すフローチャートである。図7に基づき、教師データから分類モデル141を生成する機械学習処理の内容について説明する。
サーバ1の制御部11は、道路を通行する通行者を撮像した画像と、当該画像に映っている通行者を分類した場合の分類結果の正解値とを対応付けた教師データを取得する(ステップS11)。教師データは、例えば画像内の一又は複数の通行者それぞれに対し、性別、年齢等の属性、行動、所持品といった情報をラベル付けしたデータである。
FIG. 7 is a flowchart showing a processing procedure of generation processing of the classification model 141. The contents of the machine learning process for generating the classification model 141 from the teacher data will be described based on FIG. 7.
The control unit 11 of the server 1 acquires teacher data in which an image obtained by capturing a passerby who passes by a road is associated with a correct value of a classification result when the passerby shown in the image is classified (step). S11). The teacher data is, for example, data in which information such as attributes such as sex and age, behavior, and belongings is labeled for each of one or more passers-by in the image.

制御部11は教師データを用いて、通行者の撮像画像を入力した場合に当該通行者を分類した分類結果を出力する分類モデル141(学習済みモデル)を生成する(ステップS12)。具体的には、制御部11は、教師データである撮像画像をニューラルネットワークの入力層に入力し、撮像画像内の通行者を分類した分類結果を出力層から取得する。制御部11は、取得した分類結果を教師データの正解値(撮像画像に対してラベル付けられた情報)と比較し、出力層から出力される分類結果が正解値に近づくよう、中間層での演算処理に用いるパラメータ(重み等)を最適化する。制御部11は、生成した分類モデル141を補助記憶部14に格納し、一連の処理を終了する。 The control unit 11 uses the teacher data to generate a classification model 141 (learned model) that outputs a classification result of classifying the passerby when a captured image of the passerby is input (step S12). Specifically, the control unit 11 inputs the captured image that is the teacher data to the input layer of the neural network, and acquires the classification result obtained by classifying the passers-by in the captured image from the output layer. The control unit 11 compares the obtained classification result with the correct value of the teacher data (information labeled on the captured image), and the classification result in the intermediate layer is adjusted so that the classification result output from the output layer approaches the correct value. Optimize parameters (weight, etc.) used for arithmetic processing. The control unit 11 stores the generated classification model 141 in the auxiliary storage unit 14, and ends the series of processes.

図8は、通行者の分類処理の処理手順を示すフローチャートである。図8に基づき、分類モデル141を用いて通行者を分類する処理の内容を説明する。
サーバ1の制御部11は、道路沿いに設置された電柱に設けられたカメラ2から、道路を通行する通行者を撮像した画像を取得する(ステップS31)。具体的には、制御部11は、道路沿いの複数の地点それぞれに設置されている各電柱に対応するカメラ2、2、2…からそれぞれ、道路を継続的に撮像した動画像を取得する。また、制御部11は、画像を撮像した際の日時、及び各撮像時点における各地点の天候情報等を取得する(ステップS32)。
FIG. 8 is a flowchart showing the processing procedure of the passer-by classification. The contents of the process of classifying passers by using the classification model 141 will be described with reference to FIG.
The control unit 11 of the server 1 acquires an image of a passerby passing by from the camera 2 provided on a telephone pole installed along the road (step S31). Specifically, the control unit 11 acquires moving images in which the road is continuously imaged from the cameras 2, 2, 2... That are installed at the respective points along the road and correspond to the respective utility poles. The control unit 11 also acquires the date and time when the image was captured, the weather information of each point at each image capturing point, and the like (step S32).

制御部11は、カメラ2から取得した画像を分類モデル141に入力し、画像に映る通行者を分類した分類結果を分類モデル141から取得する(ステップS33)。具体的には、制御部11は、各カメラ2から取得した動画像を構成する各フレーム画像を分類モデル141に入力し、各撮像時点、及び各地点で撮像された通行者を分類した分類結果を取得する。例えば制御部11は、通行者を性別、年齢等で区分した属性、施設への入退場動作を含む行動、所持品等の基準で分類した分類結果を取得する。制御部11は、撮像時点及び撮像地点と関連付けて通行者の分類結果を通行者DB143に記憶し(ステップS34)、一連の処理を終了する。 The control unit 11 inputs the image acquired from the camera 2 into the classification model 141, and acquires from the classification model 141 the classification result obtained by classifying the passers-by shown in the image (step S33). Specifically, the control unit 11 inputs each frame image constituting the moving image acquired from each camera 2 into the classification model 141, and classifies the passers-by imaged at each imaging time point and each point. To get. For example, the control unit 11 obtains a classification result in which the passerby is classified by sex, age, and the like, actions including entrance/exit actions to and from the facility, and belongings. The control unit 11 stores the classification result of the passerby in the passerby DB 143 in association with the image pickup time point and the image pickup point (step S34), and ends the series of processes.

図9は、通行情報の出力処理の処理手順を示すフローチャートである。図9に基づき、通行情報の出力処理の内容について説明する。
サーバ1の制御部11は、端末4から、出力対象とする通行情報の地点、日時(撮像時点)等に関する指定入力を受け付ける(ステップS51)。例えば制御部11は、通行情報の出力対象とする地点と、出力対象とする日付とを指定する指定入力を受け付ける。制御部11は、指定された地点付近に設置されたカメラ2による撮像画像から得た通行者の分類結果であって、指定された日付に撮像された画像から得た通行者の分類結果を通行者DB143から読み出す(ステップS52)。例えば制御部11は、指定された地点及び日付と関連付けて通行者DB143に記憶されている通行者の分類結果と、指定された地点及び日付における天候情報とを読み出す。
FIG. 9 is a flowchart showing the processing procedure of the output processing of the traffic information. The contents of the traffic information output process will be described with reference to FIG.
The control unit 11 of the server 1 receives, from the terminal 4, the designation input regarding the location, the date and time (imaging point) of the traffic information to be output, and the like (step S51). For example, the control unit 11 receives a designation input that designates a spot to which the traffic information is output and a date to be the output target. The control unit 11 is a classification result of passers-by obtained from an image captured by the camera 2 installed near a designated point, and the classification result of passers-by obtained from an image captured on a designated date. It is read from the person DB 143 (step S52). For example, the control unit 11 reads out the passerby classification result stored in the passerby DB 143 in association with the designated point and date, and the weather information at the designated point and date.

制御部11は、読み出した通行者の分類結果に基づき、指定された日付において指定された地点を通行した通行者に関する通行情報を生成する(ステップS53)。例えば制御部11は、該当地点を通行した通行者の人数を時間帯別及び天候別に示すグラフのほか、属性、動作、所持品等の分類基準別に通行者の人数を集計したグラフなど、指定された地点及び日付(撮像時点)における通行者の分布状況を示す通行情報を生成する。また、制御部11は、分類モデル141を用いて検出した通行者の入退場動作に基づき、道路脇に存在する施設(店舗)に入退場する通行者に関する入退場情報を通行情報の一つとして生成する。制御部11は、生成した通行情報を端末4に出力し(ステップS54)、一連の処理を終了する。 The control unit 11 generates the pass information regarding the passers-by who pass through the designated spot on the designated date based on the read-out classification result of the passers-by (step S53). For example, the control unit 11 may designate a graph showing the number of passers-by passing by the time zone and the weather as well as a graph summarizing the number of passers-by according to classification criteria such as attributes, actions, and belongings. Passage information indicating the distribution status of passersby at different points and dates (imaging time) is generated. The control unit 11 also uses the entry/exit information of the passers-by, who enter/exit the facility (store) on the side of the road, based on the entry/exit actions of the passers-by detected using the classification model 141. To generate. The control unit 11 outputs the generated traffic information to the terminal 4 (step S54) and ends the series of processes.

以上より、本実施の形態1によれば、既に道路(公共空間)に多く設置されている電柱(配電設備)にカメラ2(撮像装置)を取り付けることで通行者を好適に撮像可能であると共に、機械学習により生成された分類モデル141を用いて通行者を分類することで、通行者の特徴を正確に分析することができる。これにより、公共空間を通行する通行者を的確に把握することができる。 As described above, according to the first embodiment, by attaching the camera 2 (imaging device) to the telephone pole (power distribution equipment) which is already installed in many places on the road (public space), the passerby can be suitably imaged. By classifying the passers-by using the classification model 141 generated by machine learning, the features of the passers-by can be accurately analyzed. As a result, it is possible to accurately grasp the passersby who pass through the public space.

また、本実施の形態1によれば、道路に数多く設置されている各電柱にカメラ2を取り付けると共に、各カメラ2で継続的に撮像を行うことで、空間的に広範な観察を可能としつつ、時系列に則した観察も可能となる。 In addition, according to the first embodiment, the camera 2 is attached to each telephone pole installed on a large number of roads, and continuous imaging is performed by each camera 2, thereby enabling a wide spatial observation. , It is also possible to observe in time series.

また、本実施の形態1によれば、通行者が通行した地点及び時刻(撮像時点)と関連付けて通行者の分類結果を記憶しておくことで、各地点を通行する通行者の情報を蓄積したビッグデータを構築することができる。 Further, according to the first embodiment, by storing the classification result of the passerby in association with the point and the time (imaging time) at which the passerby passes, the information of the passerby passing through each point is accumulated. Big data can be constructed.

また、本実施の形態1によれば、天候情報と関連付けて通行者の分類結果を記憶しておくことで、天候に応じた通行量、通行する人の属性等を把握することができる。 In addition, according to the first embodiment, by storing the classification result of the passers-by in association with the weather information, it is possible to grasp the passing amount according to the weather, the attributes of the passing people, and the like.

また、本実施の形態1によれば、マーケティング等に有用な情報をユーザに提供することができる。 Further, according to the first embodiment, it is possible to provide the user with information useful for marketing and the like.

また、本実施の形態1によれば、撮像画像を元に処理を行うため、単に通行者の属性を把握(分類)可能なだけでなく、通行者がどのような行動(振る舞い)をしていたかまで把握可能となる。これにより、例えばスマートフォン等のGPS(Global Positioning System)機能などを用いたビッグデータ収集よりも深度が高い分析が可能であり、通行者の情報をより的確に把握可能となる。 Further, according to the first embodiment, since the processing is performed based on the captured image, not only the attributes of the passerby can be grasped (classified), but also the behavior (behavior) of the passerby is performing. It will be possible to grasp even the highest. This enables a deeper analysis than the big data collection using a GPS (Global Positioning System) function of a smartphone or the like, and makes it possible to more accurately grasp the information of passersby.

また、本実施の形態1によれば、道路脇に存在する施設(店舗)への通行者の入退場動作を検出して入退場情報を提供することができ、よりマーケティングに有用な情報をユーザに提供することができる。 In addition, according to the first embodiment, it is possible to detect the entry/exit action of a passerby to/from the facility (store) existing on the side of the road and provide the entry/exit information, so that the user can obtain more useful information for marketing. Can be provided to.

また、本実施の形態1によれば、通行者の所持品も識別(分類)することで、性別等の属性を始めとする通行者の情報をより的確に把握可能となる。 Further, according to the first embodiment, by identifying (classifying) the belongings of the passerby, it is possible to more accurately grasp the passerby information including attributes such as gender.

(実施の形態2)
本実施の形態では、複数の地点で撮像された画像から通行者の動線を特定する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図10は、実施の形態2の概要を示す説明図である。サーバ1は実施の形態1と同様に、複数の地点それぞれに設置された各電柱に取り付けられている各カメラ2から動画像を取得し、各地点、各撮像時点(時刻)において撮像されたフレーム画像から通行者を認識し、年齢、性別等の属性、歩行速度、方向等の行動、あるいは所持品などに応じて分類する。本実施の形態ではさらに、サーバ1はマルチカメラ連携を行い、複数の地点それぞれで撮像された各フレーム画像から分類(識別)した通行者の分類結果に基づき、同一の通行者が各地点を通行した動線を特定する。
(Embodiment 2)
In the present embodiment, a mode in which the flow line of a passerby is specified from images captured at a plurality of points will be described. In addition, the same reference numerals will be given to the same contents as those in the first embodiment, and the description thereof will be omitted.
FIG. 10 is an explanatory diagram showing an outline of the second embodiment. Similar to the first embodiment, the server 1 acquires a moving image from each camera 2 attached to each power pole installed at each of a plurality of points, and captures a frame at each point at each image capturing time (time). Passers-by are recognized from the images and classified according to attributes such as age and sex, walking speed, behavior such as direction, or belongings. Further, in the present embodiment, the server 1 performs multi-camera cooperation, and the same passerby passes each point based on the classification result of the passerby classified (identified) from each frame image captured at each of a plurality of points. Identify the flow line.

例えばサーバ1は、分類モデル141から出力された属性、所持品等の分類結果に基づき、通行者の匿名認証を行う。サーバ1は、分類結果が同一の通行者が撮像された地点(例えばカメラ2の設置地点)、撮像時点を特定し、当該通行者が撮像された地点及び撮像時点をマッピングする。サーバ1は、撮像時点に従った順序で通行者が撮像された各地点を並べ、通行者が移動したと推定される動線を特定する。 For example, the server 1 performs anonymity authentication of passers-by based on the classification result output from the classification model 141 such as attributes and personal belongings. The server 1 identifies a point (for example, an installation point of the camera 2) at which a passerby having the same classification result is imaged and an image capturing time point, and maps the point at which the passerby is imaged and the image capturing time point. The server 1 arranges the points at which the passerby was imaged in the order according to the time of image pickup, and identifies the flow line estimated that the passerby has moved.

なお、上記においてサーバ1は、各カメラ2で撮像した画像から特定した各地点での通行者の歩行速度、方向、位置、入退場動作などの行動に基づき、通行者がどの店舗の前を通過し、どの店舗の前で立ち止まり、どの店舗に入退場したか等を特定してもよい。すなわちサーバ1は、単に複数のカメラ2の画像から個々の通行者の動線を特定するだけでなく、動線上における個々の通行者の動作(立ち振る舞い)を特定するようにしてもよい。これにより、通行者がどのような経路でどのように行動していたかを、より詳細に把握することができる。 In the above, the server 1 allows the passerby to pass in front of which store based on the behavior such as the walking speed, the direction, the position, and the entry/exit operation of the passerby at each point specified from the images captured by the cameras 2. However, it may be possible to identify which store has stopped and which store has entered and exited. That is, the server 1 may specify not only the flow line of each passerby from the images of the plurality of cameras 2 but also the movement (behavior) of each passerby on the flow line. As a result, it is possible to grasp in more detail what kind of route and how the passerby was acting.

図11は、動線分布情報の表示画面の一例を示す説明図である。サーバ1は、上記で特定した各通行者の動線に基づき、対象地域(公共空間)を通行者らがどのように移動するか、動線の分布状況を示す動線分布情報を生成して端末4に出力する。 FIG. 11 is an explanatory diagram showing an example of a display screen of flow line distribution information. The server 1 generates flow line distribution information indicating how the passersby move in the target area (public space) based on the flow lines of the passers identified above and the flow line distribution information. Output to the terminal 4.

例えばサーバ1は、端末4を介して対象地域の指定入力を受け付ける。具体的には、サーバ1は鉄道駅の駅名等の入力を受け付ける。サーバ1は、該当する駅周辺の地域における各通行者の動線を特定し、各通行者の動線をマップ上で重ね合わせて動線分布情報を生成する。なお、図11では線の太さが通行者の人数の大小を表す。図11に示すように、対象地域において通行者らがどのような経路で移動しているか、特に多くの通行者が共通して行き来する鉄道駅から、あるいは鉄道駅に向かってどのような経路で移動するかを一目で把握可能となる。 For example, the server 1 receives a designation input of the target area via the terminal 4. Specifically, the server 1 receives the input of the station name of the railway station. The server 1 identifies the flow line of each passerby in the area around the corresponding station, and superimposes the flow line of each passerby on the map to generate flow line distribution information. In FIG. 11, the thickness of the line indicates the size of the number of passersby. As shown in FIG. 11, how the passers-by move in the target area, especially from the railway station where many passers-by come and go in common, or the route toward the railway station. It is possible to grasp at a glance whether to move.

なお、サーバ1は単に全ての通行者の動線を重ね合わせて動線分布情報を生成するのみならず、例えば通行者の属性、時間帯等の基準で対象者を絞り込んで動線分布情報を生成してもよいことは勿論である。あるいはサーバ1は、施設(店舗)をキーに対象者を絞り込み、該当する施設に入退場した通行者の動線分布情報を生成するようにしてもよい。あるいはサーバ1は、該当する施設に入退場した通行者の動線を、他の通行者の動線とは異なる色で表示するなど、異なる態様で表示する動線分布情報を生成するようにしてもよい。これにより、該当する施設のマーケティング対策のためにより有用な情報を提供することができる。 The server 1 does not simply generate the flow line distribution information by superimposing the flow lines of all the passers-by, but narrows down the target people based on, for example, the attributes of the passers-by, time zones, etc. to obtain the flow-line distribution information. Of course, it may be generated. Alternatively, the server 1 may narrow down the target persons by using the facility (store) as a key and generate the flow line distribution information of the passers-by who enter and exit the relevant facility. Alternatively, the server 1 may generate flow line distribution information to be displayed in a different manner, such as displaying the flow lines of passers-by who have entered or exited the relevant facility in a different color from the flow lines of other passers-by. Good. This makes it possible to provide more useful information for marketing measures for the relevant facility.

また、図11で例示する表示画面では通行者の人数の大小を線の太さで表すのみであったが、例えば端末4は、各通行者が撮像された時点の時系列に沿って、各通行者の動き(動線)を再生する形で動線分布情報を表示してもよい。これにより、各地点で各時間帯にどの程度の通行者が存在するか、ユーザは直感的に把握することができる。 Further, in the display screen illustrated in FIG. 11, the size of the number of passersby is only represented by the thickness of the line, but for example, the terminal 4 displays each passerby in a time series at the time when each passerby is imaged. The flow line distribution information may be displayed by reproducing the movement (flow line) of the passerby. This allows the user to intuitively understand how many passers-by at each time zone exist at each point.

図12は、動線特定処理の処理手順を示すフローチャートである。
サーバ1の制御部11は、端末4を介して、動線分布情報を生成する対象地域の指定入力を受け付ける(ステップS201)。なお、制御部11はステップS201において、対象とする通行者の属性、日時(時間帯等)、あるいは通行者が入退場した施設等を絞り込み条件として指定入力を受け付けてもよい。制御部11は、対象地域の複数の地点それぞれに対応するフレーム画像からそれぞれ取得した通行者の分類結果に基づき、各通行者が通行した動線を特定する(ステップS202)。具体的には、制御部11は分類モデル141から出力された分類結果に基づいて通行者の匿名認証を行い、複数の地点それぞれで撮像された通行者を特定する。制御部11は、通行者が通行した各地点、及び通行者が通行した時刻(撮像時点)に基づいてマッピングを行い、通行者毎に動線を特定する。
FIG. 12 is a flowchart showing the processing procedure of the flow line identification processing.
The control unit 11 of the server 1 receives a designation input of the target area for which the flow line distribution information is generated via the terminal 4 (step S201). In step S201, the control unit 11 may accept the designation input by narrowing down the attribute, date and time (time zone, etc.) of the target passerby, or the facility where the passerby enters and exits. The control unit 11 identifies the flow line of each passerby based on the passerby classification result obtained from the frame images corresponding to each of the plurality of points in the target area (step S202). Specifically, the control unit 11 performs anonymous authentication of passers-by based on the classification result output from the classification model 141, and specifies passers-by imaged at each of a plurality of points. The control unit 11 performs mapping based on each point where the passerby passes and the time when the passerby passes (imaging time), and identifies the flow line for each passerby.

制御部11は、複数の通行者それぞれについて特定した動線の分布状況を示す動線分布情報を生成する(ステップS203)。例えば制御部11は、対象地域のマップ上に各通行者の動線を重ね合わせた動線分布情報を生成する。制御部11は、生成した動線分布情報を端末4に出力し(ステップS204)、一連の処理を終了する。 The control unit 11 generates flow line distribution information indicating the distribution status of the flow lines specified for each of the plurality of passers-by (step S203). For example, the control unit 11 generates flow line distribution information in which the flow lines of the passersby are superimposed on the map of the target area. The control unit 11 outputs the generated flow line distribution information to the terminal 4 (step S204), and ends the series of processes.

以上より、本実施の形態2によれば、通行者の追跡(トラッキング)を行うことができ、通行者の行動をより的確に把握可能となる。 As described above, according to the second embodiment, the passerby can be tracked (tracking), and the behavior of the passerby can be more accurately grasped.

また、本実施の形態2によれば、各通行者の動線分布情報を提示することができ、マーケティング等においてより有用な情報を提供することができる。 Further, according to the second embodiment, it is possible to present the flow line distribution information of each passerby, and it is possible to provide more useful information in marketing and the like.

(実施の形態3)
本実施の形態では、通行者を撮像時の撮像条件に応じて、通行者を分類する際に用いる分類モデル141を選択する形態について説明する。
図13は、実施の形態3の概要を示す説明図である。本実施の形態においてサーバ1は、通行者を撮像する際の撮像条件に応じて、予め複数の分類モデル141を生成して保持しておく。撮像条件は、例えば撮像時点における電柱付近の天気(天候情報)である。例えばサーバ1は、晴天時に撮像された画像を元に学習を行った晴天時用の分類モデル141と、雨天時に撮像された画像を元に学習を行った雨天時用の分類モデル141との2種類の分類モデル141を用意しておく。
(Embodiment 3)
In the present embodiment, a mode will be described in which a classification model 141 used when classifying a passerby is selected in accordance with an imaging condition when capturing a passerby.
FIG. 13 is an explanatory diagram showing an outline of the third embodiment. In the present embodiment, the server 1 generates and holds a plurality of classification models 141 in advance according to the imaging conditions when imaging a passerby. The imaging condition is, for example, the weather (weather information) near the telephone pole at the time of imaging. For example, the server 1 includes a classification model 141 for fine weather, which is learned based on an image captured in fine weather, and a classification model 141 for rainy weather, which is learned based on an image captured in rainy weather. A type classification model 141 is prepared.

電柱におけるカメラ2の取付位置は特に限定されないが、多くの場合はカメラ2をアーム(腕金)上、あるいはアーム付近に取り付け、通行者を高所から撮像することが想定される。一方で、雨天時において通行者の多くは傘を差していることが想定される。従って、雨天時に通行者を撮像した場合、通行者の上半身が撮像されず、通行者の属性等が認識されず、適切な分類が不可能となる虞がある。 The mounting position of the camera 2 on the telephone pole is not particularly limited, but in many cases, it is assumed that the camera 2 is mounted on or near the arm (bracket) and the passerby is imaged from a high place. On the other hand, it is assumed that most passersby are holding umbrellas in the rain. Therefore, when a passerby is imaged in rainy weather, the upper half of the body of the passerby is not imaged, attributes of the passerby are not recognized, and proper classification may not be possible.

そこで本実施の形態では、晴天時用及び雨天時用の2種類の分類モデル141を用意しておく。なお、サーバ1が用意する分類モデル141の数は2種類に限定されず、例えば積雪時用の分類モデル141を用意するなど、3種類以上としてもよい。 Therefore, in this embodiment, two types of classification models 141 for fine weather and for rainy weather are prepared. Note that the number of classification models 141 prepared by the server 1 is not limited to two, and may be three or more, such as preparing a classification model 141 for snow.

サーバ1は、雨天時に撮像された画像、すなわち多くの通行者が傘を差している画像を元に学習を行い、雨天時用の分類モデル141を生成する。具体的には、サーバ1は、撮像画像から通行者が差している傘を認識し、認識した傘の画像特徴量を分類モデル141に学習させることで、通行者の傘から通行者の属性を分類する分類モデル141を生成する。例えばサーバ1は、男性用傘及び女性用傘それぞれの色、形状等の画像特徴量を学習させ、男性用の傘であるか、あるいは女性用の傘であるかに応じて通行者の性別を分類する分類モデル141を生成する。 The server 1 performs learning based on an image taken in the rain, that is, an image in which many passersby are holding umbrellas, and generates a classification model 141 for rain. Specifically, the server 1 recognizes the umbrella that the passerby is holding from the captured image, and causes the classification model 141 to learn the image feature amount of the recognized umbrella, thereby determining the attribute of the passerby from the passerby umbrella. A classification model 141 for classification is generated. For example, the server 1 learns image feature amounts such as colors and shapes of the men's umbrella and the women's umbrella, and determines the gender of the passerby depending on whether it is a men's umbrella or a women's umbrella. A classification model 141 for classification is generated.

また、例えばサーバ1は、上記の傘に加えて、通行者の身長を学習対象とし、身長から成人又は子供の別を推定して通行者の年齢を分類可能なように学習を行ってもよい。あるいはサーバ1は、ズボン、靴等の下半身の服装を学習対象に加え、下半身の服装から性別、年齢等を分類可能なように学習を行ってもよい。このように、傘によって通行者の上半身(特に顔)が隠れてしまう場合に備えて、雨天時用の分類モデル141を生成する。 Further, for example, the server 1 may perform learning such that the height of a passerby is a learning target in addition to the umbrella described above, and whether the adult is a child or a child is estimated from the height so that the age of the passerby can be classified. .. Alternatively, the server 1 may add the lower body clothes such as pants and shoes to the learning target, and perform learning so that the sex, age, etc. can be classified from the lower body clothes. In this way, the classification model 141 for rainy weather is generated in case the upper body (especially face) of a passerby is hidden by the umbrella.

サーバ1は、撮像時点の天気を元に分類モデル141を選択し、選択した分類モデル141に画像を入力して通行者を分類する。具体的には、サーバ1は、分類モデル141を用いて通行者の傘、身長、下半身の服装等の特徴量を抽出し、抽出した特徴量に応じて通行者の性別、年齢等の属性を分類する。サーバ1は、分類結果を撮像地点、撮像時点等のほかに天気(天候情報)と関連付けて通行者DB143に記憶する。 The server 1 selects the classification model 141 based on the weather at the time of image capturing, inputs an image into the selected classification model 141, and classifies passers-by. Specifically, the server 1 uses the classification model 141 to extract the feature amount of the passerby's umbrella, height, clothes of the lower body, and the like, and determines the attributes such as the gender and age of the passerby according to the extracted feature amount. Classify. The server 1 stores the classification result in the passer-by DB 143 in association with the weather (weather information) in addition to the shooting point, the shooting time, and the like.

なお、上記では分類モデル141の種類を規定する撮像条件として天気を用いたが、例えば気温、湿度、風速等のその他の天候情報を撮像条件として用いてもよい。また、例えば撮像条件として、時間帯(昼又は夜)、季節等の時期的条件、あるいは地域等の地理的条件を用いてもよい。すなわち、撮像条件は撮像時点及び撮像地点に関連する条件であればよく、その内容は特に限定されない。 Although weather is used as the imaging condition that defines the type of the classification model 141 in the above, other weather information such as temperature, humidity, and wind speed may be used as the imaging condition. Further, for example, as imaging conditions, time conditions (day or night), seasonal conditions such as seasons, or geographical conditions such as regions may be used. That is, the imaging condition may be any condition related to the imaging time point and the imaging point, and the content thereof is not particularly limited.

図14は、実施の形態3に係る通行者の分類処理の処理手順を示すフローチャートである。
カメラ2から撮像画像を取得し(ステップS31)、撮像時点の日時、撮像地点の天候情報等を取得した後(ステップS32)、サーバ1の制御部11は以下の処理を実行する。制御部11は、画像を撮像した際の撮像条件に応じて分類モデル141を選択する(ステップS301)。例えば制御部11は、ステップS32で取得した天候情報に応じて分類モデル141を選択する。制御部11は、選択した分類モデル141に撮像画像を入力し、通行者を分類する(ステップS302)。制御部11は処理をステップS34に移行する。
FIG. 14 is a flowchart showing the processing procedure of the passerby classification processing according to the third embodiment.
After acquiring the captured image from the camera 2 (step S31) and acquiring the date and time of the image capturing, the weather information of the image capturing point, and the like (step S32), the control unit 11 of the server 1 executes the following processing. The control unit 11 selects the classification model 141 according to the image capturing conditions when the image is captured (step S301). For example, the control unit 11 selects the classification model 141 according to the weather information acquired in step S32. The control unit 11 inputs the captured image into the selected classification model 141 and classifies the passerby (step S302). The control unit 11 shifts the processing to step S34.

以上より、本実施の形態3によれば、撮像条件に応じて異なる分類モデル141を用いることで、通行者をより的確に把握可能となる。 As described above, according to the third embodiment, by using different classification models 141 depending on the imaging conditions, it is possible to more accurately grasp the passerby.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the meanings described above but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

1 サーバ(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P プログラム
141 分類モデル
142 電柱DB
143 通行者DB
2 カメラ
3 センサ
4 端末
1 server (information processing device)
11 Control Section 12 Main Storage Section 13 Communication Section 14 Auxiliary Storage Section P Program 141 Classification Model 142 Utility Pole DB
143 Passer DB
2 camera 3 sensor 4 terminal

Claims (16)

公共空間に設置された配電設備に取り付けた撮像装置から、前記公共空間を通行する通行者を撮像した画像を取得し、
前記画像を入力した場合に前記通行者を分類するよう学習済みの学習済みモデルに、取得した前記画像を入力し、
前記学習済みモデルから前記通行者の分類結果を取得する
処理をコンピュータに実行させることを特徴とする情報処理方法。
From an image pickup device attached to a power distribution facility installed in a public space, an image of a passerby passing through the public space is acquired,
In the learned model that has been trained to classify the passers-by when the image is input, input the acquired image,
An information processing method, comprising causing a computer to execute a process of acquiring the classification result of the passers-by from the learned model.
前記公共空間の複数の地点夫々に設置された前記配電設備夫々に対応する前記撮像装置夫々から、前記公共空間を継続的に撮像した動画像を取得し、
前記動画像を構成する各撮像時点のフレーム画像を前記学習済みモデルに入力し、
前記学習済みモデルから、各地点及び撮像時点に対応する前記フレーム画像に映る前記通行者の分類結果を取得する
ことを特徴とする請求項1に記載の情報処理方法。
From each of the imaging devices corresponding to each of the power distribution equipment installed in each of the plurality of points of the public space, to obtain a moving image continuously captured the public space,
The frame images at the time of each image forming the moving image are input to the learned model,
The information processing method according to claim 1, wherein a classification result of the passerby reflected in the frame image corresponding to each point and an imaging time point is acquired from the learned model.
前記フレーム画像に対応する前記地点及び撮像時点と関連付けて、該フレーム画像に映る前記通行者の分類結果を記憶部に記憶する
ことを特徴とする請求項2に記載の情報処理方法。
The information processing method according to claim 2, wherein the storage unit stores a classification result of the passers-by shown in the frame image in association with the point corresponding to the frame image and the image capturing time.
前記撮像時点における前記地点の天候情報を取得し、
前記地点及び撮像時点と関連付けて、前記通行者の分類結果及び前記天候情報を前記記憶部に記憶する
ことを特徴とする請求項3に記載の情報処理方法。
Obtaining weather information of the point at the time of the imaging,
The information processing method according to claim 3, wherein the classification result of the passerby and the weather information are stored in the storage unit in association with the point and the image capturing time.
前記地点及び撮像時点に関する指定入力を受け付け、
指定された前記地点及び撮像時点に対応する前記通行者の分類結果に基づき、前記撮像時点に前記地点を通行した前記通行者に関する通行情報を生成し、
前記通行情報を出力する
ことを特徴とする請求項4に記載の情報処理方法。
Accept the specified input about the point and the time of imaging,
Based on a classification result of the passerby corresponding to the designated point and the image capturing time point, generate passer information about the passerby who has passed the point at the image capturing point point,
The information processing method according to claim 4, wherein the traffic information is output.
複数の地点夫々に対応する前記フレーム画像から夫々取得した前記通行者の分類結果に基づき、同一の前記通行者が通行した動線を特定する
ことを特徴とする請求項2〜5のいずれか1項に記載の情報処理方法。
The flow line of the same passerby is specified based on a classification result of the passerby obtained from the frame images corresponding to a plurality of points, respectively. The information processing method described in the section.
複数の前記通行者夫々の前記動線に基づき、前記公共空間における前記動線の分布状況を示す動線分布情報を生成し、
生成した前記動線分布情報を出力する
ことを特徴とする請求項6に記載の情報処理方法。
Based on the flow lines of each of the plurality of passers-by, generate flow line distribution information indicating a distribution state of the flow lines in the public space,
The information processing method according to claim 6, wherein the generated flow line distribution information is output.
前記学習済みモデルから、前記通行者の行動に応じて前記通行者を分類した分類結果を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理方法。
The information processing method according to claim 1, wherein a classification result obtained by classifying the passers-by according to the behavior of the passers-by is acquired from the learned model.
前記学習済みモデルから、前記公共空間に存在する施設への前記通行者の入退場動作に応じて前記通行者を分類した分類結果を取得し、
取得した分類結果に基づき、前記施設に入退場する前記通行者に関する入退場情報を生成し、
生成した前記入退場情報を出力する
ことを特徴とする請求項8に記載の情報処理方法。
From the learned model, obtain a classification result that classifies the passers-by according to the entrance and exit actions of the passers-by to the facilities existing in the public space,
Generate entrance/exit information about the passers-by entering/leaving the facility based on the obtained classification result,
The information processing method according to claim 8, wherein the generated entrance/exit information is output.
前記学習済みモデルから、前記通行者が所持する所持品に応じて前記通行者の属性を分類した分類結果を取得する
ことを特徴とする請求項1〜9のいずれか1項に記載の情報処理方法。
The information processing according to any one of claims 1 to 9, wherein a classification result in which the attributes of the passerby are classified according to the belongings possessed by the passerby is acquired from the learned model. Method.
前記撮像装置が前記通行者を撮像した際の撮像条件に関する情報を取得し、
前記撮像条件に応じて前記通行者を分類する複数の前記学習済みモデルのうちいずれかを、取得した前記撮像条件に関する情報に基づいて選択し、
選択した前記学習済みモデルに前記画像を入力する
ことを特徴とする請求項1〜10のいずれか1項に記載の情報処理方法。
Acquiring information about the imaging conditions when the imaging device images the passerby,
Any one of the plurality of learned models that classify the passers-by according to the imaging conditions is selected based on the acquired information about the imaging conditions,
The information processing method according to any one of claims 1 to 10, wherein the image is input to the selected learned model.
前記撮像条件に関する情報は、前記撮像装置が前記通行者を撮像した際の天候情報であり、
前記天候情報に応じて、前記通行者が差している傘から前記通行者を分類する前記学習済みモデルを選択する
ことを特徴とする請求項11に記載の情報処理方法。
The information regarding the imaging conditions is weather information when the imaging device images the passerby,
The information processing method according to claim 11, wherein the learned model for classifying the passerby is selected from an umbrella held by the passerby according to the weather information.
公共空間に設置された配電設備に取り付けた撮像装置から、前記公共空間を通行する通行者を撮像した画像を取得し、
前記画像を入力した場合に前記通行者を分類するよう学習済みの学習済みモデルに、取得した前記画像を入力し、
前記学習済みモデルから前記通行者の分類結果を取得する
処理をコンピュータに実行させることを特徴とするプログラム。
From an image pickup device attached to a power distribution facility installed in a public space, an image of a passerby passing through the public space is acquired,
In the learned model that has been trained to classify the passers-by when the image is input, input the acquired image,
A program for causing a computer to execute a process of acquiring the classification result of the passerby from the learned model.
公共空間に設置された配電設備に取り付けた撮像装置から、前記公共空間を通行する通行者を撮像した画像を取得する取得部と、
前記画像を入力した場合に前記通行者を分類するよう学習済みの学習済みモデルに、取得した前記画像を入力する入力部と、
前記学習済みモデルから前記通行者の分類結果を取得する分類部と
を備えることを特徴とする情報処理装置。
An acquisition unit that acquires an image of a passerby passing through the public space from an imaging device attached to a power distribution facility installed in the public space,
An input unit that inputs the acquired image into a learned model that has been learned to classify the passers-by when the image is input,
An information processing device, comprising: a classification unit that acquires a classification result of the passerby from the learned model.
公共空間を通行する通行者を撮像した画像と、前記通行者を分類した分類結果の正解値とを対応付けた教師データを取得し、
取得した教師データに基づき、前記画像を入力した場合に前記通行者を分類した分類結果を出力する学習済みモデルを生成する
処理をコンピュータに実行させることを特徴とする学習済みモデルの生成方法。
Acquiring teacher data in which an image of a passerby passing through a public space and a correct value of a classification result obtained by classifying the passerby are associated with each other,
A method of generating a learned model, comprising causing a computer to execute a process of generating a learned model that outputs a classification result obtained by classifying the passersby when the image is input based on the acquired teacher data.
公共空間に設置された配電設備に取り付けた撮像装置から通行者を撮像した画像の入力を受け付ける入力層と、
前記入力層からの出力が入力されるように結合されており、前記画像と、前記通行者を分類した分類結果の正解値とを対応付けた教師データに基づき、前記画像から画像特徴量を抽出する演算処理に用いるパラメータを学習済みの中間層と、
前記中間層からの出力が入力されるよう結合されており、前記中間層における演算結果に基づいて、前記通行者を分類した分類結果を出力する出力層と
を備え、
前記画像を前記入力層に入力し、前記中間層における演算処理を行い、前記出力層から前記通行者の分類結果を出力するようコンピュータを機能させるための学習済みモデル。
An input layer that receives an input of an image obtained by imaging a passerby from an imaging device attached to a power distribution facility installed in a public space,
An image feature amount is extracted from the image based on teacher data that is combined so that an output from the input layer is input and that associates the image with a correct value of a classification result of classifying the passerby. The middle layer that has already learned the parameters used for the arithmetic processing
An output layer that is coupled so that the output from the middle layer is input, and that outputs a classification result in which the passers-by are classified based on a calculation result in the middle layer,
A learned model for causing a computer to input the image to the input layer, perform arithmetic processing on the intermediate layer, and output the classification result of the passerby from the output layer.
JP2018231829A 2018-12-11 2018-12-11 Information processing method, program, information processing device, trained model generation method and trained model Active JP6874754B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018231829A JP6874754B2 (en) 2018-12-11 2018-12-11 Information processing method, program, information processing device, trained model generation method and trained model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231829A JP6874754B2 (en) 2018-12-11 2018-12-11 Information processing method, program, information processing device, trained model generation method and trained model

Publications (2)

Publication Number Publication Date
JP2020096255A true JP2020096255A (en) 2020-06-18
JP6874754B2 JP6874754B2 (en) 2021-05-19

Family

ID=71085086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231829A Active JP6874754B2 (en) 2018-12-11 2018-12-11 Information processing method, program, information processing device, trained model generation method and trained model

Country Status (1)

Country Link
JP (1) JP6874754B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023187958A1 (en) * 2022-03-29 2023-10-05 日本電気株式会社 Traffic flow analysis device, traffic flow analysis method, and program recording medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
JP2011103019A (en) * 2009-11-10 2011-05-26 Omron Corp Effect controller
JP2012038089A (en) * 2010-08-06 2012-02-23 Nikon Corp Information management device, data analysis device, signal, server, information management system, and program
JP2013257637A (en) * 2012-06-11 2013-12-26 Denso Corp Person detection device
JP2015002553A (en) * 2013-06-18 2015-01-05 キヤノン株式会社 Information system and control method thereof
JP2017138861A (en) * 2016-02-04 2017-08-10 ソフトバンク株式会社 Road traffic investigation system
WO2018110164A1 (en) * 2016-12-15 2018-06-21 日本電気株式会社 Information processing system, information processing method, and information processing program
JP2018142137A (en) * 2017-02-27 2018-09-13 日本電気株式会社 Information processing device, information processing method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
JP2011103019A (en) * 2009-11-10 2011-05-26 Omron Corp Effect controller
JP2012038089A (en) * 2010-08-06 2012-02-23 Nikon Corp Information management device, data analysis device, signal, server, information management system, and program
JP2013257637A (en) * 2012-06-11 2013-12-26 Denso Corp Person detection device
JP2015002553A (en) * 2013-06-18 2015-01-05 キヤノン株式会社 Information system and control method thereof
JP2017138861A (en) * 2016-02-04 2017-08-10 ソフトバンク株式会社 Road traffic investigation system
WO2018110164A1 (en) * 2016-12-15 2018-06-21 日本電気株式会社 Information processing system, information processing method, and information processing program
JP2018142137A (en) * 2017-02-27 2018-09-13 日本電気株式会社 Information processing device, information processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023187958A1 (en) * 2022-03-29 2023-10-05 日本電気株式会社 Traffic flow analysis device, traffic flow analysis method, and program recording medium

Also Published As

Publication number Publication date
JP6874754B2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
Ye et al. Measuring daily accessed street greenery: A human-scale approach for informing better urban planning practices
Zhang et al. Social sensing from street-level imagery: A case study in learning spatio-temporal urban mobility patterns
Li et al. Exploring the association between street built environment and street vitality using deep learning methods
Wieland et al. Estimating building inventory for rapid seismic vulnerability assessment: Towards an integrated approach based on multi-source imaging
US20170287170A1 (en) System and Method for Locating and Performing Fine Grained Classification from Multi-View Image Data
Li et al. Integrating GIS, deep learning, and environmental sensors for multicriteria evaluation of urban street walkability
JP4069932B2 (en) Human detection device and human detection method
JP5002441B2 (en) Marketing data analysis method, marketing data analysis system, data analysis server device, and program
CN116227834A (en) Intelligent scenic spot digital platform based on three-dimensional point cloud model
CN110532970A (en) Age-sex's property analysis method, system, equipment and the medium of face 2D image
Park et al. The usability of Unmanned Aerial Vehicles (UAVs) for pedestrian observation
JP6825613B2 (en) Information processing method, program, information processing device and trained model generation method
CN105989174A (en) Extraction device and extraction method of area of interest
Li et al. Multi-view crowd congestion monitoring system based on an ensemble of convolutional neural network classifiers
Huang et al. Comprehensive urban space representation with varying numbers of street-level images
JP6988975B2 (en) Information processing methods, programs and information processing equipment
Rumora et al. Spatial video remote sensing for urban vegetation mapping using vegetation indices
Torrens Data science for pedestrian and high street retailing as a framework for advancing urban informatics to individual scales
Wang et al. Investigating the potential of crowdsourced street-level imagery in understanding the spatiotemporal dynamics of cities: A case study of walkability in Inner London
JP6874754B2 (en) Information processing method, program, information processing device, trained model generation method and trained model
Huang et al. Estimating urban noise along road network from street view imagery
Liu et al. Clarity or confusion: A review of computer vision street attributes in urban studies and planning
Ito et al. Translating street view imagery to correct perspectives to enhance bikeability and walkability studies
CN117407543A (en) Dynamic hierarchical information database system for historical building
Milotta et al. Visitors Localization in Natural Sites Exploiting EgoVision and GPS.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6874754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150