JP2021125145A - Information processing apparatus, image processing system, and program - Google Patents
Information processing apparatus, image processing system, and program Download PDFInfo
- Publication number
- JP2021125145A JP2021125145A JP2020020097A JP2020020097A JP2021125145A JP 2021125145 A JP2021125145 A JP 2021125145A JP 2020020097 A JP2020020097 A JP 2020020097A JP 2020020097 A JP2020020097 A JP 2020020097A JP 2021125145 A JP2021125145 A JP 2021125145A
- Authority
- JP
- Japan
- Prior art keywords
- person
- unit
- size
- image
- distribution expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、画像処理システム、及び、プログラムに関する。 The present invention relates to an information processing device, an image processing system, and a program.
来客者やスタッフの行動を小売店の店長等が分析して店舗運営や商品企画等に反映させることが従来から行われている。解析には例えば店舗内に設置されたカメラの映像が利用され、店長などは店舗内の映像を見て来客者がどのように移動するか、どの場所に滞留するかなどを把握する。これにより、来客者の動線や興味を引きやすい商品や展示方法が分かるため店舗運営や商品企画等に反映させることができる。 Traditionally, retail store managers analyze the behavior of visitors and staff and reflect it in store operations and product planning. For example, the image of a camera installed in the store is used for the analysis, and the store manager or the like sees the image in the store to understand how the visitor moves and where he / she stays. As a result, it is possible to understand the flow lines of visitors, products that are easy to attract interest, and exhibition methods, which can be reflected in store management and product planning.
単に店内の各場所の映像を提供するだけでなく、カメラと画像処理技術を組み合わせることで映像を加工して店長等が分析しやすい情報を出力する監視システムが考案されている(例えば、特許文献1参照。)。特許文献1には、顔領域でマッチングして同一人物を特定し、人体の全体を矩形領域で認識して顔や上半身のパーツに分けて特定した人物の行動を追跡するシステムが開示されている。
A monitoring system has been devised that not only provides images of each location in the store, but also processes the images by combining a camera and image processing technology to output information that is easy for the store manager to analyze (for example, patent documents). See 1.).
しかしながら、従来の技術では、人物の分布表現の大きさを調整できないという問題があった。人物の検知結果の表示方法の1つに、人物の検知結果をヒートマップ(対象をマス状に区切り、各マスの検出結果に応じてマスの表示色を変更する表示方法)などの分布表現で表現する方法がある。従来、ヒートマップの大きさなどは固定されていた。 However, in the conventional technique, there is a problem that the size of the distribution expression of people cannot be adjusted. One of the display methods of the person detection result is a distribution expression such as a heat map (a display method in which the target is divided into squares and the display color of the square is changed according to the detection result of each square). There is a way to express it. Conventionally, the size of the heat map has been fixed.
本発明は、上記課題に鑑み、人物の大きさに基づいて分布表現ができる情報処理装置等を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an information processing device or the like capable of expressing a distribution based on the size of a person.
上記課題に鑑み、本発明は、撮像装置が撮像した画像データから人物を検知する人物検知部と、前記人物検知部が検知した前記人物の大きさを用いて前記人物の分布表現を作成する分布表現作成部と、を有することを特徴とする情報処理装置を提供する。 In view of the above problems, the present invention creates a distribution representation of the person using a person detection unit that detects a person from image data captured by the image pickup apparatus and the size of the person detected by the person detection unit. Provided is an information processing apparatus characterized by having an expression creation unit.
人物の分布表現の大きさに基づいて分布表現ができる情報処理装置等を提供することができる。 It is possible to provide an information processing device or the like that can express a distribution based on the size of the distribution expression of a person.
以下、本発明を実施するための形態の一例として、画像処理システムと画像処理システムが行う画像処理方法について図面を参照しながら説明する。 Hereinafter, as an example of the embodiment for carrying out the present invention, the image processing system and the image processing method performed by the image processing system will be described with reference to the drawings.
<処理の概略>
まず、図1を用いて、画像処理システムが行う処理の概略を説明する。図1は、画像処理システムが生成するヒートマップを説明する図である。
<Outline of processing>
First, the outline of the processing performed by the image processing system will be described with reference to FIG. FIG. 1 is a diagram illustrating a heat map generated by an image processing system.
(1) 画像処理システムは画像データに人物を検知する画像処理を行い、人物を検知する。例えば、人物の最大範囲である外接矩形を生成できる。図1(a)では画像処理により検知された手を広げた人物の矩形201が示されている。
(1) The image processing system performs image processing to detect a person in the image data and detects the person. For example, it is possible to generate an circumscribing rectangle that is the maximum range of a person. FIG. 1A shows a
本実施形態では、人物の検知結果であるこの矩形201の大きさからそのままヒートマップを生成することができる。さらに、画像処理システムを利用するユーザによっては、人物の胴体のみの大きさをヒートマップに反映したい場合もあるし、人物の最大幅長をヒートマップに反映したい場合もある。例えば、来客者の滞留を知りたいユーザでは来客者がどこにいるかをより高精度(狭い範囲)で知りたい場合が多いが、人物が大きく身体を動かすジムのような施設では、来客者が大きく動いた場合に他人とぶつからないか(運動するスペースが十分か)をユーザが知りたい場合がある。
In the present embodiment, the heat map can be generated as it is from the size of the
そこで、本実施形態では、画像処理システムを使用するユーザや人物検知結果の用途などに応じて、ヒートマップの大きさを調整できるようにもした。 Therefore, in the present embodiment, the size of the heat map can be adjusted according to the user who uses the image processing system and the purpose of the person detection result.
(2) 最大幅長をヒートマップとするユーザ又は用途に関しては、図1(b)に示すように、画像処理システムは最大幅長(最大の横幅)をヒートマップの大きさとする。 (2) For a user or an application in which the maximum width length is used as a heat map, as shown in FIG. 1 (b), the image processing system sets the maximum width length (maximum width) as the size of the heat map.
(3) 胴体をヒートマップとするユーザ又は用途に関しては、図1(c)に示すように、画像処理システムは胴体202の大きさを求めこの幅をヒートマップの大きさとする。
(3) As shown in FIG. 1 (c), the image processing system obtains the size of the
(4)(5) 画像処理システムはこのように調整された大きさのヒートマップを作成するので、ヒートマップの大きさを柔軟に変更できる。図1(d)では人物の最大幅長のヒートマップ203が表示されており、図1(e)では人物の胴体の幅と同サイズのヒートマップ204が表示されている。
(4) (5) Since the image processing system creates a heat map of the size adjusted in this way, the size of the heat map can be flexibly changed. In FIG. 1D, the
このように本実施形態の画像処理システムは、人物の大きさとは無関係に固定的であったヒートマップを人物の大きさに連動させることができ、更にその人物の大きさを調整できる。例えば、ユーザ又は用途等に応じてヒートマップの大きさを調整するので、ヒートマップの大きさを変更できる。 As described above, the image processing system of the present embodiment can link the heat map, which has been fixed regardless of the size of the person, to the size of the person, and can further adjust the size of the person. For example, since the size of the heat map is adjusted according to the user or the application, the size of the heat map can be changed.
<用語について>
人物とは人間をいう。本実施形態は人物だけでなく動物にも適用できる。また、車両などの移動体に適用してもよい。
<Terminology>
A person is a human being. This embodiment can be applied not only to humans but also to animals. Further, it may be applied to a moving body such as a vehicle.
調整するとは程よくすることをいう。例えばヒートマップの大きさをユーザや用途に応じて適切な大きさとすることをいう。 Adjusting means making it moderate. For example, it means that the size of the heat map is set to an appropriate size according to the user and the application.
分布表現とは例えば人物がどのように分布しているかを色や濃度を変えて表す表現方法である。ヒートマップと呼ばれる場合がある。 The distribution expression is, for example, an expression method for expressing how people are distributed by changing the color and density. Sometimes called a heat map.
分布表現の大きさに関する情報とは、分布表現の大きさをどの程度、調整するかを示す情報である。本実施形態ではヒートマップの大きさ情報という用語で説明される。 The information regarding the size of the distribution expression is information indicating how much the size of the distribution expression is adjusted. In this embodiment, it is described by the term of heat map size information.
<画像処理システムのシステム構成>
図2は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、端末装置7を有している。撮像装置1は設置者Xにより店舗内に設置されている。端末装置7は閲覧者Yにより操作される。
<System configuration of image processing system>
FIG. 2 is an example of a schematic configuration diagram of the
通信ネットワーク9は、インターネットなどの一般的なネットワークが想定されている。企業内や家庭内のLANが含まれていたり、広域イーサネット(登録商標)や複数のLANから成るWANが含まれていたりしてもよい。通信ネットワークは、一部又は全体が無線化されていてもよい。無線のネットワークには、無線LAN、WiMAXの他、3G,4G、5Gなどの携帯電話網が含まれてよい。 The communication network 9 is assumed to be a general network such as the Internet. It may include a LAN in a company or a home, or may include a wide area Ethernet (registered trademark) or a WAN composed of a plurality of LANs. The communication network may be partially or wholly wireless. The wireless network may include a mobile phone network such as 3G, 4G, and 5G in addition to wireless LAN and WiMAX.
撮像装置1は、1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。
The
なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。
The
通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。
The
なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。
If the
画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び端末装置7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことで正距円筒画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。
The
なお、画像管理装置5にはクラウドコンピューティングに対応していてよい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。なお、画像管理装置5はオンプレミス(ファイアウォールの内側)にあってもよいし、インターネット上に存在してもよい。また、画像管理装置5は複数の情報処理装置により提供されてもよいし、1台の情報処理装置で実現されてもよい。
The
端末装置7は、例えば、PC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。端末装置7は、PCの他、タブレット端末、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。本実施例では端末装置7がWebブラウザを介して画像管理装置5と通信することができるため、端末装置7はWebブラウザが動作する装置であればよい。ただし、端末装置7が画像処理システム200に専用のネイティブアプリを実行してもよい。
The terminal device 7 is, for example, a PC (Personal Computer), and performs data communication with the
撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。端末装置7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、端末装置7は本社以外の場所からも画像管理装置5と通信可能である。
The
<実施形態のハードウェア構成>
次に、図3〜図5を用いて、本実施形態の撮像装置1、通信端末3,端末装置7及び画像管理装置5のハードウェア構成を説明する。
<Hardware configuration of the embodiment>
Next, the hardware configurations of the
<<撮像装置>>
図3は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上でもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
<< Imaging device >>
FIG. 3 is an example of a hardware configuration diagram of the
図3に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
As shown in FIG. 3, the
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
Of these, the
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
The
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、いわゆる正距円筒図法の形式の画像のデータを作成する。
The
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
The image
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
Further, the image
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。
Further, as will be described later, the image
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
The
CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒図法の形式の画像のデータを記憶する。
The CPU 111 controls the overall operation of the
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。
The
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶された正距円筒図法の形式の画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
Network I / F116 is a general term for interface circuits (USB I / F, etc.) with external media such as SD cards and personal computers. Further, the network I / F116 may be a network interface regardless of whether it is wireless or wired. The equirectangular projection format image data stored in the
通信部117は、撮像装置1に設けられたアンテナ117aを介して、Wi−Fi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、正距円筒図法の形式の画像のデータを通信端末3の外部装置に送信することができる。
The
電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
The
<<通信端末>>
次に、図4を用いて、通信端末3のハードウェア構成を説明する。なお、図4は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
<< Communication terminal >>
Next, the hardware configuration of the
図4に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi−fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。
As shown in FIG. 4, the
また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
Further, a
なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。
The
通信部305は、アンテナ305aを利用して無線通信の信号により、無線ルータ9a等と通信を行う。
The
図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。
In addition to the illustration, it is equipped with a GPS receiver that receives GPS signals including the position information (latitude, longitude, and altitude) of the
<<画像管理装置、端末装置>>
図5を用いて、画像管理装置5及び端末装置7のハードウェア構成を説明する。なお、図5は、画像管理装置5及び端末装置7のハードウェア構成図である。画像管理装置5及び端末装置7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。端末装置7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
<< Image management device, terminal device >>
The hardware configuration of the
画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
The
<画像処理システムの機能について>
図6は、画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び端末装置7の各機能ブロック図である。
<About the function of the image processing system>
FIG. 6 is a functional block diagram of the
<<撮像装置の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置1用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of imaging device >>
The
また、撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置1用のプログラム及び端末IDが記憶されている。
Further, the
撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。
The
撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。
The
集音部14は、主に、図3に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。
The
接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。
The
記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。
The storage /
<<通信端末の機能構成>>
通信端末3は、通信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図4に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末3用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of communication terminal >>
The
また、通信端末3は、図4に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末3用のプログラムが記憶されている。
Further, the
(通信端末の各機能構成)
通信端末3の通信部31は、主に、図4に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「通信部31を介して」という記載を省略する場合がある。
(Each function configuration of communication terminal)
The
受付部32は、主に図4に示されているCPU301の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。
The
接続部33は、主に、図4に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。
The
記憶・読出部39は、主に、図4に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。
The storage /
<<画像管理装置の機能構成>>
画像管理装置5は、通信部51、人物検知部52、調整部53、画面作成部54、分布表現作成部55、及び、記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置5用の装置プログラム5010に従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of image management device >>
The
また、画像管理装置5は、図5に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点情報記憶部5001、撮像情報記憶部5002、画像データ記憶部5003、解析情報記憶部5004、分布表現大きさ情報記憶部5005、及び、ユーザ情報記憶部5006、が構築されている。以下、各データベースについて説明する。
Further, the
表1は、拠点情報記憶部5001に記憶される各情報をテーブル状に示す拠点管理テーブルである。拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点レイアウトマップ、及び、装置IDの各フィールドが関連付けて記憶されている。また、拠点管理テーブルの1つの行をレコードという場合がある。以下の各テーブルでも同様である。このうち、地域IDは、地域を識別するための識別情報である。地域IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。
Table 1 is a base management table showing each information stored in the base information storage unit 5001 in a table shape. In the base management table, each field of the area ID, the area name, the base ID, the base name, the base layout map, and the device ID is stored in association with each other. In addition, one row of the base management table may be called a record. The same applies to each of the following tables. Of these, the area ID is identification information for identifying the area. An example of a region ID is a unique combination of numbers and alphabets.
地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。 The area name indicates an area or range of land such as Kanto, Tokyo, Shibuya Ward, New York State, New York City, etc. It may be called a region name. The identification information refers to a name, a code, a character string, a numerical value, or a combination of two or more of these, which is used to uniquely distinguish a specific object from a plurality of objects. The same applies to the following ID or identification information.
拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。
The base ID is an example of identification information for identifying the base. The base ID is assigned to the base name so as not to be duplicated. It may be referred to as site-specific information. An example of a base ID is a combination of a unique number and an alphabet. The base is a place where the
拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。
The base name is a store name such as the Shibuya store, a venue name such as the Shibuya venue, etc., and is the name of the base. File names such as the layout of each base and image data showing the map are registered in the base layout map. The location of the
端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置1(端末ID)が設置されており、それらの位置がレイアウトマップなどで管理されている。拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。
The terminal ID is identification information for identifying the
表2は、撮像情報記憶部5002に記憶される各情報をテーブル状に示す撮像管理テーブルである。撮像管理テーブルでは、拠点IDごとに、撮像タイトル、撮像開始日時、及び撮像終了日時の各フィールドが関連付けて記憶されている。撮像タイトルは、閲覧者Yが入力したイベントのタイトルである。つまり、閲覧者Yが消費者の行動を監視したい何らかのイベントが店舗で催される場合に、このイベントの名称が撮像タイトルとなる。当然ながら、イベントの名称は閲覧者Yが任意に付与できるためイベントの名称でなくてもよい。例えば、単に撮像年月日とすることもできる。閲覧者Yは、画像データの複数のファイルから所望の画像データを抽出する際に、撮像タイトルを参照することができる。なお、1回の撮像イベントで複数の画像データが時系列に(定期的に)撮像される。撮像開始日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を開始する(又は開始した)日時を示す。撮像終了日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を終了する(又は終了した)日時を示す。閲覧者Yは撮像開始日時と撮像終了日時を事前に登録しておくこともできる(予約撮像)。撮像管理テーブルは、主に画像管理装置5が登録する。
Table 2 is an imaging management table showing each information stored in the imaging
表3は、画像データ記憶部5003に記憶される各情報をテーブル状に示す画像管理テーブルである。画像管理テーブルでは、端末IDごとに、画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。画像IDは、画像データを一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、画像IDで特定される画像データのファイル名である。撮像日時は画像データが端末IDで示される撮像装置1で撮像された日時である。画像データも、記憶部5000に記憶されている。
Table 3 is an image management table showing each information stored in the image data storage unit 5003 in a table shape. In the image management table, the image ID, the file name of the image data, and the imaging date and time are stored in association with each terminal ID. The image ID is an example of identification information for uniquely identifying the image data. It may be referred to as image-specific information. The file name of the image data is the file name of the image data specified by the image ID. The imaging date and time is the date and time when the image data was captured by the
例えば、画像ファイルの閲覧の際、閲覧者Yは端末装置7で画像管理装置5にアクセスし、表2の撮像管理テーブルから撮像タイトルを選ぶ。画像管理装置5はこの撮像タイトルの拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。
For example, when viewing an image file, the viewer Y accesses the
当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。
Of course, the viewer Y can also directly specify the terminal ID and the base ID. In the present embodiment, for the sake of simplicity, a mode in which the viewer Y specifies a terminal ID for browsing will be mainly described. The image management table is mainly registered by the
表4は、解析情報記憶部5004に記憶される各情報をテーブル状に示す。表4(a)は人物検知結果テーブルの一例を示す。重複しないID(識別情報)に対応付けて、画像ID、人物ID、人物X座標、人物Y座標が登録されている。
画像ID:画像データ記憶部の画像の画像IDと同じ者である。
人物ID:検知された人物の識別情報である。同じ画像IDに同じ人物IDがあるのは、検知領域の大きさを変えて人物検知部52が人物を検知する場合があるからである。
人物X座標:検知領域のX座標である。
人物Y座標:検知領域のY座標である。
Table 4 shows each information stored in the analysis
Image ID: The same person as the image ID of the image in the image data storage unit.
Person ID: Identification information of the detected person. The same person ID exists in the same image ID because the
Person X coordinate: The X coordinate of the detection area.
Person Y coordinate: The Y coordinate of the detection area.
人物の検知領域が矩形の場合は、矩形の対角頂点の座標が登録される。また、後述する多角形などの人物の検知方法によって人物検知結果テーブルの項目(主に人物X座標、人物Y座標の数)が変化する。 When the detection area of a person is a rectangle, the coordinates of the diagonal vertices of the rectangle are registered. In addition, the items (mainly the number of person X coordinates and person Y coordinates) of the person detection result table change depending on the person detection method such as a polygon described later.
表4(b)は人物範囲保存テーブルの一例である。重複しないID(識別情報)に対応付けて、画像ID、人物ID、座標1、座標2が登録されている。画像ID、人物IDについては表4(a)と同様でよい。座標1と座標2は、ヒートマップの幅を表す。つまり、後述するヒートマップの大きさ情報に基づいて調整されたヒートマップの大きさを示す。
Table 4 (b) is an example of a person range storage table. An image ID, a person ID, coordinates 1, and coordinates 2 are registered in association with a unique ID (identification information). The image ID and person ID may be the same as in Table 4 (a).
表5(a)は、分布表現大きさ情報記憶部5005に記憶される各情報をテーブル状に示す分布表現大きさ情報テーブルである。分布表現大きさ情報テーブルには、ヒートマップの大きさ情報が登録されている。大きさ情報は、例えば胴体、最大幅長、頭部などである。閲覧者Yは端末装置7に表示された所定の画面から任意のヒートマップの大きさ情報を選択できる。ヒートマップの大きさ情報が選択されると、調整部53は選択された大きさ情報でヒートマップの大きさを調整する。なお、ヒートマップの大きさ情報は幅方向の大きさを意味しており、高さ方向は登録されていない。これは、ヒートマップの大きさに人物の高さが反映されないためである。しかし、ヒートマップの大きさに人物の高さが反映される場合は、分布表現大きさ情報テーブルにヒートマップの高さ方向の大きさ情報が登録されることが好ましい。
Table 5 (a) is a distribution expression size information table showing each information stored in the distribution expression size information storage unit 5005 in a table shape. The size information of the heat map is registered in the distribution expression size information table. The size information is, for example, the torso, the maximum width, the head, and the like. Viewer Y can select arbitrary heat map size information from a predetermined screen displayed on the terminal device 7. When the heat map size information is selected, the adjusting
また、表5(a)では複数の大きさ情報から閲覧者Yが選択できると説明したが、1つの大きさ情報が予め記憶されていてもよい。例えば、閲覧者Yが行う解析が固定的である場合、サービスの提供者側が用意した1つの大きさ情報で、画像管理装置5がヒートマップを作成すればよいためである。
Further, although it has been explained in Table 5 (a) that the viewer Y can select from a plurality of size information, one size information may be stored in advance. For example, when the analysis performed by the viewer Y is fixed, the
表5(b)も分布表現大きさ情報テーブルを示すが、表5(b)では用途にヒートマップの大きさ情報が対応付けられている。例えば、滞留解析という用途には胴体が、スペース解析という用途には最大幅長が、それぞれ対応付けられている。滞留解析は来客者がどのように移動するかどの場所に滞留するかなどを閲覧者Yが解析する場合に選択される。スペース解析は、来客者が運動するような施設で十分なスペースがあるかを閲覧者Yが解析する場合に選択される。閲覧者Yは端末装置7に表示された所定の画面から任意の用途を選択できる。用途が選択されると、調整部53は用途に対応付けられたヒートマップの大きさ情報を取得し、この大きさ情報でヒートマップの大きさを調整する。
Table 5 (b) also shows the distribution expression size information table, but in Table 5 (b), the size information of the heat map is associated with the application. For example, the fuselage is associated with the application of retention analysis, and the maximum width is associated with the application of space analysis. The retention analysis is selected when the viewer Y analyzes how the visitor moves and where the visitor stays. Space analysis is selected when viewer Y analyzes whether there is sufficient space in the facility where the visitor exercises. Viewer Y can select any purpose from a predetermined screen displayed on the terminal device 7. When the application is selected, the adjusting
表6は、ユーザ情報記憶部5006に記憶される各情報をテーブル状に示す。表6(a)は用途別設定項目テーブルの一例を示す。用途別設定項目テーブルには、重複しないID(識別情報)に対応付けて社名と選択可能領域が登録されている。用途別設定項目テーブルは各会社が選択できるヒートマップの大きさのリストである。例えば、
・一般的な店舗のA社は最大幅長、肩幅及び頭幅からヒートマップの大きさを選択できる。
・レストランであるB社は肩幅と頭幅からヒートマップの大きさを選択できる。
・必ずしも決まった幅としたくないC社は、自由に選択する(自由選択長)。
・ジムを経営するD社は最大幅長をヒートマップの大きさとする。
Table 6 shows each information stored in the user
・ Company A, a general store, can select the size of the heat map from the maximum width, shoulder width, and head width.
・ Company B, a restaurant, can select the size of the heat map from the shoulder width and head width.
・ Company C, which does not necessarily have a fixed width, can freely select (free selection length).
・ Company D, which runs the gym, sets the maximum width as the size of the heat map.
なお、閲覧者Yは、このように選択できるヒートマップの大きさのリストを登録するのでなく、1つの大きさを登録しておいてもよい。 Note that the viewer Y may register one size instead of registering the list of heat map sizes that can be selected in this way.
表6(b)は、領域別設定方法テーブルの一例である。領域別設定方法テーブルには、重複しないID(識別情報)に対応付けて認識領域と選択方式が登録されている。領域別設定方法テーブルは、閲覧者Yが表6(a)の選択可能領域を所定の画面から選択する場合、選択項目が画面上どのように表示されるかが登録されたテーブルである。例えば、最大幅長、頭幅、肩幅が選択可能領域の場合、ラジオボタンで選択できることを示す。 Table 6 (b) is an example of a setting method table for each area. In the area-specific setting method table, the recognition area and the selection method are registered in association with the unique ID (identification information). The area-specific setting method table is a table in which when the viewer Y selects the selectable area in Table 6 (a) from a predetermined screen, how the selected items are displayed on the screen is registered. For example, when the maximum width, head width, and shoulder width are selectable areas, it is shown that they can be selected with the radio buttons.
(画像管理装置の各機能構成)
画像管理装置5の通信部51は、主に、図5に示されているネットワークI/F509及びCPU501の処理等によって実現され、通信ネットワーク9を介して通信端末3、又は端末装置7と各種データの送受信を行う(第一の通信部の一例)。なお、以下では、画像管理装置5が端末装置7と通信する場合でも、「通信部51を介して」という記載を省略する場合がある。
(Each function configuration of the image management device)
The
人物検知部52は、画像データから人物を検知する。この人物の検知は機械学習により得られた識別器により行われる。例えば、ディープラーニングの一形態であるCNN(Convolutional Neural Network)を使って画像データから人物が写っている領域を検知する方法がある。機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり,コンピュータが,データ識別等の判断に必要なアルゴリズムを,事前に取り込まれる学習データから自律的に生成し,新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、更に、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。
The
調整部53は、ヒートマップの大きさ情報に基づいて、ヒートマップの大きさを調整する。すなわち、分布表現に使用される人物の大きさを小さくしたり、人物検知部52が検知した人物の幅よりも、分布表現に使用される人物の幅を小さくしたりする。具体的には、最大幅長、胴体、又は、頭部など、どの大きさでヒートマップを作成するかを分布表現大きさ情報記憶部5005から取得して、検知されている人物のうちこの大きさに対応する幅を人物範囲保存テーブルの座標1、座標2に設定する。詳細は後述される。
The adjusting
画面作成部54は、画像データを端末装置7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで端末装置7が画像データを表示するための画面情報を作成する。画像データは三次元の全天球画像であるので、二次元のディスプレイ508に表示することができない。このため、画面作成部54は全天球画像を透視投影変換によりディスプレイ508に投影するプログラムを画面情報に含めている。これにより、閲覧者Yは端末装置7を操作して全天球画像を回転させ、任意の方向から全天球画像の一部を少ない歪みで表示できる。
When transmitting the image data to the terminal device 7, the
なお、画面作成部54は、分布表現作成部55が作成したヒートマップを画面情報に含めて端末装置7に送信する。端末装置7では全天球画像とヒートマップを重ねて表示する。
The
記憶・読出部59は、主に、図5に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。
The storage /
<端末装置の機能構成>
端末装置7は、通信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された端末装置7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of terminal device>
The terminal device 7 has a
また、端末装置7は、図5に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には端末装置7用の端末プログラム7010が記憶されている。端末装置7用の端末プログラム7010は、例えばWebブラウザであるが、Webブラウザのような通信機能を備えたアプリケーションソフトウェアでもよい。また、Webブラウザは画面データを実行して画面を表示したり、操作を受け付けたりするため、端末プログラム7010には画像管理装置5が送信する画面データ(HTML、JavaScript(登録商標)等)が含まれる。
Further, the terminal device 7 has a
(端末装置の各機能構成)
端末装置7の通信部71は、主に、図5に示されているネットワークI/F509及びCPU501の処理等によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う(第二の通信部の一例)。なお、以下では、端末装置7が画像管理装置5と通信する場合でも、「通信部71を介して」という記載を省略する場合がある。
(Each function configuration of the terminal device)
The
受付部72は、主に、図5に示されているキーボード511及びマウス512、並びにCPU501の処理等によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。
The
表示制御部73は、主に、図5に示されているCPU501の処理等によって実現され、画像管理装置5から送信された画面情報を解釈して端末装置7のディスプレイ508に各種画面を表示させるための制御を行なう。
The
記憶・読出部79は、主に、図5に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、端末装置7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。
The storage /
<人物の検知結果の一例>
図7は、人物の検知が行われる画像を説明する図である。全天球画像は周囲360度が撮像されているため、平面ディスプレイには全体を表示できない(表示できるが歪みが大きくなる)。また、撮像後の画像データは正距円筒画像で保存されるが、正距円筒画像の極部(上部や下部)では歪みが大きくなる。このため、制御円筒画像のままでは人物の検知精度が低下するおそれがある。そこで、人物検知部52は正距円筒画像の画像データを立体球に変換してから人物検知を行う。
<Example of human detection result>
FIG. 7 is a diagram illustrating an image in which a person is detected. Since the spherical image is captured at a circumference of 360 degrees, the entire image cannot be displayed on a flat display (it can be displayed, but the distortion becomes large). Further, although the image data after imaging is stored as an equirectangular image, distortion becomes large at the poles (upper and lower) of the equirectangular image. Therefore, if the control cylinder image is left as it is, the accuracy of detecting a person may decrease. Therefore, the
図7に示すように、人物検知部52は歪みが少ない大きさの所定領域を切り替えながら、全天球画像の全範囲に対し人物検知を行う。こうすることで、人物の検知精度の低下を抑制できる。所定領域は、三次元座標を平面のディスプレイに投影する透視投影変換により平面画像として表される。
As shown in FIG. 7, the
図8を参照して人物の検知結果の一例を説明する。図8は、人物の検知結果で得られる情報を模式的に示す図である。図8(a)は矩形210として検知された人物の領域を示し、図8(b)は多角形211として検知された人物の領域を示し、図8(c)は人間の頂点212の検知例を示す。人間の頂点212とは、人間の身体の先端部(頭部、手先、足先)だけでなく、関節などの可動部(首、肩、脚の付け根)も含まれる。
An example of the detection result of a person will be described with reference to FIG. FIG. 8 is a diagram schematically showing information obtained from the detection result of a person. FIG. 8 (a) shows the area of the person detected as the
図8(a)又は図8(b)のどちらの形状で人物検知部52が人物を検知するかは、学習時の教師データの与え方によって開発者が調整できるため、あくまで一例である。また、図8(c)のように矩形や多角形でなく人間の頂点212を人物検知部52が検知する方法も、学習時の教師データの与え方によって実現できる。
Which shape of FIG. 8A or FIG. 8B the
本実施形態の画像管理装置5は、人物の検知方法、検知された人物の形状、又は、検知された身体の頂点などに関係なく、ヒートマップの大きさを調整できる。
The
<人物の検知結果とヒートマップの関係>
図8にて説明したように、人物の検知方法、検知された人物の形状、又は、検知された身体の頂点は様々である。調整部53は、これらに対応してヒートマップの大きさを調整する。
<Relationship between person detection results and heat map>
As described with reference to FIG. 8, there are various methods for detecting a person, the shape of the detected person, or the detected apex of the body. The adjusting
図9は矩形で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。図9(a)は矩形210で検知された人物の一例を示す。この場合、最大幅長は矩形210の幅とほぼ同じでよい。調整部53が閲覧者Yや用途に応じて採用したヒートマップの大きさ情報が最大幅長の場合、図9(b)に示すように、調整部53は矩形210の幅をヒートマップの大きさとする。具体的には矩形210の4つ頂点の座標のうち左下と右下の頂点の座標を人物幅保存テーブルに登録する。図9(b)では足下の楕円がヒートマップ213を表している。
FIG. 9 is a diagram illustrating a method of adjusting the size of the heat map when a person is detected as a rectangle. FIG. 9A shows an example of a person detected by the
一方、胴体がどこからどこまでかは、図9(a)の人物の検知結果である矩形210からは明らかでない。この場合、胴体をヒートマップの大きさとするには以下のような方法がある。
(i) 調整部53が人物検知部52に胴体の検知を要求する。
(ii) 人物検知部52が予め外接矩形だけでなくヒートマップの大きさ情報に対応した身体の部位を検知しておく。
(iii) 1より小さい比率を最大幅長に乗じる。
On the other hand, where the torso is from is not clear from the
(i) The adjusting
(ii) The
(iii) Multiply the maximum width by a ratio less than 1.
図9(d)は人物検知部52が検知する複数の矩形210,215の一例を示す。図9(d)では最大幅長を意味する矩形210だけでなく、胴体を囲む矩形215が求められている。教師データの与え方次第で人物検知部52は頭部や胴体のみを検知することができるため、図9(d)のように人物検知部52が身体の部位を検知することは容易である。したがって、調整部53は(i)(ii)の方法で胴体に対応する矩形215の幅をヒートマップの大きさとすることができる。具体的には矩形215の4つ頂点の座標のうち左下と右下の頂点の座標を人物幅保存テーブルに登録する。
FIG. 9D shows an example of a plurality of
(iii)の方法については、胴体の幅は最大幅長よりも小さいという知見を利用した簡易的な調整方法となる。例えば、調整部53は最大幅長の80%などを胴体の大きさとして、矩形210からヒートマップの大きさを算出する。なお、最大幅長に乗じる比率を図9(a)の矩形210のアスペクト比に応じて決定するとよい。これは、人物が手を広げた状態と閉じた状態では適切な比率が異なるためである(手を広げた場合の方が最大幅長は大きく縮小されるべきである)。この場合、アスペクト比に比率が対応付けられたテーブルを調整部53が有している。
The method (iii) is a simple adjustment method utilizing the knowledge that the width of the fuselage is smaller than the maximum width. For example, the adjusting
以上(i)〜(iii)の方法で胴体の大きさが得られると、図9(c)に示すように、分布表現作成部55は胴体の大きさのヒートマップを作成できる。図9(c)では足下の楕円214がヒートマップを表している。このように、矩形の一部を分布表現に使用される人物の幅に決定できる。
When the body size is obtained by the above methods (i) to (iii), the distribution
図10は多角形216で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。後述するように、ヒートマップの大きさは、検知された人物の領域のうち、幅方向(横方向)の長さに応じて、ヒートマップの大きさとする。つまり 、人物の領域の座標の値を用いることで実施することができる。例えば、人物の領域の幅方向に対応する座標値から幅方向の長さや、幅方向の中点を求めることで、ヒートマップの描画を行うことができる。図10(a)は多角形216で検知された人物の一例を示す。この場合、最大幅長は多角形216の幅とほぼ同じでよい。図10(b)に示すように、採用した大きさ情報が最大幅長の場合、調整部53は多角形216の幅をヒートマップの大きさとする。具体的には多角形216の最左と最右の座標を人物幅保存テーブルに登録する。図10(b)では足下の楕円217がヒートマップを表している。ここで、 分布表現は、対応する人物の領域内または接して表現することができる。例えば、人物の頭上、腹部辺り、足下などが考えられる。しかしながら、足下に分布表現をするのが好ましく、更に検知された人物の領域の幅を楕円形状の長辺として楕円形状のヒートマップにするのが好ましい。このような分布表現が空間との対応関係を示すのに好ましい表現である。
FIG. 10 is a diagram illustrating a method of adjusting the size of the heat map when a person is detected by the
一方、胴体がどこからどこまでかは、図10(a)の人物の検知結果である多角形216からは明らかでない。この場合、胴体をヒートマップの大きさとする方法は図9の矩形の場合(i)〜(iii)と同様である。
On the other hand, where the torso is from is not clear from the
図10(d)は人物検知部52が検知する複数の多角形216,219の一例を示す。図10(d)では人物の全体が入る多角形216だけでなく、胴体が入る多角形219が求められている。教師データの与え方次第で人物検知部52は頭部や胴体のみを検知することができるため、図10(d)のように人物検知部52が身体の部位を検知することは容易である。したがって、調整部53は(i)(ii)の方法で胴体に対応する多角形219の幅をヒートマップの大きさとすることができる。
FIG. 10D shows an example of a plurality of
(iii) の方法について、多角形ではアスペクト比という概念がないので、最左と最右の長さ216bに対する底辺216aの長さの比に対して比率が対応付けられたテーブルを調整部53が有しているとよい。
Regarding the method (iii), since there is no concept of aspect ratio in polygons, the adjusting
また、人物の検知結果が多角形216である場合は(iv)番目の方法として、底辺216aの左右の座標を胴体の大きさと見なす方法がある。この方法であれば、調整部53は人物検知の結果からそのまま胴体の大きさを推定できるので、処理負荷を低減できる。
Further, when the detection result of the person is the
以上のように胴体の大きさが得られると、図10(c)に示すように、分布表現作成部55は胴体の大きさのヒートマップを作成できる。図10(c)では足下の楕円218がヒートマップを表している。
When the size of the body is obtained as described above, the distribution
図11は身体の頂点212で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。図11(a)は頂点212で検知された人物の一例を示す。この場合、最大幅長は手先220,221の間隔とほぼ同じでよい(最左と最右の頂点)。図11(b)に示すように、採用した大きさ情報が最大幅長の場合、調整部53は手先220,221の幅をヒートマップの大きさとする。具体的には複数の頂点212のうち手先220,221の座標(ただしY座標は足先を採用する)を人物幅保存テーブルに登録する。図11(b)では足下の楕円222がヒートマップを表している。
FIG. 11 is a diagram illustrating a method of adjusting the size of the heat map when a person is detected at the apex 212 of the body. FIG. 11A shows an example of a person detected at the apex 212. In this case, the maximum width and length may be substantially the same as the spacing between the
一方、胴体がどこからどこまでかは、図11(a)の人物の検知結果である頂点212から直接は明らかでないが胴体と見なせる頂点が得られている。例えば、肩224、225や脚の付け根226,227の頂点である。したがって、この場合、調整部53は、肩224、225や脚の付け根226,227の頂点の幅を胴体と見なして人物幅保存テーブルに登録する。
On the other hand, it is not directly clear from the apex 212 which is the detection result of the person in FIG. 11A, but the apex that can be regarded as the torso is obtained. For example, the vertices of the
図11(c)に示すように、採用した大きさ情報が胴体の場合、分布表現作成部55は肩や脚の付け根の幅をヒートマップの大きさとしてヒートマップを作成する。図11(c)では足下の楕円223がヒートマップを表している。
As shown in FIG. 11C, when the adopted size information is the torso, the distribution
<閲覧者Yが選択するヒートマップの大きさ>
次に、図12を参照して、閲覧者Yがヒートマップの大きさを選択する際の画面例を説明する。図12は、ヒートマップの大きさの選択画面230の一例である。図12(a)は、表6(a)の用途別設定項目テーブルにおいて選択可能領域が「頭幅、肩幅、最大幅長」の会社の閲覧者Yが表示する選択画面である。このため、図12(a)では、頭幅、肩幅、最大幅長に対応付けてラジオボタン231〜233を表示する。閲覧者Yは、頭幅、肩幅、最大幅長から、どのヒートマップの大きさで、ヒートマップを作成したいのかを選択できる。
<Size of heat map selected by viewer Y>
Next, with reference to FIG. 12, a screen example when the viewer Y selects the size of the heat map will be described. FIG. 12 is an example of the heat map
図12(b)は表6(a)の用途別設定項目テーブルにおいて選択可能領域が「自由選択長」の会社の閲覧者Yが表示する選択画面240である。このため、図12(b)では、スライダー241を表示する。このスライダー241は右から左に移動するほどヒートマップが大きくなる。図示する枠242とスライダー241の位置が連動する。閲覧者Yは、枠242を見ながらスライダー241を移動させてヒートマップの大きさを変更できる。スライダー241の位置によって人物の最大幅長の何パーセントをヒートマップの大きさとするか決定される。パーセンテージは画像管理装置5に送信され、分布表現大きさ情報記憶部5005に保存される。調整部53はヒートマップの大きさを調整するために使用する。
FIG. 12B is a
図12(c)は表6(a)の用途別設定項目テーブルにおいて選択可能領域が「自由選択長」の会社の閲覧者Yが表示する選択画面250である(図12(b)とは別の例)。図12(c)では、2つのスライダー251、252を表示する。右側のスライダー252は枠253の右端の位置に対応し、左側のスライダー251は枠253の左端の位置に対応する。閲覧者Yは、枠253を見ながら2つのスライダーを移動させてヒートマップの大きさを選択できる。
FIG. 12 (c) is a
スライダー251、252の位置によって人物のどの部分をヒートマップの大きさとするか決定される。スライダー251、252の位置は画像管理装置5に送信され、分布表現大きさ情報記憶部5005に保存される。調整部53はヒートマップの大きさを調整するために使用する。
The positions of the
また、図13に示すように、閲覧者Yはヒートマップの作成方法やヒートマップの色を選択することもできる。図13は端末装置7が表示するヒートマップ作成画面260の一例を示す。ヒートマップ作成画面260は、ヒートマップの作成方法として、人物がいる領域又は人物がいない領域に対応したラジオボタン261,262と、ヒートマップの色として、単色又は複数色に対応したラジオボタン263,264を有する。閲覧者Yは人物がいる領域又は人物がいない領域のどちらを表すヒートマップを見たいのか選択できる。また、ヒートマップを作成する色が単色か複数色かを選択できる。単色の場合、及び、複数色の場合に閲覧者Yが更に色を選択できることが好ましい。
Further, as shown in FIG. 13, the viewer Y can also select a heat map creation method and a heat map color. FIG. 13 shows an example of the heat
<ヒートマップの作成方法>
続いて、図14、図15等を参照してヒートマップの作成方法を説明する。図14は、ヒートマップの作成方法を模式的に示す図であり、図15はヒートマップの作成法を説明するフローチャート図である。なお、ヒートマップの大きさに関係なく作成方法は共通であるので、図14ではヒートマップの大きさが最大幅長に調整される場合を説明する。また、ヒートマップの形状は開発者が適宜設計できるが、ここでは楕円形とする。
<How to create a heat map>
Subsequently, a method of creating a heat map will be described with reference to FIGS. 14, 15 and the like. FIG. 14 is a diagram schematically showing a method of creating a heat map, and FIG. 15 is a flowchart illustrating a method of creating a heat map. Since the method of creating the heat map is the same regardless of the size of the heat map, FIG. 14 describes a case where the size of the heat map is adjusted to the maximum width. The shape of the heat map can be designed by the developer as appropriate, but here it is an ellipse.
(S1)
まず、分布表現作成部55は人物幅保存テーブルからヒートマップの大きさ(座標1,座標2)を取得する。
(S1)
First, the distribution
(S2)
分布表現作成部55は、座標1,座標2の中心270を設定する(図14(a))。座標1,2には検知された人物の下端の座標も含まれており、足下に中心270が設定される。
(S2)
The distribution
(S3)
次に、分布表現作成部55は、座標1、座標2を長軸とする楕円271を描画する(図14(b))。短軸の大きさは、予め決められている長軸との比率により決定される。
(S3)
Next, the distribution
(S4)
分布表現作成部55は、人物ごとに同様に生成した楕円271の重なりを統計処理して各ヒートマップの濃度を決定する。詳細を図16,図17を参照して説明する。
(S4)
The distribution
図16はヒートマップの濃度の決定方法を説明する図であり、図17はヒートマップの濃度の決定方法を示すフローチャート図である。図16では4つの楕円280が描画されている。4つの楕円280により以下の領域が形成されている。
A.重なりがない領域
B.2つの楕円が重なった領域
C.3つの楕円が重なった領域
分布表現作成部55は、画素レベルでいくつの楕円が重なっているかを特定できる。なお、ヒートマップを作成する期間(画像データの数)は閲覧者が設定するので一定とは限らない。例えば、1日の始まりから現在時刻まで、閲覧者Yが指定した任意の期間、又は、セール中などの期間、など様々でよい。このため、楕円280の数も様々であるが、解析の対象となる画像データの中で相対的な人物の滞留を表すため、分布表現作成部55は以下のように処理する。
FIG. 16 is a diagram illustrating a method for determining the density of the heat map, and FIG. 17 is a flowchart showing a method for determining the density of the heat map. In FIG. 16, four
A. Areas that do not overlap B. Region where two ellipses overlap C. Area where three ellipses overlap The distribution
(S11)
分布表現作成部55は楕円280が重なっている数を画素ごとにカウントする。
(S11)
The distribution
(S12)
分布表現作成部55は、重なっている数に応じて、応じて予め用意している色の数に画素をグループ分けする。図16では3つの色が用意されているので、画素は数が多い順に3つのグループに分けられる。各グループの画素の数は同じでよいが、異ならせることもできる。したがって、例えば、A.重なりがない領域、B.2つの楕円が重なった領域、C.3つの楕円が重なった領域、が色分けされる。
(S12)
The distribution
(S13)
分布表現作成部55は、予め決まっている色をグループの画素に割り当てる。こうすることで、重なっている楕円の数が多い画素ほど、濃い色で表されたヒートマップを作成できる。
(S13)
The distribution
なお、図16では人物が滞留している領域を強調するヒートマップを作成したが、分布表現作成部55は人物が存在しない領域を強調するヒートマップを作成することもできる。この場合は、ステップS13において、分布表現作成部55は、重なっている楕円の数が少ない画素ほど、濃い色で表されたヒートマップを作成する。
Although the heat map for emphasizing the area where the person is staying is created in FIG. 16, the distribution
<ヒートマップの形状の他の例>
図16等では、楕円形のヒートマップを示したが、ヒートマップの形状は種々設計される。図18は、ヒートマップの形状のいくつかのバリエーションを示す図である。図18(a)はこれまで説明した楕円291のヒートマップである。
<Other examples of heat map shapes>
Although an elliptical heat map is shown in FIG. 16 and the like, various shapes of the heat map are designed. FIG. 18 is a diagram showing some variations in the shape of the heat map. FIG. 18A is a heat map of the
図18(b)は実線292でヒートマップを表している。図18(c)は破線293でヒートマップを表している。実線292も破線293も閲覧者がみやすいようにある程度の太さを有している。したがって、図18(b)のヒートマップは長方形と表現することができる。この他、ヒートマップは菱形、台形、又は、雲のような形状でもよい。ここで説明したように、ヒートマップの大きさは、検知された人物の大きさに対応づけて決定することで、見やすい分布表現となる。また、ヒートマップの形状については、様々な形状が適用できる。
FIG. 18B shows a heat map with a
<ヒートマップの表現例>
図19は、人物ごとに異なる色で表示されたヒートマップの一例である。図19に示すように分布表現作成部55は、個別の人物ごとにヒートマップを分けて作成してもよい。この場合、人物検知部52は、人物を検知するだけでなく同じ人物を追跡する機能を有する。あるいは、更に個人を特定してもよい。同じ人物を追跡する方法としては、解析期間のうち最初に検知された人物の特徴量(色のヒストグラム、形状、顔のパーツの配置等)を人物検知部52が検知しておき、検知された人物を特徴量でパターンマッチングして追跡する方法がある。
<Example of heat map expression>
FIG. 19 is an example of a heat map displayed in a different color for each person. As shown in FIG. 19, the distribution
分布表現作成部55は、同一人物ごとに図16、図17で説明した方法でヒートマップを作成する。この時、同じ人物には同じ系統の色だけでヒートマップを作成する。例えば、人物Aは赤系統、人物Bは黄系統、人物Cは緑系統、などである。同じ系統色で異なる色が使用されるので、人物が滞留した場所の色を濃くできる。
The distribution
このように、人物ごとに系統色を変えることで、閲覧者はある来客者の動向に着目して解析しやすくなる。 By changing the system color for each person in this way, it becomes easier for the viewer to pay attention to the trend of a certain visitor and analyze it.
<瞬間的な占有を表すヒートマップ>
図20は、ある瞬間のヒートマップの表示例を示す。図20(a)に示すように、撮像装置1は次々に画像データを画像管理装置5に送信する。図16では一定期間の画像データからヒートマップを作成したが、図20(a)では、分布表現作成部55は、1つの画像データのみからヒートマップを作成する。この場合のヒートマップの一例を図20(b)に示す。分布表現作成部55は、人物が検知されていれば楕円294を描画し、人物が検知されていなければ楕円294を描画しないという処理で、人物が検知されたことを強調できる。すなわち、分布表現作成部55は人物がいるか否かを分布表現で表す。
<Heat map showing momentary occupancy>
FIG. 20 shows an example of displaying a heat map at a certain moment. As shown in FIG. 20A, the
一般のヒートマップが図20(c)に示すようにある一定期間の人物の滞留を濃度で表すのに対し、図20(b)のヒートマップは、ある瞬間に人物がいるかどうかを閲覧者Yが一目で把握できる。例えば来客者が物品で隠れやすい店内などで有効である。 Whereas a general heat map expresses the retention of a person for a certain period of time as a concentration as shown in FIG. 20 (c), the heat map of FIG. 20 (b) shows whether or not a person is present at a certain moment. Can be grasped at a glance. For example, it is effective in a store where visitors can easily hide with goods.
<ヒートマップ画像と画像データとの重ね合わせ>
続いて図21〜図23を参照して、ヒートマップ画像と画像データの重ね合わせについて説明する。図21は、元の画像データとヒートマップ画像の重ね合わせを模式的に示す図である。
<Superposition of heat map image and image data>
Subsequently, the superposition of the heat map image and the image data will be described with reference to FIGS. 21 to 23. FIG. 21 is a diagram schematically showing an overlay of the original image data and the heat map image.
図21(a)は元の画像データであり、図21(b)はヒートマップ画像である。元の画像データの内容は省略されている。図21(a)(b)は正距円筒画像である。端末装置7がヒートマップ画像を元の画像データに重ねた場合に、元の画像データが見えることが好ましいため、ヒートマップ画像は透過画像で作成される。 FIG. 21 (a) is the original image data, and FIG. 21 (b) is a heat map image. The contents of the original image data are omitted. 21 (a) and 21 (b) are equirectangular images. Since it is preferable that the original image data can be seen when the terminal device 7 superimposes the heat map image on the original image data, the heat map image is created as a transparent image.
画面作成部54は図21(a)と(b)をそのまま重ねれば、ヒートマップ越しに元の画像データが透けて見える重畳画像を作成できる(図21(c))。
By superimposing FIGS. 21 (a) and 21 (b) as they are, the
続いて、立体球への変換を説明する。全天球画像は立体球の状態で閲覧されるため、画面作成部54は正距円筒画像を立体球に変換する。図21(d)に示すように、画面作成部54は、球体に元の画像データ(内側)、ヒートマップ画像(外側)の順に貼り付ける。
Next, the conversion to a three-dimensional sphere will be described. Since the spherical image is viewed in the state of a three-dimensional sphere, the
図22は正距円筒画像の座標と三次元座標の対応を説明する図である。正距円筒画像は図22(a)のようにθ(経度)=0〜360度、φ(緯度)=0〜180度の範囲の球面座標系で座標が示される。立体球にもこの座標系のまま画像データとヒートマップ画像を貼り付けることは可能だが、閲覧者Yが立体球を回転させることを考慮すると回転に適した三次元座標系に変換することが好ましい。 FIG. 22 is a diagram illustrating the correspondence between the coordinates of the equirectangular image and the three-dimensional coordinates. The equirectangular image shows the coordinates in a spherical coordinate system in the range of θ (longitude) = 0 to 360 degrees and φ (latitude) = 0 to 180 degrees as shown in FIG. 22 (a). It is possible to paste the image data and the heat map image on the 3D sphere as it is in this coordinate system, but considering that the viewer Y rotates the 3D sphere, it is preferable to convert it to a 3D coordinate system suitable for rotation. ..
図22(b)は球面座標系と三次元座標系の変換を説明する図である。図から明らかなように、球面座標系の任意の座標(φ1、θ1)と三次元座標系の任意の座標(x1,y1,z1)には以下の関係がある。 FIG. 22B is a diagram illustrating the conversion between the spherical coordinate system and the three-dimensional coordinate system. As is clear from the figure, there is the following relationship between arbitrary coordinates (φ1, θ1) in the spherical coordinate system and arbitrary coordinates (x1, y1, z1) in the three-dimensional coordinate system.
画面作成部54は式(1)〜(3)で画像データとヒートマップ画像を立体球に貼り付けることができる。
The
図23は実際の元の画像データとヒートマップ画像を示す図である。図23(a)は元の画像データ(正距円筒画像)である。実際の画像データを線図で表している。図23(b)はヒートマップ画像である。図23(c)は画像データに透過画像のヒートマップ画像が貼り付けられた重複画像である。 FIG. 23 is a diagram showing the actual original image data and the heat map image. FIG. 23A is the original image data (equirectangular image). The actual image data is represented by a diagram. FIG. 23B is a heat map image. FIG. 23 (c) is a duplicate image in which a heat map image of a transparent image is attached to the image data.
<全体的な動作手順>
図24は、画像処理システムが行う処理を説明するシーケンス図の一例である。
S101,S102:撮像装置1が撮像した画像データは通信端末3を介して画像管理装置5に送信される。画像管理装置5の通信部51は画像データを受信して、画像データ記憶部5003に保存する。
<Overall operation procedure>
FIG. 24 is an example of a sequence diagram for explaining the processing performed by the image processing system.
S101, S102: The image data captured by the
S103:閲覧者Yが端末装置7を操作して、端末装置7の通信部71がヒートマップによる画像データの解析を要求した。例えば、ある一日の画像データの解析とする。なお、閲覧者Yはログインによりどの会社に所属しているか特定されている。
S103: The viewer Y operates the terminal device 7, and the
S104:画像管理装置5の通信部51は解析要求を受信し、人物検知部52が画像データ記憶部5003からある一日の画像データを取得する。そして、各画像データから人物を検知して、表4(a)の人物検知結果テーブルに登録していく。
S104: The
S105:次に、調整部53が、この閲覧者Yのヒートマップの大きさ情報を分布表現大きさ情報記憶部5005から取得し、ヒートマップの大きさ(幅)を調整する。すなわち、頭幅、肩幅、又は、最大幅長に基づいて、ヒートマップの幅となるX座標、Y座標を決定する。調整方法は図9〜図11にて説明した。調整部53は、表4(b)に示した人物範囲保存テーブルにヒートマップの幅を示す座標1と座標2を登録する。
S105: Next, the adjusting
S106:分布表現作成部55は、人物範囲保存テーブルから各画像データのヒートマップの幅(座標1と座標2)を取得して楕円を描画し、図16にて説明したようにヒートマップ画像を作成する。
S106: The distribution
S107:画面作成部54はヒートマップ画像と画像データを立体球に変換し、これらを端末装置7が表示するためのWebページ(画面情報)を作成する。通信部51が画面情報を端末装置7に送信する。
S107: The
S108:端末装置7の通信部71は画面情報を受信する。表示制御部73はヒートマップ画像を画像データに重ね合わせ、透視投影変換を行って立体を平面のディスプレイに表示する。なお、立体球への変換は端末装置7が行ってもよい。
S108: The
<主な効果>
以上説明したように本実施形態の画像処理システムは、従来、固定的であったヒートマップの大きさを調整できる。例えば、ユーザ又は用途等に応じてヒートマップの大きさを調整するので、ヒートマップの大きさを変更できる。
<Main effect>
As described above, the image processing system of the present embodiment can adjust the size of the heat map, which has been fixed in the past. For example, since the size of the heat map is adjusted according to the user or the application, the size of the heat map can be changed.
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.
実施例では、閲覧者Y又は用途に応じてヒートマップの大きさを調整したが、人物ごとにヒートマップの大きさを調整してもよい。例えば、人物検知部52が人物だけでなく男女の区別、年代の区別を行い、男性と女性、又は年代によってヒートマップの大きさを変更してよい。
In the embodiment, the size of the heat map is adjusted according to the viewer Y or the application, but the size of the heat map may be adjusted for each person. For example, the
また、調整の方法として、人物の外接矩形よりも小さくする方法を説明したが、元の人物の検知範囲よりもヒートマップを大きくしてもよい。例えば、人物検知部52は胴体を検知するが、調整部53が最大幅長に広げるような調整も可能である。
Further, as a method of adjustment, a method of making the person smaller than the circumscribed rectangle of the person has been described, but the heat map may be made larger than the detection range of the original person. For example, the
また、大きさを調整するのでなく、調整部53はヒートマップの形状を変更してもよい。例えば、ある閲覧者Yでは楕円のヒートマップで表示し、別の閲覧者Yでは実線のヒートマップで表示する。画像で検知された人物ごとにヒートマップの形状を調整してもよい。
Further, instead of adjusting the size, the adjusting
また、以上の実施例で示した図6などの構成例は、撮像装置1、通信端末3、画像管理装置5及び端末装置7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5及び端末装置7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。また、画像処理システム200が複数の画像管理装置5を有していてもよい。
Further, the configuration examples such as FIG. 6 shown in the above examples correspond to the main functions in order to facilitate the understanding of the processes of the
また、実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、画像管理装置5は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。
Also, the group of devices described in the examples merely represents one of a plurality of computing environments for implementing the embodiments disclosed herein. In certain embodiments, the
更に、画像管理装置5は、開示された処理ステップ、例えば図24を様々な組み合わせで共有するように構成できる。例えば、所定のユニットによって実行されるプロセスは、画像管理装置5が有する複数の情報処理装置によって実行され得る。また、画像管理装置5は、1つのサーバ装置にまとめられていても良いし、複数の装置に分けられていても良い。
Further, the
また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。
Further, the database of the storage unit 5000 of the
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays), and conventional circuit modules.
1 撮像装置
3 通信端末
5 画像管理装置
7 端末装置
200 画像処理システム
1
Claims (15)
前記人物検知部が検知した前記人物の大きさを用いて前記人物の分布表現を作成する分布表現作成部と、
を有することを特徴とする情報処理装置。 A person detection unit that detects a person from the image data captured by the image pickup device, and
A distribution expression creation unit that creates a distribution representation of the person using the size of the person detected by the person detection unit, and a distribution expression creation unit.
An information processing device characterized by having.
前記分布表現作成部は、前記調整部が調整した前記人物の大きさを用いて前記人物の分布表現を作成することを特徴とする請求項1に記載の情報処理装置。 It has an adjustment unit that adjusts the size of the person detected by the person detection unit.
The information processing apparatus according to claim 1, wherein the distribution expression creating unit creates a distribution expression of the person using the size of the person adjusted by the adjusting unit.
前記調整部は、前記分布表現の大きさに関する情報に応じて、前記矩形の一部を分布表現に使用される前記人物の幅に決定することを特徴とする請求項5又は6に記載の情報処理装置。 The person detection unit detects the person from the image data with a rectangle including the entire person.
The information according to claim 5 or 6, wherein the adjusting unit determines a part of the rectangle to be the width of the person used for the distribution expression according to the information regarding the size of the distribution expression. Processing equipment.
前記画像データから人物を検知する人物検知部と、
前記人物検知部が検知した前記人物の大きさを用いて前記人物の分布表現を作成する分布表現作成部と、
前記画像データと前記分布表現を端末装置に送信する第一の通信部と、を有する情報処理装置と、
端末装置に、前記画像データに前記分布表現を重ねて表示させるプログラムと、
を有することを特徴とする画像処理システム。 An image data storage unit that stores image data captured by the image pickup device, and
A person detection unit that detects a person from the image data,
A distribution expression creation unit that creates a distribution representation of the person using the size of the person detected by the person detection unit, and a distribution expression creation unit.
An information processing device having the image data and a first communication unit that transmits the distribution representation to the terminal device.
A program for displaying the distribution representation on the image data on the terminal device,
An image processing system characterized by having.
前記分布表現作成部は前記調整部が調整した前記人物の大きさを用いて前記人物の分布表現を作成することを特徴とする請求項9に記載の画像処理システム。 The information processing device has an adjusting unit that adjusts the size of the person detected by the person detecting unit.
The image processing system according to claim 9, wherein the distribution expression creating unit creates a distribution expression of the person using the size of the person adjusted by the adjusting unit.
分布表現の大きさに関する情報の選択を受け付ける画面を表示する表示制御部と、
前記分布表現の大きさに関する情報の選択を受け付ける受付部と、
前記受付部が受け付けた前記分布表現の大きさに関する情報を前記情報処理装置に送信する第二の通信部、として機能させ、
前記情報処理装置は、
前記端末装置から送信された前記分布表現の大きさに関する情報を保存し、
前記調整部は、前記分布表現の大きさに関する情報を用いて前記人物の大きさを調整することを特徴とする請求項10に記載の画像処理システム。 The program further adds to the terminal device.
A display control unit that displays a screen that accepts the selection of information regarding the size of the distribution expression,
A reception unit that accepts selection of information regarding the size of the distribution expression,
It functions as a second communication unit that transmits information regarding the size of the distribution expression received by the reception unit to the information processing device.
The information processing device
Information on the size of the distribution representation transmitted from the terminal device is stored and
The image processing system according to claim 10, wherein the adjusting unit adjusts the size of the person by using information on the size of the distribution expression.
前記受付部は前記スライダーの移動を受け付け、前記表示制御部は前記スライダーの移動に応じて前記枠の幅を変更することを特徴とする請求項11に記載の画像処理システム。 The display control unit displays a frame surrounding a person and a slider on which the user changes information regarding the size of the distribution expression on the screen.
The image processing system according to claim 11, wherein the reception unit accepts the movement of the slider, and the display control unit changes the width of the frame according to the movement of the slider.
ユーザに応じて予め決まっている前記分布表現の大きさに関する情報のリストを保持しており、
前記リストを前記端末装置に送信し、
前記表示制御部は前記リストの中から前記分布表現の大きさに関する情報を表示し、
前記受付部は前記分布表現の大きさに関する情報の選択を受け付けることを特徴とする請求項11に記載の画像処理システム。 The information processing device
It holds a list of information regarding the size of the distribution expression that is predetermined according to the user.
The list is transmitted to the terminal device, and the list is transmitted to the terminal device.
The display control unit displays information on the size of the distribution expression from the list, and displays the information.
The image processing system according to claim 11, wherein the reception unit accepts selection of information regarding the size of the distribution expression.
又は、分布表現の色に関する設定を受け付ける画面を表示し、
前記受付部は前記画面に対する操作を受け付け、
前記分布表現作成部は、前記受付部が受け付けた操作に応じて、前記人物の存在の分布表現を作成することを特徴とする請求項11〜13のいずれか1項に記載の画像処理システム。 The display control unit selects whether to express the area occupied by a person in a distribution expression or the part without a person in a distribution expression.
Alternatively, display a screen that accepts settings related to the color of the distribution expression, and display it.
The reception unit accepts operations on the screen,
The image processing system according to any one of claims 11 to 13, wherein the distribution expression creating unit creates a distribution expression of the existence of the person in response to an operation received by the reception unit.
撮像装置が撮像した画像データから人物を検知する人物検知部と、
前記人物検知部が検知した前記人物の大きさを用いて前記人物の分布表現を作成する分布表現作成部、
として機能させるためのプログラム。 The information processing device has a person detection unit that detects a person from the image data captured by the image pickup device, and
A distribution expression creation unit that creates a distribution expression of the person using the size of the person detected by the person detection unit,
A program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020020097A JP2021125145A (en) | 2020-02-07 | 2020-02-07 | Information processing apparatus, image processing system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020020097A JP2021125145A (en) | 2020-02-07 | 2020-02-07 | Information processing apparatus, image processing system, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021125145A true JP2021125145A (en) | 2021-08-30 |
Family
ID=77459272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020020097A Pending JP2021125145A (en) | 2020-02-07 | 2020-02-07 | Information processing apparatus, image processing system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021125145A (en) |
-
2020
- 2020-02-07 JP JP2020020097A patent/JP2021125145A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10827133B2 (en) | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product | |
US11509825B2 (en) | Image management system, image management method, and computer program product | |
US11134193B2 (en) | Information processing system, information processing method, and non-transitory computer-readable storage medium | |
US10326934B2 (en) | Service system, information processing apparatus, and service providing method | |
US20190333478A1 (en) | Adaptive fiducials for image match recognition and tracking | |
US9807300B2 (en) | Display apparatus for generating a background image and control method thereof | |
US10360572B2 (en) | Image processing system, method and computer program product for evaluating level of interest based on direction of human action | |
JP2014112302A (en) | Prescribed area management system, communication method, and program | |
JP6517293B2 (en) | Location based spatial object remote management method and location based spatial object remote management system | |
JP6686547B2 (en) | Image processing system, program, image processing method | |
EP3070681A1 (en) | Display control device, display control method and program | |
EP3962090A1 (en) | Communication terminal, image communication system, method for displaying image, and carrier means | |
US11736802B2 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
JP2020119156A (en) | Avatar creating system, avatar creating device, server device, avatar creating method and program | |
JP6852293B2 (en) | Image processing system, information processing device, information terminal, program | |
JP2017182681A (en) | Image processing system, information processing device, and program | |
JP6617547B2 (en) | Image management system, image management method, and program | |
JP7516926B2 (en) | Information processing device, image generating method, and program | |
CN104881423B (en) | Information provider unit and information providing method | |
US11195295B2 (en) | Control system, method of performing analysis and storage medium | |
JP2016194784A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP2016194783A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP2019057849A (en) | Program, information processing apparatus, and image processing system | |
JP2021125145A (en) | Information processing apparatus, image processing system, and program | |
JP2012208558A (en) | Display control apparatus, terminal device, communication system, and program |