JP2021125145A - Information processing apparatus, image processing system, and program - Google Patents

Information processing apparatus, image processing system, and program Download PDF

Info

Publication number
JP2021125145A
JP2021125145A JP2020020097A JP2020020097A JP2021125145A JP 2021125145 A JP2021125145 A JP 2021125145A JP 2020020097 A JP2020020097 A JP 2020020097A JP 2020020097 A JP2020020097 A JP 2020020097A JP 2021125145 A JP2021125145 A JP 2021125145A
Authority
JP
Japan
Prior art keywords
person
unit
size
image
distribution expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020020097A
Other languages
Japanese (ja)
Inventor
一寛 大場
Kazuhiro Oba
一寛 大場
隆史 新元
Takashi Niimoto
隆史 新元
博子 真野
Hiroko Mano
博子 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020020097A priority Critical patent/JP2021125145A/en
Publication of JP2021125145A publication Critical patent/JP2021125145A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an information processing apparatus that can perform distribution expression according to the size of a person.SOLUTION: There is provided an information processing apparatus 5 having a person detection unit 52 that detects a person from image data picked up by an imaging apparatus 1, and a distribution expression creation unit 55 that creates the distribution expression of the person by using the size of the person detected by the person detection unit.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、画像処理システム、及び、プログラムに関する。 The present invention relates to an information processing device, an image processing system, and a program.

来客者やスタッフの行動を小売店の店長等が分析して店舗運営や商品企画等に反映させることが従来から行われている。解析には例えば店舗内に設置されたカメラの映像が利用され、店長などは店舗内の映像を見て来客者がどのように移動するか、どの場所に滞留するかなどを把握する。これにより、来客者の動線や興味を引きやすい商品や展示方法が分かるため店舗運営や商品企画等に反映させることができる。 Traditionally, retail store managers analyze the behavior of visitors and staff and reflect it in store operations and product planning. For example, the image of a camera installed in the store is used for the analysis, and the store manager or the like sees the image in the store to understand how the visitor moves and where he / she stays. As a result, it is possible to understand the flow lines of visitors, products that are easy to attract interest, and exhibition methods, which can be reflected in store management and product planning.

単に店内の各場所の映像を提供するだけでなく、カメラと画像処理技術を組み合わせることで映像を加工して店長等が分析しやすい情報を出力する監視システムが考案されている(例えば、特許文献1参照。)。特許文献1には、顔領域でマッチングして同一人物を特定し、人体の全体を矩形領域で認識して顔や上半身のパーツに分けて特定した人物の行動を追跡するシステムが開示されている。 A monitoring system has been devised that not only provides images of each location in the store, but also processes the images by combining a camera and image processing technology to output information that is easy for the store manager to analyze (for example, patent documents). See 1.). Patent Document 1 discloses a system that identifies the same person by matching in the face area, recognizes the entire human body in a rectangular area, divides the whole human body into parts of the face and upper body, and tracks the behavior of the specified person. ..

しかしながら、従来の技術では、人物の分布表現の大きさを調整できないという問題があった。人物の検知結果の表示方法の1つに、人物の検知結果をヒートマップ(対象をマス状に区切り、各マスの検出結果に応じてマスの表示色を変更する表示方法)などの分布表現で表現する方法がある。従来、ヒートマップの大きさなどは固定されていた。 However, in the conventional technique, there is a problem that the size of the distribution expression of people cannot be adjusted. One of the display methods of the person detection result is a distribution expression such as a heat map (a display method in which the target is divided into squares and the display color of the square is changed according to the detection result of each square). There is a way to express it. Conventionally, the size of the heat map has been fixed.

本発明は、上記課題に鑑み、人物の大きさに基づいて分布表現ができる情報処理装置等を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an information processing device or the like capable of expressing a distribution based on the size of a person.

上記課題に鑑み、本発明は、撮像装置が撮像した画像データから人物を検知する人物検知部と、前記人物検知部が検知した前記人物の大きさを用いて前記人物の分布表現を作成する分布表現作成部と、を有することを特徴とする情報処理装置を提供する。 In view of the above problems, the present invention creates a distribution representation of the person using a person detection unit that detects a person from image data captured by the image pickup apparatus and the size of the person detected by the person detection unit. Provided is an information processing apparatus characterized by having an expression creation unit.

人物の分布表現の大きさに基づいて分布表現ができる情報処理装置等を提供することができる。 It is possible to provide an information processing device or the like that can express a distribution based on the size of the distribution expression of a person.

画像処理システムが生成するヒートマップを説明する図である。It is a figure explaining the heat map generated by an image processing system. 画像処理システムの概略構成図の一例である。This is an example of a schematic configuration diagram of an image processing system. 撮像装置のハードウェア構成図の一例である。This is an example of the hardware configuration diagram of the image pickup device. 無線通信機能を有したクレードルの場合の通信端末のハードウェア構成図の一例である。This is an example of a hardware configuration diagram of a communication terminal in the case of a cradle having a wireless communication function. 画像管理装置及び端末装置のハードウェア構成図の一例である。This is an example of a hardware configuration diagram of an image management device and a terminal device. 画像処理システムの一部を構成する、撮像装置、通信端末、画像管理装置、及び端末装置の各機能ブロック図の一例である。This is an example of a functional block diagram of an image pickup device, a communication terminal, an image management device, and a terminal device that form a part of an image processing system. 人物の検知が行われる画像を説明する図である。It is a figure explaining the image in which a person is detected. 人物の検知結果で得られる情報を模式的に示す図である。It is a figure which shows typically the information obtained by the detection result of a person. 矩形で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。It is a figure explaining the method of adjusting the size of a heat map when a person is detected by a rectangle. 多角形で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。It is a figure explaining the method of adjusting the size of a heat map when a person is detected by a polygon. 身体の頂点で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。It is a figure explaining the method of adjusting the size of the heat map when a person is detected at the apex of the body. ヒートマップの大きさの選択画面の一例を示す図である。It is a figure which shows an example of the heat map size selection screen. 端末装置が表示するヒートマップ作成画面の一例を示す図である。It is a figure which shows an example of the heat map creation screen displayed by a terminal device. ヒートマップの作成方法を模式的に示す図である。It is a figure which shows typically the method of making a heat map. ヒートマップの作成方法を説明するフローチャート図の一例である。This is an example of a flowchart for explaining a method of creating a heat map. ヒートマップの濃度の決定方法を説明する図の一例である。It is an example of the figure explaining the method of determining the density of a heat map. ヒートマップの濃度の決定方法を示すフローチャート図の一例である。This is an example of a flowchart showing a method of determining the density of the heat map. ヒートマップの形状のいくつかのバリエーションを示す図である。It is a figure which shows some variation of the shape of a heat map. 人物ごとに異なる色で表示されたヒートマップの一例を示す図である。It is a figure which shows an example of the heat map displayed in a different color for each person. ある瞬間のヒートマップの表示例を示す図である。It is a figure which shows the display example of the heat map at a certain moment. 元の画像データとヒートマップ画像の重ね合わせを模式的に示す図である。It is a figure which shows typically superposition of the original image data and a heat map image. 正距円筒画像の座標と三次元座標の対応を説明する図の一例である。This is an example of a diagram for explaining the correspondence between the coordinates of the equirectangular image and the three-dimensional coordinates. 実際の元の画像データとヒートマップ画像を示す図の一例である。It is an example of a figure showing an actual original image data and a heat map image. 画像処理システムが行う処理を説明するシーケンス図の一例である。This is an example of a sequence diagram for explaining the processing performed by the image processing system.

以下、本発明を実施するための形態の一例として、画像処理システムと画像処理システムが行う画像処理方法について図面を参照しながら説明する。 Hereinafter, as an example of the embodiment for carrying out the present invention, the image processing system and the image processing method performed by the image processing system will be described with reference to the drawings.

<処理の概略>
まず、図1を用いて、画像処理システムが行う処理の概略を説明する。図1は、画像処理システムが生成するヒートマップを説明する図である。
<Outline of processing>
First, the outline of the processing performed by the image processing system will be described with reference to FIG. FIG. 1 is a diagram illustrating a heat map generated by an image processing system.

(1) 画像処理システムは画像データに人物を検知する画像処理を行い、人物を検知する。例えば、人物の最大範囲である外接矩形を生成できる。図1(a)では画像処理により検知された手を広げた人物の矩形201が示されている。 (1) The image processing system performs image processing to detect a person in the image data and detects the person. For example, it is possible to generate an circumscribing rectangle that is the maximum range of a person. FIG. 1A shows a rectangle 201 of a person with an open hand detected by image processing.

本実施形態では、人物の検知結果であるこの矩形201の大きさからそのままヒートマップを生成することができる。さらに、画像処理システムを利用するユーザによっては、人物の胴体のみの大きさをヒートマップに反映したい場合もあるし、人物の最大幅長をヒートマップに反映したい場合もある。例えば、来客者の滞留を知りたいユーザでは来客者がどこにいるかをより高精度(狭い範囲)で知りたい場合が多いが、人物が大きく身体を動かすジムのような施設では、来客者が大きく動いた場合に他人とぶつからないか(運動するスペースが十分か)をユーザが知りたい場合がある。 In the present embodiment, the heat map can be generated as it is from the size of the rectangle 201 which is the detection result of the person. Further, depending on the user who uses the image processing system, the size of only the body of the person may be reflected in the heat map, or the maximum width of the person may be reflected in the heat map. For example, a user who wants to know the stay of a visitor often wants to know where the visitor is with higher accuracy (narrow range), but in a facility such as a gym where a person moves a lot, the visitor moves a lot. In some cases, the user wants to know if he / she will collide with another person (whether there is enough space to exercise).

そこで、本実施形態では、画像処理システムを使用するユーザや人物検知結果の用途などに応じて、ヒートマップの大きさを調整できるようにもした。 Therefore, in the present embodiment, the size of the heat map can be adjusted according to the user who uses the image processing system and the purpose of the person detection result.

(2) 最大幅長をヒートマップとするユーザ又は用途に関しては、図1(b)に示すように、画像処理システムは最大幅長(最大の横幅)をヒートマップの大きさとする。 (2) For a user or an application in which the maximum width length is used as a heat map, as shown in FIG. 1 (b), the image processing system sets the maximum width length (maximum width) as the size of the heat map.

(3) 胴体をヒートマップとするユーザ又は用途に関しては、図1(c)に示すように、画像処理システムは胴体202の大きさを求めこの幅をヒートマップの大きさとする。 (3) As shown in FIG. 1 (c), the image processing system obtains the size of the body 202 and sets this width as the size of the heat map for the user or the application in which the body is used as the heat map.

(4)(5) 画像処理システムはこのように調整された大きさのヒートマップを作成するので、ヒートマップの大きさを柔軟に変更できる。図1(d)では人物の最大幅長のヒートマップ203が表示されており、図1(e)では人物の胴体の幅と同サイズのヒートマップ204が表示されている。 (4) (5) Since the image processing system creates a heat map of the size adjusted in this way, the size of the heat map can be flexibly changed. In FIG. 1D, the heat map 203 having the maximum width of the person is displayed, and in FIG. 1E, the heat map 204 having the same size as the width of the body of the person is displayed.

このように本実施形態の画像処理システムは、人物の大きさとは無関係に固定的であったヒートマップを人物の大きさに連動させることができ、更にその人物の大きさを調整できる。例えば、ユーザ又は用途等に応じてヒートマップの大きさを調整するので、ヒートマップの大きさを変更できる。 As described above, the image processing system of the present embodiment can link the heat map, which has been fixed regardless of the size of the person, to the size of the person, and can further adjust the size of the person. For example, since the size of the heat map is adjusted according to the user or the application, the size of the heat map can be changed.

<用語について>
人物とは人間をいう。本実施形態は人物だけでなく動物にも適用できる。また、車両などの移動体に適用してもよい。
<Terminology>
A person is a human being. This embodiment can be applied not only to humans but also to animals. Further, it may be applied to a moving body such as a vehicle.

調整するとは程よくすることをいう。例えばヒートマップの大きさをユーザや用途に応じて適切な大きさとすることをいう。 Adjusting means making it moderate. For example, it means that the size of the heat map is set to an appropriate size according to the user and the application.

分布表現とは例えば人物がどのように分布しているかを色や濃度を変えて表す表現方法である。ヒートマップと呼ばれる場合がある。 The distribution expression is, for example, an expression method for expressing how people are distributed by changing the color and density. Sometimes called a heat map.

分布表現の大きさに関する情報とは、分布表現の大きさをどの程度、調整するかを示す情報である。本実施形態ではヒートマップの大きさ情報という用語で説明される。 The information regarding the size of the distribution expression is information indicating how much the size of the distribution expression is adjusted. In this embodiment, it is described by the term of heat map size information.

<画像処理システムのシステム構成>
図2は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、端末装置7を有している。撮像装置1は設置者Xにより店舗内に設置されている。端末装置7は閲覧者Yにより操作される。
<System configuration of image processing system>
FIG. 2 is an example of a schematic configuration diagram of the image processing system 200. The image processing system 200 includes an image management device 5, an image pickup device 1, a communication terminal 3, and a terminal device 7 connected via a communication network 9. The image pickup device 1 is installed in the store by the installer X. The terminal device 7 is operated by the viewer Y.

通信ネットワーク9は、インターネットなどの一般的なネットワークが想定されている。企業内や家庭内のLANが含まれていたり、広域イーサネット(登録商標)や複数のLANから成るWANが含まれていたりしてもよい。通信ネットワークは、一部又は全体が無線化されていてもよい。無線のネットワークには、無線LAN、WiMAXの他、3G,4G、5Gなどの携帯電話網が含まれてよい。 The communication network 9 is assumed to be a general network such as the Internet. It may include a LAN in a company or a home, or may include a wide area Ethernet (registered trademark) or a WAN composed of a plurality of LANs. The communication network may be partially or wholly wireless. The wireless network may include a mobile phone network such as 3G, 4G, and 5G in addition to wireless LAN and WiMAX.

撮像装置1は、1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。 The image pickup device 1 is a camera that captures a 360-degree image of the surroundings with one image capture and creates a spherical image. Sometimes referred to as a digital still camera or digital video camera. Further, when the communication terminal 3 is equipped with a camera, the communication terminal 3 can be a digital camera. In the present embodiment, in order to make the explanation easy to understand, the image pickup apparatus 1 will be described as a digital camera for obtaining a spherical image. The image pickup apparatus 1 periodically images the surrounding 360. It does not necessarily have to be periodic, and may be imaged irregularly, may be imaged by the operation of the installer X, or may be imaged from the image management device 5 by the viewer Y requesting the image management device 5. You may take an image by the command of.

なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。 The image pickup device 1 may automatically capture several landscapes having different line-of-sights and combine a plurality of image data to create a spherical image.

通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。 The communication terminal 3 has a communication function of connecting to the communication network 9 instead of the image pickup device 1. The communication terminal 3 is a cradle for supplying electric power to the image pickup device 1 and fixing it to a store. The cradle is an expansion device that expands the functions of the image pickup apparatus 1. The communication terminal 3 has an interface for connecting to the image pickup device 1, whereby the image pickup device 1 can use the functions of the communication terminal 3. The communication terminal 3 performs data communication with the image pickup apparatus 1 via this interface. Then, data communication is performed with the image management device 5 via the wireless router 9a and the communication network 9.

なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。 If the image pickup device 1 has a function of directly communicating data with the wireless router 9a or the communication network 9, the communication terminal 3 may not be provided. Alternatively, the image pickup device 1 and the communication terminal 3 may be integrally configured.

画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び端末装置7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことで正距円筒画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。 The image management device 5 is, for example, an information processing device that functions as a server, and can perform data communication with the communication terminal 3 and the terminal device 7 via the communication network 9. OpenGL ES (API: Application Interface for 3D graphics) is installed in the image management device 5. By calling OpenGL ES, it is possible to create a spherical image from a regular-distance cylindrical image, or to create a thumbnail image of a part of the spherical image (predetermined area image).

なお、画像管理装置5にはクラウドコンピューティングに対応していてよい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。なお、画像管理装置5はオンプレミス(ファイアウォールの内側)にあってもよいし、インターネット上に存在してもよい。また、画像管理装置5は複数の情報処理装置により提供されてもよいし、1台の情報処理装置で実現されてもよい。 The image management device 5 may be compatible with cloud computing. There is no strict definition for the physical configuration of cloud computing, but the configuration of the information processing device is achieved by dynamically connecting and disconnecting resources such as the CPU, RAM, and storage that make up the information processing device according to the load. It is known that the installation location can be changed flexibly. The image management device 5 may be on-premises (inside the firewall) or may exist on the Internet. Further, the image management device 5 may be provided by a plurality of information processing devices, or may be realized by one information processing device.

端末装置7は、例えば、PC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。端末装置7は、PCの他、タブレット端末、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。本実施例では端末装置7がWebブラウザを介して画像管理装置5と通信することができるため、端末装置7はWebブラウザが動作する装置であればよい。ただし、端末装置7が画像処理システム200に専用のネイティブアプリを実行してもよい。 The terminal device 7 is, for example, a PC (Personal Computer), and performs data communication with the image management device 5 via the communication network 9. The terminal device 7 may be a tablet terminal, a PDA (Personal Digital Assistant), an electronic blackboard, a video conference terminal, a wearable PC, a game machine, a mobile phone, a car navigation system, a smartphone, or the like, in addition to a PC. In this embodiment, since the terminal device 7 can communicate with the image management device 5 via the Web browser, the terminal device 7 may be a device on which the Web browser operates. However, the terminal device 7 may execute a native application dedicated to the image processing system 200.

撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。端末装置7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、端末装置7は本社以外の場所からも画像管理装置5と通信可能である。 The image pickup device 1, the communication terminal 3, and the wireless router 9a are installed at predetermined positions by the installer X at each sales base such as a store. The terminal device 7 is installed at the head office or the like that controls each sales base, and by displaying an image showing the status of each base sent via the image management device 5, the viewer Y can display the status of each base. You can browse the image showing. However, the terminal device 7 can communicate with the image management device 5 from a place other than the head office.

<実施形態のハードウェア構成>
次に、図3〜図5を用いて、本実施形態の撮像装置1、通信端末3,端末装置7及び画像管理装置5のハードウェア構成を説明する。
<Hardware configuration of the embodiment>
Next, the hardware configurations of the image pickup device 1, the communication terminal 3, the terminal device 7, and the image management device 5 of the present embodiment will be described with reference to FIGS. 3 to 5.

<<撮像装置>>
図3は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上でもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
<< Imaging device >>
FIG. 3 is an example of a hardware configuration diagram of the image pickup apparatus 1. In the following, the image pickup device 1 is an omnidirectional image pickup device using two image pickup elements, but the number of image pickup devices may be three or more. Further, the device does not necessarily have to be a device dedicated to omnidirectional imaging, and by attaching a retrofitted omnidirectional imaging unit to a normal digital camera, smartphone, or the like, it may have substantially the same function as the imaging device 1. ..

図3に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。 As shown in FIG. 3, the imaging device 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, and a ROM (Read Only Memory). ) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, and antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Of these, the image pickup unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two image pickups provided corresponding to each wide-angle lens. It includes elements 103a and 103b. The image sensors 103a and 103b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images from fisheye lenses into image data of electrical signals and output them. It has a timing generation circuit that generates a vertical sync signal, a pixel clock, and the like, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The image sensors 103a and 103b of the image pickup unit 101 are each connected to the image processing unit 104 by a parallel I / F bus. On the other hand, the image pickup elements 103a and 103b of the image pickup unit 101 are connected by a serial I / F bus (I2C bus or the like) separately from the image pickup control unit 105. The image processing unit 104 and the image pickup control unit 105 are connected to the CPU 111 via the bus 110. Further, a ROM 112, a SRAM 113, a DRAM 114, an operation unit 115, a network I / F 116, a communication unit 117, an electronic compass 118, and the like are also connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、いわゆる正距円筒図法の形式の画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image pickup elements 103a and 103b through the parallel I / F bus, performs predetermined processing on each image data, and then synthesizes these image data. , So-called equirectangular projection format image data.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The image pickup control unit 105 generally uses the image pickup control unit 105 as a master device and the image pickup elements 103a and 103b as slave devices, and sets commands and the like in the register group of the image pickup elements 103a and 103b by using the I2C bus. Necessary commands and the like are received from the CPU 111. Further, the image pickup control unit 105 also uses the I2C bus to take in the status data and the like of the register group of the image pickup elements 103a and 103b and send them to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the image pickup control unit 105 instructs the image pickup devices 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some image pickup devices 1 may have a preview display function on a display and a function corresponding to a moving image display. In this case, the image data is continuously output from the image sensors 103a and 103b at a predetermined frame rate (frames / minute).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。 Further, as will be described later, the image pickup control unit 105 also functions as a synchronization control means for synchronizing the output timings of the image data of the image pickup elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the image pickup apparatus 1 is not provided with a display unit, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒図法の形式の画像のデータを記憶する。 The CPU 111 controls the overall operation of the image pickup apparatus 1 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data in the middle of processing, and the like. In particular, the DRAM 114 stores image data in the process of being processed by the image processing unit 104 and image data in the equirectangular projection format that has been processed.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。 The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel having both display and operation functions, and the like. By operating the operation buttons, the user inputs various imaging modes and imaging conditions.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶された正距円筒図法の形式の画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。 Network I / F116 is a general term for interface circuits (USB I / F, etc.) with external media such as SD cards and personal computers. Further, the network I / F116 may be a network interface regardless of whether it is wireless or wired. The equirectangular projection format image data stored in the DRAM 114 is recorded on an external medium via the network I / F 116, or is recorded on an external medium via the network I / F 116, or if necessary, via the network I / F 116 which becomes a network I / F. It is transmitted to an external device such as a communication terminal 3.

通信部117は、撮像装置1に設けられたアンテナ117aを介して、Wi−Fi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、正距円筒図法の形式の画像のデータを通信端末3の外部装置に送信することができる。 The communication unit 117 is connected to an external device such as a communication terminal 3 via a remote radio technology such as Wi-Fi (wireless fidelity), NFC, or LTE (Long Term Evolution) via an antenna 117a provided in the image pickup device 1. Communicate. The communication unit 117 can also transmit image data in equirectangular projection format to an external device of the communication terminal 3.

電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the orientation and tilt (Roll rotation angle) of the image pickup device 1 from the magnetism of the earth, and outputs the orientation / tilt information. This orientation / tilt information is an example of related information (metadata) along with Exif, and is used for image processing such as image correction of captured images. The related information also includes each data of the image capturing date and time and the data capacity of the image data.

<<通信端末>>
次に、図4を用いて、通信端末3のハードウェア構成を説明する。なお、図4は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
<< Communication terminal >>
Next, the hardware configuration of the communication terminal 3 will be described with reference to FIG. Note that FIG. 4 is a hardware configuration diagram of the communication terminal 3 in the case of a cradle having a wireless communication function.

図4に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi−fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。 As shown in FIG. 4, the communication terminal 3 includes a CPU 301 that controls the operation of the entire communication terminal 3, a ROM 302 that stores basic input / output programs, and a RAM (Random Access Memory) 304 that is used as a work area of the CPU 301. It has a communication unit 305 for data communication via Wi-fi, NFC, LTE, etc., a USB I / F 303 for wired communication with the image pickup device 1, and an RTC (Real Time Clock) 306 for holding a calendar and time information. There is.

また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。 Further, a bus line 310 such as an address bus or a data bus for electrically connecting each of the above parts is provided.

なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。 The ROM 302 stores an operating system (OS) executed by the CPU 301, other programs, and various data.

通信部305は、アンテナ305aを利用して無線通信の信号により、無線ルータ9a等と通信を行う。 The communication unit 305 communicates with the wireless router 9a and the like by using the antenna 305a and using the wireless communication signal.

図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。 In addition to the illustration, it is equipped with a GPS receiver that receives GPS signals including the position information (latitude, longitude, and altitude) of the communication terminal 3 by GPS (Global Positioning Systems) satellite or IMES (Indoor MEssaging System) as indoor GPS. You may be.

<<画像管理装置、端末装置>>
図5を用いて、画像管理装置5及び端末装置7のハードウェア構成を説明する。なお、図5は、画像管理装置5及び端末装置7のハードウェア構成図である。画像管理装置5及び端末装置7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。端末装置7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
<< Image management device, terminal device >>
The hardware configuration of the image management device 5 and the terminal device 7 will be described with reference to FIG. Note that FIG. 5 is a hardware configuration diagram of the image management device 5 and the terminal device 7. Since both the image management device 5 and the terminal device 7 are computers, the configuration of the image management device 5 will be described below. It is assumed that the configuration of the terminal device 7 is the same as that of the image management device 5, and even if there is a difference, there is no problem in the description of the present embodiment.

画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。 The image management device 5 has a CPU 501 that controls the operation of the entire image management device 5, a ROM 502 that stores a program used for driving the CPU 501 such as an IPL, and a RAM 503 that is used as a work area of the CPU 501. Further, it has an HDD (Hard Disk Drive) 505 that controls reading or writing of various data to the HD 504 according to the control of the HD 504 and the CPU 501 that store various data such as a program for the image management device 5. It also has a media drive 507 that controls reading or writing (storage) of data to a recording medium 506 such as a flash memory, and a display 508 that displays various information such as cursors, menus, windows, characters, or images. It is preferable that the display 508 is equipped with a touch panel. In addition, a network I / F 509 for data communication using the communication network 9, a keyboard 511 equipped with a plurality of keys for inputting characters, numerical values, various instructions, etc., and a target for selecting, executing, and processing various instructions. It has a mouse 512 for selecting, moving a cursor, and the like. Further, it has a CD-ROM drive 514 that controls reading or writing of various data to a CD-ROM (Compact Disc Read Only Memory) 513 as an example of a detachable recording medium. Further, as shown in FIG. 5, each of the above components is provided with a bus line 510 such as an address bus or a data bus for electrically connecting the components.

<画像処理システムの機能について>
図6は、画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び端末装置7の各機能ブロック図である。
<About the function of the image processing system>
FIG. 6 is a functional block diagram of the image pickup device 1, the communication terminal 3, the image management device 5, and the terminal device 7, which form a part of the image processing system 200.

<<撮像装置の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置1用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of imaging device >>
The image pickup device 1 includes a reception unit 12, an image pickup unit 13, a sound collection unit 14, a connection unit 15, and a storage / reading unit 19. Each of these parts has a function realized by operating any of the components shown in FIG. 3 by a command from the CPU 111 according to a program for the image pickup apparatus 1 developed on the DRAM 113 from the SRAM 113. It is a means.

また、撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置1用のプログラム及び端末IDが記憶されている。 Further, the image pickup apparatus 1 has a storage unit 1000 constructed by one or more of the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG. The storage unit 1000 stores the program for the image pickup apparatus 1 and the terminal ID.

撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。 The reception unit 12 of the image pickup apparatus 1 is mainly realized by the processing of the operation unit 115 and the CPU 111 shown in FIG. 3, and receives an operation input from the user (installer X in FIG. 2). The imaging device 1 automatically and periodically images the surroundings even if there is no operation for imaging by the installer X. The periodic interval may be set by the installer X in the image pickup device 1 or by the viewer Y via the image management device 5.

撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。 The image pickup unit 13 is realized mainly by the processing of the image pickup unit 101, the image processing unit 104, the image pickup control unit 105, and the CPU 111 shown in FIG. 3, and images a landscape or the like to create image data.

集音部14は、主に、図3に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。 The sound collecting unit 14 is mainly realized by the processing of the microphone 108, the sound processing unit 109, and the CPU 111 shown in FIG. 3, and collects the sound around the image pickup device 1.

接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。 The connection unit 15 is mainly realized by processing the network I / F 116 and the CPU 111, receives power supply from the communication terminal 3, and performs data communication with the communication terminal 3.

記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。 The storage / reading unit 19 is mainly realized by the processing of the CPU 111 shown in FIG. 3, and stores various data in the storage unit 1000 and reads various data from the storage unit 1000. In the following, even when the image pickup apparatus 1 reads and writes from the storage unit 1000, the description "via the storage / reading unit 19" may be omitted.

<<通信端末の機能構成>>
通信端末3は、通信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図4に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末3用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of communication terminal >>
The communication terminal 3 has a communication unit 31, a reception unit 32, a connection unit 33, and a storage / reading unit 39. Each of these parts has a function realized by operating any of the components shown in FIG. 4 by an instruction from the CPU 301 according to a program for the communication terminal 3 developed on the RAM 304 from the ROM 302. It is a means.

また、通信端末3は、図4に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末3用のプログラムが記憶されている。 Further, the communication terminal 3 has a storage unit 3000 constructed by the ROM 302 and the RAM 304 shown in FIG. The program for the communication terminal 3 is stored in the storage unit 3000.

(通信端末の各機能構成)
通信端末3の通信部31は、主に、図4に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「通信部31を介して」という記載を省略する場合がある。
(Each function configuration of communication terminal)
The communication unit 31 of the communication terminal 3 is mainly realized by the processing of the communication unit 305 and the CPU 301 shown in FIG. 4, and transmits / receives various data to / from the image management device 5 via the wireless router 9a and the communication network 9. I do. In the following, even when the communication terminal 3 communicates with the image management device 5, the description "via the communication unit 31" may be omitted.

受付部32は、主に図4に示されているCPU301の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。 The reception unit 32 is mainly realized by the processing of the CPU 301 shown in FIG. 4, and receives an operation input from the user (installer X in FIG. 2).

接続部33は、主に、図4に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。 The connection unit 33 is mainly realized by the processing of the USB I / F 303 and the CPU 301 shown in FIG. 4, and supplies power to the image pickup apparatus 1 and performs data communication.

記憶・読出部39は、主に、図4に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。 The storage / reading unit 39 is mainly realized by the processing of the CPU 301 shown in FIG. 4, and stores various data in the storage unit 3000 and reads various data from the storage unit 3000. In the following, even when the communication terminal 3 reads / writes from the storage unit 3000, the description "via the storage / reading unit 39" may be omitted.

<<画像管理装置の機能構成>>
画像管理装置5は、通信部51、人物検知部52、調整部53、画面作成部54、分布表現作成部55、及び、記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置5用の装置プログラム5010に従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of image management device >>
The image management device 5 includes a communication unit 51, a person detection unit 52, an adjustment unit 53, a screen creation unit 54, a distribution expression creation unit 55, and a storage / reading unit 59. Each of these parts is realized by operating any of the components shown in FIG. 5 by an instruction from the CPU 501 according to the device program 5010 for the image management device 5 developed on the RAM 503 from the HD 504. Function or means.

また、画像管理装置5は、図5に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点情報記憶部5001、撮像情報記憶部5002、画像データ記憶部5003、解析情報記憶部5004、分布表現大きさ情報記憶部5005、及び、ユーザ情報記憶部5006、が構築されている。以下、各データベースについて説明する。 Further, the image management device 5 has a RAM 503 shown in FIG. 5 and a storage unit 5000 constructed by the HD 504. The base information storage unit 5001, the imaging information storage unit 5002, the image data storage unit 5003, the analysis information storage unit 5004, the distribution expression size information storage unit 5005, and the user information storage unit 5006 are constructed in the storage unit 5000. Has been done. Each database will be described below.

Figure 2021125145

表1は、拠点情報記憶部5001に記憶される各情報をテーブル状に示す拠点管理テーブルである。拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点レイアウトマップ、及び、装置IDの各フィールドが関連付けて記憶されている。また、拠点管理テーブルの1つの行をレコードという場合がある。以下の各テーブルでも同様である。このうち、地域IDは、地域を識別するための識別情報である。地域IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。
Figure 2021125145

Table 1 is a base management table showing each information stored in the base information storage unit 5001 in a table shape. In the base management table, each field of the area ID, the area name, the base ID, the base name, the base layout map, and the device ID is stored in association with each other. In addition, one row of the base management table may be called a record. The same applies to each of the following tables. Of these, the area ID is identification information for identifying the area. An example of a region ID is a unique combination of numbers and alphabets.

地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。 The area name indicates an area or range of land such as Kanto, Tokyo, Shibuya Ward, New York State, New York City, etc. It may be called a region name. The identification information refers to a name, a code, a character string, a numerical value, or a combination of two or more of these, which is used to uniquely distinguish a specific object from a plurality of objects. The same applies to the following ID or identification information.

拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。 The base ID is an example of identification information for identifying the base. The base ID is assigned to the base name so as not to be duplicated. It may be referred to as site-specific information. An example of a base ID is a combination of a unique number and an alphabet. The base is a place where the image pickup apparatus 1 is installed and serves as a base for photographing the surroundings. An example of a base is a store.

拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。 The base name is a store name such as the Shibuya store, a venue name such as the Shibuya venue, etc., and is the name of the base. File names such as the layout of each base and image data showing the map are registered in the base layout map. The location of the image pickup device 1 and the products handled at the base is specified by the base layout map in two-dimensional coordinates.

端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置1(端末ID)が設置されており、それらの位置がレイアウトマップなどで管理されている。拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。 The terminal ID is identification information for identifying the image pickup apparatus 1. It may be referred to as terminal-specific information. The terminal ID is, for example, a serial number, a serial number, a numerical value that does not overlap with the model number, an IP address, a MAC address, or the like of the image pickup apparatus 1, but is not limited thereto. As shown in Table 1, one or more image pickup devices 1 (terminal IDs) are installed at one base, and their positions are managed by a layout map or the like. The base management table may be registered by the installer X or the viewer Y, or may be registered by the supplier of the image processing system 200.

Figure 2021125145

表2は、撮像情報記憶部5002に記憶される各情報をテーブル状に示す撮像管理テーブルである。撮像管理テーブルでは、拠点IDごとに、撮像タイトル、撮像開始日時、及び撮像終了日時の各フィールドが関連付けて記憶されている。撮像タイトルは、閲覧者Yが入力したイベントのタイトルである。つまり、閲覧者Yが消費者の行動を監視したい何らかのイベントが店舗で催される場合に、このイベントの名称が撮像タイトルとなる。当然ながら、イベントの名称は閲覧者Yが任意に付与できるためイベントの名称でなくてもよい。例えば、単に撮像年月日とすることもできる。閲覧者Yは、画像データの複数のファイルから所望の画像データを抽出する際に、撮像タイトルを参照することができる。なお、1回の撮像イベントで複数の画像データが時系列に(定期的に)撮像される。撮像開始日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を開始する(又は開始した)日時を示す。撮像終了日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を終了する(又は終了した)日時を示す。閲覧者Yは撮像開始日時と撮像終了日時を事前に登録しておくこともできる(予約撮像)。撮像管理テーブルは、主に画像管理装置5が登録する。
Figure 2021125145

Table 2 is an imaging management table showing each information stored in the imaging information storage unit 5002 in a table shape. In the image pickup management table, each field of the image pickup title, the image pickup start date and time, and the image pickup end date and time is stored in association with each base ID. The captured title is the title of the event input by the viewer Y. That is, when some event that the viewer Y wants to monitor the consumer's behavior is held in the store, the name of this event becomes the imaging title. As a matter of course, the name of the event does not have to be the name of the event because the viewer Y can arbitrarily assign the name of the event. For example, it may be simply the imaging date. Viewer Y can refer to the captured title when extracting desired image data from a plurality of files of image data. It should be noted that a plurality of image data are imaged in time series (regularly) in one imaging event. The imaging start date and time is the date and time input by the viewer Y, and indicates the date and time when the imaging device 1 starts (or starts) imaging. The imaging end date and time is a date and time input by the viewer Y, and indicates a date and time when the imaging device 1 ends (or ends) imaging. Viewer Y can also register the imaging start date and time and the imaging end date and time in advance (reserved imaging). The image management device 5 mainly registers the image capture management table.

Figure 2021125145

表3は、画像データ記憶部5003に記憶される各情報をテーブル状に示す画像管理テーブルである。画像管理テーブルでは、端末IDごとに、画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。画像IDは、画像データを一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、画像IDで特定される画像データのファイル名である。撮像日時は画像データが端末IDで示される撮像装置1で撮像された日時である。画像データも、記憶部5000に記憶されている。
Figure 2021125145

Table 3 is an image management table showing each information stored in the image data storage unit 5003 in a table shape. In the image management table, the image ID, the file name of the image data, and the imaging date and time are stored in association with each terminal ID. The image ID is an example of identification information for uniquely identifying the image data. It may be referred to as image-specific information. The file name of the image data is the file name of the image data specified by the image ID. The imaging date and time is the date and time when the image data was captured by the imaging device 1 indicated by the terminal ID. Image data is also stored in the storage unit 5000.

例えば、画像ファイルの閲覧の際、閲覧者Yは端末装置7で画像管理装置5にアクセスし、表2の撮像管理テーブルから撮像タイトルを選ぶ。画像管理装置5はこの撮像タイトルの拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。 For example, when viewing an image file, the viewer Y accesses the image management device 5 with the terminal device 7 and selects an imaging title from the imaging management table in Table 2. The image management device 5 can read the terminal ID associated with the base ID of the imaging title from the base management table in Table 1. Since the terminal ID is clarified, the image management device 5 can specify the image data in which the imaging date and time is included in the imaging start date and time to the imaging end date and time among the image data associated with the terminal ID in the image management table.

当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。 Of course, the viewer Y can also directly specify the terminal ID and the base ID. In the present embodiment, for the sake of simplicity, a mode in which the viewer Y specifies a terminal ID for browsing will be mainly described. The image management table is mainly registered by the image management device 5.

Figure 2021125145

表4は、解析情報記憶部5004に記憶される各情報をテーブル状に示す。表4(a)は人物検知結果テーブルの一例を示す。重複しないID(識別情報)に対応付けて、画像ID、人物ID、人物X座標、人物Y座標が登録されている。
画像ID:画像データ記憶部の画像の画像IDと同じ者である。
人物ID:検知された人物の識別情報である。同じ画像IDに同じ人物IDがあるのは、検知領域の大きさを変えて人物検知部52が人物を検知する場合があるからである。
人物X座標:検知領域のX座標である。
人物Y座標:検知領域のY座標である。
Figure 2021125145

Table 4 shows each information stored in the analysis information storage unit 5004 in a table form. Table 4 (a) shows an example of the person detection result table. An image ID, a person ID, a person X coordinate, and a person Y coordinate are registered in association with a unique ID (identification information).
Image ID: The same person as the image ID of the image in the image data storage unit.
Person ID: Identification information of the detected person. The same person ID exists in the same image ID because the person detection unit 52 may detect a person by changing the size of the detection area.
Person X coordinate: The X coordinate of the detection area.
Person Y coordinate: The Y coordinate of the detection area.

人物の検知領域が矩形の場合は、矩形の対角頂点の座標が登録される。また、後述する多角形などの人物の検知方法によって人物検知結果テーブルの項目(主に人物X座標、人物Y座標の数)が変化する。 When the detection area of a person is a rectangle, the coordinates of the diagonal vertices of the rectangle are registered. In addition, the items (mainly the number of person X coordinates and person Y coordinates) of the person detection result table change depending on the person detection method such as a polygon described later.

表4(b)は人物範囲保存テーブルの一例である。重複しないID(識別情報)に対応付けて、画像ID、人物ID、座標1、座標2が登録されている。画像ID、人物IDについては表4(a)と同様でよい。座標1と座標2は、ヒートマップの幅を表す。つまり、後述するヒートマップの大きさ情報に基づいて調整されたヒートマップの大きさを示す。 Table 4 (b) is an example of a person range storage table. An image ID, a person ID, coordinates 1, and coordinates 2 are registered in association with a unique ID (identification information). The image ID and person ID may be the same as in Table 4 (a). Coordinates 1 and 2 represent the width of the heat map. That is, the size of the heat map adjusted based on the size information of the heat map described later is shown.

Figure 2021125145

表5(a)は、分布表現大きさ情報記憶部5005に記憶される各情報をテーブル状に示す分布表現大きさ情報テーブルである。分布表現大きさ情報テーブルには、ヒートマップの大きさ情報が登録されている。大きさ情報は、例えば胴体、最大幅長、頭部などである。閲覧者Yは端末装置7に表示された所定の画面から任意のヒートマップの大きさ情報を選択できる。ヒートマップの大きさ情報が選択されると、調整部53は選択された大きさ情報でヒートマップの大きさを調整する。なお、ヒートマップの大きさ情報は幅方向の大きさを意味しており、高さ方向は登録されていない。これは、ヒートマップの大きさに人物の高さが反映されないためである。しかし、ヒートマップの大きさに人物の高さが反映される場合は、分布表現大きさ情報テーブルにヒートマップの高さ方向の大きさ情報が登録されることが好ましい。
Figure 2021125145

Table 5 (a) is a distribution expression size information table showing each information stored in the distribution expression size information storage unit 5005 in a table shape. The size information of the heat map is registered in the distribution expression size information table. The size information is, for example, the torso, the maximum width, the head, and the like. Viewer Y can select arbitrary heat map size information from a predetermined screen displayed on the terminal device 7. When the heat map size information is selected, the adjusting unit 53 adjusts the heat map size with the selected size information. The size information of the heat map means the size in the width direction, and the height direction is not registered. This is because the height of the person is not reflected in the size of the heat map. However, when the height of the person is reflected in the size of the heat map, it is preferable that the size information in the height direction of the heat map is registered in the distribution expression size information table.

また、表5(a)では複数の大きさ情報から閲覧者Yが選択できると説明したが、1つの大きさ情報が予め記憶されていてもよい。例えば、閲覧者Yが行う解析が固定的である場合、サービスの提供者側が用意した1つの大きさ情報で、画像管理装置5がヒートマップを作成すればよいためである。 Further, although it has been explained in Table 5 (a) that the viewer Y can select from a plurality of size information, one size information may be stored in advance. For example, when the analysis performed by the viewer Y is fixed, the image management device 5 may create a heat map with one size information prepared by the service provider.

表5(b)も分布表現大きさ情報テーブルを示すが、表5(b)では用途にヒートマップの大きさ情報が対応付けられている。例えば、滞留解析という用途には胴体が、スペース解析という用途には最大幅長が、それぞれ対応付けられている。滞留解析は来客者がどのように移動するかどの場所に滞留するかなどを閲覧者Yが解析する場合に選択される。スペース解析は、来客者が運動するような施設で十分なスペースがあるかを閲覧者Yが解析する場合に選択される。閲覧者Yは端末装置7に表示された所定の画面から任意の用途を選択できる。用途が選択されると、調整部53は用途に対応付けられたヒートマップの大きさ情報を取得し、この大きさ情報でヒートマップの大きさを調整する。 Table 5 (b) also shows the distribution expression size information table, but in Table 5 (b), the size information of the heat map is associated with the application. For example, the fuselage is associated with the application of retention analysis, and the maximum width is associated with the application of space analysis. The retention analysis is selected when the viewer Y analyzes how the visitor moves and where the visitor stays. Space analysis is selected when viewer Y analyzes whether there is sufficient space in the facility where the visitor exercises. Viewer Y can select any purpose from a predetermined screen displayed on the terminal device 7. When the application is selected, the adjusting unit 53 acquires the size information of the heat map associated with the application, and adjusts the size of the heat map with this size information.

Figure 2021125145

表6は、ユーザ情報記憶部5006に記憶される各情報をテーブル状に示す。表6(a)は用途別設定項目テーブルの一例を示す。用途別設定項目テーブルには、重複しないID(識別情報)に対応付けて社名と選択可能領域が登録されている。用途別設定項目テーブルは各会社が選択できるヒートマップの大きさのリストである。例えば、
・一般的な店舗のA社は最大幅長、肩幅及び頭幅からヒートマップの大きさを選択できる。
・レストランであるB社は肩幅と頭幅からヒートマップの大きさを選択できる。
・必ずしも決まった幅としたくないC社は、自由に選択する(自由選択長)。
・ジムを経営するD社は最大幅長をヒートマップの大きさとする。
Figure 2021125145

Table 6 shows each information stored in the user information storage unit 5006 in a table shape. Table 6 (a) shows an example of the setting item table for each application. In the setting item table for each application, the company name and selectable area are registered in association with a unique ID (identification information). The setting item table for each application is a list of heat map sizes that can be selected by each company. for example,
・ Company A, a general store, can select the size of the heat map from the maximum width, shoulder width, and head width.
・ Company B, a restaurant, can select the size of the heat map from the shoulder width and head width.
・ Company C, which does not necessarily have a fixed width, can freely select (free selection length).
・ Company D, which runs the gym, sets the maximum width as the size of the heat map.

なお、閲覧者Yは、このように選択できるヒートマップの大きさのリストを登録するのでなく、1つの大きさを登録しておいてもよい。 Note that the viewer Y may register one size instead of registering the list of heat map sizes that can be selected in this way.

表6(b)は、領域別設定方法テーブルの一例である。領域別設定方法テーブルには、重複しないID(識別情報)に対応付けて認識領域と選択方式が登録されている。領域別設定方法テーブルは、閲覧者Yが表6(a)の選択可能領域を所定の画面から選択する場合、選択項目が画面上どのように表示されるかが登録されたテーブルである。例えば、最大幅長、頭幅、肩幅が選択可能領域の場合、ラジオボタンで選択できることを示す。 Table 6 (b) is an example of a setting method table for each area. In the area-specific setting method table, the recognition area and the selection method are registered in association with the unique ID (identification information). The area-specific setting method table is a table in which when the viewer Y selects the selectable area in Table 6 (a) from a predetermined screen, how the selected items are displayed on the screen is registered. For example, when the maximum width, head width, and shoulder width are selectable areas, it is shown that they can be selected with the radio buttons.

(画像管理装置の各機能構成)
画像管理装置5の通信部51は、主に、図5に示されているネットワークI/F509及びCPU501の処理等によって実現され、通信ネットワーク9を介して通信端末3、又は端末装置7と各種データの送受信を行う(第一の通信部の一例)。なお、以下では、画像管理装置5が端末装置7と通信する場合でも、「通信部51を介して」という記載を省略する場合がある。
(Each function configuration of the image management device)
The communication unit 51 of the image management device 5 is mainly realized by processing of the network I / F 509 and the CPU 501 shown in FIG. 5, and various data with the communication terminal 3 or the terminal device 7 via the communication network 9. (An example of the first communication unit). In the following, even when the image management device 5 communicates with the terminal device 7, the description "via the communication unit 51" may be omitted.

人物検知部52は、画像データから人物を検知する。この人物の検知は機械学習により得られた識別器により行われる。例えば、ディープラーニングの一形態であるCNN(Convolutional Neural Network)を使って画像データから人物が写っている領域を検知する方法がある。機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり,コンピュータが,データ識別等の判断に必要なアルゴリズムを,事前に取り込まれる学習データから自律的に生成し,新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、更に、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。 The person detection unit 52 detects a person from the image data. This person is detected by a classifier obtained by machine learning. For example, there is a method of detecting an area in which a person appears from image data using a CNN (Convolutional Neural Network), which is a form of deep learning. Machine learning is a technology for making a computer acquire learning ability like a human being, and the computer autonomously generates an algorithm necessary for judgment such as data identification from learning data taken in advance, and newly It is a technology that applies this to various data to make predictions. The learning method for machine learning may be any of supervised learning, unsupervised learning, semi-teacher learning, enhanced learning, and deep learning, and may be a learning method that combines these learning methods. Machine learning It doesn't matter how you learn for.

調整部53は、ヒートマップの大きさ情報に基づいて、ヒートマップの大きさを調整する。すなわち、分布表現に使用される人物の大きさを小さくしたり、人物検知部52が検知した人物の幅よりも、分布表現に使用される人物の幅を小さくしたりする。具体的には、最大幅長、胴体、又は、頭部など、どの大きさでヒートマップを作成するかを分布表現大きさ情報記憶部5005から取得して、検知されている人物のうちこの大きさに対応する幅を人物範囲保存テーブルの座標1、座標2に設定する。詳細は後述される。 The adjusting unit 53 adjusts the size of the heat map based on the size information of the heat map. That is, the size of the person used for the distribution expression is reduced, or the width of the person used for the distribution expression is made smaller than the width of the person detected by the person detection unit 52. Specifically, the size of the heat map to be created, such as the maximum width, the body, or the head, is acquired from the distribution expression size information storage unit 5005, and this size is detected among the detected persons. The width corresponding to the above is set to the coordinates 1 and 2 of the person range storage table. Details will be described later.

画面作成部54は、画像データを端末装置7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで端末装置7が画像データを表示するための画面情報を作成する。画像データは三次元の全天球画像であるので、二次元のディスプレイ508に表示することができない。このため、画面作成部54は全天球画像を透視投影変換によりディスプレイ508に投影するプログラムを画面情報に含めている。これにより、閲覧者Yは端末装置7を操作して全天球画像を回転させ、任意の方向から全天球画像の一部を少ない歪みで表示できる。 When transmitting the image data to the terminal device 7, the screen creation unit 54 creates screen information for the terminal device 7 to display the image data using HTML data, JavaScript (registered trademark), CSS, or the like. Since the image data is a three-dimensional spherical image, it cannot be displayed on the two-dimensional display 508. Therefore, the screen creation unit 54 includes a program for projecting the spherical image onto the display 508 by perspective projection conversion in the screen information. As a result, the viewer Y can operate the terminal device 7 to rotate the spherical image and display a part of the spherical image from an arbitrary direction with less distortion.

なお、画面作成部54は、分布表現作成部55が作成したヒートマップを画面情報に含めて端末装置7に送信する。端末装置7では全天球画像とヒートマップを重ねて表示する。 The screen creation unit 54 includes the heat map created by the distribution expression creation unit 55 in the screen information and transmits the heat map to the terminal device 7. In the terminal device 7, the spherical image and the heat map are superimposed and displayed.

記憶・読出部59は、主に、図5に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。 The storage / reading unit 59 is mainly realized by the processing of the HDD 505 and the CPU 501 shown in FIG. 5, and stores various data in the storage unit 5000 and reads various data from the storage unit 5000. In the following, even when the image management device 5 reads / writes from the storage unit 5000, the description “via the storage / reading unit 59” may be omitted.

<端末装置の機能構成>
端末装置7は、通信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された端末装置7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of terminal device>
The terminal device 7 has a communication unit 71, a reception unit 72, a display control unit 73, and a storage / reading unit 79. Each of these parts has a function realized by operating any of the components shown in FIG. 5 by an instruction from the CPU 501 according to a program for the terminal device 7 developed on the RAM 503 from the HD 504. It is a means.

また、端末装置7は、図5に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には端末装置7用の端末プログラム7010が記憶されている。端末装置7用の端末プログラム7010は、例えばWebブラウザであるが、Webブラウザのような通信機能を備えたアプリケーションソフトウェアでもよい。また、Webブラウザは画面データを実行して画面を表示したり、操作を受け付けたりするため、端末プログラム7010には画像管理装置5が送信する画面データ(HTML、JavaScript(登録商標)等)が含まれる。 Further, the terminal device 7 has a RAM 503 shown in FIG. 5 and a storage unit 7000 constructed by the HD 504. The terminal program 7010 for the terminal device 7 is stored in the storage unit 7000. The terminal program 7010 for the terminal device 7 is, for example, a Web browser, but may be application software having a communication function such as a Web browser. Further, since the Web browser executes screen data to display the screen and accept operations, the terminal program 7010 includes screen data (HTML, JavaScript (registered trademark), etc.) transmitted by the image management device 5. Is done.

(端末装置の各機能構成)
端末装置7の通信部71は、主に、図5に示されているネットワークI/F509及びCPU501の処理等によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う(第二の通信部の一例)。なお、以下では、端末装置7が画像管理装置5と通信する場合でも、「通信部71を介して」という記載を省略する場合がある。
(Each function configuration of the terminal device)
The communication unit 71 of the terminal device 7 is realized mainly by the processing of the network I / F 509 and the CPU 501 shown in FIG. 5, and transmits / receives various data to / from the image management device 5 via the communication network 9 ( An example of the second communication unit). In the following, even when the terminal device 7 communicates with the image management device 5, the description "via the communication unit 71" may be omitted.

受付部72は、主に、図5に示されているキーボード511及びマウス512、並びにCPU501の処理等によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。 The reception unit 72 is realized mainly by the processing of the keyboard 511 and the mouse 512 shown in FIG. 5 and the CPU 501, and receives an operation input from the user (viewer Y in FIG. 2).

表示制御部73は、主に、図5に示されているCPU501の処理等によって実現され、画像管理装置5から送信された画面情報を解釈して端末装置7のディスプレイ508に各種画面を表示させるための制御を行なう。 The display control unit 73 is realized mainly by the processing of the CPU 501 shown in FIG. 5, interprets the screen information transmitted from the image management device 5, and causes the display 508 of the terminal device 7 to display various screens. Control for

記憶・読出部79は、主に、図5に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、端末装置7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。 The storage / reading unit 79 is mainly realized by the processing of the HD 504 and the CPU 501 shown in FIG. 5, and stores various data in the storage unit 7000 and reads various data from the storage unit 7000. In the following, even when the terminal device 7 reads / writes from the storage unit 7000, the description “via the storage / reading unit 79” may be omitted.

<人物の検知結果の一例>
図7は、人物の検知が行われる画像を説明する図である。全天球画像は周囲360度が撮像されているため、平面ディスプレイには全体を表示できない(表示できるが歪みが大きくなる)。また、撮像後の画像データは正距円筒画像で保存されるが、正距円筒画像の極部(上部や下部)では歪みが大きくなる。このため、制御円筒画像のままでは人物の検知精度が低下するおそれがある。そこで、人物検知部52は正距円筒画像の画像データを立体球に変換してから人物検知を行う。
<Example of human detection result>
FIG. 7 is a diagram illustrating an image in which a person is detected. Since the spherical image is captured at a circumference of 360 degrees, the entire image cannot be displayed on a flat display (it can be displayed, but the distortion becomes large). Further, although the image data after imaging is stored as an equirectangular image, distortion becomes large at the poles (upper and lower) of the equirectangular image. Therefore, if the control cylinder image is left as it is, the accuracy of detecting a person may decrease. Therefore, the person detection unit 52 converts the image data of the equirectangular image into a three-dimensional sphere, and then performs the person detection.

図7に示すように、人物検知部52は歪みが少ない大きさの所定領域を切り替えながら、全天球画像の全範囲に対し人物検知を行う。こうすることで、人物の検知精度の低下を抑制できる。所定領域は、三次元座標を平面のディスプレイに投影する透視投影変換により平面画像として表される。 As shown in FIG. 7, the person detection unit 52 performs person detection on the entire range of the spherical image while switching a predetermined area having a size with less distortion. By doing so, it is possible to suppress a decrease in the detection accuracy of the person. The predetermined area is represented as a planar image by a perspective projection transformation that projects three-dimensional coordinates onto a planar display.

図8を参照して人物の検知結果の一例を説明する。図8は、人物の検知結果で得られる情報を模式的に示す図である。図8(a)は矩形210として検知された人物の領域を示し、図8(b)は多角形211として検知された人物の領域を示し、図8(c)は人間の頂点212の検知例を示す。人間の頂点212とは、人間の身体の先端部(頭部、手先、足先)だけでなく、関節などの可動部(首、肩、脚の付け根)も含まれる。 An example of the detection result of a person will be described with reference to FIG. FIG. 8 is a diagram schematically showing information obtained from the detection result of a person. FIG. 8 (a) shows the area of the person detected as the rectangle 210, FIG. 8 (b) shows the area of the person detected as the polygon 211, and FIG. 8 (c) shows the detection example of the human apex 212. Is shown. The human apex 212 includes not only the tips of the human body (head, hands, toes) but also movable parts such as joints (neck, shoulders, groin).

図8(a)又は図8(b)のどちらの形状で人物検知部52が人物を検知するかは、学習時の教師データの与え方によって開発者が調整できるため、あくまで一例である。また、図8(c)のように矩形や多角形でなく人間の頂点212を人物検知部52が検知する方法も、学習時の教師データの与え方によって実現できる。 Which shape of FIG. 8A or FIG. 8B the person detection unit 52 detects a person is only an example because the developer can adjust it depending on how the teacher data is given at the time of learning. Further, a method in which the person detection unit 52 detects a human vertex 212 instead of a rectangle or polygon as shown in FIG. 8C can also be realized by a method of giving teacher data at the time of learning.

本実施形態の画像管理装置5は、人物の検知方法、検知された人物の形状、又は、検知された身体の頂点などに関係なく、ヒートマップの大きさを調整できる。 The image management device 5 of the present embodiment can adjust the size of the heat map regardless of the method of detecting the person, the shape of the detected person, the detected apex of the body, and the like.

<人物の検知結果とヒートマップの関係>
図8にて説明したように、人物の検知方法、検知された人物の形状、又は、検知された身体の頂点は様々である。調整部53は、これらに対応してヒートマップの大きさを調整する。
<Relationship between person detection results and heat map>
As described with reference to FIG. 8, there are various methods for detecting a person, the shape of the detected person, or the detected apex of the body. The adjusting unit 53 adjusts the size of the heat map corresponding to these.

図9は矩形で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。図9(a)は矩形210で検知された人物の一例を示す。この場合、最大幅長は矩形210の幅とほぼ同じでよい。調整部53が閲覧者Yや用途に応じて採用したヒートマップの大きさ情報が最大幅長の場合、図9(b)に示すように、調整部53は矩形210の幅をヒートマップの大きさとする。具体的には矩形210の4つ頂点の座標のうち左下と右下の頂点の座標を人物幅保存テーブルに登録する。図9(b)では足下の楕円がヒートマップ213を表している。 FIG. 9 is a diagram illustrating a method of adjusting the size of the heat map when a person is detected as a rectangle. FIG. 9A shows an example of a person detected by the rectangle 210. In this case, the maximum width may be substantially the same as the width of the rectangle 210. When the size information of the heat map adopted by the adjusting unit 53 according to the viewer Y and the application is the maximum width length, as shown in FIG. 9B, the adjusting unit 53 sets the width of the rectangle 210 to the size of the heat map. Let's say. Specifically, among the coordinates of the four vertices of the rectangle 210, the coordinates of the lower left and lower right vertices are registered in the person width storage table. In FIG. 9B, the ellipse under the foot represents the heat map 213.

一方、胴体がどこからどこまでかは、図9(a)の人物の検知結果である矩形210からは明らかでない。この場合、胴体をヒートマップの大きさとするには以下のような方法がある。
(i) 調整部53が人物検知部52に胴体の検知を要求する。
(ii) 人物検知部52が予め外接矩形だけでなくヒートマップの大きさ情報に対応した身体の部位を検知しておく。
(iii) 1より小さい比率を最大幅長に乗じる。
On the other hand, where the torso is from is not clear from the rectangle 210, which is the detection result of the person in FIG. 9A. In this case, there are the following methods to make the fuselage the size of the heat map.
(i) The adjusting unit 53 requests the person detecting unit 52 to detect the body.
(ii) The person detection unit 52 detects not only the circumscribing rectangle but also the body part corresponding to the size information of the heat map in advance.
(iii) Multiply the maximum width by a ratio less than 1.

図9(d)は人物検知部52が検知する複数の矩形210,215の一例を示す。図9(d)では最大幅長を意味する矩形210だけでなく、胴体を囲む矩形215が求められている。教師データの与え方次第で人物検知部52は頭部や胴体のみを検知することができるため、図9(d)のように人物検知部52が身体の部位を検知することは容易である。したがって、調整部53は(i)(ii)の方法で胴体に対応する矩形215の幅をヒートマップの大きさとすることができる。具体的には矩形215の4つ頂点の座標のうち左下と右下の頂点の座標を人物幅保存テーブルに登録する。 FIG. 9D shows an example of a plurality of rectangles 210 and 215 detected by the person detection unit 52. In FIG. 9D, not only the rectangle 210 meaning the maximum width and length but also the rectangle 215 surrounding the body is required. Since the person detection unit 52 can detect only the head and the body depending on how the teacher data is given, it is easy for the person detection unit 52 to detect the body part as shown in FIG. 9D. Therefore, the adjusting unit 53 can set the width of the rectangle 215 corresponding to the body as the size of the heat map by the methods (i) and (ii). Specifically, among the coordinates of the four vertices of the rectangle 215, the coordinates of the lower left and lower right vertices are registered in the person width storage table.

(iii)の方法については、胴体の幅は最大幅長よりも小さいという知見を利用した簡易的な調整方法となる。例えば、調整部53は最大幅長の80%などを胴体の大きさとして、矩形210からヒートマップの大きさを算出する。なお、最大幅長に乗じる比率を図9(a)の矩形210のアスペクト比に応じて決定するとよい。これは、人物が手を広げた状態と閉じた状態では適切な比率が異なるためである(手を広げた場合の方が最大幅長は大きく縮小されるべきである)。この場合、アスペクト比に比率が対応付けられたテーブルを調整部53が有している。 The method (iii) is a simple adjustment method utilizing the knowledge that the width of the fuselage is smaller than the maximum width. For example, the adjusting unit 53 calculates the size of the heat map from the rectangle 210 with 80% of the maximum width length as the size of the body. The ratio to be multiplied by the maximum width length may be determined according to the aspect ratio of the rectangle 210 shown in FIG. 9A. This is because the appropriate ratio differs between the person with his hands open and the person with his hands closed (the maximum width should be significantly reduced when the person's hands are open). In this case, the adjusting unit 53 has a table in which the ratio is associated with the aspect ratio.

以上(i)〜(iii)の方法で胴体の大きさが得られると、図9(c)に示すように、分布表現作成部55は胴体の大きさのヒートマップを作成できる。図9(c)では足下の楕円214がヒートマップを表している。このように、矩形の一部を分布表現に使用される人物の幅に決定できる。 When the body size is obtained by the above methods (i) to (iii), the distribution expression creating unit 55 can create a heat map of the body size as shown in FIG. 9 (c). In FIG. 9C, the ellipse 214 under the feet represents the heat map. In this way, a part of the rectangle can be determined as the width of the person used for the distribution expression.

図10は多角形216で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。後述するように、ヒートマップの大きさは、検知された人物の領域のうち、幅方向(横方向)の長さに応じて、ヒートマップの大きさとする。つまり 、人物の領域の座標の値を用いることで実施することができる。例えば、人物の領域の幅方向に対応する座標値から幅方向の長さや、幅方向の中点を求めることで、ヒートマップの描画を行うことができる。図10(a)は多角形216で検知された人物の一例を示す。この場合、最大幅長は多角形216の幅とほぼ同じでよい。図10(b)に示すように、採用した大きさ情報が最大幅長の場合、調整部53は多角形216の幅をヒートマップの大きさとする。具体的には多角形216の最左と最右の座標を人物幅保存テーブルに登録する。図10(b)では足下の楕円217がヒートマップを表している。ここで、 分布表現は、対応する人物の領域内または接して表現することができる。例えば、人物の頭上、腹部辺り、足下などが考えられる。しかしながら、足下に分布表現をするのが好ましく、更に検知された人物の領域の幅を楕円形状の長辺として楕円形状のヒートマップにするのが好ましい。このような分布表現が空間との対応関係を示すのに好ましい表現である。 FIG. 10 is a diagram illustrating a method of adjusting the size of the heat map when a person is detected by the polygon 216. As will be described later, the size of the heat map is the size of the heat map according to the length in the width direction (horizontal direction) of the detected area of the person. That is, it can be carried out by using the value of the coordinates of the area of the person. For example, the heat map can be drawn by obtaining the length in the width direction and the midpoint in the width direction from the coordinate values corresponding to the width direction of the area of the person. FIG. 10A shows an example of a person detected by the polygon 216. In this case, the maximum width may be substantially the same as the width of the polygon 216. As shown in FIG. 10B, when the adopted size information is the maximum width length, the adjusting unit 53 sets the width of the polygon 216 as the size of the heat map. Specifically, the leftmost and rightmost coordinates of the polygon 216 are registered in the person width storage table. In FIG. 10B, the ellipse 217 under the feet represents the heat map. Here, the distribution expression can be expressed within or in contact with the area of the corresponding person. For example, the person's head, abdomen, or feet can be considered. However, it is preferable to express the distribution under the feet, and it is preferable to make an elliptical heat map with the width of the detected person's area as the long side of the elliptical shape. Such a distribution expression is a preferable expression for showing the correspondence with space.

一方、胴体がどこからどこまでかは、図10(a)の人物の検知結果である多角形216からは明らかでない。この場合、胴体をヒートマップの大きさとする方法は図9の矩形の場合(i)〜(iii)と同様である。 On the other hand, where the torso is from is not clear from the polygon 216 which is the detection result of the person in FIG. 10 (a). In this case, the method of using the body as the size of the heat map is the same as in the case of the rectangles (i) to (iii) in FIG.

図10(d)は人物検知部52が検知する複数の多角形216,219の一例を示す。図10(d)では人物の全体が入る多角形216だけでなく、胴体が入る多角形219が求められている。教師データの与え方次第で人物検知部52は頭部や胴体のみを検知することができるため、図10(d)のように人物検知部52が身体の部位を検知することは容易である。したがって、調整部53は(i)(ii)の方法で胴体に対応する多角形219の幅をヒートマップの大きさとすることができる。 FIG. 10D shows an example of a plurality of polygons 216 and 219 detected by the person detection unit 52. In FIG. 10D, not only the polygon 216 containing the entire person but also the polygon 219 containing the body is required. Since the person detection unit 52 can detect only the head and the body depending on how the teacher data is given, it is easy for the person detection unit 52 to detect the body part as shown in FIG. 10 (d). Therefore, the adjusting unit 53 can set the width of the polygon 219 corresponding to the body as the size of the heat map by the methods (i) and (ii).

(iii) の方法について、多角形ではアスペクト比という概念がないので、最左と最右の長さ216bに対する底辺216aの長さの比に対して比率が対応付けられたテーブルを調整部53が有しているとよい。 Regarding the method (iii), since there is no concept of aspect ratio in polygons, the adjusting unit 53 prepares a table in which the ratio is associated with the ratio of the length of the base 216a to the leftmost and rightmost lengths 216b. It is good to have.

また、人物の検知結果が多角形216である場合は(iv)番目の方法として、底辺216aの左右の座標を胴体の大きさと見なす方法がある。この方法であれば、調整部53は人物検知の結果からそのまま胴体の大きさを推定できるので、処理負荷を低減できる。 Further, when the detection result of the person is the polygon 216, as the (iv) th method, there is a method of regarding the left and right coordinates of the base 216a as the size of the body. With this method, the adjusting unit 53 can estimate the size of the body as it is from the result of the person detection, so that the processing load can be reduced.

以上のように胴体の大きさが得られると、図10(c)に示すように、分布表現作成部55は胴体の大きさのヒートマップを作成できる。図10(c)では足下の楕円218がヒートマップを表している。 When the size of the body is obtained as described above, the distribution expression creating unit 55 can create a heat map of the size of the body as shown in FIG. 10 (c). In FIG. 10 (c), the ellipse 218 under the feet represents the heat map.

図11は身体の頂点212で人物が検知される場合のヒートマップの大きさの調整方法を説明する図である。図11(a)は頂点212で検知された人物の一例を示す。この場合、最大幅長は手先220,221の間隔とほぼ同じでよい(最左と最右の頂点)。図11(b)に示すように、採用した大きさ情報が最大幅長の場合、調整部53は手先220,221の幅をヒートマップの大きさとする。具体的には複数の頂点212のうち手先220,221の座標(ただしY座標は足先を採用する)を人物幅保存テーブルに登録する。図11(b)では足下の楕円222がヒートマップを表している。 FIG. 11 is a diagram illustrating a method of adjusting the size of the heat map when a person is detected at the apex 212 of the body. FIG. 11A shows an example of a person detected at the apex 212. In this case, the maximum width and length may be substantially the same as the spacing between the hands 220 and 221 (leftmost and rightmost vertices). As shown in FIG. 11B, when the adopted size information is the maximum width length, the adjusting unit 53 sets the widths of the hands 220 and 221 as the size of the heat map. Specifically, the coordinates of the hands 220 and 221 of the plurality of vertices 212 (however, the Y coordinates adopt the toes) are registered in the person width storage table. In FIG. 11B, the ellipse 222 under the feet represents the heat map.

一方、胴体がどこからどこまでかは、図11(a)の人物の検知結果である頂点212から直接は明らかでないが胴体と見なせる頂点が得られている。例えば、肩224、225や脚の付け根226,227の頂点である。したがって、この場合、調整部53は、肩224、225や脚の付け根226,227の頂点の幅を胴体と見なして人物幅保存テーブルに登録する。 On the other hand, it is not directly clear from the apex 212 which is the detection result of the person in FIG. 11A, but the apex that can be regarded as the torso is obtained. For example, the vertices of the shoulders 224 and 225 and the bases of the legs 226 and 227. Therefore, in this case, the adjusting unit 53 regards the widths of the vertices of the shoulders 224 and 225 and the bases of the legs 226 and 227 as the body and registers them in the person width storage table.

図11(c)に示すように、採用した大きさ情報が胴体の場合、分布表現作成部55は肩や脚の付け根の幅をヒートマップの大きさとしてヒートマップを作成する。図11(c)では足下の楕円223がヒートマップを表している。 As shown in FIG. 11C, when the adopted size information is the torso, the distribution expression creation unit 55 creates a heat map with the width of the bases of the shoulders and legs as the size of the heat map. In FIG. 11 (c), the ellipse 223 under the feet represents the heat map.

<閲覧者Yが選択するヒートマップの大きさ>
次に、図12を参照して、閲覧者Yがヒートマップの大きさを選択する際の画面例を説明する。図12は、ヒートマップの大きさの選択画面230の一例である。図12(a)は、表6(a)の用途別設定項目テーブルにおいて選択可能領域が「頭幅、肩幅、最大幅長」の会社の閲覧者Yが表示する選択画面である。このため、図12(a)では、頭幅、肩幅、最大幅長に対応付けてラジオボタン231〜233を表示する。閲覧者Yは、頭幅、肩幅、最大幅長から、どのヒートマップの大きさで、ヒートマップを作成したいのかを選択できる。
<Size of heat map selected by viewer Y>
Next, with reference to FIG. 12, a screen example when the viewer Y selects the size of the heat map will be described. FIG. 12 is an example of the heat map size selection screen 230. FIG. 12A is a selection screen displayed by the viewer Y of the company whose selectable area is “head width, shoulder width, maximum width length” in the application-specific setting item table of Table 6 (a). Therefore, in FIG. 12A, the radio buttons 231 to 233 are displayed in association with the head width, shoulder width, and maximum width length. Viewer Y can select which heat map size he / she wants to create from the head width, shoulder width, and maximum width.

図12(b)は表6(a)の用途別設定項目テーブルにおいて選択可能領域が「自由選択長」の会社の閲覧者Yが表示する選択画面240である。このため、図12(b)では、スライダー241を表示する。このスライダー241は右から左に移動するほどヒートマップが大きくなる。図示する枠242とスライダー241の位置が連動する。閲覧者Yは、枠242を見ながらスライダー241を移動させてヒートマップの大きさを変更できる。スライダー241の位置によって人物の最大幅長の何パーセントをヒートマップの大きさとするか決定される。パーセンテージは画像管理装置5に送信され、分布表現大きさ情報記憶部5005に保存される。調整部53はヒートマップの大きさを調整するために使用する。 FIG. 12B is a selection screen 240 displayed by the viewer Y of the company whose selectable area is the “free selection length” in the application-specific setting item table of Table 6 (a). Therefore, in FIG. 12B, the slider 241 is displayed. The heat map of this slider 241 increases as it moves from right to left. The positions of the illustrated frame 242 and the slider 241 are linked. Viewer Y can change the size of the heat map by moving the slider 241 while looking at the frame 242. The position of the slider 241 determines what percentage of the maximum width of the person is the size of the heatmap. The percentage is transmitted to the image management device 5 and stored in the distribution expression size information storage unit 5005. The adjusting unit 53 is used to adjust the size of the heat map.

図12(c)は表6(a)の用途別設定項目テーブルにおいて選択可能領域が「自由選択長」の会社の閲覧者Yが表示する選択画面250である(図12(b)とは別の例)。図12(c)では、2つのスライダー251、252を表示する。右側のスライダー252は枠253の右端の位置に対応し、左側のスライダー251は枠253の左端の位置に対応する。閲覧者Yは、枠253を見ながら2つのスライダーを移動させてヒートマップの大きさを選択できる。 FIG. 12 (c) is a selection screen 250 displayed by the viewer Y of the company whose selectable area is “free selection length” in the application-specific setting item table of Table 6 (a) (separate from FIG. 12 (b)). Example). In FIG. 12C, two sliders 251 and 252 are displayed. The slider 252 on the right side corresponds to the position of the right end of the frame 253, and the slider 251 on the left side corresponds to the position of the left end of the frame 253. Viewer Y can select the size of the heat map by moving the two sliders while looking at the frame 253.

スライダー251、252の位置によって人物のどの部分をヒートマップの大きさとするか決定される。スライダー251、252の位置は画像管理装置5に送信され、分布表現大きさ情報記憶部5005に保存される。調整部53はヒートマップの大きさを調整するために使用する。 The positions of the sliders 251 and 252 determine which part of the person is the size of the heat map. The positions of the sliders 251 and 252 are transmitted to the image management device 5 and stored in the distribution expression size information storage unit 5005. The adjusting unit 53 is used to adjust the size of the heat map.

また、図13に示すように、閲覧者Yはヒートマップの作成方法やヒートマップの色を選択することもできる。図13は端末装置7が表示するヒートマップ作成画面260の一例を示す。ヒートマップ作成画面260は、ヒートマップの作成方法として、人物がいる領域又は人物がいない領域に対応したラジオボタン261,262と、ヒートマップの色として、単色又は複数色に対応したラジオボタン263,264を有する。閲覧者Yは人物がいる領域又は人物がいない領域のどちらを表すヒートマップを見たいのか選択できる。また、ヒートマップを作成する色が単色か複数色かを選択できる。単色の場合、及び、複数色の場合に閲覧者Yが更に色を選択できることが好ましい。 Further, as shown in FIG. 13, the viewer Y can also select a heat map creation method and a heat map color. FIG. 13 shows an example of the heat map creation screen 260 displayed by the terminal device 7. The heat map creation screen 260 has radio buttons 261,262 corresponding to an area with a person or an area without a person as a heat map creation method, and radio buttons 263 and a plurality of colors corresponding to a single color or a plurality of colors as the heat map color. It has 264. Viewer Y can select whether he wants to see a heat map that represents an area with or without a person. In addition, it is possible to select whether the color for creating the heat map is a single color or multiple colors. It is preferable that the viewer Y can further select a color in the case of a single color and in the case of a plurality of colors.

<ヒートマップの作成方法>
続いて、図14、図15等を参照してヒートマップの作成方法を説明する。図14は、ヒートマップの作成方法を模式的に示す図であり、図15はヒートマップの作成法を説明するフローチャート図である。なお、ヒートマップの大きさに関係なく作成方法は共通であるので、図14ではヒートマップの大きさが最大幅長に調整される場合を説明する。また、ヒートマップの形状は開発者が適宜設計できるが、ここでは楕円形とする。
<How to create a heat map>
Subsequently, a method of creating a heat map will be described with reference to FIGS. 14, 15 and the like. FIG. 14 is a diagram schematically showing a method of creating a heat map, and FIG. 15 is a flowchart illustrating a method of creating a heat map. Since the method of creating the heat map is the same regardless of the size of the heat map, FIG. 14 describes a case where the size of the heat map is adjusted to the maximum width. The shape of the heat map can be designed by the developer as appropriate, but here it is an ellipse.

(S1)
まず、分布表現作成部55は人物幅保存テーブルからヒートマップの大きさ(座標1,座標2)を取得する。
(S1)
First, the distribution expression creation unit 55 acquires the size of the heat map (coordinates 1, coordinates 2) from the person width storage table.

(S2)
分布表現作成部55は、座標1,座標2の中心270を設定する(図14(a))。座標1,2には検知された人物の下端の座標も含まれており、足下に中心270が設定される。
(S2)
The distribution expression creation unit 55 sets the center 270 of the coordinates 1 and 2 (FIG. 14 (a)). Coordinates 1 and 2 also include the coordinates of the lower end of the detected person, and the center 270 is set under the feet.

(S3)
次に、分布表現作成部55は、座標1、座標2を長軸とする楕円271を描画する(図14(b))。短軸の大きさは、予め決められている長軸との比率により決定される。
(S3)
Next, the distribution expression creation unit 55 draws an ellipse 271 having coordinates 1 and coordinates 2 as long axes (FIG. 14 (b)). The size of the minor axis is determined by a predetermined ratio with the major axis.

(S4)
分布表現作成部55は、人物ごとに同様に生成した楕円271の重なりを統計処理して各ヒートマップの濃度を決定する。詳細を図16,図17を参照して説明する。
(S4)
The distribution expression creation unit 55 statistically processes the overlap of the ellipses 271 similarly generated for each person to determine the density of each heat map. Details will be described with reference to FIGS. 16 and 17.

図16はヒートマップの濃度の決定方法を説明する図であり、図17はヒートマップの濃度の決定方法を示すフローチャート図である。図16では4つの楕円280が描画されている。4つの楕円280により以下の領域が形成されている。
A.重なりがない領域
B.2つの楕円が重なった領域
C.3つの楕円が重なった領域
分布表現作成部55は、画素レベルでいくつの楕円が重なっているかを特定できる。なお、ヒートマップを作成する期間(画像データの数)は閲覧者が設定するので一定とは限らない。例えば、1日の始まりから現在時刻まで、閲覧者Yが指定した任意の期間、又は、セール中などの期間、など様々でよい。このため、楕円280の数も様々であるが、解析の対象となる画像データの中で相対的な人物の滞留を表すため、分布表現作成部55は以下のように処理する。
FIG. 16 is a diagram illustrating a method for determining the density of the heat map, and FIG. 17 is a flowchart showing a method for determining the density of the heat map. In FIG. 16, four ellipses 280 are drawn. The following regions are formed by the four ellipses 280.
A. Areas that do not overlap B. Region where two ellipses overlap C. Area where three ellipses overlap The distribution expression creation unit 55 can specify how many ellipses overlap at the pixel level. The period for creating the heat map (the number of image data) is set by the viewer, so it is not always constant. For example, from the beginning of the day to the current time, an arbitrary period specified by the viewer Y, a period such as during a sale, and the like may be various. Therefore, although the number of ellipses 280 varies, the distribution expression creation unit 55 processes as follows in order to represent the relative retention of people in the image data to be analyzed.

(S11)
分布表現作成部55は楕円280が重なっている数を画素ごとにカウントする。
(S11)
The distribution expression creation unit 55 counts the number of overlapping ellipses 280 for each pixel.

(S12)
分布表現作成部55は、重なっている数に応じて、応じて予め用意している色の数に画素をグループ分けする。図16では3つの色が用意されているので、画素は数が多い順に3つのグループに分けられる。各グループの画素の数は同じでよいが、異ならせることもできる。したがって、例えば、A.重なりがない領域、B.2つの楕円が重なった領域、C.3つの楕円が重なった領域、が色分けされる。
(S12)
The distribution expression creation unit 55 groups the pixels into the number of colors prepared in advance according to the number of overlapping pixels. Since three colors are prepared in FIG. 16, the pixels are divided into three groups in descending order of number. The number of pixels in each group can be the same, but can be different. Therefore, for example, A. Non-overlapping region, B.I. Region where two ellipses overlap, C.I. The area where the three ellipses overlap is color-coded.

(S13)
分布表現作成部55は、予め決まっている色をグループの画素に割り当てる。こうすることで、重なっている楕円の数が多い画素ほど、濃い色で表されたヒートマップを作成できる。
(S13)
The distribution expression creation unit 55 assigns a predetermined color to the pixels of the group. By doing so, it is possible to create a heat map represented by a darker color as the number of overlapping ellipses increases.

なお、図16では人物が滞留している領域を強調するヒートマップを作成したが、分布表現作成部55は人物が存在しない領域を強調するヒートマップを作成することもできる。この場合は、ステップS13において、分布表現作成部55は、重なっている楕円の数が少ない画素ほど、濃い色で表されたヒートマップを作成する。 Although the heat map for emphasizing the area where the person is staying is created in FIG. 16, the distribution expression creating unit 55 can also create the heat map for emphasizing the area where the person does not exist. In this case, in step S13, the distribution expression creation unit 55 creates a heat map represented by a darker color as the number of overlapping ellipses is smaller.

<ヒートマップの形状の他の例>
図16等では、楕円形のヒートマップを示したが、ヒートマップの形状は種々設計される。図18は、ヒートマップの形状のいくつかのバリエーションを示す図である。図18(a)はこれまで説明した楕円291のヒートマップである。
<Other examples of heat map shapes>
Although an elliptical heat map is shown in FIG. 16 and the like, various shapes of the heat map are designed. FIG. 18 is a diagram showing some variations in the shape of the heat map. FIG. 18A is a heat map of the ellipse 291 described so far.

図18(b)は実線292でヒートマップを表している。図18(c)は破線293でヒートマップを表している。実線292も破線293も閲覧者がみやすいようにある程度の太さを有している。したがって、図18(b)のヒートマップは長方形と表現することができる。この他、ヒートマップは菱形、台形、又は、雲のような形状でもよい。ここで説明したように、ヒートマップの大きさは、検知された人物の大きさに対応づけて決定することで、見やすい分布表現となる。また、ヒートマップの形状については、様々な形状が適用できる。 FIG. 18B shows a heat map with a solid line 292. FIG. 18C shows a heat map with a broken line 293. Both the solid line 292 and the broken line 293 have a certain thickness so that the viewer can easily see them. Therefore, the heat map of FIG. 18B can be expressed as a rectangle. In addition, the heat map may have a rhombic shape, a trapezoidal shape, or a cloud-like shape. As described here, the size of the heat map is determined in association with the size of the detected person, so that the distribution expression is easy to see. Further, various shapes can be applied to the shape of the heat map.

<ヒートマップの表現例>
図19は、人物ごとに異なる色で表示されたヒートマップの一例である。図19に示すように分布表現作成部55は、個別の人物ごとにヒートマップを分けて作成してもよい。この場合、人物検知部52は、人物を検知するだけでなく同じ人物を追跡する機能を有する。あるいは、更に個人を特定してもよい。同じ人物を追跡する方法としては、解析期間のうち最初に検知された人物の特徴量(色のヒストグラム、形状、顔のパーツの配置等)を人物検知部52が検知しておき、検知された人物を特徴量でパターンマッチングして追跡する方法がある。
<Example of heat map expression>
FIG. 19 is an example of a heat map displayed in a different color for each person. As shown in FIG. 19, the distribution expression creation unit 55 may create a heat map separately for each individual person. In this case, the person detection unit 52 has a function of not only detecting the person but also tracking the same person. Alternatively, the individual may be further identified. As a method of tracking the same person, the person detection unit 52 detects the feature amount (color histogram, shape, arrangement of facial parts, etc.) of the person first detected during the analysis period, and the detection is performed. There is a method of tracking a person by pattern matching with a feature amount.

分布表現作成部55は、同一人物ごとに図16、図17で説明した方法でヒートマップを作成する。この時、同じ人物には同じ系統の色だけでヒートマップを作成する。例えば、人物Aは赤系統、人物Bは黄系統、人物Cは緑系統、などである。同じ系統色で異なる色が使用されるので、人物が滞留した場所の色を濃くできる。 The distribution expression creation unit 55 creates a heat map for each of the same person by the method described with reference to FIGS. 16 and 17. At this time, a heat map is created for the same person using only the same color system. For example, person A is red, person B is yellow, person C is green, and so on. Since different colors are used in the same system color, the color of the place where the person stays can be darkened.

このように、人物ごとに系統色を変えることで、閲覧者はある来客者の動向に着目して解析しやすくなる。 By changing the system color for each person in this way, it becomes easier for the viewer to pay attention to the trend of a certain visitor and analyze it.

<瞬間的な占有を表すヒートマップ>
図20は、ある瞬間のヒートマップの表示例を示す。図20(a)に示すように、撮像装置1は次々に画像データを画像管理装置5に送信する。図16では一定期間の画像データからヒートマップを作成したが、図20(a)では、分布表現作成部55は、1つの画像データのみからヒートマップを作成する。この場合のヒートマップの一例を図20(b)に示す。分布表現作成部55は、人物が検知されていれば楕円294を描画し、人物が検知されていなければ楕円294を描画しないという処理で、人物が検知されたことを強調できる。すなわち、分布表現作成部55は人物がいるか否かを分布表現で表す。
<Heat map showing momentary occupancy>
FIG. 20 shows an example of displaying a heat map at a certain moment. As shown in FIG. 20A, the image pickup apparatus 1 transmits image data to the image management apparatus 5 one after another. In FIG. 16, a heat map is created from image data for a certain period of time, but in FIG. 20 (a), the distribution expression creation unit 55 creates a heat map from only one image data. An example of the heat map in this case is shown in FIG. 20 (b). The distribution expression creation unit 55 can emphasize that the person has been detected by the process of drawing the ellipse 294 if the person is detected and not drawing the ellipse 294 if the person is not detected. That is, the distribution expression creating unit 55 expresses whether or not there is a person by the distribution expression.

一般のヒートマップが図20(c)に示すようにある一定期間の人物の滞留を濃度で表すのに対し、図20(b)のヒートマップは、ある瞬間に人物がいるかどうかを閲覧者Yが一目で把握できる。例えば来客者が物品で隠れやすい店内などで有効である。 Whereas a general heat map expresses the retention of a person for a certain period of time as a concentration as shown in FIG. 20 (c), the heat map of FIG. 20 (b) shows whether or not a person is present at a certain moment. Can be grasped at a glance. For example, it is effective in a store where visitors can easily hide with goods.

<ヒートマップ画像と画像データとの重ね合わせ>
続いて図21〜図23を参照して、ヒートマップ画像と画像データの重ね合わせについて説明する。図21は、元の画像データとヒートマップ画像の重ね合わせを模式的に示す図である。
<Superposition of heat map image and image data>
Subsequently, the superposition of the heat map image and the image data will be described with reference to FIGS. 21 to 23. FIG. 21 is a diagram schematically showing an overlay of the original image data and the heat map image.

図21(a)は元の画像データであり、図21(b)はヒートマップ画像である。元の画像データの内容は省略されている。図21(a)(b)は正距円筒画像である。端末装置7がヒートマップ画像を元の画像データに重ねた場合に、元の画像データが見えることが好ましいため、ヒートマップ画像は透過画像で作成される。 FIG. 21 (a) is the original image data, and FIG. 21 (b) is a heat map image. The contents of the original image data are omitted. 21 (a) and 21 (b) are equirectangular images. Since it is preferable that the original image data can be seen when the terminal device 7 superimposes the heat map image on the original image data, the heat map image is created as a transparent image.

画面作成部54は図21(a)と(b)をそのまま重ねれば、ヒートマップ越しに元の画像データが透けて見える重畳画像を作成できる(図21(c))。 By superimposing FIGS. 21 (a) and 21 (b) as they are, the screen creation unit 54 can create a superimposed image in which the original image data can be seen through the heat map (FIG. 21 (c)).

続いて、立体球への変換を説明する。全天球画像は立体球の状態で閲覧されるため、画面作成部54は正距円筒画像を立体球に変換する。図21(d)に示すように、画面作成部54は、球体に元の画像データ(内側)、ヒートマップ画像(外側)の順に貼り付ける。 Next, the conversion to a three-dimensional sphere will be described. Since the spherical image is viewed in the state of a three-dimensional sphere, the screen creation unit 54 converts the equirectangular image into a three-dimensional sphere. As shown in FIG. 21D, the screen creation unit 54 attaches the original image data (inside) and the heat map image (outside) to the sphere in this order.

図22は正距円筒画像の座標と三次元座標の対応を説明する図である。正距円筒画像は図22(a)のようにθ(経度)=0〜360度、φ(緯度)=0〜180度の範囲の球面座標系で座標が示される。立体球にもこの座標系のまま画像データとヒートマップ画像を貼り付けることは可能だが、閲覧者Yが立体球を回転させることを考慮すると回転に適した三次元座標系に変換することが好ましい。 FIG. 22 is a diagram illustrating the correspondence between the coordinates of the equirectangular image and the three-dimensional coordinates. The equirectangular image shows the coordinates in a spherical coordinate system in the range of θ (longitude) = 0 to 360 degrees and φ (latitude) = 0 to 180 degrees as shown in FIG. 22 (a). It is possible to paste the image data and the heat map image on the 3D sphere as it is in this coordinate system, but considering that the viewer Y rotates the 3D sphere, it is preferable to convert it to a 3D coordinate system suitable for rotation. ..

図22(b)は球面座標系と三次元座標系の変換を説明する図である。図から明らかなように、球面座標系の任意の座標(φ1、θ1)と三次元座標系の任意の座標(x1,y1,z1)には以下の関係がある。 FIG. 22B is a diagram illustrating the conversion between the spherical coordinate system and the three-dimensional coordinate system. As is clear from the figure, there is the following relationship between arbitrary coordinates (φ1, θ1) in the spherical coordinate system and arbitrary coordinates (x1, y1, z1) in the three-dimensional coordinate system.

Figure 2021125145

画面作成部54は式(1)〜(3)で画像データとヒートマップ画像を立体球に貼り付けることができる。
Figure 2021125145

The screen creation unit 54 can paste the image data and the heat map image on the three-dimensional sphere by the equations (1) to (3).

図23は実際の元の画像データとヒートマップ画像を示す図である。図23(a)は元の画像データ(正距円筒画像)である。実際の画像データを線図で表している。図23(b)はヒートマップ画像である。図23(c)は画像データに透過画像のヒートマップ画像が貼り付けられた重複画像である。 FIG. 23 is a diagram showing the actual original image data and the heat map image. FIG. 23A is the original image data (equirectangular image). The actual image data is represented by a diagram. FIG. 23B is a heat map image. FIG. 23 (c) is a duplicate image in which a heat map image of a transparent image is attached to the image data.

<全体的な動作手順>
図24は、画像処理システムが行う処理を説明するシーケンス図の一例である。
S101,S102:撮像装置1が撮像した画像データは通信端末3を介して画像管理装置5に送信される。画像管理装置5の通信部51は画像データを受信して、画像データ記憶部5003に保存する。
<Overall operation procedure>
FIG. 24 is an example of a sequence diagram for explaining the processing performed by the image processing system.
S101, S102: The image data captured by the image pickup device 1 is transmitted to the image management device 5 via the communication terminal 3. The communication unit 51 of the image management device 5 receives the image data and stores it in the image data storage unit 5003.

S103:閲覧者Yが端末装置7を操作して、端末装置7の通信部71がヒートマップによる画像データの解析を要求した。例えば、ある一日の画像データの解析とする。なお、閲覧者Yはログインによりどの会社に所属しているか特定されている。 S103: The viewer Y operates the terminal device 7, and the communication unit 71 of the terminal device 7 requests the analysis of the image data by the heat map. For example, suppose that the image data of a certain day is analyzed. It should be noted that the viewer Y is specified by logging in which company he belongs to.

S104:画像管理装置5の通信部51は解析要求を受信し、人物検知部52が画像データ記憶部5003からある一日の画像データを取得する。そして、各画像データから人物を検知して、表4(a)の人物検知結果テーブルに登録していく。 S104: The communication unit 51 of the image management device 5 receives the analysis request, and the person detection unit 52 acquires one day's image data from the image data storage unit 5003. Then, a person is detected from each image data and registered in the person detection result table of Table 4 (a).

S105:次に、調整部53が、この閲覧者Yのヒートマップの大きさ情報を分布表現大きさ情報記憶部5005から取得し、ヒートマップの大きさ(幅)を調整する。すなわち、頭幅、肩幅、又は、最大幅長に基づいて、ヒートマップの幅となるX座標、Y座標を決定する。調整方法は図9〜図11にて説明した。調整部53は、表4(b)に示した人物範囲保存テーブルにヒートマップの幅を示す座標1と座標2を登録する。 S105: Next, the adjusting unit 53 acquires the size information of the heat map of the viewer Y from the distribution expression size information storage unit 5005, and adjusts the size (width) of the heat map. That is, the X coordinate and the Y coordinate, which are the widths of the heat map, are determined based on the head width, shoulder width, or maximum width length. The adjustment method has been described with reference to FIGS. 9 to 11. The adjusting unit 53 registers the coordinates 1 and the coordinates 2 indicating the width of the heat map in the person range storage table shown in Table 4 (b).

S106:分布表現作成部55は、人物範囲保存テーブルから各画像データのヒートマップの幅(座標1と座標2)を取得して楕円を描画し、図16にて説明したようにヒートマップ画像を作成する。 S106: The distribution expression creation unit 55 acquires the width (coordinates 1 and 2) of the heat map of each image data from the person range storage table, draws an ellipse, and draws the heat map image as described in FIG. create.

S107:画面作成部54はヒートマップ画像と画像データを立体球に変換し、これらを端末装置7が表示するためのWebページ(画面情報)を作成する。通信部51が画面情報を端末装置7に送信する。 S107: The screen creation unit 54 converts the heat map image and the image data into a three-dimensional sphere, and creates a Web page (screen information) for the terminal device 7 to display these. The communication unit 51 transmits screen information to the terminal device 7.

S108:端末装置7の通信部71は画面情報を受信する。表示制御部73はヒートマップ画像を画像データに重ね合わせ、透視投影変換を行って立体を平面のディスプレイに表示する。なお、立体球への変換は端末装置7が行ってもよい。 S108: The communication unit 71 of the terminal device 7 receives screen information. The display control unit 73 superimposes the heat map image on the image data, performs perspective projection conversion, and displays the solid on a flat display. The terminal device 7 may perform the conversion to a three-dimensional sphere.

<主な効果>
以上説明したように本実施形態の画像処理システムは、従来、固定的であったヒートマップの大きさを調整できる。例えば、ユーザ又は用途等に応じてヒートマップの大きさを調整するので、ヒートマップの大きさを変更できる。
<Main effect>
As described above, the image processing system of the present embodiment can adjust the size of the heat map, which has been fixed in the past. For example, since the size of the heat map is adjusted according to the user or the application, the size of the heat map can be changed.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

実施例では、閲覧者Y又は用途に応じてヒートマップの大きさを調整したが、人物ごとにヒートマップの大きさを調整してもよい。例えば、人物検知部52が人物だけでなく男女の区別、年代の区別を行い、男性と女性、又は年代によってヒートマップの大きさを変更してよい。 In the embodiment, the size of the heat map is adjusted according to the viewer Y or the application, but the size of the heat map may be adjusted for each person. For example, the person detection unit 52 may distinguish not only a person but also men and women and ages, and may change the size of the heat map depending on the ages of men and women.

また、調整の方法として、人物の外接矩形よりも小さくする方法を説明したが、元の人物の検知範囲よりもヒートマップを大きくしてもよい。例えば、人物検知部52は胴体を検知するが、調整部53が最大幅長に広げるような調整も可能である。 Further, as a method of adjustment, a method of making the person smaller than the circumscribed rectangle of the person has been described, but the heat map may be made larger than the detection range of the original person. For example, the person detection unit 52 detects the body, but the adjustment unit 53 can be adjusted to expand to the maximum width.

また、大きさを調整するのでなく、調整部53はヒートマップの形状を変更してもよい。例えば、ある閲覧者Yでは楕円のヒートマップで表示し、別の閲覧者Yでは実線のヒートマップで表示する。画像で検知された人物ごとにヒートマップの形状を調整してもよい。 Further, instead of adjusting the size, the adjusting unit 53 may change the shape of the heat map. For example, one viewer Y displays an elliptical heat map, and another viewer Y displays a solid heat map. The shape of the heat map may be adjusted for each person detected in the image.

また、以上の実施例で示した図6などの構成例は、撮像装置1、通信端末3、画像管理装置5及び端末装置7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5及び端末装置7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。また、画像処理システム200が複数の画像管理装置5を有していてもよい。 Further, the configuration examples such as FIG. 6 shown in the above examples correspond to the main functions in order to facilitate the understanding of the processes of the image pickup device 1, the communication terminal 3, the image management device 5, and the terminal device 7. It is divided. However, the present invention is not limited by the method and name of division of each processing unit. The processing of the image pickup device 1, the communication terminal 3, the image management device 5, and the terminal device 7 can be divided into more processing units according to the processing content. It is also possible to divide one processing unit so as to include more processing. Further, the image processing system 200 may have a plurality of image management devices 5.

また、実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、画像管理装置5は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。 Also, the group of devices described in the examples merely represents one of a plurality of computing environments for implementing the embodiments disclosed herein. In certain embodiments, the image management device 5 includes a plurality of computing devices, such as a server cluster. The plurality of computing devices are configured to communicate with each other via any type of communication link, including networks, shared memory, and the like, and perform the processes disclosed herein.

更に、画像管理装置5は、開示された処理ステップ、例えば図24を様々な組み合わせで共有するように構成できる。例えば、所定のユニットによって実行されるプロセスは、画像管理装置5が有する複数の情報処理装置によって実行され得る。また、画像管理装置5は、1つのサーバ装置にまとめられていても良いし、複数の装置に分けられていても良い。 Further, the image management device 5 can be configured to share the disclosed processing steps, eg, FIG. 24, in various combinations. For example, a process executed by a predetermined unit can be executed by a plurality of information processing devices included in the image management device 5. Further, the image management device 5 may be integrated into one server device, or may be divided into a plurality of devices.

また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。 Further, the database of the storage unit 5000 of the image management device 5 may be directly owned by the image management device 5 or may be on a communication network 9 on which the image management device 5 can read and write.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays), and conventional circuit modules.

1 撮像装置
3 通信端末
5 画像管理装置
7 端末装置
200 画像処理システム
1 Imaging device 3 Communication terminal 5 Image management device 7 Terminal device 200 Image processing system

特開2004−94518号公報Japanese Unexamined Patent Publication No. 2004-94518

Claims (15)

撮像装置が撮像した画像データから人物を検知する人物検知部と、
前記人物検知部が検知した前記人物の大きさを用いて前記人物の分布表現を作成する分布表現作成部と、
を有することを特徴とする情報処理装置。
A person detection unit that detects a person from the image data captured by the image pickup device, and
A distribution expression creation unit that creates a distribution representation of the person using the size of the person detected by the person detection unit, and a distribution expression creation unit.
An information processing device characterized by having.
前記人物検知部が検知した前記人物の大きさを調整する調整部を有し、
前記分布表現作成部は、前記調整部が調整した前記人物の大きさを用いて前記人物の分布表現を作成することを特徴とする請求項1に記載の情報処理装置。
It has an adjustment unit that adjusts the size of the person detected by the person detection unit.
The information processing apparatus according to claim 1, wherein the distribution expression creating unit creates a distribution expression of the person using the size of the person adjusted by the adjusting unit.
前記調整部は、前記人物検知部が検知した前記人物の大きさよりも、分布表現に使用される前記人物の大きさを小さくすることを特徴とする請求項2に記載の情報処理装置。 The information processing device according to claim 2, wherein the adjusting unit makes the size of the person used for distribution expression smaller than the size of the person detected by the person detecting unit. 前記調整部は、前記人物検知部が検知した前記人物の幅よりも、分布表現に使用される前記人物の幅を小さくすることを特徴とする請求項3に記載の情報処理装置。 The information processing device according to claim 3, wherein the adjusting unit makes the width of the person used for distribution expression smaller than the width of the person detected by the person detecting unit. 前記調整部は、分布表現の大きさに関する情報を用いて前記人物の大きさを調整することを特徴とする請求項2〜4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 2 to 4, wherein the adjusting unit adjusts the size of the person by using information on the size of the distribution expression. 前記分布表現の大きさに関する情報は、最大幅長、肩幅、又は、頭幅であることを特徴とする請求項5に記載の情報処理装置。 The information processing apparatus according to claim 5, wherein the information regarding the size of the distribution expression is the maximum width, shoulder width, or head width. 前記人物検知部は、前記画像データから人物の全体を含む矩形で前記人物を検知し、
前記調整部は、前記分布表現の大きさに関する情報に応じて、前記矩形の一部を分布表現に使用される前記人物の幅に決定することを特徴とする請求項5又は6に記載の情報処理装置。
The person detection unit detects the person from the image data with a rectangle including the entire person.
The information according to claim 5 or 6, wherein the adjusting unit determines a part of the rectangle to be the width of the person used for the distribution expression according to the information regarding the size of the distribution expression. Processing equipment.
前記分布表現の大きさに関する情報は、ユーザに対応付けて前記情報処理装置に登録されていることを特徴とする請求項5〜7のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 5 to 7, wherein the information regarding the size of the distribution expression is registered in the information processing device in association with the user. 撮像装置が撮像した画像データを保存する画像データ記憶部と、
前記画像データから人物を検知する人物検知部と、
前記人物検知部が検知した前記人物の大きさを用いて前記人物の分布表現を作成する分布表現作成部と、
前記画像データと前記分布表現を端末装置に送信する第一の通信部と、を有する情報処理装置と、
端末装置に、前記画像データに前記分布表現を重ねて表示させるプログラムと、
を有することを特徴とする画像処理システム。
An image data storage unit that stores image data captured by the image pickup device, and
A person detection unit that detects a person from the image data,
A distribution expression creation unit that creates a distribution representation of the person using the size of the person detected by the person detection unit, and a distribution expression creation unit.
An information processing device having the image data and a first communication unit that transmits the distribution representation to the terminal device.
A program for displaying the distribution representation on the image data on the terminal device,
An image processing system characterized by having.
前記情報処理装置は、前記人物検知部が検知した前記人物の大きさを調整する調整部を有し、
前記分布表現作成部は前記調整部が調整した前記人物の大きさを用いて前記人物の分布表現を作成することを特徴とする請求項9に記載の画像処理システム。
The information processing device has an adjusting unit that adjusts the size of the person detected by the person detecting unit.
The image processing system according to claim 9, wherein the distribution expression creating unit creates a distribution expression of the person using the size of the person adjusted by the adjusting unit.
前記プログラムは前記端末装置を更に、
分布表現の大きさに関する情報の選択を受け付ける画面を表示する表示制御部と、
前記分布表現の大きさに関する情報の選択を受け付ける受付部と、
前記受付部が受け付けた前記分布表現の大きさに関する情報を前記情報処理装置に送信する第二の通信部、として機能させ、
前記情報処理装置は、
前記端末装置から送信された前記分布表現の大きさに関する情報を保存し、
前記調整部は、前記分布表現の大きさに関する情報を用いて前記人物の大きさを調整することを特徴とする請求項10に記載の画像処理システム。
The program further adds to the terminal device.
A display control unit that displays a screen that accepts the selection of information regarding the size of the distribution expression,
A reception unit that accepts selection of information regarding the size of the distribution expression,
It functions as a second communication unit that transmits information regarding the size of the distribution expression received by the reception unit to the information processing device.
The information processing device
Information on the size of the distribution representation transmitted from the terminal device is stored and
The image processing system according to claim 10, wherein the adjusting unit adjusts the size of the person by using information on the size of the distribution expression.
前記表示制御部は、人物を囲む枠及び前記分布表現の大きさに関する情報をユーザが変更するスライダーを前記画面に表示し、
前記受付部は前記スライダーの移動を受け付け、前記表示制御部は前記スライダーの移動に応じて前記枠の幅を変更することを特徴とする請求項11に記載の画像処理システム。
The display control unit displays a frame surrounding a person and a slider on which the user changes information regarding the size of the distribution expression on the screen.
The image processing system according to claim 11, wherein the reception unit accepts the movement of the slider, and the display control unit changes the width of the frame according to the movement of the slider.
前記情報処理装置は、
ユーザに応じて予め決まっている前記分布表現の大きさに関する情報のリストを保持しており、
前記リストを前記端末装置に送信し、
前記表示制御部は前記リストの中から前記分布表現の大きさに関する情報を表示し、
前記受付部は前記分布表現の大きさに関する情報の選択を受け付けることを特徴とする請求項11に記載の画像処理システム。
The information processing device
It holds a list of information regarding the size of the distribution expression that is predetermined according to the user.
The list is transmitted to the terminal device, and the list is transmitted to the terminal device.
The display control unit displays information on the size of the distribution expression from the list, and displays the information.
The image processing system according to claim 11, wherein the reception unit accepts selection of information regarding the size of the distribution expression.
前記表示制御部は、人物が占有している領域を分布表現で表すか、人がいない部分を分布表現で表すかの選択、
又は、分布表現の色に関する設定を受け付ける画面を表示し、
前記受付部は前記画面に対する操作を受け付け、
前記分布表現作成部は、前記受付部が受け付けた操作に応じて、前記人物の存在の分布表現を作成することを特徴とする請求項11〜13のいずれか1項に記載の画像処理システム。
The display control unit selects whether to express the area occupied by a person in a distribution expression or the part without a person in a distribution expression.
Alternatively, display a screen that accepts settings related to the color of the distribution expression, and display it.
The reception unit accepts operations on the screen,
The image processing system according to any one of claims 11 to 13, wherein the distribution expression creating unit creates a distribution expression of the existence of the person in response to an operation received by the reception unit.
情報処理装置を
撮像装置が撮像した画像データから人物を検知する人物検知部と、
前記人物検知部が検知した前記人物の大きさを用いて前記人物の分布表現を作成する分布表現作成部、
として機能させるためのプログラム。
The information processing device has a person detection unit that detects a person from the image data captured by the image pickup device, and
A distribution expression creation unit that creates a distribution expression of the person using the size of the person detected by the person detection unit,
A program to function as.
JP2020020097A 2020-02-07 2020-02-07 Information processing apparatus, image processing system, and program Pending JP2021125145A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020020097A JP2021125145A (en) 2020-02-07 2020-02-07 Information processing apparatus, image processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020020097A JP2021125145A (en) 2020-02-07 2020-02-07 Information processing apparatus, image processing system, and program

Publications (1)

Publication Number Publication Date
JP2021125145A true JP2021125145A (en) 2021-08-30

Family

ID=77459272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020020097A Pending JP2021125145A (en) 2020-02-07 2020-02-07 Information processing apparatus, image processing system, and program

Country Status (1)

Country Link
JP (1) JP2021125145A (en)

Similar Documents

Publication Publication Date Title
US10827133B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US11509825B2 (en) Image management system, image management method, and computer program product
US11134193B2 (en) Information processing system, information processing method, and non-transitory computer-readable storage medium
US10326934B2 (en) Service system, information processing apparatus, and service providing method
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
JP2014112302A (en) Prescribed area management system, communication method, and program
JP6517293B2 (en) Location based spatial object remote management method and location based spatial object remote management system
JP6686547B2 (en) Image processing system, program, image processing method
EP3070681A1 (en) Display control device, display control method and program
EP3962090A1 (en) Communication terminal, image communication system, method for displaying image, and carrier means
US11736802B2 (en) Communication management apparatus, image communication system, communication management method, and recording medium
JP2020119156A (en) Avatar creating system, avatar creating device, server device, avatar creating method and program
JP6852293B2 (en) Image processing system, information processing device, information terminal, program
JP2017182681A (en) Image processing system, information processing device, and program
JP6617547B2 (en) Image management system, image management method, and program
JP7516926B2 (en) Information processing device, image generating method, and program
CN104881423B (en) Information provider unit and information providing method
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2019057849A (en) Program, information processing apparatus, and image processing system
JP2021125145A (en) Information processing apparatus, image processing system, and program
JP2012208558A (en) Display control apparatus, terminal device, communication system, and program