JP6686547B2 - Image processing system, program, image processing method - Google Patents
Image processing system, program, image processing method Download PDFInfo
- Publication number
- JP6686547B2 JP6686547B2 JP2016043293A JP2016043293A JP6686547B2 JP 6686547 B2 JP6686547 B2 JP 6686547B2 JP 2016043293 A JP2016043293 A JP 2016043293A JP 2016043293 A JP2016043293 A JP 2016043293A JP 6686547 B2 JP6686547 B2 JP 6686547B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- coordinates
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 94
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims description 47
- 238000004458 analytical method Methods 0.000 claims description 45
- 238000006243 chemical reaction Methods 0.000 claims description 24
- 230000010365 information processing Effects 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 9
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000007726 management method Methods 0.000 description 113
- 238000004891 communication Methods 0.000 description 78
- 238000003384 imaging method Methods 0.000 description 57
- 238000003860 storage Methods 0.000 description 38
- 238000000034 method Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 24
- 238000007689 inspection Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 10
- 238000009877 rendering Methods 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Description
本発明は、画像処理システム、プログラム及び画像処理方法に関する。 The present invention relates to an image processing system, a program, and an image processing method.
来客者の行動を小売店の店長等が分析して店舗運営や商品企画等に反映させることが従来から行われている。解析には例えば店舗内に設置されたカメラの映像が利用され、店長などは店舗内の映像を見て来客者がどのように移動するか、どの場所に滞留するかなどを把握する。これにより、来客者の動線や興味を引きやすい商品や展示方法が分かるため店舗運営や商品企画等に反映させることができる。 It has been conventionally practiced that the manager of a retail store analyzes the behavior of the visitor and reflects it on the store operation and product planning. For example, an image of a camera installed in the store is used for the analysis, and the store manager or the like looks at the image in the store to understand how the visitor moves, where to stay, and the like. As a result, it is possible to understand the flow line of the visitor, the product that is easily attracted to the visitor, and the display method.
単に店内の各場所の映像を提供するだけでなく、カメラと画像処理技術を組み合わせることで映像を加工して店長等が分析しやすい情報を出力する監視システムが考案されている(例えば、特許文献1参照。)。特許文献1には、店舗エリア内を細分化して複数のサブエリアを形成し、動線データベース内の各動線データから指定されたサブエリアを通過した人物の動線データを抽出する人物行動分析装置が開示されている。
A monitoring system has been devised that not only provides images of each location in the store but also processes images by combining a camera and image processing technology and outputs information that a store manager or the like can easily analyze. See 1.). In
このように映像から人を検知すれば、人の検知結果をヒートマップ(対象をマスに区切り、各マスの注目度に応じてマスの表示色を変更する分析方法)などの分布表現に変換して元の映像に付加するといった活用も可能になる。 If a person is detected from the image in this way, the detection result of the person is converted into a distribution expression such as a heat map (an analysis method that divides the target into squares and changes the display color of the square according to the degree of attention of each square). It is also possible to use it by adding it to the original video.
ところで、監視カメラに広角な画角の広角カメラを採用することで一台のカメラで広い場所をカバーできるため、コスト増を抑制できる。このため、監視カメラとして広角カメラが採用される場合が増えてきている。 By adopting a wide-angle camera with a wide angle of view as the surveillance camera, a single camera can cover a wide area, and thus an increase in cost can be suppressed. Therefore, a wide-angle camera is increasingly used as a surveillance camera.
しかしながら、画角が広い広角画像で例えばヒートマップ等の分布表現を行っても所望の情報が得られない場合がある。例えば、天井には人が存在しないが広角画像に天井が映っている場合、天井を含めてヒートマップが作成されてしまう。この場合、天井に比べて通路の方が遙かに人が検知されやすいため(例えば通路だけが真っ赤になる)、ヒートマップにより天井に人がいないことは分かっても、通路のどこにどのくらいの人がいるかという本来知りたい情報が得られない。 However, there are cases where desired information cannot be obtained even if a distribution expression such as a heat map is performed on a wide-angle image having a wide angle of view. For example, when there are no people on the ceiling but the ceiling is reflected in the wide-angle image, a heat map including the ceiling is created. In this case, people are much more likely to be detected in the aisle than in the ceiling (for example, only the aisle becomes bright red), so even if the heat map shows that there are no people on the ceiling, how many people are in the aisle I can't get the information I really want to know about
そこで、広角画像に店長等がエリアを設定してこのエリア内の人などを検知することが考えられる。しかし、広角画像は立体的に歪曲しており、店長等がこの広角画像を見て分析するのに対し、人の検知などの画像解析は広角画像が平面画像に変換された状態で行われるため、人の検知結果を設定されたエリアに適用することが困難であるという問題があった。 Therefore, it is conceivable that the store manager or the like sets an area in the wide-angle image and detects a person or the like in this area. However, the wide-angle image is distorted three-dimensionally, and while store managers etc. look at this wide-angle image and analyze it, image analysis such as human detection is performed while the wide-angle image is converted into a flat image. However, there is a problem that it is difficult to apply the human detection result to the set area.
本発明は、上記課題に鑑み、広角画像に対し付加的な情報を付加できる画像処理システムを提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide an image processing system that can add additional information to a wide-angle image.
本発明は、1つ以上の情報処理装置を含む画像処理システムであって、所定よりも画角が広い広角画像を表示装置に表示する表示手段と、前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段と、前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段と、前記平面画像の解析結果が有する座標と前記座標変換手段により変換された領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段と、を有する。 The present invention is an image processing system including one or more information processing devices, the display device displaying a wide-angle image having a wider angle of view than a predetermined value on a display device, and the wide-angle image displayed on the display device. Receiving means for accepting designation of a region, coordinate transforming means for transforming coordinates of the region in the display device into coordinates of a plane image when the wide-angle image is analyzed, coordinates included in an analysis result of the plane image, and Analysis means for creating information on the area based on the result of comparing the coordinates of the area converted by the coordinate conversion means .
広角画像に対し付加的な情報を付加できる画像処理システムを提供することができる。 An image processing system that can add additional information to a wide-angle image can be provided.
以下、本発明を実施するための形態について図面を参照しながら説明する。
図1は、本実施形態の画像処理システムによる処理の概略を説明する図の一例である。画像処理システムは周囲の360°の画角を撮像可能な撮像装置を有している。この撮像装置が撮像した画像を全天球画像と称することにする。
Hereinafter, modes for carrying out the present invention will be described with reference to the drawings.
FIG. 1 is an example of a diagram for explaining an outline of processing by the image processing system of the present embodiment. The image processing system has an image pickup device capable of picking up an image of a 360 ° field of view. An image captured by this image capturing device will be referred to as a spherical image.
(1)図1(a)に示すように閲覧者は情報端末7を操作して全天球画像10を回転、拡大、縮小などして全天球画像10の所望の表示範囲640を閲覧できる。全天球画像10は球体なのでこの表示範囲640は厳密には三次元に湾曲しているが、表示範囲640は全天球画像10のごく一部なのでほとんど気にならない。閲覧者は全天球画像10を平面画像に変換していない状態で、全天球画像10から任意のエリア602を指定する。このエリア602の例えば対角頂点は画面上の座標(以下、スクリーン座標という)で特定される。
(1) As shown in FIG. 1A, a viewer can operate the
(2)図1(b)に示すように、情報端末7は、エリア602を示すスクリーン座標をワールド座標系(三次元座標)に変換する。これは、画面は二次元であるが閲覧者Yが指し示すエリア602は曲面に映っているため、この曲面におけるエリア602の位置を精度よく特定するためである。
(2) As shown in FIG. 1B, the
(3)図1(c)に示すように、情報端末7はエリア602の三次元座標を二次元座標に変換する。この二次元座標は、平面画像に全天球画像が変換される前の座標系における座標である。したがって、平面画像11におけるエリア602の位置が特定される。
(3) As shown in FIG. 1C, the
平面画像11は人検知の解析の際に使用される画像であり、人が検知された人検知エリア(対象領域)も平面画像11の二次元座標で特定されている。したがって、人検知エリアと閲覧者が設定したエリア602を同じ座標系で扱うことが可能になり、人検知エリアと設定されたエリアの相対位置によってエリアに人が存在したか否かが判断される。
The
また、再度、情報端末7がエリア602を表示する際は、エリア602の座標が全天球画像10と同じ三次元座標に変換されるので、閲覧者Yが設定したエリア602が設定時と同じように表示される。
Further, when the
このように本実施形態の画像処理システムは、全天球画像10を撮像する撮像装置を使用することでコスト増を抑制できる。また、全天球画像10のように広い画像データに閲覧者が任意にエリア602を設定するので天井などを検知対象から除外できる。全天球画像10のように歪曲した画像データにエリア602が設定されても、人検知などの解析(画像処理)が行われる平面画像11の座標系にエリア602の座標が変換されるので、人検知等の解析結果を設定されたエリア602に適用しやすくなる。
As described above, the image processing system according to the present embodiment can suppress the cost increase by using the imaging device that captures the
<用語について>
所定よりも画角が広い広角画像とは、少なくとも通常の撮像装置(例えば35mmフィルムのカメラ)の画角よりも広い画角の画像をいう。あるいは、魚眼レンズで撮像されている画像のように湾曲した画像をいう。好ましくは水平方向に360°上下方向に180°の画角を有するが必ずしも水平方向に360°上下方向に180°の画角を有さなくてもよい。本実施形態では一例として全天球画像を用いて説明する。
<About terms>
The wide-angle image having a wider angle of view than a predetermined angle means an image having a wider angle of view than at least the angle of view of a normal image pickup device (for example, a camera of 35 mm film). Alternatively, it refers to an image that is curved like an image captured by a fisheye lens. Preferably, the angle of view is 360 ° in the horizontal direction and 180 ° in the vertical direction, but the angle of view is not necessarily 360 ° in the horizontal direction and 180 ° in the vertical direction. In the present embodiment, a spherical image will be used as an example for description.
なお、撮像装置1は当初、平面画像を出力するが、閲覧時には全天球に平面画像が貼り付けられ全天球画像10が作成されている。本実施形態ではエリアの指定後エリアが平面画像の座標に変換される。
Note that the
領域とは広角画像内の一部をいう。エリア、区域又は範囲と称されてもよい。領域はどのような形状でもよい。本実施形態ではエリアという用語で説明する。 The area is a part of the wide-angle image. It may also be referred to as an area, zone or range. The region may have any shape. In this embodiment, the term “area” will be used.
広角画像が解析されるとは、広角画像に対し何らかの画像解析が行われることをいう。画像解析とは対象の検知や認識である。また、対象とは全天球画像に撮像されている被写体である。閲覧者が中止する被写体が対象となりうる。また、対象とは全天球画像に映っていたりいなかったりする場合があるため移動可能であるか又は可搬性があるものである。また、対象とはドアのように形状が変化したり、ランプのように点灯又は消灯してその状態が変化するものである。本実施形態では一例として対象が人(歩行者)であるとして説明する。 The analysis of the wide-angle image means that some image analysis is performed on the wide-angle image. Image analysis is the detection and recognition of objects. Further, the target is a subject imaged in the spherical image. The subject that the viewer cancels may be the target. Further, the target is movable or portable because it may or may not be reflected in the spherical image. In addition, the object is something whose shape changes like a door, and whose state changes by turning on or off like a lamp. In the present embodiment, as an example, the target will be described as a person (pedestrian).
領域(エリア)に関する情報とは、広角画像の解析結果に基づいて作成される領域(エリア)の情報をいう。広角画像の解析結果が対象の検知結果である場合、領域(エリア)に関する情報は対象の有無に関する情報である。また、広角画像の解析結果が対象の動作内容である場合、領域(エリア)に関する情報は対象がどのような動作をしているかに関する情報である。広角画像の解析結果が対象の状態である場合、領域(エリア)に関する情報は対象の状態に関する情報である。また、領域(エリア)に関する情報は広角画像の解析結果が加工されたものでもよい。例えば、一定期間の広角画像の解析結果がある場合、領域(エリア)に関する情報は対象が検知された回数、頻度、状態が変化した回数や頻度などが加工された情報となる。 The information on the area (area) means information on the area (area) created based on the analysis result of the wide-angle image. When the analysis result of the wide-angle image is the detection result of the target, the information on the area (area) is the information on the presence or absence of the target. Further, when the analysis result of the wide-angle image is the operation content of the target, the information about the area is information about how the target is performing. When the analysis result of the wide-angle image is the target state, the information about the area is the information about the target state. Further, the information regarding the area may be information obtained by processing the analysis result of the wide-angle image. For example, when there is a wide-angle image analysis result for a certain period of time, the information regarding the area is information obtained by processing the number of times the target is detected, the frequency, the number of times the state has changed, and the like.
<画像処理システムのシステム構成>
図2は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、情報端末7を有している。撮像装置1は設置者Xにより店舗内に設置されている。情報端末7は閲覧者Yにより操作される。
<System configuration of image processing system>
FIG. 2 is an example of a schematic configuration diagram of the
通信ネットワーク9は、店舗内や閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。通信端末3や情報端末7がLANを介さずに直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。また、通信ネットワークにはWANやインターネットが含まれる。通信ネットワークは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。
The
撮像装置1は、上記のように1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。
The
なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。
Note that the
通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。
The
なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。
If the
画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び情報端末7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことでメルカトル画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。
The
なお、画像管理装置5にはクラウドコンピューティングが適用されていることが好ましい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。
Note that it is preferable that cloud computing is applied to the
情報端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。情報端末7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。
The
撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。情報端末7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、情報端末7は本社以外の場所からも画像管理装置5と通信可能である。
The
<実施形態のハードウェア構成>
次に、図3〜図5を用いて、本実施形態の撮像装置1、通信端末3,情報端末7及び画像管理装置5のハードウェア構成を説明する。
<Hardware configuration of the embodiment>
Next, the hardware configurations of the
<<撮像装置>>
図3は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上でもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
<< Imaging device >>
FIG. 3 is an example of a hardware configuration diagram of the
図3に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
As shown in FIG. 3, the
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
Of these, the
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
The
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、いわゆるメルカトル画像のデータを作成する。
The
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
The image capturing
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
Further, the
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。
The image
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
The
CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
The
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。
The
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
The network I /
通信部117は、撮像装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
The
電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
The
<<通信端末>>
次に、図4を用いて、通信端末3のハードウェア構成を説明する。なお、図4は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
<< communication terminal >>
Next, the hardware configuration of the
図4に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi-fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。
As shown in FIG. 4, the
また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
Further, a
なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。
The
通信部305は、アンテナ305aを利用して無線通信の信号により、無線ルータ9a等と通信を行う。
The
図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。
In addition to the drawing, a GPS (Global Positioning Systems) satellite or a GPS receiving unit for receiving a GPS signal including position information (latitude, longitude, and altitude) of the
<<画像管理装置、情報端末>>
図5を用いて、画像管理装置5及びノートPCの場合の情報端末7のハードウェア構成を説明する。なお、図5は、画像管理装置5及び情報端末7のハードウェア構成図である。画像管理装置5及び情報端末7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。情報端末7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
<< Image management device, information terminal >>
The hardware configuration of the
画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
The
<画像処理システムの機能について>
図6は、画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。
<Functions of image processing system>
FIG. 6 is a functional block diagram of the
<<撮像装置1の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of the
The
また、撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置用のプログラム及び端末IDが記憶されている。
The
撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。
The accepting
撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。
The
集音部14は、主に、図3に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。
The
接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。
The
記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。
The storage /
<<通信端末3の機能構成>>
通信端末3は、送受信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図4に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of
The
また、通信端末3は、図4に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末用のプログラムが記憶されている。
Further, the
(通信端末3の各機能構成)
通信端末3の送受信部31は、主に、図4に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「送受信部31を介して」という記載を省略する場合がある。
(Each functional configuration of the communication terminal 3)
The transmission /
受付部32は、主に図4に示されているCPU301の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。
The
接続部33は、主に、図4に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。
The
記憶・読出部39は、主に、図4に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。
The storage /
<<画像管理装置の機能構成>>
画像管理装置5は、送受信部51、人物検知部52、サムネイル作成部53、画面作成部54、エリア登録部55、エリア検査部56、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置用の装置プログラム5010に従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of image management device >>
The
また、画像管理装置5は、図5に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、撮像管理DB5002、画像管理DB5003、サムネイル管理DB5004、エリア情報管理DB5005、及び、解析情報管理DB5006が構築されている。以下、各データベースについて説明する。
Further, the
地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。 The area name indicates an area or range of land such as Kanto, Tokyo, Shibuya Ward, New York State, and New York City. It may be called the area name. The identification information refers to a name, a code, a character string, a numerical value, or a combination of two or more of these, which is used to uniquely distinguish a specific target from a plurality of targets. The same applies to the following IDs or identification information.
拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。
The base ID is an example of identification information for identifying the base. The base ID is assigned to the base name so as not to overlap. It may be referred to as site-specific information. An example of the base ID is a combination of a unique number and an alphabet. The base refers to a place where the
拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。
The base name is a name of a base such as a store name such as a Shibuya store or a venue name such as a Shibuya venue. File names such as image data showing the layout and map of each site are registered in the site layout map. The location of the
端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置(端末ID)が設置されており、それらの位置がレイアウトマップなどで管理されている。拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。
The terminal ID is identification information for identifying the
例えば、画像ファイルの閲覧の際、閲覧者Yは情報端末7で画像管理装置5にアクセスし、表2の撮像管理テーブルから撮像タイトルを選ぶ。画像管理装置5はこの撮像タイトルの拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。
For example, when browsing an image file, the viewer Y accesses the
当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。
Of course, the viewer Y can directly specify the terminal ID and the site ID. In the present embodiment, for simplicity, a mode in which the viewer Y specifies a terminal ID and browses will be mainly described. The image management table is mainly registered by the
サムネイル管理テーブルでは、画像IDごとに、サムネイルID、サムネイル画像のファイル名、及び所定領域情報が関連付けて記憶されている。サムネイルIDは、画像IDで示される画像データに基づいて作成されたサムネイル画像を一意に識別するための識別情報の一例である。サムネイル固有情報と称してもよい。サムネイル画像のファイル名は、サムネイルIDで示されるサムネイル画像のファイル名である。サムネイル画像のファイル名は画像管理装置5が付与する。所定領域情報は、画像IDで示される画像データにおいて、サムネイル画像が作成された所定領域を示す。サムネイル管理テーブルは、主に画像管理装置5が登録する。
In the thumbnail management table, thumbnail IDs, file names of thumbnail images, and predetermined area information are stored in association with each other for each image ID. The thumbnail ID is an example of identification information for uniquely identifying the thumbnail image created based on the image data indicated by the image ID. It may be referred to as thumbnail specific information. The file name of the thumbnail image is the file name of the thumbnail image indicated by the thumbnail ID. The
各エリアの座標は重なり合っていてもよい。二つのエリア(area_A, area_B)を包含関係にある(area_A⊃area_B)ように登録することができる。これにより、area_A内で更に特定のエリア(area_B)の人の有無などを閲覧者Yが分析したい場合、包含関係にあるエリアを登録することで、area_A内で検知された人数に対して更にarea_Bで検知された人数を把握することができる。また、area_A に対し複数のarea_Bを閲覧者Yが登録することで、人がいない天井等を除外してヒートマップを作成できる。このように、画像全体に対して分析する母数を限定することができ、不要な情報を排除した分析を行うことができる。 The coordinates of each area may overlap. Two areas (area_A, area_B) can be registered so as to have an inclusive relationship (area_A⊃area_B). As a result, when the viewer Y wants to analyze the presence / absence of a person in a specific area (area_B) in the area_A, by registering an area having an inclusive relationship, the area_B can be further added to the number of people detected in the area_A. The number of people detected in can be grasped. Further, the viewer Y registers a plurality of area_B with respect to area_A, so that a heat map can be created by excluding a ceiling or the like where there are no people. In this way, it is possible to limit the parameter to be analyzed for the entire image, and it is possible to perform analysis by removing unnecessary information.
(画像管理装置の各機能構成)
画像管理装置5の送受信部51は、主に、図5に示されているネットワークI/F509及びCPU501の処理等によって実現され、通信ネットワーク9を介して通信端末3、又は情報端末7と各種データの送受信を行う。なお、以下では、画像管理装置5が情報端末7と通信する場合でも、「送受信部51を介して」という記載を省略する場合がある。
(Functional configuration of image management device)
The transmission /
人物検知部52は、主に、図5に示されているCPU501の処理等によって実現され、画像データから人物を検知する。この人物の検知は適切な特徴量の設定と、学習識別装置の設定により行われる。例えば、特徴量としては、Haar-like特徴、LBP(Local Binary Patterns)特徴、HOG(Histogram of Oriented Gradients)特徴などが知られている。また、学習識別装置としては、SVM(Support Vector Machines)、AdaBoostを用いたカスケード分類などが知られている。ただし、これらに限られるものではなく人を検知できればよい。
The
サムネイル作成部53は、主に、図5に示されているCPU501の処理等によって実現され、所定領域画像のサムネイル画像を作成する。
The
画面作成部54は、図5に示されているCPU501の処理によって実現され、画像データを情報端末7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで情報端末7が画像データを表示するための画面情報を作成する。エリアを特定する情報は平面画像の座標系で記述されているので、エリアを表示するための画面データを送信する際、画面作成部54はエリアの座標をワールド座標系の座標に変換する処理を行う。
The
エリア登録部55は、図5に示されているCPU501の処理等によって実現され、情報端末7からエリア情報テーブルに登録する情報を取得してエリア情報管理DB5005に登録する。
The
エリア検査部56は、図5に示されているCPU501の処理等によって実現され、解析情報を用いてエリアを検査し、エリアに関する情報を作成する。
The
記憶・読出部59は、主に、図5に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。
The storage /
<情報端末7の機能構成>
情報端末7は、送受信部71、受付部72、表示制御部73、エリア座標算出部74、及び、記憶・読出部79を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された情報端末7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of
The
また、情報端末7は、図5に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には情報端末7用の端末プログラム7010が記憶されている。情報端末7用の端末プログラム7010は、例えばブラウザソフトウェアであるが、ブラウザソフトウェアのような通信機能を備えたアプリケーションソフトウェアでもよい。また、ブラウザソフトウェアは画面データを実行して画面を表示したり、操作を受け付けたりするため、端末プログラム7010には画像管理装置5が送信する画面データ(HTML、JavaScript(登録商標)等)が含まれる。
Further, the
(情報端末7の各機能構成)
情報端末7の送受信部71は、主に、図5に示されているネットワークI/F509及びCPU501の処理等によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、情報端末7が画像管理装置5と通信する場合でも、「送受信部71を介して」という記載を省略する場合がある。
(Each functional configuration of the information terminal 7)
The transmission /
受付部72は、主に、図5に示されているキーボード511及びマウス512、並びにCPU501の処理等によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。
The
表示制御部73は、主に、図5に示されているCPU501の処理等によって実現され、画像管理装置5から送信された画面情報を解釈して情報端末7のディスプレイ508に各種画面を表示させるための制御を行なう。
The
エリア座標算出部74は、受付部72が受け付けたエリアを指定する画面上の座標を、平面画像の座標に変換する。すなわち、ワールド座標系への変換、平面画像の二次元座標への変換を行う。
The area coordinate
記憶・読出部79は、主に、図5に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、情報端末7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。
The storage /
<エリアの登録>
図7を用いてエリアの登録について説明する。図7は、閲覧者Yがエリアを登録するために操作するポインティングデバイスの軌跡を説明する図の一例である。閲覧者Yは情報端末7のキーボード511やマウス512又はタッチパネルなどのポインティングデバイスを操作してある点からある点までドラッグする。情報端末7の受付部72はこの操作を受け付けて、図7(a)に示すような矢印で表される軌跡を取得する。図7で示される座標はディスプレイ508に全天球画像のまま表示された場合の画面におけるスクリーン座標である。
<Registration of area>
Area registration will be described with reference to FIG. 7. FIG. 7 is an example of a diagram for explaining the trajectory of the pointing device operated by the viewer Y to register the area. The viewer Y operates the
エリアを登録するための操作の一例は、ポインティングデバイスを用いて任意の箇所をドラッグする操作である。ディスプレイ508がタッチパネルを有する場合、タッチドラッグや、ピンチ操作で登録を受け付けてもよい。これらの場合、受付部72は、該操作の際にドラッグの開始点651と終了点652の座標を取得する。図7(a)では開始点651がエリア602の左上頂点(upperLeft)、終了点652がエリア602の右下頂点(lowerRight)であるが、ドラッグの方向により開始点651と終了点652がエリア602のどの頂点となるかは異なる。
An example of an operation for registering an area is an operation of dragging an arbitrary place using a pointing device. When the
また、図7(b)に示すように右下から左上に閲覧者Yがドラッグした場合、開始点よりも終了点の方が、座標が小さくなる。この場合、エリア座標算出部74は開始点651を基準にして終了点652に至までの軌跡の座標からドラッグ方向を判断する。軌跡によりドラッグ方向が左上であると判断すると、開始点651に対し負値の幅と負値の高さを検出する。
Further, when the viewer Y drags from the lower right to the upper left as shown in FIG. 7B, the coordinates are smaller at the end point than at the start point. In this case, the area coordinate
また、図7(c)に示すようにドラッグ方向が左下であると判断すると、開始点651に対し負値の幅と正値の高さを検出する。また、図7(d)に示すようにドラッグ方向が右上であると判断すると、開始点651に対し正値の幅と負値の高さを検出する。
When it is determined that the dragging direction is the lower left as shown in FIG. 7C, the width of the negative value and the height of the positive value with respect to the
受付部72は閲覧者Yのドラッグ方向を検出して原点(開始点の場合、終了点の場合、それ以外の場合がある)、幅(lrx1-ulx1)or(urx1-llx1)及び高さ(lry1-uly1)(lly1-ury1)、を算出する。原点はエリアの左上頂点であるものとする。例えば、図7(b)の開始点651に負値の幅と負値の高さを加えると、原点(左上頂点)の座標が得られる。図7(c)(d)についても同様である。
The
対角頂点の2点の座標でなく原点に対し幅と高さが記録されることで、全天球画像においても適切にエリアを指定できる。すなわち、全天球画像は境目がないので2点によるエリアの指定では二通りの領域指定(左上頂点からエリア内を通って右下頂点に至る領域、右下頂点からエリア外を通って左上頂点に至る領域)が可能なためである。このように、全天球画像に特有の処理として、受付部72はドラッグ方向が様々であってもそれを吸収してエリアの特定する情報を適切に算出することができる。
By recording the width and height with respect to the origin instead of the coordinates of the two points of the diagonal vertices, the area can be appropriately designated even in the omnidirectional image. That is, since the spherical image has no boundaries, there are two types of area designation in the area designation by two points (the area from the upper left apex to the lower right apex through the area, the lower right apex to outside the area to the upper left apex). This is because the area leading to In this way, as processing unique to the omnidirectional image, the
なお、エリアの形状は矩形でなくてもよく、ポインティングデバイスの任意の軌跡が囲む領域でエリアを特定してもよい。この場合、エリアは時系列の座標で特定される。また、閲覧者Yが任意の2点をポインティングデバイスで指し示した場合の座標からエリアを特定してもよい。この場合、閲覧者Yは左上の頂点の次に右下の頂点を指し示すなどの規則に従うことが好ましい。 Note that the shape of the area does not have to be rectangular, and the area may be specified by a region surrounded by an arbitrary locus of the pointing device. In this case, the area is specified by time series coordinates. Also, the area may be specified from the coordinates when the viewer Y points any two points with the pointing device. In this case, it is preferable that the viewer Y follows a rule such as pointing to the lower right vertex after the upper left vertex.
<座標変換について>
図8は全天球画像が処理される各フェーズの画像の形態と座標の変換を説明する図の一例である。図8(a)は変換の手順を示す。
・スクリーン座標系からワールド座標系
この変換にはビュー変換と射影変換が使用される。一般にはワールド座標系からスクリーン座標系へ変換されるので、本実施形態ではビュー変換と射影変換のそれぞれ逆変換が適用される。ビュー変換は仮想的なカメラの座標を回転、平行移動させる変換であり、三次元のオブジェクトをカメラの向きに応じた画像に変換する処理に相当する。ビュー変換の変換行列Mvは以下のようになる。
<About coordinate conversion>
FIG. 8 is an example of a diagram for explaining the conversion of image form and coordinates in each phase in which a spherical image is processed. FIG. 8A shows a conversion procedure.
-Screen coordinate system to world coordinate system This transformation uses view transformation and projective transformation. In general, since the world coordinate system is converted to the screen coordinate system, the view transform and the inverse transform of the projective transform are applied in this embodiment. The view conversion is a conversion for rotating or translating the coordinates of the virtual camera, and corresponds to a process for converting a three-dimensional object into an image corresponding to the orientation of the camera. The transformation matrix Mv for view transformation is as follows.
次に、射影変換は、三次元のオブジェクトをカメラから所定距離の画面に射影した場合の二次元座標に変換する。図8(b)は射影変換を説明する図である。カメラからスクリーンm2までの距離をN,オブジェクトが存在しうる範囲を面m1までの距離Fとする。θは情報端末7の画面の幅方向の画角である。これらから射影変換行列Mpは以下のようになる。なお、距離N、Fは予め定められた値が設定される。
Next, in the projective transformation, a three-dimensional object is transformed into two-dimensional coordinates when it is projected on a screen at a predetermined distance from the camera. FIG. 8B is a diagram illustrating the projective transformation. The distance from the camera to the screen m2 is N, and the range in which an object can exist is the distance F to the surface m1. θ is an angle of view in the width direction of the screen of the
zc={(N+F)Z−2NF}/(N−F)
z c = {(N + F) Z-2NF} / (NF)
この変換はワールド座標系の全天球画像を正規化することで行われる。正規化とは座標の範囲が(0, 0) から (1, 1)に含まれるようにすることをいう。uv座標系の座標を(u, v)とする。また、仮想的なカメラからの距離r、距離rに対するxw、yw、zwの比をdx、dy、dzとする。
r = sqrt(x ^2, + y^2 + z^2)
dx = x/r
dy = y/r
dz = z/r
以上からu座標は以下のようになる。
u = 1/2 + arctan(dz/dx) / 2*PI + 1/4
但し、u ≧ 1のとき u=u-1とする。
r = sqrt (x ^ 2, + y ^ 2 + z ^ 2)
dx = x / r
dy = y / r
dz = z / r
From the above, the u coordinate is as follows.
u = 1/2 + arctan (dz / dx) / 2 * PI + 1/4
However, when u ≧ 1, u = u−1.
また、v座標は以下のようになる。
v = 1/2 - arcsin(dy) / PI
・uv座標系から平面画像の座標系
正規化されたuv座標と、平面画像の解像度の積を算出する。
平面画像のx方向の解像度をresolutionWidth、y方向の解像度をresolutionHeightとする。
平面画像の座標 (x, y) = (u * resolutionWidth, v * resolutionHeight)
以上により、情報端末7で指定されたエリアのディスプレイ508のスクリーン座標を平面画像の座標に変換できる。
Further, the v coordinate is as follows.
v = 1/2-arcsin (dy) / PI
Calculate the product of the coordinate system normalized uv coordinates of the plane image from the uv coordinate system and the resolution of the plane image.
The resolution of the plane image in the x direction is resolutionWidth, and the resolution in the y direction is resolutionHeight.
Planar image coordinates (x, y) = (u * resolutionWidth, v * resolutionHeight)
As described above, the screen coordinates of the
なお、平面画像をディスプレイ508に表示する際はこの逆の変換を行えばよい。
It should be noted that when the plane image is displayed on the
<エリアの登録>
続いて、図9〜13を用いて画像処理システム200の動作手順を説明する。
<Registration of area>
Subsequently, an operation procedure of the
図9は、閲覧者が指定したエリアを情報端末7が画像管理装置5に登録する手順を示すフローチャート図の一例である。図9の処理は、閲覧者Yがエリアの登録を開始する操作を行うとスタートする。また、図10を適宜参照して説明する。図10は右下頂点が平面画像の端部を跨ぐエリアを説明する図の一例である。
FIG. 9 is an example of a flowchart showing a procedure in which the
情報端末7には画像データがダウンロードされている。画像データは端末IDと関連付けられてるので情報端末7は端末IDを保持している。閲覧者Yはポインティングデバイスによるドラッグ操作を開始する。情報端末7の受付部72はドラッグ操作を受け付ける(S10)。受付部72は例えば、マウスのオンマウスダウンイベントやタッチパネルのタッチイベントを取得する。この時、ディスプレイ508の左上コーナーを原点とするスクリーン座標を取得できる。
Image data is downloaded to the
次に、エリア座標算出部74は開始点651の座標を記憶部7000などに記録する(S20)。
Next, the area coordinate
次に、エリア座標算出部74はドラッグ操作は継続しているか否かを判断する(S30)。受付部72が例えば、オンマウスアップイベントを検出すると、ステップS30の判断はNoになる。
Next, the area coordinate
ステップS30の判断がYesの間、エリア座標算出部74はドラッグが続く限りエリアの矩形を更新しながら、ポインティングデバイスの現在の座標を記録する(S40)。
While the determination in step S30 is Yes, the area coordinate
ステップS30の判断がNoの場合、エリア座標算出部74はドラッグ操作が終了した時点での現在の座標が、終了点652の座標であると判断する(S50)。なお、図7で説明したように常にポインティングデバイスの座標が検知されるのでドラッグ方向が判断され、ドラッグ方向に依存しないエリアの座標(左上頂点と右下頂点)が得られている。
If the determination in step S30 is No, the area coordinate
次に、エリア座標算出部74は、左上頂点の座標と右下頂点の座標を座標変換する。上記のように、スクリーン座標系→ワールド座標系→uv座標系→平面画像の座標系に変換する(S60)。
Next, the area coordinate
変換処理により最終的に得られる座標は全天球画像が二次元で表現された平面座標のものなので、左上頂点と右下頂点が平面画像の端部を跨ぐ場合がある。この場合、端部を跨ぐことを考慮してエリアの幅と高さを算出しないと、幅や高さが負値になりエリアを正しく特定できない。 Since the coordinates finally obtained by the conversion process are the plane coordinates in which the spherical image is two-dimensionally expressed, the upper left vertex and the lower right vertex may straddle the end of the planar image. In this case, unless the width and height of the area are calculated in consideration of straddling the end portion, the width and height have negative values, and the area cannot be correctly specified.
図10には、平面画像において端部を跨ぐ左上頂点と右下頂点が示されている。図10に示すように、平面画像におけるエリアの配置には4つのパターンがあり得る。パターン1は、右下頂点がx方向の端部とy方向の端部を跨がない場合である。パターン1の場合、エリアは分割されない。端部を跨ぐとは、平面画像のx方向の解像度又はy方向の解像度を右下頂点が超えてしまうことをいう。あるいは、右下頂点の座標が左上頂点の座標よりも小さいことをいう。
In FIG. 10, an upper left apex and a lower right apex that straddle the end portion in the planar image are shown. As shown in FIG. 10, there can be four patterns in the arrangement of the areas in the planar image.
パターン2は右下頂点がy方向の端部のみを跨ぐ場合である。この場合、エリアは上下に2つに分割される。パターン3は右下頂点がx方向の端部のみを跨ぐ場合である。この場合、エリアは左右に2つに分割される。パターン4は右下頂点がx方向とy方向の両方で端部を跨ぐ場合である。この場合、エリアは上下左右の4つに分割される。エリア座標算出部74はこのパターンを判断してエリアの幅と高さを適切に算出する。エリア1〜4はそれぞれパターン1〜4に適合するものとし、エリア1〜4の左上頂点と右下頂点の座標を以下に示す。
エリア1:左上頂点(ulx1,uly1)、右下頂点(lrx1,lry1)
エリア2:左上頂点(ulx2,uly2)、右下頂点(lrx2,lry2)
エリア3:左上頂点(ulx3,uly3)、右下頂点(lrx3,lry3)
エリア4:左上頂点(ulx4,uly4)、右下頂点(lrx4,lry4)
図10から明らかなように、各エリアの幅と高さは以下のように算出される。
エリア1:幅 =lrx1−ulx1
高さ=lry1−ulx1
エリア2:幅 =lrx2−ulx2
高さ=高さの解像度−uly2+lry2
エリア3:幅 =幅の解像度−ulx3+lrx3
高さ=lry3−ulx3
エリア4:幅 =幅の解像度−ulx4+lrx4
高さ=高さの解像度−uly4+lry4
図9に戻って説明する。
次に、右下頂点のx座標が左上頂点のx座標よりも大きいか否かを判断する(S70)。すなわち、パターン3か4であるかどうかを判断する。
Area 1: Upper left apex (ulx1, uly1), lower right apex (lrx1, lry1)
Area 2: Upper left vertex (ulx2, uly2), lower right vertex (lrx2, lry2)
Area 3: Upper left vertex (ulx3, uly3), lower right vertex (lrx3, lry3)
Area 4: Upper left vertex (ulx4, uly4), lower right vertex (lrx4, lry4)
As is clear from FIG. 10, the width and height of each area are calculated as follows.
Area 1: width = lrx1-ulx1
Height = lry1-ulx1
Area 2: Width = lrx2-ulx2
Height = resolution of height-uly2 + lry2
Area 3: width = width resolution-ulx3 + lrx3
Height = lry3-ulx3
Area 4: Width = Width resolution-ulx4 + lrx4
Height = resolution of height-uly4 + lry4
Returning to FIG. 9, description will be made.
Next, it is determined whether the x coordinate of the lower right vertex is larger than the x coordinate of the upper left vertex (S70). That is, it is determined whether the pattern is 3 or 4.
ステップS70の判断がYesの場合、パターン1又は2なのでエリア座標算出部74は、右下頂点のx座標から左上頂点のx座標の差分を算出する(S80)。つまり、右下頂点と左上頂点の差分をそのままエリアの幅とする。
If the determination in step S70 is Yes, since it is
ステップS70の判断がNoの場合、パターン3又は4なのでエリア座標算出部74は、幅の解像度を考慮して幅を算出する(S90)。具体的には上記のエリア3、4の幅の算出式で算出する。
If the determination in step S70 is No, the area coordinate
次に、右下頂点のy座標が左上頂点のy座標よりも大きいか否かを判断する(S100)。すなわち、パターン2か4であるかどうかを判断する。 Next, it is determined whether the y coordinate of the lower right vertex is larger than the y coordinate of the upper left vertex (S100). That is, it is determined whether the pattern is 2 or 4.
ステップS100の判断がYesの場合、パターン1又は3なのでエリア座標算出部74は、右下頂点のy座標から左上頂点のy座標の差分を算出する(S110)。つまり、右下頂点と左上頂点の差分をそのままエリアの高さとする。
If the determination in step S100 is Yes, since it is
ステップS100の判断がNoの場合、パターン2又は4なのでエリア座標算出部74は、高さの解像度を考慮して高さを算出する(S120)。具体的には上記のエリア2、4の高さの算出式で算出する。
If the determination in step S100 is No, since it is
このように、右下頂点が平面画像の端部を跨ぐか否かを判断して、跨ぐ場合には解像度を考慮して幅と高さを算出することで、エリアの左上頂点に対する幅と高さを正しく算出できる。全天球画像のままエリアを閲覧者Yが指定しても、平面画像において正しくエリアを特定できる。 In this way, it is determined whether the lower right vertex crosses the edge of the planar image, and when it crosses, the width and height are calculated in consideration of the resolution. Can be calculated correctly. Even if the viewer Y designates the area as the spherical image, the area can be correctly specified in the planar image.
幅と高さの算出が完了すると、エリア座標算出部74はエリアの任意の名称の入力を受け付ける(S130)。詳細は図14(b)にて説明される。
When the calculation of the width and the height is completed, the area coordinate
エリア座標算出部74は、端末ID、エリアの開始点、幅、高さ、及び、名称を画像管理装置5に送信する(S140)。以上が1つのエリアの登録であり、閲覧者Yはエリアごとに同様の処理を行う。
The area coordinate
<エリアの検査>
平面画像にエリアが設定されたので、解析情報を用いてエリアを検査することができる。解析情報の一例として人の検知結果を使用する。
<Area inspection>
Since the area is set in the plane image, the area can be inspected using the analysis information. A human detection result is used as an example of analysis information.
図11は、画像管理装置5のエリア検査部56がエリアを検査する手順を示すフローチャート図の一例である。なお、適宜図12を参照して説明する。図12はエリアと人検知エリアを説明する図の一例である。
FIG. 11 is an example of a flowchart showing a procedure for the
例えば、エリアごとに人の有無を検知できれば、ある期間に各エリアにどの位の人が存在したかを定量的に調べることができる。図11では、エリアの検査の一例としてエリア毎の人数のカウント結果をグラフや数字等で出力する例を示す。図11の処理は例えば、閲覧者Yが端末IDや画像ID等を指定してエリアの検査を開始する操作を行うと実行される。あるいは、撮像装置1が撮像を終了させ人検知の解析が終了すると自動的に開始する。また、図11は1つの画像データ(画像フレーム)ごとに実行される。
For example, if it is possible to detect the presence or absence of people in each area, it is possible to quantitatively check how many people were present in each area during a certain period. FIG. 11 shows an example of outputting the count result of the number of people in each area as a graph or a number as an example of the area inspection. The process of FIG. 11 is executed, for example, when the viewer Y performs an operation to start the inspection of the area by designating the terminal ID, the image ID and the like. Alternatively, the
まず、エリア検査部56は平面画像の解像度と解析情報を取得する(S10)。平面画像の解像度は図10の平面画像の解像度と同じであり予め既知であるか、記憶部5000に記憶されている。解析情報は解析情報管理DB5006に記憶されている。
First, the
次に、エリア検査部56はエリアを特定する情報をエリア情報管理DB5005から取得する(S20)。エリアは端末IDに関連付けられているので、エリアの検査の対象となっている画像データに関連付けられている端末IDを特定し、この端末IDに関連付けられている登録エリアIDの値(エリアを特定する情報)を順番に読み出す。
Next, the
次のエリアが登録されていない場合(S30のNo)、図11の処理は終了する。 If the next area is not registered (No in S30), the process of FIG. 11 ends.
対のエリアが登録されている場合(S30のYes)、平面画像に対するエリアの位置を判断してエリアを分割する処理を行う(S40〜S80)。 When the paired area is registered (Yes in S30), the position of the area with respect to the planar image is determined and the area is divided (S40 to S80).
エリアを分割する処理について図12に基づき説明する。図12のエリア1〜4はそれぞれ図10のエリア1〜4と同様である。エリア2〜4のように平面画像の端部を跨ぐエリアは、端部を跨いだ後のエリアがどこにあるかを特定しないと人検知エリアとの関係を判断できない。このため、平面画像の端部を跨ぐエリアは以下のように平面画像の端部で分割される。
The process of dividing the area will be described with reference to FIG.
エリア1:エリア1は平面画像の端部を跨がないのでエリア1は分割されない。
Area 1:
エリア2:エリア2は平面画像のy方向の端部を跨ぐのでエリア2とエリア2'に分割される。
Area 2:
エリア2 左上頂点(x2,y2)、 幅=width2,高さ=幅方向の解像度-y2
エリア2'左上頂点(x2,0)、幅=width2,高さ=height2−(高さの解像度-y2)
エリア3:エリア3は平面画像のx方向の端部を跨ぐのでエリア3とエリア3'に分割される。
Area 2'top left corner (x2,0), width = width2, height = height2- (height resolution-y2)
Area 3:
エリア3 左上頂点(x3,y3)、幅=幅の解像度−x3、高さ=height
エリア3'左上頂点(0,y3)、幅=width3−(幅の解像度−x3)、高さ=height3
エリア4:エリア4は平面画像のx方向とy方向の端部を跨ぐのでエリア4、4'、4''、4'''に分割される。
Area 3'top left corner (0, y3), width = width3− (width resolution−x3), height = height3
Area 4:
エリア4 左上頂点(x4,y4)、幅=幅の解像度−x4、高さ=高さの解像度−y4
エリア4' 左上頂点(0,0)、幅=width4−(幅の解像度−x4),高さ=height4−(高さの解像度-y4)
エリア4''左上頂点(x4,0)、幅=幅の解像度−x4、高さ=height4−(高さの解像度-y4)
エリア4'''左上頂点(0,y4)、幅=width4−(幅の解像度−x4)、高さ=高さの解像度−y4
図11に戻って説明する。エリア検査部56は、エリアを特定する情報のうち原点(x,y)及び幅から、右下頂点の座標(lrx, lry)を算出する(S40)。すなわち、原点のx座標に幅を加算して、右下頂点の座標のx座標lrxを算出する。
Area 4'top left corner (0,0), width = width4− (width resolution−x4), height = height4− (height resolution−y4)
Area 4 '' Upper left corner (x4,0), width = width resolution-x4, height = height4- (height resolution-y4)
Area 4 '''Upper left vertex (0, y4), width = width4− (width resolution−x4), height = height resolution−y4
Returning to FIG. 11, description will be made. The
右下頂点のx座標lrxが平面画像のx方向の解像度よりも大きいか否かを判断する(S50)。「平面画像のx方向の解像度<x座標lrx」の場合、右下頂点の座標が平面画像のx方向の端部を跨ぐ。すなわち、図12のエリア3の状態となる。
It is determined whether the x coordinate lrx of the lower right apex is larger than the resolution of the plane image in the x direction (S50). In the case of “resolution of the plane image in the x direction <x coordinate lrx”, the coordinates of the lower right apex straddle the end of the plane image in the x direction. That is, the state of
ステップS50の判断がYesの場合、エリア検査部56はエリアをx方向に二分割して、エリア3とエリア3'という2つのエリアを作成する(S60)。エリア3とエリア3'の(左上頂点の座標、幅、高さ)は図12で説明した。
If the determination in step S50 is Yes, the
次に、エリア検査部56は右下頂点のy座標lryが平面画像のy方向の解像度よりも大きいか否かを判断する(S70)。「平面画像のy方向の解像度<y座標lry」の場合、右下頂点の座標が平面画像のy方向の端部を跨ぐ。すなわち、図12のエリア2の状態となる。
Next, the
ステップS70の判断がYesの場合、エリア検査部56はエリアをy方向に二分割して、エリア2とエリア2'という2つのエリアを作成する(S80)。エリア2とエリア2'の(左上頂点の座標、幅、高さ)は図12に示した。
If the determination in step S70 is Yes, the
また、ステップS50とS70の両方でYesと判断されるエリア4は、エリア4、4'、4''、4'''の4つに分割される。エリア4、4'、4''、4''' の(左上頂点の座標、幅、高さ)は図12に示した。
Further, the
次に、この分割したエリアごとに人が検知された回数をカウントアップする処理を行う。エリア検査部56は、画像データに人検知エリアがあるか否かを判断する(S90)。ステップS90の判断がNoの場合、処理はステップS30に戻る。
Next, a process of counting up the number of times a person is detected is performed for each of the divided areas. The
ステップS90の判断がYesの場合、エリア検査部56は分割されたエリアを1つ取り出す(S100)。
If the determination in step S90 is Yes, the
そして、分割されたエリアに人検知エリアの中心が含まれるか否かを判断する(S110)。 Then, it is determined whether or not the center of the person detection area is included in the divided areas (S110).
ステップS110の判断がYesの場合、エリア検査部56はエリアで人が検知された回数を1つ大きくする(S120)。回数はエリアごとにカウントされ、エリアが分割されていても分割前のエリアごとにカウントされる。このように解析結果を用いてエリアごとにエリアに関する情報を作成できる。エリアが互いに重複していないという前提であるため、この後、処理はステップS90に戻り次の人検知エリアについて処理される。エリアが互いに重複している場合、処理はステップS100に戻ればよい。
When the determination in step S110 is Yes, the
ステップS110の判断がNoの場合、処理はステップS100に戻り次の分割されたエリアを取り出す。したがって、1つの人検知エリアに対し分割されたエリアが総当たりで人検知エリアの中心を含むか否かが判断される。 If the determination in step S110 is no, the process returns to step S100 to take out the next divided area. Therefore, it is determined whether or not the area divided for one person detection area includes the center of the person detection area in a brute force manner.
以上で、エリアごとに人が検知された数が測定された。次の画像データ(画像フレーム)で同じ処理を行えば、情報端末7はエリアごとにある期間に人が検知された回数や頻度などをグラフ等で表示できる。
Thus, the number of people detected in each area was measured. If the same process is performed on the next image data (image frame), the
また、情報端末7は包含するエリアと包含されるエリアを座標に基づいて特定し、包含するエリアにおける人検知の回数に対し、包含されるエリアにおける人の検知の回数の比などを算出できる。包含されるエリアが複数あれば、包含するエリアにおけるヒートマップなどを容易に作成できる。
Further, the
なお、人検知エリアの中心を比較するのでなく人検知エリアの一部でもエリアと重複している場合に、エリアの人の数をカウントしてもよい。この場合、複数のエリアで同一人物がカウントされる場合があるが、エリアに接近した人をカウントできる。また、人検知エリアとエリアの重複面積が最も多いエリアの人の数をカウントしてもよい。この場合、複数のエリアで同一人物がカウントされることを抑制し、エリアに接近した人をカウントできる。また、人検知エリアとエリアの距離が閾値内の場合にエリアの人の数をカウントしてもよい。 Note that the number of people in the area may be counted when a part of the person detection area overlaps with the area instead of comparing the centers of the person detection areas. In this case, the same person may be counted in a plurality of areas, but a person approaching the area can be counted. Further, the number of people in the area having the largest overlapping area between the human detection area and the area may be counted. In this case, it is possible to suppress counting of the same person in a plurality of areas and count the number of persons approaching the area. Further, the number of people in the area may be counted when the distance between the person detection area and the area is within a threshold value.
<エリアの表示>
画像管理装置5に登録されているエリアを情報端末7が表示する処理を説明する。画像管理装置5に登録されているエリアを特定するための情報(値)は平面画像における座標であり、情報端末7は全天球画像を表示するので、エリアを特定する情報をワールド座標系の座標に変換する必要がある。
<Display area>
A process in which the
図13は、情報端末7がエリアを表示するための処理手順を示すフローチャート図の一例である。図13の処理は閲覧者Yが情報端末7を操作して画像データの閲覧を画像管理装置5に要求するとスタートする。なお、画像データが特定されているので端末IDが特定されている。
FIG. 13 is an example of a flowchart showing a processing procedure for the
まず、情報端末7の表示制御部73は、平面画像の解像度を取得する(S10)。解像度は既知である。人検知エリアも表示する場合は、解析情報管理DB5006から解析情報を取得しておく。
First, the
表示制御部73は、エリアを特定する情報を画像管理装置5のエリア情報管理5005から取得する(S20)。エリアは端末IDに関連付けられているので、表示対象の画像データに関連付けられている端末IDを特定すればよい。
The
次に、表示制御部73は平面画像と同じ解像度のレンダリングベースを作成する(S30)。これは、全天球画像にレンダリングベースを新規レイヤとして貼り付けるためである。例えば、HTMLのタグであるcanvasタグを使用する。
Next, the
表示制御部73は撮像装置1に次のエリアが登録されているか否かを判断する(S40)。撮像装置1に次のエリアが登録されている場合、表示制御部73はエリアの分割処理を行う(S50)。この分割処理は図11で説明した。
The
そして、分割された全てのエリアをレンダリングベースにレンダリングする(S60、S70)。分割されたエリアの座標が分かるので、レンダリングベースに矩形を描画すればよい。すなわち、分割されたエリアの座標で特定される四角形を描画する。エリアには半透明で表示される処理が施される。また、エリアごとに異なる色(半透明)が付される。半透明とすることで閲覧者Yは全天球画像を目視することができる。 Then, all the divided areas are rendered based on the rendering base (S60, S70). Since the coordinates of the divided areas are known, it is sufficient to draw a rectangle on the rendering base. That is, a quadrangle specified by the coordinates of the divided areas is drawn. The area is processed to be displayed semi-transparently. Also, a different color (semi-transparent) is added to each area. The semi-transparent image allows the viewer Y to view the spherical image.
すべてのエリアについて処理が終わると(S40のNo)、表示制御部73はレンダリングベースをレイヤ化する(S70)。レイヤ化とはcanvasタグの全体を1枚の画像データとして生成することをいう。エリアがない場所は完全な透明になる。
When the processing is completed for all areas (No in S40), the
表示制御部73は、レイヤ化されたエリアを全天球画像に貼付する(S80)。すなわち、レイヤ化された平面画像を、従来と同様に全天球に貼り付ける処理を行う。これにより、全天球画像にレイヤが貼り付けられた状態になる。
The
閲覧者Yは全天球画像に重ねてエリアを確認することができる。なお、図13の処理を画像管理装置5が行ってもよい。閲覧者Yは画像データを表示しながらエリアを表示したりしなかったりを操作できる。
The viewer Y can confirm the area by superimposing it on the spherical image. Note that the
<画面例>
図14から図18を用いてエリアの登録から表示までの画面例を示す。
図14(a)はエリアの登録時に情報端末7がディスプレイ508に表示するエリア登録画面601の一例である。
<Screen example>
14 to 18 show examples of screens from area registration to display.
FIG. 14A is an example of the
閲覧者Yは全天球画像内を表示させエリアの登録を行うためのメニューを選択する。そして、上記のように、任意の位置をマウス等のポインティングデバイスでドラッグすることでエリアを指定する。図14(a)にはドラッグされたエリア602が点線で示されている。エリア602の位置が登録される。なお、処理としては、情報端末7の受付部72はドラッグの開始点と終了点の座標を検出して、表示制御部73がこの座標を対角頂点とする矩形を表示する。
The viewer Y selects the menu for displaying the inside of the spherical image and registering the area. Then, as described above, the area is designated by dragging an arbitrary position with a pointing device such as a mouse. In FIG. 14A, the dragged
閲覧者Yは図14(b)に示すようにエリアに名称を付与できる。図14(b)では名称登録欄603が表示されている。閲覧者Yは名称を入力してOKボタン604を押下する。情報端末7の受付部72はこの操作を受け付けて、送受信部71が端末ID、エリアを特定するための情報(値)及び名称を画像管理装置5に送信する。名称は任意であるが例えば、図14(b)のエリアは冷蔵庫に指定されたので「冷蔵庫」などを入力する。したがって、陳列する具体的な商品等で名称を付与できる。
The viewer Y can give a name to the area as shown in FIG. In FIG. 14B, a
図15(a)は複数の座標点によるエリアの登録例を説明する図の一例である。閲覧者Yは指定したいエリアを囲むように座標点605の入力を繰り返す(例えばポインティングデバイス650でクリック又はタッチする)。情報端末7の受付部72は座標点605の入力を受け付け、情報端末7の表示制御部73は座標点605と座標点605の間を点線で囲むなどしてエリア602を明示する。このようなエリアの登録は矩形以外のエリアを登録したい場合に有効である。
FIG. 15A is an example of a diagram illustrating an example of registering an area with a plurality of coordinate points. The viewer Y repeats inputting the coordinate
図15(b)はフリーハンドによるエリアの登録例を説明する図の一例である。この場合、閲覧者Yはエリアの外縁に沿ってポインティングデバイス650をドラッグする。情報端末7の受付部72は軌跡606の座標を受け付け、情報端末7の表示制御部73はポインティングデバイス650の軌跡606を線で表示するなどしてエリア602を明示する。任意の形状のエリアを短時間で指定できる。
FIG. 15B is an example of a diagram illustrating an example of freehand area registration. In this case, the viewer Y drags the
図16(a)はエリアの関連付けを説明する図の一例である。閲覧者Yがエリア602Aの後にエリア602Bを指定した。例えばエリアAに「冷蔵庫」、エリアBに「レジ前」という名称が付与されたものとする。エリア602Bをエリア602Aと関連付けたい場合、閲覧者Yはエリア602Aを選択した状態で、例えばエリア602B内で右クリックすることにより関連づけのためのメニューを表示させる。エリア602Aには選択中であることを示すマーク660が表示される。受付部72はこのメニューの選択操作を受け付け、表示制御部73が図16(a)のようなエリア関連付け欄610が表示させる。エリア関連付け欄610には「関連づけするエリアを選択してください」というメッセージ611、選択中のエリア612として「レジ前」が表示される。
FIG. 16A is an example of a diagram for explaining the association of areas. The viewer Y specifies the
閲覧者Yがエリア602Aをポインティングデバイス650で選択すると、受付部72がポインティングデバイス650の位置を検出してエリア602Aが選択されたと判断する。受付部72はエリア602Aで登録されているエリアAの名称(冷蔵庫)をエリア関連付け欄610の関連付けられるエリア613に表示する。このように、閲覧者Yはエリアを選択するという簡単な操作でエリア同士を関連付けることができる。また、すでに指定されているエリアが表示されるので、閲覧者Yがこれから登録しようとしているエリアとの相対位置が分かりやすい。
When the viewer Y selects the
図16(b)はエリアの中に更に登録されるエリアを説明する図の一例である。図16(b)ではエリア602Cの中にエリア602Aが登録されている。情報端末7はエリア602Cの座標とエリア602Aの座標を比較することでエリア602Aがエリア602Cに包含されていると判断できる。あるいは明示的に閲覧者Yが指定してもよい。したがって、画像管理装置5は、エリア602Cで検知された人の総数に対し更にエリア602Aで検知された人の数の比率などを簡単に算出できる。
FIG. 16B is an example of a diagram for explaining areas that are further registered in the area. In FIG. 16B, the
図17はエリア表示画面621の一例を示す図である。図17(a)は、登録されたエリア602の表示例を示す図である。図17(a)では2つのエリア602A,602Dが表示されているがそれぞれが異なる色で表示されている。情報端末7がディスプレイ508に表示する画面データは、上記のように情報端末7の表示制御部73が作成するが画像管理装置5の画面作成部54も作成できる。図では白黒であるが、例えばエリア602Aは赤でエリア602Dは青で表示される。これにより、異なるエリア602が表示されていることを閲覧者Yに把握させやすくなる。なお、表示される色は一例であり、閲覧者Yが指定できてもよい。
FIG. 17 is a diagram showing an example of the
一方、情報端末7の表示制御部73は関連づけされたエリアを同じ色で表示する。図17(b)では関連付けられた「レジ前」のエリア602Bと「冷蔵庫」のエリア602Aが同じ色で表示されている。情報端末7の表示制御部73、エリア情報管理DB5005を参照して関連付けのフィールドを読み出し、関連付けされている複数のエリアを同じ色に設定する。図では白黒であるが、例えば赤で表示される。なお、表示される色は一例である。閲覧者Yはエリアの色を見ることで関連付けられたエリアを判断しやすくなる。
On the other hand, the
なお、各エリアの色は半透明なので、各エリアが全天球画像に映っているどの被写体に対して指定されたのかを、閲覧者Yは容易に判断できる。 Since the color of each area is semi-transparent, the viewer Y can easily determine which subject in the spherical image is designated for each area.
図18(a)は、他方のエリアに包含されたエリアの表示例を示す。それぞれのエリア602A,602Cが別々の色で表示されるので、閲覧者Yは包含されているエリアを判断しやすい。なお、包含されたエリア602Aが包含するエリア602Cと関連付けられた場合、同色になってしまい判別が困難になる。情報端末7の表示制御部73は、エリア情報管理DB5005を参照してエリアを特定する情報(値)を読み出し、一方が他方に完全に包含されるエリアを特定する。そして、包含されるエリアにエリアの色と異なる色の枠線を形成するなどする。これにより情報端末7が全天球画像を表示した際、重複したエリアが判別可能になる。あるいは、一方を点滅させたり、輝度を落としたり、同色の斜線で表示したりしてもよい。
FIG. 18A shows a display example of an area included in the other area. Since the
図18(b)は人検知エリアの表示例を示す図である。情報端末7の表示制御部73は予め解析情報管理DB5006から読み出した人検知エリアを平面画像に形成しておく。形成方法はエリアの場合と同じである。このように、情報端末7は人検知エリア630をエリア602と共に又はエリア602とは別に表示することができる。情報端末7は閲覧者Yの操作で人検知エリアの表示と非表示を切り替えることができる。例えば、図18(b)の例では、人検知エリア630の中心がエリア602Aと重複しているので、エリア602Aにおいて人が検知されたと判断される。
FIG. 18B is a diagram showing a display example of the human detection area. The
<エリアの検査結果>
図19はエリアの検査結果を説明する図の一例である。図19(a)では横軸が日付、縦軸が検知された人の数である。人数はエリアごとにカウントされている。すなわち、1日当たりに検知された人の数がエリアごとに表示されている。閲覧者Yは表示させるエリアを選択できる。したがって、人が多いエリアや少ないエリアを判断しやすい。また、日付によってどのような変化があるかを把握しやすい。
<Area inspection results>
FIG. 19 is an example of a diagram for explaining the inspection result of the area. In FIG. 19A, the horizontal axis is the date and the vertical axis is the number of detected persons. The number of people is counted by area. That is, the number of people detected per day is displayed for each area. The viewer Y can select the area to be displayed. Therefore, it is easy to determine the area with many people and the area with few people. Also, it is easy to understand what kind of change has occurred depending on the date.
図19(b)は、全天球画像の全体の人のカウント数が表示された画面を示す。図19(b)の下段のグラフは図19(a)と同じである。図19(b)の上段では日付ごとに全天球画像の全体で検知された人のカウント数が棒グラフで表示されている。なお、図19(b)では2つの撮像装置A,Bのカウント数が示されている。全天球画像の全体で検知される人のカウント数が多ければエリアで検知される人の数も多くなる傾向がある。したがって、全体と部分(エリア)の関係を把握しやすくすることもできる。 FIG. 19B shows a screen on which the total number of people in the omnidirectional image is displayed. The lower graph of FIG. 19B is the same as that of FIG. In the upper part of FIG. 19B, the bar count is displayed as the count number of persons detected in the entire spherical image for each date. Note that FIG. 19B shows the count numbers of the two imaging devices A and B. If the number of people detected in the whole celestial sphere image is large, the number of people detected in the area tends to be large. Therefore, the relationship between the whole and the part (area) can be easily grasped.
なお、図19のような検査結果を情報端末7は印刷することもできるし、他の機器や端末に送信することもできる。
The
<まとめ>
以上説明したように本実施形態の画像処理システムは、全天球画像10のように歪曲した画像データにエリア602が設定されても、エリア602が人検知などの解析(画像処理)が行われる平面画像11の座標系に変換されるので、人検知等の解析結果を設定されたエリア602に適用しやすい。また、全天球画像に境界がないが平面画像で境界(端部)が生じても、エリアを分割するのでエリアごとに人検知等の解析結果を正しく適用できる。
<Summary>
As described above, in the image processing system according to the present embodiment, even if the
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments, but the present invention is not limited to these embodiments, and various modifications can be made without departing from the gist of the present invention. And substitutions can be added.
例えば、本実施形態では人が検知されたが、情報端末7は男女の別を判断して男女がそれぞれ検知された回数を表示してもよい。あるいは、手を伸ばす、座る、商品を戻すなどの動作を判別して各動作の回数を表示してもよい。また、商品の有無、商品の数、体積、商品の配置が乱れているかどうかなどを表示してもよい。
For example, although a person is detected in the present embodiment, the
また、上記の実施形態では、情報端末7でエリアが登録され画像管理装置5がエリアに関する情報を作成したが、情報端末7でエリアに関する情報まで作成してもよいし、画像管理装置5がエリアの指定を受け付けてもよい。また、情報端末7と画像管理装置5が一体の情報処理装置が本実施形態で説明された処理を一台で実行してもよい。また、画像管理装置5が有する機能の全て又は1以上を情報端末7が有していてよく、情報端末7が有する機能の全て又は1以上を画像管理装置5が有していてもよい。
Further, in the above-described embodiment, the area is registered in the
また、以上の実施例で示した図6などの構成例は、撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。また、画像処理システム200が複数の画像管理装置5を有していてもよい。
In addition, in order to facilitate the understanding of the processes of the
また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。
Further, the database of the storage unit 5000 of the
なお、ディスプレイ508は表示装置の一例であり、受付部72は受付手段の一例であり、エリア座標算出部74は座標変換手段の一例であり、エリア検査部56は解析手段の一例であり、表示制御部73は表示手段の一例である。画像管理装置5は第一の情報処理装置の一例であり、情報端末7は第二の情報処理装置の一例である。本実施形態で説明した画像処理システム200が行う処理は画像処理方法の一例である。
The
1 :撮像装置
3 :通信端末
5 :画像管理装置
7 :情報端末
31 :送受信部
51 :送受信部
52 :人物検知部
54 :画面作成部
55 :エリア登録部
56 :エリア検査部
200 :画像処理システム
1: Imaging device 3: Communication terminal 5: Image management device 7: Information terminal 31: Transmission / reception unit 51: Transmission / reception unit 52: Human detection unit 54: Screen creation unit 55: Area registration unit 56: Area inspection unit 200: Image processing system
Claims (15)
所定よりも画角が広い広角画像を表示装置に表示する表示手段と、
前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段と、
前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段と、
前記平面画像の解析結果が有する座標と前記座標変換手段により変換された領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段と、
を有する画像処理システム。 An image processing system including one or more information processing devices,
Display means for displaying a wide-angle image having a wider angle of view than a predetermined value on a display device;
Receiving means for accepting designation of the area of the wide-angle image displayed on the display device,
Coordinate conversion means for converting the coordinates of the area in the display device into the coordinates of a plane image when the wide-angle image is analyzed;
Based on the result of comparing the coordinates of the analysis result of the plane image and the coordinates of the region converted by the coordinate conversion unit , an analysis unit that creates information about the region,
Image processing system having a.
前記座標変換手段は、前記平面画像の座標に変換された前記領域が前記平面画像の解像度を超えている場合、前記平面画像の解像度を考慮して前記領域の幅と高さを算出し、
前記解析手段は、前記幅及び高さを用いて算出した前記平面画像の座標における前記領域の右下頂点が前記平面画像の端部を跨ぐ場合、前記端部で前記領域を分割し、
分割された各領域の座標と前記解析結果が有する座標とを比較する請求項1又は2に記載の画像処理システム。 The wide-angle image is a spherical image in which 360 ° is captured,
When the area converted into the coordinates of the plane image exceeds the resolution of the plane image, the coordinate conversion unit calculates the width and height of the area in consideration of the resolution of the plane image,
The analysis means, when the lower right apex of the region in the coordinates of the plane image calculated using the width and height straddles the end of the plane image, divides the region at the end,
The image processing system according to claim 1, wherein the coordinates of the respective divided areas are compared with the coordinates of the analysis result.
前記解析手段は、前記対象領域の少なくとも一部が前記領域と重複する場合、前記領域で前記対象が検知されたことに基づいて前記領域に関する情報を作成する請求項4に記載の画像処理システム。 The analysis result of the planar image has coordinates of a target area including the target when a predetermined target is detected in the planar image,
The image processing system according to claim 4, wherein when at least a part of the target area overlaps with the area, the analysis unit creates information about the area based on detection of the target in the area.
重複する場合に、前記領域ごとに前記対象が検知された回数をカウントし、
前記表示手段は、前記回数を前記領域ごとに表示する請求項5に記載の画像処理システム。 The analyzing unit determines whether at least a part of the target region overlaps with the region for each wide-angle image,
When overlapping, counting the number of times the object is detected for each area,
The image processing system according to claim 5, wherein the display unit displays the number of times for each area.
前記表示装置におけるポインティングデバイスの複数の点で囲まれる範囲、又は、
前記表示装置におけるポインティングデバイスの軌跡で囲まれる範囲、により前記領域の指定を受け付ける請求項1〜7のいずれか1項に記載の画像処理システム。 The reception unit is a rectangular range specified by coordinates of two points of a pointing device in the display device,
A range surrounded by a plurality of points of the pointing device in the display device, or
The image processing system according to claim 1, wherein the designation of the area is accepted by a range surrounded by a trajectory of a pointing device in the display device.
広角画像に重ねて表示する請求項1〜9のいずれか1項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 9, wherein the display unit displays the area on the display device by making the area semi-transparent and superimposing the area on the wide-angle image.
前記表示手段は、関連付けられた2つの前記領域を同色で前記表示装置に表示する請求項10に記載の画像処理システム。 The receiving unit receives association of any two or more of the specified areas,
The image processing system according to claim 10, wherein the display unit displays the two associated areas in the same color on the display device.
前記解析手段は、包含する前記領域で前記対象が検知された回数に対する、包含された前記領域で前記対象が検知された回数の比を算出し、
前記表示手段は、前記比を表示する請求項7に記載の画像処理システム。 The accepting unit accepts designation of the region in which the entire region is included in the other region,
The analysis means calculates a ratio of the number of times the object is detected in the included area to the number of times the object is detected in the included area,
The image processing system according to claim 7, wherein the display unit displays the ratio.
前記第二の情報処理装置は、
所定よりも画角が広い広角画像を表示装置に表示する表示手段と、
前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段と、
前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段と、を有し、
前記第一の情報処理装置は、
前記平面画像の解析結果が有する座標と前記座標変換手段により変換された領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段、を有する画像処理システム。 An image processing system including a first information processing device and a second information processing device,
The second information processing device,
Display means for displaying a wide-angle image having a wider angle of view than a predetermined value on a display device;
Receiving means for accepting designation of the area of the wide-angle image displayed on the display device,
Coordinate conversion means for converting the coordinates of the area in the display device into the coordinates of a plane image when the wide-angle image is analyzed,
The first information processing device is
An image processing system comprising: an analysis unit that creates information about the area based on a result of comparing the coordinates of the analysis result of the plane image with the coordinates of the area converted by the coordinate conversion unit .
所定よりも画角が広い広角画像を表示装置に表示する表示手段と、
前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段と、
前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段と、
前記平面画像の解析結果が有する座標と前記座標変換手段により変換された領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段として機能させるためのプログラム。 Information processing equipment,
Display means for displaying a wide-angle image having a wider angle of view than a predetermined value on a display device;
Receiving means for accepting designation of the area of the wide-angle image displayed on the display device,
Coordinate conversion means for converting the coordinates of the area in the display device into the coordinates of a plane image when the wide-angle image is analyzed;
A program for functioning as an analysis unit that creates information about the region based on the result of comparing the coordinates of the analysis result of the plane image with the coordinates of the region converted by the coordinate conversion unit .
表示手段が、所定よりも画角が広い広角画像を表示装置に表示するステップと、
受付手段が、前記表示装置に表示された前記広角画像の領域の指定を受け付けるステップと、
座標変換手段が、前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換するステップと、
解析手段が、前記平面画像の解析結果が有する座標と前記座標変換手段により変換された領域の座標を比較した結果に基づいて、前記領域に関する情報を作成するステップと、
を有する画像処理方法。 An image processing method performed by an image processing system including one or more information processing devices, comprising:
A step of displaying a wide-angle image having a wider angle of view than a predetermined value on the display device by the display means;
Receiving means receives the designation of the area of the wide-angle image displayed on the display device,
Coordinate transformation means transforming the coordinates of the region in the display device into the coordinates of a plane image when the wide-angle image is analyzed;
Analyzing means, based on the result of comparing the coordinates of the analysis result of the planar image and the coordinates of the area converted by the coordinate conversion means , creating information about the area,
An image processing method including.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043293A JP6686547B2 (en) | 2016-03-07 | 2016-03-07 | Image processing system, program, image processing method |
US15/446,125 US10652459B2 (en) | 2016-03-07 | 2017-03-01 | Information processing system, information processing method, and non-transitory computer-readable storage medium |
US16/838,341 US11134193B2 (en) | 2016-03-07 | 2020-04-02 | Information processing system, information processing method, and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043293A JP6686547B2 (en) | 2016-03-07 | 2016-03-07 | Image processing system, program, image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017163195A JP2017163195A (en) | 2017-09-14 |
JP6686547B2 true JP6686547B2 (en) | 2020-04-22 |
Family
ID=59854258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016043293A Active JP6686547B2 (en) | 2016-03-07 | 2016-03-07 | Image processing system, program, image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6686547B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7045863B2 (en) * | 2018-01-23 | 2022-04-01 | 株式会社Nttファシリティーズ | Information management system, information management method, and program |
JP2020086860A (en) * | 2018-11-22 | 2020-06-04 | 株式会社リコー | Management system, information processing system, information processing method and program |
US11195295B2 (en) | 2018-11-22 | 2021-12-07 | Ricoh Company, Ltd. | Control system, method of performing analysis and storage medium |
US11223802B2 (en) * | 2019-07-31 | 2022-01-11 | Ricoh Company, Ltd. | Image-based determination apparatus and image-based determination system |
JP7327370B2 (en) | 2020-12-07 | 2023-08-16 | 横河電機株式会社 | Apparatus, method and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000347650A (en) * | 1999-06-07 | 2000-12-15 | Matsushita Joho System Kk | Device and method for displaying image |
JP6240016B2 (en) * | 2014-03-31 | 2017-11-29 | セコム株式会社 | Tracking device and tracking system |
JP5866564B1 (en) * | 2014-08-27 | 2016-02-17 | パナソニックIpマネジメント株式会社 | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD |
-
2016
- 2016-03-07 JP JP2016043293A patent/JP6686547B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017163195A (en) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11509825B2 (en) | Image management system, image management method, and computer program product | |
US10827133B2 (en) | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product | |
US10593014B2 (en) | Image processing apparatus, image processing system, image capturing system, image processing method | |
JP6686547B2 (en) | Image processing system, program, image processing method | |
US9756242B2 (en) | Communication terminal, display method, and computer program product | |
US11134193B2 (en) | Information processing system, information processing method, and non-transitory computer-readable storage medium | |
US10360572B2 (en) | Image processing system, method and computer program product for evaluating level of interest based on direction of human action | |
US9161168B2 (en) | Personal information communicator | |
JP2017135659A (en) | Image management system, image management method, image communication system and program | |
JP2017187850A (en) | Image processing system, information processing device, and program | |
US11740850B2 (en) | Image management system, image management method, and program | |
JPWO2015072194A1 (en) | Display control apparatus, display control method, and program | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
JP2017211811A (en) | Display control program, display control method and display control device | |
JP2017162432A (en) | Image processing system, information processing apparatus, information terminal, and program | |
US11645415B2 (en) | Augmented reality remote communication method and system for providing security function for 3D space | |
JP6617547B2 (en) | Image management system, image management method, and program | |
JP2017182681A (en) | Image processing system, information processing device, and program | |
CN112750190A (en) | Three-dimensional thermodynamic diagram generation method, device, equipment and storage medium | |
JP2016194784A (en) | Image management system, communication terminal, communication system, image management method, and program | |
CN112862976B (en) | Data processing method and device and electronic equipment | |
JP2021125145A (en) | Information processing apparatus, image processing system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200316 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6686547 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |