JP6729043B2 - Information processing device and information processing system - Google Patents

Information processing device and information processing system Download PDF

Info

Publication number
JP6729043B2
JP6729043B2 JP2016121641A JP2016121641A JP6729043B2 JP 6729043 B2 JP6729043 B2 JP 6729043B2 JP 2016121641 A JP2016121641 A JP 2016121641A JP 2016121641 A JP2016121641 A JP 2016121641A JP 6729043 B2 JP6729043 B2 JP 6729043B2
Authority
JP
Japan
Prior art keywords
person
image
unit
posture
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016121641A
Other languages
Japanese (ja)
Other versions
JP2017227957A (en
Inventor
理 鳥居
理 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016121641A priority Critical patent/JP6729043B2/en
Publication of JP2017227957A publication Critical patent/JP2017227957A/en
Application granted granted Critical
Publication of JP6729043B2 publication Critical patent/JP6729043B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、情報処理装置、および、情報処理システムに関する。 The present invention relates to an information processing device and an information processing system.

画像に含まれる人物の位置を特定する技術が開示されている。例えば、画像に含まれる人物の重心を、該人物の位置として特定する技術や、頭部を人物の位置として特定する技術が知られている。また、人物の位置の特定精度を向上させる試みもなされている。 A technique for identifying the position of a person included in an image is disclosed. For example, there are known a technique of specifying the center of gravity of a person included in an image as the position of the person, and a technique of specifying the head as the position of the person. Attempts have also been made to improve the accuracy of identifying the position of a person.

例えば、特許文献1には、検出装置で検出した位置情報を、動線の欠落位置に応じて補正することが開示されている。 For example, Patent Document 1 discloses that position information detected by a detection device is corrected according to a position where a flow line is missing.

ここで、画像に含まれる人物の状況によって、視認したときに違和感のない人物の位置は変動する。しかしながら、従来では、画像に含まれる人物の重心や頭部などの特定の位置を、人物の位置として特定していた。また、特許文献1の技術では、人物の動線に応じて補正を行っているが、人物の位置として視認したときに違和感のない位置を、人物の位置として特定することは出来なかった。すなわち、従来では、画像内の人の位置の特定精度を向上させることは困難であった。 Here, the position of a person who does not feel discomfort when visually recognized varies depending on the situation of the person included in the image. However, conventionally, a specific position such as the center of gravity or the head of the person included in the image is specified as the position of the person. Further, in the technique of Patent Document 1, the correction is performed according to the flow line of the person, but it is not possible to specify a position that does not cause a sense of discomfort when visually recognized as the position of the person as the position of the person. That is, conventionally, it has been difficult to improve the accuracy of identifying the position of a person in an image.

本発明は、上記に鑑みてなされたものであって、精度良く、画像内の人物の位置を特定することを目的とする。 The present invention has been made in view of the above, and an object thereof is to identify the position of a person in an image with high accuracy.

上述した課題を解決し、目的を達成するために、本発明は、画像に含まれる人物領域を検出する検出部と、前記人物領域に示される人物の姿勢を判別する姿勢判別部と、前記姿勢に基づいて前記画像における前記人物の位置を特定する位置特定部と、前記画像における前記人物領域に示される人物上に他の物体が重畳しているか非重畳であるかを判別する重畳判別部と、前記他の物体が移動体および非移動体の何れであるかを判別する移動体判別部と、を備える。前記位置特定部は、前記人物領域に示される人物上に他の物体が重畳していると判別され、且つ該他の物体が非移動体であると判別された場合、該人物領域内の所定位置を、前記人物の位置として特定し、前記人物領域に示される人物上に他の物体が重畳していると判別され、且つ該他の物体が移動体であると判別された場合、該人物領域に示される人物の姿勢に基づいて前記画像における前記人物の位置を特定し、前記人物領域に示される人物上に他の物体が非重畳であると判別された場合、前記姿勢に基づいて前記画像における前記人物の位置を特定する。 In order to solve the above-mentioned problems and achieve the object, the present invention provides a detection unit that detects a human region included in an image, a posture determination unit that determines the posture of a person shown in the human region, and the posture. A position identifying unit that identifies the position of the person in the image based on the above, and a superposition determining unit that determines whether another object is superposed or non-superposed on the person shown in the person region in the image. A moving body discriminating unit which discriminates whether the other object is a moving body or a non-moving body . When it is determined that another object is superposed on the person shown in the person area, and the other object is a non-moving object, the position specifying unit determines a predetermined area in the person area. If the position is specified as the position of the person, and it is determined that another object is superimposed on the person shown in the person area, and that the other object is a moving body, the person is The position of the person in the image is specified based on the posture of the person shown in the area, and when it is determined that another object is not superposed on the person shown in the person area, the position is determined based on the posture. The position of the person in the image is specified.

本発明によれば、精度良く、画像内の人物の位置を特定することができる、という効果を奏する。 According to the present invention, there is an effect that the position of a person in an image can be accurately specified.

図1は、本実施の形態の情報処理システムの概略図である。FIG. 1 is a schematic diagram of an information processing system according to the present embodiment. 図2は、撮影装置の外観模式図の一例である。FIG. 2 is an example of an external appearance schematic diagram of the image capturing apparatus. 図3は、撮影装置の使用状況の一例を示す図である。FIG. 3 is a diagram illustrating an example of the usage status of the image capturing apparatus. 図4は、全天球パノラマ画像の作成の一例の説明図である。FIG. 4 is an explanatory diagram of an example of creating a spherical panoramic image. 図5は、全天球パノラマ画像の作成の一例の説明図である。FIG. 5 is an explanatory diagram of an example of creating a spherical panoramic image. 図6は、全天球パノラマ画像と所定領域との位置関係の説明図である。FIG. 6 is an explanatory diagram of the positional relationship between the spherical panoramic image and the predetermined area. 図7は、全天球パノラマ画像と所定領域との位置関係の説明図である。FIG. 7 is an explanatory diagram of the positional relationship between the spherical panoramic image and the predetermined area. 図8は、撮影装置のハードウェア構成を示す模式図である。FIG. 8 is a schematic diagram showing the hardware configuration of the image capturing apparatus. 図9は、サーバ装置および情報処理端末のハードウェア構成図である。FIG. 9 is a hardware configuration diagram of the server device and the information processing terminal. 図10は、情報処理の流れの概要の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of the outline of the flow of information processing. 図11は、サーバ装置、撮影装置、通信端末、および情報処理端末の各々の機能的構成を示す模式図である。FIG. 11 is a schematic diagram showing the functional configurations of the server device, the photographing device, the communication terminal, and the information processing terminal. 図12は、第1の特定情報および第2の特定情報のデータ構成の一例を示す模式図である。FIG. 12 is a schematic diagram showing an example of the data structure of the first specific information and the second specific information. 図13は、画像管理DBのデータ構成の一例を示す模式図である。FIG. 13 is a schematic diagram showing an example of the data structure of the image management DB. 図14は、人物領域の検出の説明図である。FIG. 14 is an explanatory diagram of detection of a person area. 図15は、人物の位置の特定の一例を示す説明図である。FIG. 15 is an explanatory diagram showing an example of specifying the position of a person. 図16は、人物の位置特定の一例を示す説明図である。FIG. 16 is an explanatory diagram illustrating an example of identifying the position of a person. 図17は、人物の位置特定の一例を示す説明図である。FIG. 17 is an explanatory diagram showing an example of identifying the position of a person. 図18は、設定画面の一例を示す模式図である。FIG. 18 is a schematic diagram showing an example of the setting screen. 図19は、表示画像の一例を示す模式図である。FIG. 19 is a schematic diagram showing an example of a display image. 図20は、情報処理の手順の一例を示すフローチャートである。FIG. 20 is a flowchart showing an example of the procedure of information processing. 図21は、情報処理の手順の一例を示すフローチャートである。FIG. 21 is a flowchart showing an example of an information processing procedure. 図22は、サーバ装置、撮影装置、通信端末、および情報処理端末の各々の機能的構成を示す模式図である。FIG. 22 is a schematic diagram showing the functional configurations of the server device, the photographing device, the communication terminal, and the information processing terminal. 図23は、画像管理DBのデータ構成の一例を示す模式図である。FIG. 23 is a schematic diagram showing an example of the data structure of the image management DB. 図24は、表示画像の説明図である。FIG. 24 is an explanatory diagram of a display image. 図25は、情報処理の手順の一例を示すフローチャートである。FIG. 25 is a flowchart showing an example of an information processing procedure. 図26は、情報処理の手順の一例を示すフローチャートである。FIG. 26 is a flowchart showing an example of an information processing procedure.

以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.

(第1の実施の形態)
図1は、本実施の形態の情報処理システム10の概略図である。
(First embodiment)
FIG. 1 is a schematic diagram of an information processing system 10 according to this embodiment.

情報処理システム10は、サーバ装置12と、撮影装置14と、情報処理端末18と、を備える。サーバ装置12と、撮影装置14と、情報処理端末18と、は、ネットワーク20などの通信部を介して互いに通信可能に接続されている。 The information processing system 10 includes a server device 12, a photographing device 14, and an information processing terminal 18. The server device 12, the imaging device 14, and the information processing terminal 18 are communicably connected to each other via a communication unit such as the network 20.

通信部には、例えば、短距離無線技術、移動通信システムによる無線通信網、およびインターネットなどを用いる。短距離無線技術には、Wi−Fi(Wireless Fidelity)などが挙げられる。移動通信システムによる無線通信網には、LTE(Long Term Evolution)や、NFC(Near Field Communication)や、WiMAX(Worldwide Interoperability for Microwave Access)などが挙げられる。 For the communication unit, for example, a short-range wireless technology, a wireless communication network using a mobile communication system, the Internet, or the like is used. Examples of the short-range wireless technology include Wi-Fi (Wireless Fidelity). Examples of the wireless communication network based on the mobile communication system include LTE (Long Term Evolution), NFC (Near Field Communication), and WiMAX (Worldwide interoperability for Microwave Access).

撮影装置14は、全方位の範囲を撮影し、全天球パノラマ画像を得る。本実施の形態では、撮影装置14は、通信端末15および無線ルータ16を介して、ネットワーク20に接続されている。 The image capturing device 14 captures an omnidirectional range and obtains an omnidirectional panoramic image. In the present embodiment, the photographing device 14 is connected to the network 20 via the communication terminal 15 and the wireless router 16.

サーバ装置12は、情報処理装置の一例である。サーバ装置12は、画像における人物の位置を特定する(詳細後述)。本実施の形態では、人物の位置を特定する対象の画像が、全天球パノラマ画像である場合を一例として説明する。全天球パノラマ画像は、全方位(360°)の範囲の撮影によって得られた画像である。 The server device 12 is an example of an information processing device. The server device 12 identifies the position of the person in the image (details will be described later). In the present embodiment, an example will be described in which the target image for specifying the position of the person is a spherical panoramic image. The omnidirectional panoramic image is an image obtained by photographing in an omnidirectional (360°) range.

なお、サーバ装置12が人物の位置の特定に用いる画像は、全天球パノラマ画像に限定されない。情報処理端末18は、サーバ装置12で管理されている全天球パノラマ画像などを受信し、全天球パノラマ画像の表示などを行う。 The image used by the server device 12 to specify the position of the person is not limited to the spherical panoramic image. The information processing terminal 18 receives the omnidirectional panoramic image managed by the server device 12 and displays the omnidirectional panoramic image.

なお、図1には、情報処理システム10に含まれるサーバ装置12、撮影装置14、および情報処理端末18の各々の数が、1台である場合を示した。しかし、サーバ装置12、撮影装置14、および、情報処理端末18の数は、各々、複数台であってもよい。 Note that FIG. 1 illustrates a case where the number of each of the server device 12, the imaging device 14, and the information processing terminal 18 included in the information processing system 10 is one. However, the numbers of the server device 12, the imaging device 14, and the information processing terminal 18 may each be plural.

まず、撮影装置14について説明する。 First, the photographing device 14 will be described.

撮影装置14は、撮影によって全天球パノラマ画像を得る撮影装置である。全天球パノラマ画像とは、全天球の範囲(360°)の撮影によって得られるパノラマ画像である。 The photographing device 14 is a photographing device that obtains a spherical panoramic image by photographing. The omnidirectional panoramic image is a panoramic image obtained by photographing in the omnidirectional range (360°).

図2は、撮影装置14の外観模式図の一例である。図2(A)は撮影装置14の側面図である。図2(B)は、撮影装置14の、図2(A)とは反対側の側面図である。図2(C)は、撮影装置14の平面図である。 FIG. 2 is an example of an external appearance schematic diagram of the photographing device 14. FIG. 2A is a side view of the photographing device 14. FIG. 2B is a side view of the imaging device 14 on the opposite side of FIG. 2A. FIG. 2C is a plan view of the photographing device 14.

図2(A)に示すように、撮影装置14は、例えば、人間が片手で持つことができる大きさである。なお、撮影装置14の大きさは、このような大きさに限られない。 As shown in FIG. 2A, the imaging device 14 has a size that, for example, a person can hold with one hand. The size of the photographing device 14 is not limited to such a size.

図2に示すように、撮影装置14の上部には、正面側(一方の面側)にレンズ14A、背面側(他方の面側)にレンズ14B、が設けられている。レンズ14Aおよびレンズ14Bは、各々、180°以上の画角を有する広角レンズである。本実施の形態では、レンズ14Aおよびレンズ14Bは、広角レンズの1つである魚眼レンズであるものとして説明する。撮影装置14では、レンズ14Aおよびレンズ14Bの各々を介して像が導かれ、各々に対応する撮像素子に像が形成される。なお、撮像素子としては、CCDや、CMOS等が挙げられる。また、図2(B)に示されるように、撮影装置14の正面側には、シャッターボタン等の操作部14Cが設けられていてもよい。 As shown in FIG. 2, a lens 14A is provided on the front side (one surface side) and a lens 14B is provided on the back side (other surface side) on the upper part of the photographing device 14. Each of the lens 14A and the lens 14B is a wide-angle lens having an angle of view of 180° or more. In the present embodiment, the lenses 14A and 14B will be described as being fish-eye lenses, which are one of wide-angle lenses. In the imaging device 14, an image is guided through each of the lens 14A and the lens 14B, and an image is formed on the image pickup element corresponding to each. Examples of the image pickup device include CCD and CMOS. Further, as shown in FIG. 2B, an operation unit 14C such as a shutter button may be provided on the front side of the photographing device 14.

次に、撮影装置14の使用状況の一例を説明する。図3は、撮影装置14の使用状況の一例を示す図である。図3に示すように、ユーザが撮影装置14を手に持って撮影した場合、ユーザの周りの全方位(360°)が撮影される。レンズ14Aおよびレンズ14Bから導かれた像が各々の撮像素子で検出されることで、ユーザの周りの被写体が撮像され、2つの半球画像が得られる。全天球パノラマ画像は、これらの2つの半球画像から作成される。なお、撮影装置14を、地面や壁等に設置された支持部材に設置してもよい。この場合、設置位置の周りの全方位が撮影される。 Next, an example of the usage status of the imaging device 14 will be described. FIG. 3 is a diagram illustrating an example of the usage status of the image capturing apparatus 14. As shown in FIG. 3, when the user holds the image capturing device 14 in his/her hand and takes an image, all directions (360°) around the user are imaged. The images guided by the lens 14A and the lens 14B are detected by the respective image pickup elements, so that the subject around the user is imaged and two hemispherical images are obtained. A spherical panoramic image is created from these two hemispherical images. The image capturing device 14 may be installed on a support member installed on the ground or a wall. In this case, all directions around the installation position are photographed.

次に、撮影装置14で撮影された半球画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。図4および図5は、全天球パノラマ画像60の作成の一例の説明図である。図4(A)は撮影装置14で撮影された半球画像(前側)、図4(B)は撮影装置14で撮影された半球画像(後側)、図4(C)はメルカトル図法により表された全天球パノラマ画像60、の一例を示す模式図である。 Next, the outline of the process from the hemispherical image captured by the image capturing device 14 to the creation of the spherical panoramic image will be described. 4 and 5 are explanatory diagrams of an example of creating the omnidirectional panoramic image 60. 4A is a hemispherical image captured by the image capturing device 14 (front side), FIG. 4B is a hemispherical image captured by the image capturing device 14 (rear side), and FIG. 4C is represented by the Mercator projection. It is a schematic diagram which shows an example of the omnidirectional panoramic image 60.

なお、全天球パノラマ画像60は、360°の球体の内壁に一対の半球画像(図4(A)、図4(B)参照)を貼り付けた、三次元の立体球状の画像であってもよい(図5参照)。 The spherical panoramic image 60 is a three-dimensional stereoscopic spherical image in which a pair of hemispherical images (see FIGS. 4A and 4B) are attached to the inner wall of a 360° spherical body. (See FIG. 5).

ここで、図4(A)に示すように、レンズ14Aは魚眼レンズであるため、このレンズ14Aによって得られた画像は、湾曲した半球画像(前側)となる。また、図4(B)に示されているように、レンズ14Bは魚眼レンズであるため、このレンズ14Bによって得られた画像は、湾曲した半球画像(後側)となる。そして、半球画像(前側)と半球画像(後側)は、撮影装置14によって合成されることで、全天球パノラマ画像60が作成される。 Here, as shown in FIG. 4A, since the lens 14A is a fisheye lens, the image obtained by this lens 14A is a curved hemispherical image (front side). Further, as shown in FIG. 4B, since the lens 14B is a fisheye lens, the image obtained by this lens 14B is a curved hemispherical image (rear side). Then, the hemispherical image (front side) and the hemispherical image (rear side) are combined by the photographing device 14 to create the omnidirectional panoramic image 60.

そして、本実施の形態では、撮影装置14は、撮影によって全天球パノラマ画像60を得るごとに、全天球パノラマ画像60をサーバ装置12へ順次送信する(図1参照)。 Then, in the present embodiment, the photographing device 14 sequentially transmits the spherical panoramic image 60 to the server device 12 each time the spherical panoramic image 60 is obtained by photographing (see FIG. 1).

本実施の形態では、撮影装置14が、半球画像を合成して全天球パノラマ画像60とした上で、サーバ装置12へ送信するものとして説明する。本実施の形態では、撮影装置14は、メルカトル図法により表される全天球パノラマ画像60(図4(C))を、サーバ装置12へ送信する場合を一例として説明する。 In the present embodiment, it is assumed that the imaging device 14 synthesizes the hemispherical images into the spherical panoramic image 60 and then transmits the panoramic image 60 to the server device 12. In the present embodiment, the case where the image capturing apparatus 14 transmits the omnidirectional panoramic image 60 (FIG. 4C) represented by the Mercator projection method to the server apparatus 12 will be described as an example.

なお、サーバ装置12が、撮影装置14から一対の半球画像を受信し、これらの半球画像を合成することで、全天球パノラマ画像60を作成してもよい。また、撮影装置14は、三次元の立体球の内壁に半球画像を貼り付けた、三次元の立体球状の全天球パノラマ画像60(図5参照)を、撮影装置14へ送信してもよい。 The server device 12 may receive the pair of hemispherical images from the image capturing device 14 and synthesize the hemispherical images to create the omnidirectional panoramic image 60. The image capturing device 14 may also transmit to the image capturing device 14 a three-dimensional spherical spherical panoramic image 60 (see FIG. 5) in which a hemispherical image is attached to the inner wall of the three-dimensional solid sphere. ..

この場合、撮影装置14では、OpenGL ES(Open Graphics Library for Embedded Systems)を利用することで、一対の半球画像を、球面の内壁を覆うように貼り付ける。これにより、撮影装置14は、図5に示すような球状の全天球パノラマ画像60を作成する。この場合、三次元の立体球状の全天球パノラマ画像60は、メルカトル図法で表される画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2−Dimensions)および3D(3−Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。 In this case, the imaging device 14 attaches the pair of hemispherical images so as to cover the inner wall of the spherical surface by using the OpenGL ES (Open Graphics Library for Embedded Systems). As a result, the image capturing device 14 creates a spherical omnidirectional panoramic image 60 as shown in FIG. In this case, the three-dimensional stereoscopic spherical panoramic image 60 is represented as an image represented by the Mercator projection in which the center of the sphere is oriented. Note that OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data.

ここで、全天球パノラマ画像60は、上述のように球面の内壁を覆うように貼り付けられた、360°の全方位の画像である。このため、表示時には、360°の全方位の内、仮想の視点方向を中心とした画像として表示することが好ましい。また、この場合、全天球パノラマ画像60の一部の所定領域を、該視点方向を中心とした湾曲の少ない平面画像として表示することが好ましい。これにより、人間に違和感を与えない表示をすることが可能となる。 Here, the omnidirectional panoramic image 60 is a 360° omnidirectional image attached so as to cover the inner wall of the spherical surface as described above. Therefore, at the time of display, it is preferable to display an image centered on the virtual viewpoint direction in all 360° directions. Further, in this case, it is preferable to display a part of the predetermined area of the omnidirectional panoramic image 60 as a flat image with little curvature centered on the viewpoint direction. As a result, it is possible to provide a display that does not give a sense of discomfort to humans.

図6および図7は、三次元の立体球状と仮定した全天球パノラマ画像60と、所定領域Sと、の位置関係の説明図である。 6 and 7 are explanatory diagrams of the positional relationship between the omnidirectional spherical panoramic image 60, which is assumed to be a three-dimensional solid spherical shape, and the predetermined area S.

全天球パノラマ画像60が、図6および図7に示すような、三次元の立体球状(立体球CS)であると仮定する。この場合、仮想撮影装置Cを、この立体球CSの内壁を撮影可能な位置に位置させる。仮想撮影装置Cは、3次元の立体球CSとして表示された全天球パノラマ画像60を視認する、ユーザの視点位置に相当する。 It is assumed that the spherical panoramic image 60 is a three-dimensional solid spherical (solid sphere CS) as shown in FIGS. 6 and 7. In this case, the virtual photographing device C is positioned at a position where the inner wall of the solid sphere CS can be photographed. The virtual imaging device C corresponds to the viewpoint position of the user who visually recognizes the spherical panoramic image 60 displayed as the three-dimensional solid sphere CS.

すると、この立体球CSの中心を原点とした座標系が構築される。所定領域Sは、仮想撮影装置Cが全天球パノラマ画像60より狭い画角で、該立体球状の全天球パノラマ画像60における所定の視点方向を撮影したときの、撮影画角に相当する領域である。 Then, a coordinate system with the center of the solid sphere CS as the origin is constructed. The predetermined area S is an area corresponding to a shooting angle of view when the virtual shooting device C shoots a predetermined viewpoint direction in the spherical spherical panoramic image 60 with a narrower viewing angle than the spherical panoramic image 60. Is.

所定領域Sは、視点方向情報によって特定される。本実施の形態では、視点方向情報を、三次元の立体球状と仮定した全天球パノラマ画像60における、矩形状の所定領域Sの4つの頂点の内の1つの頂点CPの三次元座標情報(x,y,z)と、所定領域Sの範囲(幅および高さ(w,h))と、で表す。 The predetermined area S is specified by the viewpoint direction information. In the present embodiment, the viewpoint direction information is the three-dimensional coordinate information of one vertex CP among the four vertices of the rectangular predetermined area S in the omnidirectional panoramic image 60, which is assumed to be a three-dimensional stereoscopic spherical shape ( x, y, z) and the range (width and height (w, h)) of the predetermined area S.

なお、所定領域Sを、座標(x,y)と、撮影画角αと、で表してもよい。この座標(x,y)は、仮想撮影装置Cの位置を原点としたときの、立体球CSにおける所定領域Sの中心位置CP’を示す。撮影画角αは、仮想撮影装置Cの撮影倍率(ズーム)によって特定される。なお、所定領域情報は、さらに、仮想撮影装置Cの姿勢を示す撮影姿勢情報を含んだものであってもよい。仮想撮影装置Cの撮影姿勢情報は、立体球CSの中心を原点とした座標系を構成する3軸の各々の回転角(ヨー、ピッチ、ロール)によって特定される。 The predetermined area S may be represented by the coordinates (x, y) and the shooting angle of view α. The coordinates (x, y) indicate the center position CP′ of the predetermined area S in the solid sphere CS when the position of the virtual imaging device C is the origin. The shooting angle of view α is specified by the shooting magnification (zoom) of the virtual shooting device C. The predetermined area information may further include shooting posture information indicating the posture of the virtual shooting device C. The shooting posture information of the virtual shooting device C is specified by the rotation angles (yaw, pitch, roll) of the three axes that form the coordinate system with the center of the solid sphere CS as the origin.

本実施の形態の情報処理システム10では、全天球パノラマ画像60における所定領域Sを視点方向として、情報処理端末18などに表示する。このため、情報処理システム10は、人間に違和感を与えない表示の可能な構成となっている。なお、視点方向は、情報処理端末18を操作するユーザによる操作指示などによって変更可能である。すなわち、ユーザは、情報処理端末18を用いて視点方向の変更指示を入力することで、全天球パノラマ画像60における視点方向(すなわち全天球パノラマ画像60における、表示画面に表示させる領域)を変更することができる。 In the information processing system 10 of the present embodiment, the predetermined area S in the omnidirectional panoramic image 60 is displayed as the viewpoint direction on the information processing terminal 18 or the like. Therefore, the information processing system 10 has a configuration capable of displaying without giving a sense of discomfort to humans. The viewpoint direction can be changed by an operation instruction from a user who operates the information processing terminal 18. That is, the user inputs the instruction to change the viewpoint direction using the information processing terminal 18 to change the viewpoint direction in the omnidirectional panorama image 60 (that is, the area to be displayed on the display screen in the omnidirectional panorama image 60). Can be changed.

次に、撮影装置14のハードウェア構成を説明する。 Next, the hardware configuration of the photographing device 14 will be described.

図8は、撮影装置14のハードウェア構成を示す模式図である。撮影装置14は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、および電子コンパス118を備える。 FIG. 8 is a schematic diagram showing the hardware configuration of the photographing device 14. The imaging device 14 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, and an SRAM (Static Random Access Memory). 113, a DRAM (Dynamic Random Access Memory) 114, an operation unit 115, a network I/F 116, a communication unit 117, an antenna 117a, and an electronic compass 118.

撮像ユニット101は、レンズ14Aと、レンズ14Bと、撮像素子13Aと、撮像素子13Bと、を備える。撮像素子13Aは、レンズ14Aに対応して設けられている。撮像素子13Bは、レンズ14Bに対応して設けられている。撮像素子13Aおよび撮像素子13Bは、レンズ14Aおよびレンズ14Bの各々による光学像を電気信号の画像データに変換して出力する。 The image pickup unit 101 includes a lens 14A, a lens 14B, an image pickup element 13A, and an image pickup element 13B. The image sensor 13A is provided corresponding to the lens 14A. The image sensor 13B is provided corresponding to the lens 14B. The image pickup device 13A and the image pickup device 13B convert the optical images formed by the lenses 14A and 14B into image data of electric signals and output the image data.

撮像素子13Aおよび撮像素子13Bの各々は、画像処理ユニット104とパラレルI/Fバスで接続されている。また、撮像素子13Aおよび撮像素子13Bは、撮像制御ユニット105とシリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104および撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116なども接続されている。 Each of the image pickup device 13A and the image pickup device 13B is connected to the image processing unit 104 by a parallel I/F bus. The image pickup device 13A and the image pickup device 13B are connected to the image pickup control unit 105 by a serial I/F bus (I2C bus or the like). The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Further, a ROM 112, SRAM 113, DRAM 114, operation unit 115, network I/F 116 and the like are also connected to the bus 110.

画像処理ユニット104は、撮像素子13Aおよび撮像素子13Bから出力された半球画像の画像データをパラレルI/Fバスを通して取り込む。そして、画像処理ユニット104は、これらの半球画像の画像データを合成し、全天球パノラマ画像60を作成する。 The image processing unit 104 takes in the image data of the hemispherical image output from the image pickup device 13A and the image pickup device 13B through a parallel I/F bus. Then, the image processing unit 104 synthesizes the image data of these hemispherical images to create the omnidirectional panoramic image 60.

撮像制御ユニット105は、撮像制御ユニット105をマスタデバイス、撮像素子13Aおよび撮像素子13Bをスレーブデバイスとして、I2Cバスを利用して、撮像素子13Aおよび撮像素子13Bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、I2Cバスを利用して、撮像素子13Aおよび撮像素子13Bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The imaging control unit 105 sets commands and the like in the register group of the imaging elements 13A and 13B using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 13A and 13B as slave devices. Necessary commands and the like are received from the CPU 111. Further, the imaging control unit 105 uses the I2C bus to take in status data and the like of the register group of the imaging device 13A and the imaging device 13B and send it to the CPU 111.

また、撮像制御ユニット105は、CPU111と協働して撮像素子13Aおよび撮像素子13Bの、半球画像の画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施の形態では、撮影装置14には表示部が設けられていないが、表示部を設けてもよい。 The imaging control unit 105 also functions as a synchronization control unit that cooperates with the CPU 111 to synchronize the output timings of the image data of the hemispherical images of the imaging elements 13A and 13B. In addition, in the present embodiment, the image capturing device 14 is not provided with a display unit, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I/F bus and performs a predetermined process on the sound data.

CPU111は、撮影装置14の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113およびDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。DRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの全天球パノラマ画像60を記憶する。 The CPU 111 controls the entire operation of the photographing device 14 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories and store programs executed by the CPU 111, data in the middle of processing, and the like. The DRAM 114 stores image data in the process of being processed by the image processing unit 104 and the processed spherical panoramic image 60.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインターフェースである場合も考えられる。DRAM114に記憶された全天球パノラマ画像60は、このネットワークI/F116を介して外付けのメディアに記録、または、ネットワークI/F116を介して通信端末15等の外部装置に送信される。 The network I/F 116 is a general term for interface circuits (USB I/F, etc.) with external media such as SD cards and personal computers. Further, the network I/F 116 may be a network interface regardless of whether it is wireless or wired. The spherical panoramic image 60 stored in the DRAM 114 is recorded on an external medium via the network I/F 116 or transmitted to an external device such as the communication terminal 15 via the network I/F 116.

通信部117は、撮影装置14に設けられたアンテナ117aを介して、Wi−FiやNFC等の短距離無線技術によって、通信端末15等の外部装置と通信を行う。通信部117が、全天球パノラマ画像60を通信端末15の外部装置に送信してもよい。 The communication unit 117 communicates with an external device such as the communication terminal 15 via the antenna 117a provided in the imaging device 14 by a short-range wireless technology such as Wi-Fi or NFC. The communication unit 117 may transmit the spherical panoramic image 60 to an external device of the communication terminal 15.

電子コンパス118は、地球の磁気から撮影装置14の姿勢(回転角(ヨー、ピッチ、ロール))を示す撮影姿勢情報を検出する。なお、電子コンパス118は、現在の撮影装置14の位置を示すGPS(Global Positioning System)機能を更に備えていてもよい。 The electronic compass 118 detects shooting attitude information indicating the attitude (rotation angle (yaw, pitch, roll)) of the imaging device 14 from the magnetism of the earth. The electronic compass 118 may further include a GPS (Global Positioning System) function that indicates the current position of the imaging device 14.

次に、サーバ装置12および情報処理端末18のハードウェア構成を説明する。図9は、サーバ装置12および情報処理端末18のハードウェア構成図の一例である。 Next, the hardware configurations of the server device 12 and the information processing terminal 18 will be described. FIG. 9 is an example of a hardware configuration diagram of the server device 12 and the information processing terminal 18.

サーバ装置12および情報処理端末18は、CPU501、ROM502、RAM503、HDD(Hard Disk Drive)505、メディアドライブ507、ディスプレイ508、ネットワークI/F509、キーボード511、マウス512、およびCD−ROMドライブ514を、バス510を介して接続した構成である。メディアドライブ507は、フラッシュメモリ等の記録メディア506に対してデータの読み出し又は書き込み(記憶)を行う。CD−ROMドライブ514は、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを行う。なお、サーバ装置12および情報処理端末18は、ディスプレイ508と、キーボード511と、マウス512と、を一体的に構成した、タッチパネルを備えた構成であってもよい。 The server device 12 and the information processing terminal 18 include a CPU 501, a ROM 502, a RAM 503, a HDD (Hard Disk Drive) 505, a media drive 507, a display 508, a network I/F 509, a keyboard 511, a mouse 512, and a CD-ROM drive 514. The configuration is such that they are connected via a bus 510. The media drive 507 reads or writes (stores) data with respect to the recording medium 506 such as a flash memory. The CD-ROM drive 514 reads or writes various data from or into a CD-ROM (Compact Disc Read Only Memory) 513 as an example of a removable recording medium. It should be noted that the server device 12 and the information processing terminal 18 may be configured to include a touch panel in which the display 508, the keyboard 511, and the mouse 512 are integrally configured.

次に、本実施の形態の情報処理システム10が行う情報処理の流れの概要を説明する。図10は、情報処理システム10が行う情報処理の流れの概要の一例を示す、説明図である。 Next, an outline of the flow of information processing performed by the information processing system 10 of the present embodiment will be described. FIG. 10 is an explanatory diagram showing an example of an outline of the flow of information processing performed by the information processing system 10.

本実施の形態では、撮影装置14は、撮影によって得られた全天球パノラマ画像60と、該全天球パノラマ画像60に対応する関連情報61と、を通信端末15および無線ルータ16を介して、サーバ装置12へ送信する(ステップS1、ステップS2)。 In the present embodiment, the image capturing device 14 transmits the omnidirectional panoramic image 60 obtained by photographing and the related information 61 corresponding to the omnidirectional spherical panoramic image 60 via the communication terminal 15 and the wireless router 16. , To the server device 12 (steps S1 and S2).

本実施の形態では、撮影装置14は、予め定められた位置に固定されているものとして説明する。また、撮影装置14は、連続撮影を行い、連続撮影によって得られた全天球パノラマ画像60の各々を、順次、サーバ装置12へ送信するものとして説明する。 In the present embodiment, the imaging device 14 will be described as being fixed at a predetermined position. Further, it is assumed that the image capturing device 14 performs continuous shooting and sequentially transmits each of the spherical panoramic images 60 obtained by the continuous shooting to the server device 12.

すなわち、本実施の形態では、撮影装置14は、時系列に連続した複数の(複数フレームの)全天球パノラマ画像60を、サーバ装置12へ順次送信するものとして説明する。 That is, in the present embodiment, the imaging device 14 will be described as sequentially transmitting a plurality of (several frames) spherical panoramic images 60 that are continuous in time series to the server device 12.

また、撮影装置14は、全天球パノラマ画像60に対応する関連情報61を、全天球パノラマ画像60と共にサーバ装置12へ送信する。すなわち、撮影装置14は、各フレームの全天球パノラマ画像60の各々に対応する関連情報61を、全天球パノラマ画像60と共にサーバ装置12へ送信する。 Further, the image capturing device 14 transmits the related information 61 corresponding to the spherical panoramic image 60 to the server device 12 together with the spherical panoramic image 60. That is, the imaging device 14 transmits the related information 61 corresponding to each of the spherical panoramic images 60 of each frame to the server device 12 together with the spherical panoramic image 60.

関連情報61は、対応する全天球パノラマ画像60の撮影日時を示す撮影日時情報と、撮影装置識別情報(以下、撮影装置IDと称する)と、を含む。 The related information 61 includes shooting date/time information indicating the shooting date/time of the corresponding omnidirectional panoramic image 60, and shooting device identification information (hereinafter, referred to as shooting device ID).

関連情報61に含まれる撮影装置IDは、該関連情報61に対応する全天球パノラマ画像60を撮影した、撮影装置14を識別するための識別情報である。 The image capturing device ID included in the related information 61 is identification information for identifying the image capturing device 14 that has captured the spherical panoramic image 60 corresponding to the related information 61.

サーバ装置12は、撮影装置14から全天球パノラマ画像60および関連情報61を受信すると、該全天球パノラマ画像60および関連情報61を記憶する。そして、サーバ装置12は、位置特定処理を行う(ステップS3)。位置特定処理は、全天球パノラマ画像60に含まれる人物の位置を特定する処理である(詳細後述)。 Upon receiving the omnidirectional panoramic image 60 and the related information 61 from the imaging device 14, the server device 12 stores the omnidirectional panoramic image 60 and the related information 61. Then, the server device 12 performs a position specifying process (step S3). The position specifying process is a process of specifying the position of a person included in the spherical panoramic image 60 (details will be described later).

一方、情報処理端末18は、解析結果取得要求を、サーバ装置12へ送信する(ステップS4)。情報処理端末18は、ユーザの操作指示を受付けることで、1または複数の全天球パノラマ画像60における人物の位置などの解析結果取得要求を、サーバ装置12へ送信する。 On the other hand, the information processing terminal 18 transmits an analysis result acquisition request to the server device 12 (step S4). The information processing terminal 18 receives an operation instruction from the user and transmits an analysis result acquisition request such as the position of a person in one or more omnidirectional panoramic images 60 to the server device 12.

解析結果取得要求を受信すると、サーバ装置12は、特定した人物の位置を含む解析結果情報を、情報処理端末18へ送信する(ステップS5)。情報処理端末18は、受信した解析結果情報に示される、人物の位置などを表示する。なお、解析結果情報に示される、人物の位置などの表示は、サーバ装置12側で行ってもよい。 Upon receiving the analysis result acquisition request, the server device 12 transmits the analysis result information including the position of the identified person to the information processing terminal 18 (step S5). The information processing terminal 18 displays the position and the like of the person shown in the received analysis result information. It should be noted that the display of the position of the person and the like shown in the analysis result information may be performed on the server device 12 side.

次に、本実施の形態の情報処理システム10を構成する各装置の機能について、詳細に説明する。 Next, the function of each device constituting the information processing system 10 of the present embodiment will be described in detail.

図11は、情報処理システム10における、サーバ装置12、撮影装置14、通信端末15、および情報処理端末18の各々の機能的構成を示す模式図である。 FIG. 11 is a schematic diagram showing a functional configuration of each of the server device 12, the imaging device 14, the communication terminal 15, and the information processing terminal 18 in the information processing system 10.

撮影装置14は、撮影部14Eと、記憶部14Fと、接続部14Gと、記憶・読出部14Iと、を備える。撮影部14Eは、撮影によって半球画像の画像データを取得し、記憶部14Fへ記憶する。撮影部14Eは、同じ撮影タイミングの一対の半球画像の画像データを記憶部14Fから読出し、全天球パノラマ画像60を生成する。また、記憶・読出部14Iは、生成した全天球パノラマ画像60の撮影日時情報と、該撮影装置14の撮影装置IDと、を関連情報61として記憶部14Fから読出す。そして、接続部14Gは、撮影部14Eで生成された全天球パノラマ画像60と、関連情報61と、を通信端末15へ送信する。 The imaging device 14 includes an imaging unit 14E, a storage unit 14F, a connection unit 14G, and a storage/readout unit 14I. The photographing unit 14E acquires image data of a hemispherical image by photographing and stores the image data in the storage unit 14F. The image capturing unit 14E reads out image data of a pair of hemispherical images at the same image capturing timing from the storage unit 14F and generates a spherical panoramic image 60. The storage/readout unit 14I also reads out the shooting date/time information of the generated spherical panorama image 60 and the shooting device ID of the shooting device 14 from the storage unit 14F as the related information 61. Then, the connection unit 14G transmits the omnidirectional panoramic image 60 generated by the imaging unit 14E and the related information 61 to the communication terminal 15.

通信端末15は、接続部15Aと、送受信部15Bと、を備える。接続部15Aは、撮影装置14の接続部14Gに接続されている。接続部15Aは、撮影装置14から、全天球パノラマ画像60および関連情報61を受信する。送受信部15Bは、接続部15Aを介して撮影装置14と通信する。また、送受信部15Bは、ネットワーク20を介してサーバ装置12と通信する。本実施の形態では、送受信部15Bは、接続部15Aを介して撮影装置14から取得した全天球パノラマ画像60および関連情報61を、無線ルータ16(図1参照)およびネットワーク20を介してサーバ装置12へ送信する。 The communication terminal 15 includes a connection unit 15A and a transmission/reception unit 15B. The connecting portion 15A is connected to the connecting portion 14G of the image capturing device 14. The connection unit 15A receives the omnidirectional panoramic image 60 and the related information 61 from the imaging device 14. The transmitter/receiver 15B communicates with the imaging device 14 via the connector 15A. Further, the transmission/reception unit 15B communicates with the server device 12 via the network 20. In the present embodiment, the transmitting/receiving unit 15B sends the spherical panoramic image 60 and related information 61 acquired from the imaging device 14 via the connection unit 15A to the server via the wireless router 16 (see FIG. 1) and the network 20. Send to device 12.

サーバ装置12は、制御部12Aと、記憶部12Bと、表示部12Fと、入力部12Gと、を備える。記憶部12B、表示部12F、および入力部12Gと、制御部12Aと、は、データや信号を授受可能に接続されている。 The server device 12 includes a control unit 12A, a storage unit 12B, a display unit 12F, and an input unit 12G. The storage unit 12B, the display unit 12F, the input unit 12G, and the control unit 12A are connected to each other so that data and signals can be exchanged.

表示部12Fは、各種画像を表示する。表示部12Fは、例えば、LCDなどである。表示部12Fは、例えば、ディスプレイ508(図9参照)で実現する。入力部12Gは、ユーザによる操作指示を受付ける。入力部12Gは、例えば、キーボード、マウス、などである。入力部12Gは、例えば、キーボード511やマウス512(図9参照)で実現する。 The display unit 12F displays various images. The display unit 12F is, for example, an LCD or the like. The display unit 12F is realized by, for example, the display 508 (see FIG. 9). The input unit 12G receives an operation instruction from the user. The input unit 12G is, for example, a keyboard, a mouse, or the like. The input unit 12G is realized by, for example, a keyboard 511 or a mouse 512 (see FIG. 9).

記憶部12Bは、各種データを記憶する。記憶部12Bは、例えば、画像管理DB(データベース)12Cと、特定情報12Hと、を記憶する。画像管理DB12Cには、全天球パノラマ画像60や、解析情報(詳細後述)などが格納される。特定情報12Hは、第1の特定情報12Dと、第2の特定情報12Eと、を含む。 The storage unit 12B stores various data. The storage unit 12B stores, for example, an image management DB (database) 12C and specific information 12H. The image management DB 12C stores a spherical panorama image 60, analysis information (details will be described later), and the like. The specific information 12H includes first specific information 12D and second specific information 12E.

図12は、第1の特定情報12Dおよび第2の特定情報12Eのデータ構成の一例を示す模式図である。 FIG. 12 is a schematic diagram showing an example of the data structure of the first specific information 12D and the second specific information 12E.

図12(A)は、第1の特定情報12Dのデータ構成の一例を示す模式図である。第1の特定情報12Dは、人物の姿勢に応じた、人物の位置を特定するための位置特定条件を示す情報である。具体的には、第1の特定情報12Dは、姿勢と、位置特定条件と、を対応づけたものである。 FIG. 12A is a schematic diagram showing an example of the data structure of the first specific information 12D. The first specifying information 12D is information indicating a position specifying condition for specifying the position of the person according to the posture of the person. Specifically, the first identification information 12D associates the posture with the position identification condition.

姿勢は、人物の姿勢である。姿勢は、例えば、立位、座位(椅座位、しゃがむ)、仰臥位、逆立ち、などである。立位とは、頭部、体幹、および四肢が略一直線になるように、下肢を地面側にして立った状態を示す姿勢である。座位は、座った状態を示す姿勢である。座位には、複数の種類の姿勢がある。例えば、椅座位は、椅子に座った状態を示す姿勢である。しゃがむ、は、しゃがんだ状態を示す姿勢である。仰臥位は、背部を地面側にして下肢を伸ばして横になった状態を示す姿勢である。逆立ちは、両手および頭部を地面側にし、下肢を反地面側にして、頭部、体幹、および四肢が略一直線になるように、立った状態を示す姿勢である。 The posture is the posture of the person. The posture is, for example, standing, sitting (chair sitting, squatting), supine, handstand, or the like. The standing position is a posture in which the user stands with the lower limb on the ground side so that the head, the trunk, and the four limbs are in a substantially straight line. The sitting position is a posture indicating a sitting state. There are several types of postures in sitting position. For example, sitting on a chair is a posture indicating a state of sitting on a chair. Crouching is a posture that indicates a crouched state. The supine position is a posture in which the back is on the ground side and the lower limbs are extended to lie down. The handstand is a posture in which the user stands with both hands and the head on the ground side and the lower limbs on the anti-ground side so that the head, the trunk, and the four limbs are in a substantially straight line.

なお、第1の特定情報12Dに登録される姿勢は、これらに限定されない。 The attitude registered in the first specific information 12D is not limited to these.

第1の特定情報12Dには、姿勢に対応する位置特定条件が登録されている。位置特定条件は、対応する姿勢の人物の位置を特定するための条件である。第1の特定情報12Dに登録されている位置特定条件は、全天球パノラマ画像60における、対応する姿勢の人物を視認したときに、該人物の位置として違和感のない位置を特定するための条件を示すことが好ましい。 The position specifying condition corresponding to the posture is registered in the first specifying information 12D. The position specifying condition is a condition for specifying the position of a person having a corresponding posture. The position specifying condition registered in the first specifying information 12D is a condition for specifying a position that does not cause a sense of discomfort as the position of the person in the spherical panorama image 60 when the person in the corresponding posture is visually recognized. Is preferably shown.

図12(A)に示す例では、第1の特定情報12Dには、姿勢“立位”に対応する位置特定条件として、“人物の両足先間の中央位置”が登録されている。また、第1の特定情報12Dには、姿勢“椅座位”“しゃがむ”の各々に対応する位置特定条件として、“人物の両足先間の中央位置”が登録されている。 In the example shown in FIG. 12A, "center position between both toes of a person" is registered as the position specifying condition corresponding to the posture "standing" in the first specifying information 12D. Further, in the first identification information 12D, "center position between both toes of a person" is registered as a position identification condition corresponding to each of the postures "sitting position" and "squatting".

また、第1の特定情報12Dには、姿勢“仰臥位”に対応する位置特定条件として、“人物領域の中央位置”が登録されている。また、第1の特定情報12Dには、姿勢“逆立ち”に対応する位置特定条件として、“人物の両手先間の中央位置”が登録されている。 Further, in the first identification information 12D, "center position of person area" is registered as a position identification condition corresponding to the posture "supine". In the first identification information 12D, "center position between both hands of person" is registered as a position identification condition corresponding to the posture "handstand".

このように、第1の特定情報12Dには、姿勢の各々に応じた、人物の位置を特定するための位置特定条件が予め登録されている。そして、第1の特定情報12Dに登録されている位置特定条件には、姿勢に応じて異なるものが含まれる。このため、後述する制御部12Aでは、全天球パノラマ画像60に含まれる人物の姿勢に応じた位置を、人物の位置として特定することができる(詳細後述)。 As described above, in the first identification information 12D, the position identification condition for identifying the position of the person corresponding to each posture is registered in advance. The position specifying conditions registered in the first specifying information 12D include different ones depending on the posture. Therefore, the control unit 12A described later can specify a position corresponding to the posture of the person included in the spherical panoramic image 60 as the position of the person (details will be described later).

なお、第1の特定情報12Dにおける、姿勢および対応する位置特定条件は、ユーザによる操作指示などによって変更可能である(詳細後述)。 The posture and the corresponding position specifying condition in the first specifying information 12D can be changed by a user's operation instruction or the like (details will be described later).

次に、第2の特定情報12Eについて説明する。図12(B)は、第2の特定情報12Eのデータ構成の一例を示す模式図である。第2の特定情報12Eは、人物の姿勢と、周辺領域と、に対応する、位置特定条件が登録されている。具体的には、第2の特定情報12Eは、姿勢と、周辺領域と、位置特定条件と、を対応づけたものである。 Next, the second specific information 12E will be described. FIG. 12B is a schematic diagram showing an example of the data structure of the second specific information 12E. Position identification conditions corresponding to the posture of the person and the surrounding area are registered in the second identification information 12E. Specifically, the second identification information 12E associates the posture, the peripheral region, and the position identification condition with each other.

第2の特定情報12Eにおける姿勢は、第1の特定情報12Dと同様である。周辺領域は、画像(本実施の形態では全天球パノラマ画像60)における、人物を示す人物領域の周辺の領域である。周辺の領域とは、人物領域の周辺の予め定めた範囲内の領域である。 The posture of the second specific information 12E is the same as that of the first specific information 12D. The peripheral area is an area around the person area showing the person in the image (the spherical panoramic image 60 in the present embodiment). The peripheral area is an area within a predetermined range around the person area.

本実施の形態では、周辺領域は、人物領域に示される人物の周辺に存在する他の物体(以下、周辺物と称する)を示す場合を説明する。詳細には、本実施の形態では、周辺領域は、人物領域に示される人物に連続して配置されている周辺物や、該人物に所定間隔を隔てて(不連続に)配置されている周辺物を示す。周辺物は、例えば、椅子、ベッド、布団、テーブル、棚、車両(自動車、自転車、台車など)である。 In the present embodiment, a case will be described in which the peripheral area indicates another object (hereinafter referred to as a peripheral object) existing around the person shown in the person area. In detail, in the present embodiment, the peripheral area is a peripheral object continuously arranged with respect to the person shown in the person area or a peripheral object arranged at a predetermined interval (discontinuously) with respect to the person. Indicates a thing. The peripheral objects are, for example, chairs, beds, futons, tables, shelves, and vehicles (automobiles, bicycles, carts, etc.).

なお、周辺領域は、人物の周辺の物体を示す場合に限定されず、人物の周辺の風景や環境を示すものであってもよい。 The peripheral area is not limited to the case where the object around the person is shown, and may be the scene or environment around the person.

第2の特定情報12Eに登録されている位置特定条件は、姿勢および周辺物に対応付けて登録されている。第2の特定情報12Eにおける位置特定条件は、対応する周辺物が周辺に配置された、対応する姿勢の人物の位置を、特定するための条件である。第2の特定情報12Eに登録されている位置特定条件は、全天球パノラマ画像60における、対応する周辺物が周囲に配置された、対応する姿勢の人物を視認したときに、該人物の位置として違和感のない位置を特定するための条件を示すことが好ましい。 The position specifying condition registered in the second specifying information 12E is registered in association with the posture and peripheral objects. The position specifying condition in the second specifying information 12E is a condition for specifying the position of the person having the corresponding posture in which the corresponding peripheral object is arranged around. The position specifying condition registered in the second specifying information 12E is the position of the person in the spherical panorama image 60 when the person in the corresponding posture is visually recognized around the surrounding object. It is preferable to indicate a condition for specifying a position that does not cause discomfort.

図12(B)に示す例では、第2の特定情報12Eには、姿勢“立位”に対応する位置特定条件として、“人物の両足先間の中央位置”が登録されている。また、第2の特定情報12Eには、姿勢“椅座位”および周辺物“椅子”に対応する位置特定条件として、“人物領域と椅子領域との接線の中心位置”が登録されている。 In the example shown in FIG. 12B, the "center position between the toes of the person" is registered as the position specifying condition corresponding to the posture "standing" in the second specifying information 12E. In the second identification information 12E, "center position of tangent line between person area and chair area" is registered as the position identification condition corresponding to the posture "chair sitting" and the peripheral object "chair".

また、第2の特定情報12Eには、姿勢“仰臥位”および周辺物“ベッド,布団”に対応する位置特定条件として、“人物領域の中央位置”が登録されている。 Further, in the second identification information 12E, "center position of person area" is registered as the position identification condition corresponding to the posture "supine" and the peripheral "bed, futon".

このように、第2の特定情報12Eには、姿勢および周辺物に応じた、人物の位置を特定するための位置特定条件が予め登録されている。そして、第2の特定情報12Eに登録されている位置特定条件には、姿勢および周辺物に応じて異なるものが含まれる。このため、後述する制御部12Aでは、全天球パノラマ画像60に含まれる人物の姿勢および周辺物に応じた位置を、人物の位置として特定することができる(詳細後述)。 As described above, in the second identification information 12E, the position identification condition for identifying the position of the person according to the posture and the surrounding objects is registered in advance. Then, the position specifying conditions registered in the second specifying information 12E include different ones depending on the posture and peripheral objects. Therefore, the control unit 12A, which will be described later, can specify the position of the person included in the omnidirectional panorama image 60 according to the posture and surrounding objects as the position of the person (details will be described later).

なお、第2の特定情報12Eにおける、姿勢、周辺物、および対応する位置特定条件は、ユーザによる操作指示などによって変更可能である(詳細後述)。 It should be noted that the posture, peripheral objects, and corresponding position specifying conditions in the second specifying information 12E can be changed by an operation instruction from the user (details will be described later).

次に、画像管理DB12Cのデータ構成を説明する。図13は、画像管理DB12Cのデータ構成の一例を示す模式図である。画像管理DB12Cは、撮影画像情報と、解析情報と、を管理するためのデータベースである。なお、画像管理DB12Cのデータ構成は、データベースに限定されず、テーブルなどであってもよい。 Next, the data structure of the image management DB 12C will be described. FIG. 13 is a schematic diagram showing an example of the data configuration of the image management DB 12C. The image management DB 12C is a database for managing captured image information and analysis information. The data structure of the image management DB 12C is not limited to the database and may be a table or the like.

撮影画像情報は、撮影装置14の各々で撮影された全天球パノラマ画像60に関する情報である。図13に示す例では、撮影画像情報は、撮影装置14で撮影された全天球パノラマ画像60を識別するための画像IDと、画像IDによって識別される全天球パノラマ画像60と、全天球パノラマ画像60を撮影した撮影装置14を識別するための撮影装置IDと、全天球パノラマ画像60の撮影日時情報と、を含む。 The captured image information is information regarding the omnidirectional panoramic image 60 captured by each of the capturing devices 14. In the example illustrated in FIG. 13, the captured image information includes an image ID for identifying the spherical panoramic image 60 captured by the capturing device 14, a spherical panoramic image 60 identified by the image ID, and a spherical image. It includes a photographing device ID for identifying the photographing device 14 that photographed the spherical panoramic image 60, and photographing date and time information of the omnidirectional spherical panoramic image 60.

サーバ装置12の制御部12Aは、撮影装置14から全天球パノラマ画像60および関連情報61を受信する毎に、受信した全天球パノラマ画像60と、関連情報61に含まれる撮影装置IDおよび撮影日時情報と、を、対応づけて画像管理DB12Cへ登録する。またこのとき、制御部12Aは、全天球パノラマ画像60に画像IDを付与し、画像管理DB12Cへ登録する。これによって、画像管理DB12Cにおける撮影画像情報が、順次更新される。 Every time the control unit 12A of the server device 12 receives the omnidirectional panoramic image 60 and the related information 61 from the imaging device 14, the received omnidirectional panoramic image 60, the imaging device ID and the imaging included in the related information 61. The date and time information is associated and registered in the image management DB 12C. At this time, the control unit 12A adds an image ID to the omnidirectional panoramic image 60 and registers it in the image management DB 12C. As a result, the captured image information in the image management DB 12C is sequentially updated.

解析情報は、制御部12Aによる全天球パノラマ画像60の解析結果を示す情報である。解析情報は、制御部12Aによる後述する処理によって、画像管理DB12Cへ登録される。 The analysis information is information indicating the analysis result of the spherical panoramic image 60 by the control unit 12A. The analysis information is registered in the image management DB 12C by the processing described later by the control unit 12A.

解析情報は、人物領域IDと、領域情報と、姿勢と、周辺物と、人物の位置と、を含む。 The analysis information includes a person area ID, area information, a posture, peripheral objects, and a person's position.

人物領域IDは、対応する全天球パノラマ画像60に含まれる人物領域の各々の識別情報である。人物領域とは、全天球パノラマ画像60における人物を示す領域である。人物領域は、全天球パノラマ画像60における、人物を含む領域であればよい。具体的には、人物領域は、全天球パノラマ画像60における人物の輪郭の内側の領域であってもよいし、人物を予め定めた形状(例えば、矩形状)に囲む領域であってもよい。本実施の形態では、人物領域は、全天球パノラマ画像60における人物を個別に(1人ずつ)矩形状に囲む領域である場合を、一例として説明する。 The person area ID is identification information of each person area included in the corresponding spherical panoramic image 60. The person area is an area showing a person in the spherical panoramic image 60. The person area may be any area that includes a person in the spherical panoramic image 60. Specifically, the person area may be an area inside the outline of the person in the omnidirectional panorama image 60, or may be an area surrounding the person in a predetermined shape (for example, a rectangular shape). .. In the present embodiment, a case will be described as an example where the person area is an area that surrounds each person in the spherical panoramic image 60 individually (one by one) in a rectangular shape.

領域情報は、対応する全天球パノラマ画像60における、対応する人物領域IDによって識別される人物領域の位置座標およびサイズを示す情報である。図13に示す例では、人物領域は、人物領域を示す矩形によって構成される4頂点の内の1つ(例えば、矩形状の人物領域の左上側の頂点)の位置座標と、第1の方向(全天球パノラマ画像60の二次元平面における1つの方向、例えば、横方向)の長さと、第1の方向に直交する第2の方向(全天球パノラマ画像60の二次元平面における、第1の方向に直交する方向、例えば、縦方向)の長さと、で表せる。 The area information is information indicating the position coordinates and the size of the person area identified by the corresponding person area ID in the corresponding omnidirectional panoramic image 60. In the example illustrated in FIG. 13, the person area has a position coordinate of one of four vertices (for example, an upper left apex of the rectangular person area) formed by a rectangle indicating the person area, and a first direction. (One direction in the two-dimensional plane of the spherical panoramic image 60, for example, the lateral direction) and a second direction orthogonal to the first direction (the two-dimensional plane of the spherical panoramic image 60, The length in the direction orthogonal to the direction 1 (for example, the vertical direction) can be expressed as follows.

画像管理DB12Cにおける、解析情報に含まれる姿勢は、制御部12Aによって判別された、対応する人物領域IDによって識別される人物領域に含まれる人物の姿勢である。画像管理DB12Cにおける、解析情報に含まれる周辺物(周辺領域)は、制御部12Aによって特定された、該人物領域の周辺物である。 The posture included in the analysis information in the image management DB 12C is the posture of the person included in the person area identified by the corresponding person area ID determined by the control unit 12A. The peripheral object (peripheral area) included in the analysis information in the image management DB 12C is the peripheral object of the person area specified by the control unit 12A.

画像管理DB12Cにおける、解析情報に含まれる人物の位置は、制御部12Aによって特定された、対応する人物領域IDによって識別される人物領域に含まれる人物の、対応する全天球パノラマ画像60における位置である。画像管理DB12Cに登録される人物の位置は、全天球パノラマ画像60における位置を示す情報であればよい。本実施の形態では、画像管理DB12Cに登録される人物の位置は、全天球パノラマ画像60における人物の位置座標(x座標、y座標)を示す情報である。なお、x座標は、全天球パノラマ画像60の二次元平面における、第1の方向(例えば、横方向)の座標である。y座標は、全天球パノラマ画像60の二次元平面における、該第1の方向に直交する第2の方向(例えば、縦方向)の座標である。 The position of the person included in the analysis information in the image management DB 12C is the position in the corresponding omnidirectional panoramic image 60 of the person included in the person region identified by the corresponding person region ID specified by the control unit 12A. Is. The position of the person registered in the image management DB 12C may be information indicating the position in the spherical panorama image 60. In the present embodiment, the position of the person registered in the image management DB 12C is information indicating the position coordinate (x coordinate, y coordinate) of the person in the spherical panorama image 60. The x coordinate is the coordinate in the first direction (for example, the horizontal direction) on the two-dimensional plane of the spherical panoramic image 60. The y coordinate is the coordinate in the second direction (for example, the vertical direction) orthogonal to the first direction on the two-dimensional plane of the spherical panoramic image 60.

図11に戻り説明を続ける。次に、サーバ装置12の制御部12Aについて説明する。制御部12Aは、サーバ装置12を制御する。制御部12Aは、CPU501、ROM502、およびRAM503などによって実現する(図9参照)。なお、制御部12Aは、回路などによって実現してもよい。 Returning to FIG. 11, the description will be continued. Next, the control unit 12A of the server device 12 will be described. The control unit 12A controls the server device 12. The control unit 12A is realized by the CPU 501, the ROM 502, the RAM 503, and the like (see FIG. 9). The control unit 12A may be realized by a circuit or the like.

本実施の形態のサーバ装置12で実行される各種処理を実行するためのプログラムは、ROM502などに予め組み込んで提供される。 Programs for executing various processes executed by the server device 12 according to the present embodiment are provided by being incorporated in the ROM 502 or the like in advance.

なお、本実施の形態のサーバ装置12で実行される各種処理を実行するためのプログラムは、サーバ装置12にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。 The program for executing various processes executed by the server device 12 of the present embodiment is a file in a format installable in the server device 12 or an executable format, which is a CD-ROM, a flexible disk (FD), It may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-R or a DVD (Digital Versatile Disk).

また、本実施の形態のサーバ装置12で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態のサーバ装置12における各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。 Further, the program executed by the server device 12 of the present embodiment may be stored in a computer connected to a network such as the Internet and may be provided by being downloaded via the network. Further, the program for executing each process in the server device 12 of the present embodiment may be provided or distributed via a network such as the Internet.

制御部12Aは、送受信部12Kと、記憶制御部12Pと、人物領域検出部12Mと、姿勢判別部12Jと、位置特定部12Qと、変更部12Sと、周辺特定部12Rと、重畳判別部12Tと、移動体判別部12Xと、表示制御部12Vと、受付部12Wと、水平補正部12Yと、歪補正部12Zと、を備える。 The control unit 12A includes a transmission/reception unit 12K, a storage control unit 12P, a person area detection unit 12M, a posture determination unit 12J, a position identification unit 12Q, a change unit 12S, a periphery identification unit 12R, and an overlap determination unit 12T. A moving body discrimination unit 12X, a display control unit 12V, a reception unit 12W, a horizontal correction unit 12Y, and a distortion correction unit 12Z.

送受信部12K、記憶制御部12P、人物領域検出部12M、姿勢判別部12J、位置特定部12Q、変更部12S、周辺特定部12R、重畳判別部12T、移動体判別部12X、表示制御部12V、受付部12W、水平補正部12Y、および、歪補正部12Zの一部または全ては、例えば、CPU501(図9参照)などの処理装置にプログラムを実行させること(すなわちソフトウェア)により実現してもよい。また、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、併用して実現してもよい。 Transmission/reception unit 12K, storage control unit 12P, person area detection unit 12M, posture determination unit 12J, position identification unit 12Q, change unit 12S, periphery identification unit 12R, superposition determination unit 12T, moving body determination unit 12X, display control unit 12V, Part or all of the reception unit 12W, the horizontal correction unit 12Y, and the distortion correction unit 12Z may be realized by causing a processing device such as the CPU 501 (see FIG. 9) to execute a program (that is, software). .. Further, it may be realized by hardware such as an IC (Integrated Circuit) or may be realized in combination.

送受信部12Kは、ネットワーク20を介して撮影装置14および情報処理端末18の各々とデータの送受信を行う。 The transmission/reception unit 12K transmits/receives data to/from each of the imaging device 14 and the information processing terminal 18 via the network 20.

例えば、送受信部12Kは、撮影装置14から、通信端末15、無線ルータ16、およびネットワーク20を介して、全天球パノラマ画像60および関連情報61を受信する。送受信部12Kは、受信した全天球パノラマ画像60および関連情報61を、記憶制御部12Pへ出力する。 For example, the transmission/reception unit 12K receives the omnidirectional panoramic image 60 and the related information 61 from the imaging device 14 via the communication terminal 15, the wireless router 16, and the network 20. The transmission/reception unit 12K outputs the received spherical panoramic image 60 and related information 61 to the storage control unit 12P.

また、送受信部12Kは、情報処理端末18から、解析結果取得要求を受信する。送受信部12Kは、受信した解析結果取得要求を、記憶制御部12Pへ出力する。また、送受信部12Kは、解析結果情報を、情報処理端末18へ送信する。 Further, the transmission/reception unit 12K receives the analysis result acquisition request from the information processing terminal 18. The transmitter/receiver 12K outputs the received analysis result acquisition request to the storage controller 12P. The transmitter/receiver 12K also transmits the analysis result information to the information processing terminal 18.

記憶制御部12Pは、記憶部12Bへの各種データの記憶や、記憶部12Bからの各種データの読取りなどを行う。 The storage control unit 12P stores various data in the storage unit 12B and reads various data from the storage unit 12B.

記憶制御部12Pは、撮影装置14から送受信部12Kを介して、全天球パノラマ画像60および関連情報61を受付けると、全天球パノラマ画像60と関連情報61とを記憶部12Bへ記憶する。詳細には、記憶制御部12Pは、受付けた全天球パノラマ画像60と、関連情報61に含まれる撮影日時情報および撮影装置IDと、を対応づけて、画像管理DB12Cへ登録する(図13参照)、また、記憶制御部12Pは、全天球パノラマ画像60に画像IDを付与し、画像管理DB12Cに対応付けて登録する。 When the storage control unit 12P receives the omnidirectional panoramic image 60 and the related information 61 from the imaging device 14 via the transmitting/receiving unit 12K, the storage control unit 12P stores the omnidirectional panoramic image 60 and the related information 61 in the storage unit 12B. Specifically, the storage control unit 12P associates the received spherical panoramic image 60 with the shooting date/time information and the shooting device ID included in the related information 61 and registers them in the image management DB 12C (see FIG. 13). ), and the storage control unit 12P assigns an image ID to the omnidirectional panoramic image 60 and registers it in association with the image management DB 12C.

また、記憶制御部12Pは、制御部12Aに含まれる各機能部の処理に応じて、画像管理DB12Cの更新などを行う(詳細後述)。 The storage control unit 12P also updates the image management DB 12C according to the processing of each functional unit included in the control unit 12A (details will be described later).

水平補正部12Yは、撮影装置14から受信した全天球パノラマ画像60における水平方向と、撮影環境における水平方向と、が一致するように補正する。上述したように、撮影装置14から受信した全天球パノラマ画像60が、メルカトル図法により表された全天球パノラマ画像60である場合、撮影環境における水平方向に沿った方向を長軸方向とした全天球パノラマ画像60となっていない場合がある。ここで、メルカトル図法によって表される全天球パノラマ画像60は、180°の2つの半球画像を、仮想の円筒形状物の内壁に投影することで形成される。このため、上記長軸方向とは、この円筒形状物の周方向に沿った方向である。 The horizontal correction unit 12Y performs correction so that the horizontal direction in the spherical panoramic image 60 received from the image capturing device 14 and the horizontal direction in the capturing environment match. As described above, when the omnidirectional panoramic image 60 received from the imaging device 14 is the omnidirectional panoramic image 60 represented by the Mercator projection method, the direction along the horizontal direction in the photographic environment is the long axis direction. There are cases where the spherical panoramic image 60 is not obtained. Here, the spherical panoramic image 60 represented by the Mercator projection is formed by projecting two 180° hemispherical images onto the inner wall of a virtual cylindrical object. Therefore, the long axis direction is a direction along the circumferential direction of the cylindrical object.

このため、水平補正部12Yは、撮影装置14から受信した全天球パノラマ画像60における長軸方向と、撮影環境における水平方向と、が一致するように補正する。なお、水平補正部12Yは、公知の方法を用いて、水平方向を補正すればよい。 Therefore, the horizontal correction unit 12Y performs correction so that the long-axis direction in the omnidirectional panoramic image 60 received from the image capturing device 14 and the horizontal direction in the image capturing environment match. The horizontal correction unit 12Y may correct the horizontal direction using a known method.

歪補正部12Zは、全天球パノラマ画像60の歪みを補正する。上述したように、メルカトル図法によって表される全天球パノラマ画像60は、180°の2つの半球画像を、仮想円筒形状物の内壁に投影することで形成される。このため、メルカトル図法によって表される全天球パノラマ画像60の長軸方向(仮想円筒形状物の周方向に一致する方向)の両端部に近づくほど、歪みが大きくなっている。このため、歪補正部12Zは、この歪みを補正する。歪補正部12Zは、公知の方法を用いて、全天球パノラマ画像60の歪みを補正すればよい。 The distortion correction unit 12Z corrects the distortion of the spherical panoramic image 60. As described above, the spherical panoramic image 60 represented by the Mercator projection is formed by projecting two 180° hemispherical images onto the inner wall of the virtual cylindrical object. For this reason, the distortion becomes larger as it gets closer to both ends of the spherical panorama image 60 represented by the Mercator projection in the long axis direction (direction matching the circumferential direction of the virtual cylindrical object). Therefore, the distortion correction unit 12Z corrects this distortion. The distortion correction unit 12Z may correct the distortion of the omnidirectional panoramic image 60 using a known method.

そして、記憶制御部12Pは、撮影装置14から受信した全天球パノラマ画像60であって、水平補正部12Yおよび歪補正部12Zで補正された全天球パノラマ画像60を、画像管理DB12Cに登録すればよい。 Then, the storage control unit 12P registers, in the image management DB 12C, the omnidirectional panoramic image 60 received from the image capturing device 14, which is the omnidirectional panoramic image 60 corrected by the horizontal correction unit 12Y and the distortion correction unit 12Z. do it.

これにより、記憶部12Bに記憶されている全天球パノラマ画像60を利用する他の機能部は、水平補正部12Yおよび歪補正部12Zで補正された全天球パノラマ画像60を用いることができる。 As a result, other functional units that use the spherical panoramic image 60 stored in the storage unit 12B can use the spherical panoramic image 60 corrected by the horizontal correction unit 12Y and the distortion correction unit 12Z. ..

なお、サーバ装置12が、撮影装置14から、三次元の立体球の内壁に半球画像を貼り付けた、球状の全天球パノラマ画像60(図5参照)を受信する場合がある。この場合、水平補正部12Yおよび歪補正部12Zは、補正を行わなくてもよい。 Note that the server device 12 may receive a spherical spherical panoramic image 60 (see FIG. 5) in which a hemispherical image is attached to the inner wall of a three-dimensional solid sphere from the image capturing device 14. In this case, the horizontal correction unit 12Y and the distortion correction unit 12Z do not have to perform the correction.

次に、人物領域検出部12M、姿勢判別部12J、位置特定部12Q、周辺特定部12R、重畳判別部12T、および移動体判別部12Xについて説明する。これらの人物領域検出部12M、姿勢判別部12J、位置特定部12Q、周辺特定部12R、重畳判別部12T、および移動体判別部12Xは、送受信部12Kが新たな全天球パノラマ画像60を撮影装置14から受信する毎に処理を行う。 Next, the person area detection unit 12M, the posture determination unit 12J, the position identification unit 12Q, the periphery identification unit 12R, the superposition determination unit 12T, and the moving body determination unit 12X will be described. In the person area detecting unit 12M, the posture determining unit 12J, the position specifying unit 12Q, the peripheral specifying unit 12R, the superposition determining unit 12T, and the moving body determining unit 12X, the transmitting/receiving unit 12K takes a new spherical panoramic image 60. The process is performed each time it is received from the device 14.

なお、上述したように、水平補正部12Yおよび歪補正部12Zによって、全天球パノラマ画像60が補正される場合がある。この場合、人物領域検出部12M、姿勢判別部12J、位置特定部12Q、周辺特定部12R、重畳判別部12T、および移動体判別部12Xは、送受信部12Kが新たな全天球パノラマ画像60を受信するごとに、水平補正部12Yおよび歪補正部12Zによって補正された該全天球パノラマ画像60について、処理を実行する。 As described above, the omnidirectional panoramic image 60 may be corrected by the horizontal correction unit 12Y and the distortion correction unit 12Z. In this case, the person area detection unit 12M, the posture determination unit 12J, the position identification unit 12Q, the peripheral identification unit 12R, the superposition determination unit 12T, and the moving body determination unit 12X are transmitted/received by the transmission/reception unit 12K. Every time it is received, the processing is executed on the spherical panoramic image 60 corrected by the horizontal correction unit 12Y and the distortion correction unit 12Z.

人物領域検出部12Mは、検出部の一例である。人物領域検出部12Mは、全天球パノラマ画像60に含まれる人物領域を検出する。人物領域の検出には、公知の方法を用いればよい。 The person area detection unit 12M is an example of a detection unit. The person area detection unit 12M detects a person area included in the omnidirectional panoramic image 60. A known method may be used to detect the person area.

図14は、人物領域62の検出の説明図である。 FIG. 14 is an explanatory diagram of detection of the person area 62.

例えば、人物領域検出部12Mが、全天球パノラマ画像60Aに含まれる人物領域62を検出すると仮定する。人物領域検出部12Mは、全天球パノラマ画像60Aに含まれる人物Mを含む領域を、人物領域62として検出する。詳細には、人物領域検出部12Mは、全天球パノラマ画像60Aにおける、人物Mを示す矩形状の領域の位置座標およびサイズを特定する。図14に示す例では、人物領域62の位置座標として、人物領域62の左上の頂点(例えば、頂点(x,y))の座標を用いる場合を示した。また、図14に示す例では、人物領域62のサイズとして、人物領域62におけるx軸方向の長さ(w)およびy軸方向の長さ(h)を用いる場合を示した。x軸方向は、上述した長軸方向と一致する。 For example, assume that the person area detection unit 12M detects the person area 62 included in the omnidirectional panoramic image 60A. The person area detection unit 12M detects an area including the person M included in the omnidirectional panoramic image 60A as the person area 62. Specifically, the person area detection unit 12M specifies the position coordinates and the size of the rectangular area showing the person M in the omnidirectional panoramic image 60A. In the example shown in FIG. 14, the case where the coordinates of the upper left vertex of the person area 62 (for example, the vertex (x 1 , y 1 )) is used as the position coordinates of the person area 62 is shown. In addition, in the example illustrated in FIG. 14, the case where the length (w) in the x-axis direction and the length (h) in the y-axis direction of the person area 62 are used as the size of the person area 62 is shown. The x-axis direction coincides with the long-axis direction described above.

これによって、人物領域検出部12Mは、全天球パノラマ画像60Aにおける人物領域62を検出する。なお、全天球パノラマ画像60Aに複数の人物領域62が含まれる場合、人物領域検出部12Mは、複数の人物領域62を検出する。 As a result, the person area detection unit 12M detects the person area 62 in the spherical panoramic image 60A. When the omnidirectional panoramic image 60A includes a plurality of person areas 62, the person area detecting unit 12M detects the plurality of person areas 62.

そして、人物領域検出部12Mは、処理対象の全天球パノラマ画像60(図14では全天球パノラマ画像60A)の画像IDに対応づけて、検出した人物領域62の各々を示す領域情報(位置座標およびサイズ)と、人物領域IDと、を、記憶制御部12Pを介して画像管理DB12Cに登録する。なお、人物領域検出部12Mは、人物領域62の各々を識別可能な情報を、人物領域IDとして付与し、画像管理DB12Cに登録すればよい。 Then, the person area detection unit 12M associates with the image ID of the celestial sphere panorama image 60 (the celestial sphere panorama image 60A in FIG. 14) to be processed, and the area information (position The coordinates and size) and the person area ID are registered in the image management DB 12C via the storage controller 12P. It should be noted that the person area detecting unit 12M may add information that can identify each of the person areas 62 as a person area ID and register the information in the image management DB 12C.

図11に戻り説明を続ける。姿勢判別部12Jは、人物領域検出部12Mで検出した人物領域62に示される、人物Mの姿勢を判別する。姿勢判別部12Jは、公知の画像処理を用いることで、人物Mの姿勢を判別すればよい。本実施の形態では、姿勢判別部12Jは、人物領域62に示される人物Mの姿勢として、特定情報12H(図12参照)に登録されている何れかの姿勢を判別する。 Returning to FIG. 11, the description will be continued. The posture determination unit 12J determines the posture of the person M shown in the person area 62 detected by the person area detection unit 12M. The posture determination unit 12J may determine the posture of the person M by using known image processing. In the present embodiment, the posture determination unit 12J determines any posture registered in the specific information 12H (see FIG. 12) as the posture of the person M shown in the person area 62.

そして、特定情報12Hは、判別した姿勢を、該人物領域62の人物領域IDに対応づけて、記憶制御部12Pを介して画像管理DB12Cへ登録する(図13参照)。 Then, the specific information 12H registers the determined posture in the image management DB 12C via the storage control unit 12P in association with the person area ID of the person area 62 (see FIG. 13).

なお、姿勢判別部12Jが、人物領域62に示される人物Mの姿勢を判別出来ない場合がある。このような場合、姿勢判別部12Jは、画像管理DB12Cにおける、該人物領域62の人物領域IDに対応する姿勢の欄を空欄とすればよい。 Note that the posture determination unit 12J may not be able to determine the posture of the person M shown in the person area 62. In such a case, the posture determination unit 12J may leave the column of the posture corresponding to the person area ID of the person area 62 in the image management DB 12C blank.

位置特定部12Qは、姿勢判別部12Jで判別した、人物領域62に示される人物Mの姿勢に基づいて、全天球パノラマ画像60における該人物Mの位置を特定する。 The position specifying unit 12Q specifies the position of the person M in the omnidirectional panorama image 60 based on the posture of the person M shown in the person area 62, which is determined by the posture determining unit 12J.

具体的には、位置特定部12Qは、第1の特定情報12D(図12(A)参照)における、姿勢判別部12Jによって判別された姿勢に対応する位置特定条件を読取る。そして、位置特定部12Qは、全天球パノラマ画像60における、該位置特定条件によって特定される位置を、該人物Mの位置として特定する。 Specifically, the position specifying unit 12Q reads the position specifying condition corresponding to the posture judged by the posture judging unit 12J in the first specifying information 12D (see FIG. 12A). Then, the position specifying unit 12Q specifies the position specified by the position specifying condition in the spherical panoramic image 60 as the position of the person M.

詳細には、位置特定部12Qは、処理対象の全天球パノラマ画像60における、人物領域検出部12Mによって特定された人物領域62の各々について、下記処理を行う。まず、位置特定部12Qは、人物領域62に示される人物Mについて、姿勢判別部12Jによって判別された姿勢に対応する位置特定条件を、第1の特定情報12Dから読取る。 Specifically, the position specifying unit 12Q performs the following process on each of the person areas 62 specified by the person area detecting unit 12M in the omnidirectional panorama image 60 to be processed. First, the position specifying unit 12Q reads, from the first specifying information 12D, the position specifying condition corresponding to the posture determined by the posture determining unit 12J for the person M shown in the person area 62.

そして、位置特定部12Qは、処理対象の全天球パノラマ画像60の人物領域62における、第1の特定情報12Dから読取った位置特定条件によって特定される位置(具体的には位置座標)を、該全天球パノラマ画像60における、該人物領域62に示される人物Mの位置として特定する。 Then, the position specifying unit 12Q determines the position (specifically, the position coordinate) specified by the position specifying condition read from the first specifying information 12D in the person area 62 of the spherical panoramic image 60 to be processed. It is specified as the position of the person M shown in the person area 62 in the spherical panoramic image 60.

例えば、姿勢判別部12Jが、人物領域62に含まれる人物Mの姿勢として、姿勢“立位”を判別したと仮定する。この場合、位置特定部12Qは、第1の特定情報12D(図12(A)参照)における、該姿勢“立位”に対応する位置特定条件“両足先間の中央位置”を読取る。そして、位置特定部12Qは、全天球パノラマ画像60における、該人物領域62に示される人物Mの両足先間の中央位置に相当する位置座標を、該人物Mの位置として特定する。 For example, it is assumed that the posture determination unit 12J has determined the posture "standing" as the posture of the person M included in the human region 62. In this case, the position specifying unit 12Q reads the position specifying condition “center position between both toes” corresponding to the posture “standing” in the first specifying information 12D (see FIG. 12A). Then, the position specifying unit 12Q specifies the position coordinate corresponding to the center position between the toes of the person M shown in the person area 62 in the omnidirectional panorama image 60 as the position of the person M.

ここで、上述したように、姿勢判別部12Jが、人物領域62に示される人物Mの姿勢を判別することができない場合がある。この場合、位置特定部12Qは、該人物領域62における所定位置を、該人物Mの位置として特定する。 Here, as described above, the posture determination unit 12J may not be able to determine the posture of the person M shown in the person area 62. In this case, the position specifying unit 12Q specifies a predetermined position in the person area 62 as the position of the person M.

所定位置は、予め設定すればよい。例えば、所定位置として、人物領域62の中心位置を予め設定する。そして、人物領域62に示される人物Mの姿勢が判別されなかった場合、位置特定部12Qは、全天球パノラマ画像60における、該人物領域62の中心位置の位置座標を、該人物Mの位置として特定すればよい。 The predetermined position may be set in advance. For example, the center position of the person area 62 is preset as the predetermined position. When the posture of the person M shown in the person area 62 is not determined, the position identifying unit 12Q determines the position coordinates of the center position of the person area 62 in the omnidirectional panorama image 60 as the position of the person M. Should be specified as

なお、位置特定部12Qは、人物Mの姿勢および人物Mの周辺領域(本実施の形態では周辺物)に基づいて、人物Mの位置を特定してもよい。人物Mの周辺物(周辺領域)は、周辺特定部12Rによって特定される。 Note that the position specifying unit 12Q may specify the position of the person M based on the posture of the person M and the peripheral region of the person M (peripheral object in the present embodiment). The peripheral object (peripheral area) of the person M is specified by the peripheral specifying unit 12R.

周辺特定部12Rは、全天球パノラマ画像60における人物領域62の周辺の周辺領域を特定する。本実施の形態では、周辺特定部12Rは、人物領域62に示される人物Mの周辺物を特定する。周辺物の特定には、公知の方法を用いればよい。例えば、周辺特定部12Rは、人物Mの周辺物として、椅子、ベッド、などを特定する。そして、位置特定部12Qは、人物Mの姿勢および人物Mの周辺物に基づいて、人物Mの位置を特定してもよい。 The peripheral specifying unit 12R specifies a peripheral area around the human area 62 in the spherical panoramic image 60. In the present embodiment, the peripheral specifying unit 12R specifies peripheral objects of the person M shown in the person area 62. A known method may be used to identify the peripheral object. For example, the peripheral specifying unit 12R specifies a chair, a bed, and the like as peripheral objects of the person M. Then, the position specifying unit 12Q may specify the position of the person M based on the posture of the person M and the peripheral objects of the person M.

この場合、周辺特定部12Rは、第2の特定情報12E(図12(B)参照)を用いて、人物Mの位置を特定すればよい。 In this case, the peripheral specifying unit 12R may specify the position of the person M using the second specifying information 12E (see FIG. 12B).

詳細には、位置特定部12Qは、処理対象の全天球パノラマ画像60における人物領域62の各々について、下記処理を行う。まず、位置特定部12Qは、人物領域62に示される人物Mについて、姿勢判別部12Jによって判別された姿勢と、周辺特定部12Rによって特定された周辺物と、に対応する位置特定条件を、第2の特定情報12Eから読取る(図12(B)参照)。 Specifically, the position identifying unit 12Q performs the following process on each of the person regions 62 in the omnidirectional panoramic image 60 to be processed. First, the position specifying unit 12Q determines the position specifying condition corresponding to the posture determined by the posture determining unit 12J and the peripheral object specified by the peripheral specifying unit 12R for the person M shown in the person region 62. The second specific information 12E is read (see FIG. 12B).

このため、この場合、位置特定部12Qは、処理対象の全天球パノラマ画像60の人物領域62における、該人物領域62に示される人物Mの姿勢および周辺物に対応する位置特定条件によって特定される位置を、該全天球パノラマ画像60における該人物Mの位置として特定する。 Therefore, in this case, the position specifying unit 12Q specifies the position in the human area 62 of the omnidirectional panorama image 60 to be processed by the position specifying condition corresponding to the posture of the person M shown in the person area 62 and the peripheral object. Position is specified as the position of the person M in the spherical panoramic image 60.

例えば、人物領域検出部12Mが検出した人物領域62に含まれる人物Mの姿勢として、姿勢判別部12Jが姿勢“椅座位”を判別したと仮定する。また、周辺特定部12Rが、該人物Mの周辺物として、“椅子”を特定したと仮定する。 For example, it is assumed that the posture determination unit 12J determines the posture "chair sitting" as the posture of the person M included in the human region 62 detected by the human region detection unit 12M. In addition, it is assumed that the peripheral specifying unit 12R specifies a "chair" as a peripheral object of the person M.

この場合、位置特定部12Qは、第2の特定情報12E(図12(B)から、該姿勢“椅座位”および該周辺物“椅子”に対応する位置特定条件“人物領域と椅子領域との接線の中央位置”を、読取る。そして、位置特定部12Qは、全天球パノラマ画像60における、該人物領域62と該人物Mの座っている椅子を示す椅子領域との接線の中央位置に相当する位置座標を、該人物Mの位置として特定する。 In this case, the position specifying unit 12Q determines, based on the second specifying information 12E (FIG. 12(B)), the position specifying condition “person area and chair area” corresponding to the posture “chair sitting” and the peripheral object “chair”. Then, the position specifying unit 12Q corresponds to the center position of the tangent line between the person area 62 and the chair area indicating the chair on which the person M is sitting in the omnidirectional panorama image 60. The position coordinates to be specified are specified as the position of the person M.

図15は、人物Mの位置の特定の一例を示す説明図である。 FIG. 15 is an explanatory diagram illustrating an example of specifying the position of the person M.

例えば、処理対象の全天球パノラマ画像60が、図15に示す全天球パノラマ画像60Bであったと仮定する。この場合、人物領域検出部12Mは、人物M(人物M1〜人物M5)の各々の人物領域62(人物領域62A〜人物領域62E)を検出する。そして、姿勢判別部12Jが、これらの人物領域62の各々に含まれる人物Mの各々の姿勢を判別する。図15に示す例では、例えば、姿勢判別部12Jは、人物M1〜人物M5の各々の姿勢として、“立位”、“椅座位”、“しゃがむ”、“仰臥位”、および“逆立ち”、の各々を判別する。 For example, assume that the spherical panoramic image 60 to be processed is the spherical panoramic image 60B shown in FIG. In this case, the person area detection unit 12M detects each person area 62 (person area 62A to person area 62E) of the person M (person M1 to person M5). Then, the posture determination unit 12J determines the posture of each person M included in each of these person regions 62. In the example illustrated in FIG. 15, for example, the posture determination unit 12J determines the postures of the person M1 to the person M5 to be “standing position”, “sitting position”, “squatting”, “supine position”, and “handstand”, Discriminate each of.

周辺特定部12Rは、人物領域62(人物領域62A〜人物領域62E)の各々について周辺物Dを特定する。図15に示す例では、周辺特定部12Rは、人物領域62A、人物領域62C、人物領域62D、の各々については、周辺物Dを特定しない。これは、周辺物Dが特定できないためである。一方、周辺特定部12Rは、人物領域62Bについては、“椅子”を示す周辺物D2を特定し、人物領域62Eについては“ベッド”を示す周辺物D5を特定する。 The peripheral specifying unit 12R specifies the peripheral object D for each of the person areas 62 (person areas 62A to 62E). In the example illustrated in FIG. 15, the peripheral specifying unit 12R does not specify the peripheral object D for each of the person area 62A, the person area 62C, and the person area 62D. This is because the peripheral object D cannot be specified. On the other hand, the perimeter specifying unit 12R specifies the peripheral D2 indicating "chair" for the person area 62B and the peripheral D5 indicating "bed" for the person area 62E.

そして、位置特定部12Qは、人物領域62に示される人物Mの姿勢および周辺物Dに基づいて、全天球パノラマ画像60Bにおける人物Mの位置を特定する。なお、位置特定部12Qは、人物Mの姿勢のみに基づいて、人物Mの位置を特定してもよい。 Then, the position specifying unit 12Q specifies the position of the person M in the omnidirectional panorama image 60B based on the posture of the person M and the peripheral object D shown in the person area 62. Note that the position specifying unit 12Q may specify the position of the person M based on only the posture of the person M.

具体的には、位置特定部12Qは、人物領域62Aについては、第2の特定情報12Eに基づいて、全天球パノラマ画像60Bにおける、人物M1の姿勢“立位”に対応する位置特定条件“両足先間の中央位置”によって特定される位置P1を、該人物M1の位置P1として特定する。位置特定部12Qは、人物領域62Bについては、第2の特定情報12Eに基づいて、全天球パノラマ画像60Bにおける、人物M2の姿勢“椅座位”および周辺物D2“椅子“に対応する位置特定条件“人物領域と椅子領域との接線の中心位置”によって特定される位置P2を、人物M2の位置P2として特定する。 Specifically, for the person area 62A, the position specifying unit 12Q, based on the second specifying information 12E, the position specifying condition “corresponding to the posture “standing” of the person M1 in the omnidirectional panoramic image 60B. The position P1 specified by the "central position between both toes" is specified as the position P1 of the person M1. For the person area 62B, the position specifying unit 12Q specifies the position corresponding to the posture "chair sitting" of the person M2 and the peripheral D2 "chair" in the spherical panorama image 60B based on the second specifying information 12E. The position P2 specified by the condition “center position of the tangent line between the person area and the chair area” is specified as the position P2 of the person M2.

同様に、位置特定部12Qは、人物領域62Cについては、第2の特定情報12Eに基づいて、全天球パノラマ画像60Bにおける、人物M3の姿勢“しゃがむ”に対応する位置特定条件“両足先間の中央位置”によって特定される位置P3を、人物M3の位置P3として特定する。同様に、位置特定部12Qは、人物領域62Dについては、第2の特定情報12Eに基づいて、全天球パノラマ画像60Bにおける、人物M4の姿勢“逆立ち”に対応する位置特定条件“両手先間の中央位置”によって特定される位置P4を、人物M4の位置P4として特定する。 Similarly, for the person area 62C, the position specifying unit 12Q, based on the second specifying information 12E, the position specifying condition “between the toes” corresponding to the posture “squat” of the person M3 in the omnidirectional panorama image 60B. The position P3 specified by the "central position of" is specified as the position P3 of the person M3. Similarly, for the person region 62D, the position specifying unit 12Q, based on the second specifying information 12E, the position specifying condition “between the hands” corresponding to the posture “handstand” of the person M4 in the spherical panoramic image 60B. The position P4 specified by the "central position" of the person M4 is specified as the position P4 of the person M4.

また、位置特定部12Qは、人物領域62Eについては、第2の特定情報12Eに基づいて、全天球パノラマ画像60Bにおける、人物M5の姿勢“仰臥位”および周辺物D5“ベッド”に対応する位置特定条件“人物領域と椅子領域との接線の中心位置”によって特定される位置P5を、人物M5の位置P5として特定する。 Further, the position identifying unit 12Q corresponds to the posture “supine position” and the peripheral D5 “bed” of the person M5 in the omnidirectional panoramic image 60B for the person area 62E based on the second identification information 12E. The position P5 specified by the position specifying condition "center position of tangent line between person area and chair area" is specified as the position P5 of the person M5.

図11に戻り説明を続ける。そして、位置特定部12Qは、特定した人物Mの位置を、記憶制御部12Pを介して画像管理DB12Cへ登録する。詳細には、位置特定部12Qは、特定した人物Mの位置を示す位置座標を、対応する全天球パノラマ画像60の画像IDおよび人物領域IDに対応づけて、画像管理DB12Cへ登録する。 Returning to FIG. 11, the description will be continued. Then, the position specifying unit 12Q registers the specified position of the person M in the image management DB 12C via the storage control unit 12P. Specifically, the position specifying unit 12Q registers the position coordinates indicating the position of the specified person M in the image management DB 12C in association with the image ID and the person area ID of the corresponding omnidirectional panoramic image 60.

このため、画像管理DB12Cには、全天球パノラマ画像60に含まれる人物領域62の各々について、位置特定部12Qによって特定された人物Mの位置を示す位置座標が登録される。 Therefore, in the image management DB 12C, position coordinates indicating the position of the person M specified by the position specifying unit 12Q are registered for each of the person regions 62 included in the omnidirectional panoramic image 60.

なお、位置特定部12Qは、更に、人物領域62に示される人物M上に他の物体が重畳しているか非重畳であるかや、重畳している他の物体が移動体であるか非移動体であるかに応じて、人物Mの位置を特定してもよい。 The position identifying unit 12Q further determines whether another object is superimposed or non-superimposed on the person M shown in the person area 62, or whether the other superimposed object is a moving body or non-moving object. The position of the person M may be specified depending on whether the body is a body.

人物Mに重畳している他の物体とは、全天球パノラマ画像60において、人物M上に重畳した状態で撮影された物体である。すなわち、人物M上に重畳している他の物体とは、人物Mの周辺物Dであって、且つ、該人物M上に重畳している周辺物Dである。 The other object superimposed on the person M is an object photographed in a state in which it is superimposed on the person M in the spherical panoramic image 60. That is, the other object superimposed on the person M is the peripheral object D of the person M and the peripheral object D superimposed on the person M.

言い換えると、人物M上に重畳している他の物体とは、位置Pを特定する対象の人物M上に重畳した状態で撮影された周辺物Dである。すなわち、他の物体とは、撮影装置14の撮影位置を視点とした撮影画角において、位置Pを特定する対象の人物Mより撮影装置14に近い位置に配置され、該人物Mの一部を遮蔽する位置に配置された周辺物Dである。他の物体(周辺物D)は、例えば、他の人物、車両、棚、ベッドなどである。 In other words, the other object superimposed on the person M is the peripheral object D photographed in a state of being superimposed on the person M who is the target whose position P is specified. That is, the other object is arranged at a position closer to the photographing device 14 than the person M who is the target for specifying the position P in the photographing angle of view from the photographing position of the photographing device 14, and a part of the person M is defined. It is the peripheral object D arranged at the position to be shielded. The other object (peripheral object D) is, for example, another person, a vehicle, a shelf, a bed, or the like.

この場合、位置特定部12Qは、重畳判別部12Tによる判別結果や、移動体判別部12Xによる判別結果を更に用いて、人物Mの位置を特定すればよい。 In this case, the position specifying unit 12Q may specify the position of the person M by further using the determination result by the superposition determination unit 12T and the determination result by the moving body determination unit 12X.

重畳判別部12Tは、全天球パノラマ画像60における人物領域62に示される人物M上に、周辺物D(すなわち、他の物体)が重畳しているか非重畳であるかを判別する。重畳判別部12Tは、公知の画像処理技術を用いて、人物M上に周辺物Dが重畳しているか、非重畳であるか、を判別すればよい。 The superposition determining unit 12T determines whether the peripheral object D (that is, another object) is superposed or non-superposed on the person M shown in the person area 62 in the omnidirectional panoramic image 60. The superposition determining unit 12T may use a known image processing technique to determine whether the peripheral object D is superposed on the person M or is not superposed.

移動体判別部12Xは、人物M上に重畳している周辺物Dが、移動体および非移動体の何れであるかを判別する。 The moving body discriminating unit 12X discriminates whether the peripheral object D superimposed on the person M is a moving body or a non-moving body.

移動体とは、人物M上に所定時間以上継続して位置していなかった物を示す。言い換えると、移動体とは、人物M上に重畳している周辺物Dの内、人物M上に所定時間以上継続して存在する物以外の周辺物Dである。例えば、移動体は、走行中の車両や、移動中の生物などである。非移動体とは、人物M上に重畳している周辺物Dの内、人物M上に所定時間以上重畳した状態が維持されている物である。 The moving body refers to an object that has not been positioned on the person M continuously for a predetermined time or longer. In other words, the moving body is a peripheral object D other than the peripheral object D that is superposed on the person M and that exists on the person M continuously for a predetermined time or longer. For example, the moving body is a moving vehicle, a moving creature, or the like. The non-moving object is a peripheral object D that is superposed on the person M and that is kept superposed on the person M for a predetermined time or longer.

例えば、移動体判別部12Xは、処理対象の全天球パノラマ画像60と、該全天球パノラマ画像60を撮影した撮影装置14によって該全天球パノラマ画像60より前に(以前に)撮影された全天球パノラマ画像60と、を比較することで、人物M上に重畳している周辺物Dが、移動体であるか非移動体であるかを判別する。 For example, the moving object discrimination unit 12X is photographed before (before) the spherical panoramic image 60 to be processed and by the photographing device 14 that photographed the spherical panoramic image 60. The peripheral object D superimposed on the person M is determined to be a moving object or a non-moving object by comparing with the spherical panoramic image 60.

例えば、移動体判別部12Xは、処理対象の全天球パノラマ画像60に含まれる、人物M上に重畳している周辺物Dの位置が、以前に撮影された全天球パノラマ画像60における位置と同じ位置に位置しているか否かを判別する。これによって、移動体判別部12Xは、同じ位置に位置している場合、該周辺物Dを非移動体と判別する。また、移動体判別部12Xは、異なる位置に位置している場合、該周辺物Dを移動体と判別する。なお、移動体判別部12Xは、他の方法を用いて、周辺物Dが移動体であるか非移動体であるかを判別してもよい。 For example, the moving object determination unit 12X determines that the position of the peripheral object D, which is included in the omnidirectional panoramic image 60 to be processed and is superimposed on the person M, is the position in the omnidirectional panoramic image 60 that was previously captured. It is determined whether or not it is located at the same position as. As a result, the moving body discriminating unit 12X discriminates the peripheral object D as a non-moving body when it is located at the same position. In addition, the moving body discriminating unit 12X discriminates the peripheral object D as a moving body when it is located at different positions. In addition, the moving body determination unit 12X may use another method to determine whether the peripheral object D is a moving body or a non-moving body.

そして、位置特定部12Qは、人物領域62に示される人物M上に周辺物Dが重畳していると判別され、且つ該周辺物Dが非移動体であると判別された場合、該人物領域62の所定位置を、人物Mの位置として特定する。所定位置は、予め定めればよい。例えば、該人物領域62に示される人物Mにおける、該周辺物Dから露出した露出領域内の位置を、所定位置として予め定めればよい。 Then, when it is determined that the peripheral object D is superposed on the person M shown in the person area 62 and the peripheral object D is a non-moving object, the position specifying unit 12Q determines the person area. The predetermined position of 62 is specified as the position of the person M. The predetermined position may be set in advance. For example, the position of the person M shown in the person area 62 in the exposed area exposed from the peripheral object D may be predetermined as the predetermined position.

また、位置特定部12Qは、人物領域62に示される人物M上に周辺物Dが重畳していると判別され、且つ該周辺物Dが移動体であると判別された場合、該人物領域62に示される人物Mの姿勢に基づいて、全天球パノラマ画像60における人物Mの位置を特定する。姿勢に基づいた位置の特定方法は、上記と同様である。 Further, when it is determined that the peripheral object D is superimposed on the person M shown in the person area 62 and the peripheral object D is a moving body, the position specifying unit 12Q determines the person area 62. The position of the person M in the spherical panoramic image 60 is specified based on the posture of the person M shown in FIG. The method of specifying the position based on the posture is the same as above.

また、位置特定部12Qは、人物領域62に示される人物M上に周辺物Dが非重畳であると判別された場合、該人物Mの姿勢に基づいて、全天球パノラマ画像60における人物Mの位置を特定する。姿勢に基づいた位置の特定方法は、上記と同様である。 Further, when it is determined that the peripheral object D is not superposed on the person M shown in the person area 62, the position specifying unit 12Q determines the person M in the omnidirectional panoramic image 60 based on the posture of the person M. Specify the position of. The method of specifying the position based on the posture is the same as above.

図を用いて詳細に説明する。図16および図17は、人物領域62に示される人物M上に重畳している周辺物Dに応じて、人物Mの位置を特定する場合の一例を示す、説明図である。 This will be described in detail with reference to the drawings. 16 and 17 are explanatory diagrams showing an example in which the position of the person M is specified according to the peripheral object D superimposed on the person M shown in the person area 62.

例えば、図16(B)に示す全天球パノラマ画像60Dが、処理対象の全天球パノラマ画像60であったと仮定する。この場合、人物領域検出部12Mは、例えば、人物M(人物M6、人物M7)の各々の人物領域62(人物領域62F、人物領域62G)を検出する。 For example, assume that the spherical panoramic image 60D shown in FIG. 16B is the spherical panoramic image 60 to be processed. In this case, the person area detection unit 12M detects, for example, each person area 62 (person area 62F, person area 62G) of the person M (person M6, person M7).

そして、重畳判別部12Tは、検出した人物領域62(人物領域62F、人物領域62G)に示される人物M(人物M6、人物M7)上に、周辺物Dが重畳しているか非重畳であるかを判別する。図16(B)に示す全天球パノラマ画像60Dの場合、重畳判別部12Tは、人物M6上には周辺物Dが非重畳であることを判別する。また、重畳判別部12Tは、人物M7上に、棚を示す周辺物D7が重畳していると判別する。 Then, the superposition determining unit 12T determines whether the peripheral object D is superposed or non-superposed on the person M (person M6, person M7) shown in the detected person area 62 (person area 62F, person area 62G). To determine. In the case of the omnidirectional panoramic image 60D shown in FIG. 16B, the superposition determining unit 12T determines that the peripheral object D is not superposed on the person M6. Further, the superimposition determining unit 12T determines that the peripheral object D7 indicating the shelf is superposed on the person M7.

そして、移動体判別部12Xは、重畳判別部12Tによって判別された、人物M7上に重畳している周辺物D7が、移動体および非移動体の何れであるかを判別する。例えば、移動体判別部12Xは、該全天球パノラマ画像60Dを撮影した撮影装置14によって、全天球パノラマ画像60Dより前に撮影された全天球パノラマ画像60C(図16(A))を、記憶部12Bの画像管理DB12Cから読取る。そして、移動体判別部12Xは、全天球パノラマ画像60Cにおける、全天球パノラマ画像60Dの周辺物D7に対応する位置に、該周辺物D7が存在するか否かを判別する。そして、移動体判別部12Xは、全天球パノラマ画像60Cにおける、全天球パノラマ画像60Dの周辺物D7に対応する位置に、該周辺物D7が存在する場合、該周辺物D7を非移動体であると判別する。 Then, the moving body discriminating unit 12X discriminates whether the peripheral object D7 superposed on the person M7 discriminated by the superimposing discriminating unit 12T is a moving body or a non-moving body. For example, the moving object discriminating unit 12X detects the omnidirectional panoramic image 60C (FIG. 16(A)) taken before the omnidirectional panoramic image 60D by the imaging device 14 that has taken the omnidirectional panoramic image 60D. , From the image management DB 12C of the storage unit 12B. Then, the moving object discriminating unit 12X discriminates whether or not the peripheral object D7 exists at the position corresponding to the peripheral object D7 of the spherical panoramic image 60D in the spherical panoramic image 60C. Then, when the peripheral object D7 exists at a position corresponding to the peripheral object D7 of the spherical panoramic image 60D in the spherical panoramic image 60C, the moving object determination unit 12X determines the peripheral object D7 as a non-moving object. It is determined that

そして、位置特定部12Qは、全天球パノラマ画像60Dにおける、非移動体の周辺物D7の重畳された人物M7については、該人物M7の人物領域62G内の所定位置を、該人物M7の位置P7として特定する。詳細には、この場合、位置特定部12Qは、非移動体の棚などの周辺物D7の重畳された人物M7については、人物M7における周辺物D7から露出した露出領域における所定位置を、該人物M7の位置P7として特定する。このため、この場合、位置特定部12Qは、該人物M7の足などの、全天球パノラマ画像60Dから直接観測されない位置は、該人物M7の位置Pとして特定しない。そして、位置特定部12Qは、該人物M7における、全天球パノラマ画像60Dから直接観測される領域内の位置を、該人物M7の位置P7として特定する。 Then, for the person M7 on which the non-moving object D7 is superimposed in the omnidirectional panoramic image 60D, the position identifying unit 12Q sets a predetermined position in the person area 62G of the person M7 as the position of the person M7. Specified as P7. Specifically, in this case, for the person M7 on which the peripheral object D7 such as a shelf of a non-moving object is superimposed, in this case, the position specifying unit 12Q sets a predetermined position in the exposed region exposed from the peripheral object D7 of the person M7 as the person. It is specified as the position P7 of M7. Therefore, in this case, the position specifying unit 12Q does not specify the position, such as the foot of the person M7, which is not directly observed from the spherical panoramic image 60D, as the position P of the person M7. Then, the position specifying unit 12Q specifies the position of the person M7 within the area directly observed from the spherical panoramic image 60D as the position P7 of the person M7.

一方、全天球パノラマ画像60Dにおける人物M6上には、周辺物Dが重畳していない。このため、位置特定部12Qは、該人物M6の姿勢に基づいて、人物M6の位置P6を特定する。姿勢に基づいた位置Pの特定方法は、上記と同様である。 On the other hand, the peripheral object D is not superimposed on the person M6 in the spherical panoramic image 60D. Therefore, the position specifying unit 12Q specifies the position P6 of the person M6 based on the posture of the person M6. The method of identifying the position P based on the posture is the same as above.

次に、図17を用いて説明する。例えば、図17(B)に示す全天球パノラマ画像60Fが、処理対象の全天球パノラマ画像60であったと仮定する。そして、人物領域検出部12Mが、人物M(人物M8、人物M9)の各々の人物領域62(人物領域62H、人物領域62I)を検出したと仮定する。 Next, description will be made with reference to FIG. For example, assume that the spherical panoramic image 60F shown in FIG. 17B is the spherical panoramic image 60 to be processed. Then, it is assumed that the person area detection unit 12M has detected each person area 62 (person area 62H, person area 62I) of the person M (person M8, person M9).

この場合、重畳判別部12Tは、検出した人物領域62(人物領域62H、人物領域62I)に示される人物M(人物M8、人物M9)上に、周辺物Dが重畳しているか非重畳であるかを判別する。図17(B)に示す全天球パノラマ画像60Fの場合、重畳判別部12Tは、人物M8上には周辺物Dが非重畳であることを判別する。また、重畳判別部12Tは、人物M9上に、人物M8を示す周辺物D8が重畳していると判別する。 In this case, the superimposition determining unit 12T determines whether or not the peripheral object D is superposed on the person M (person M8, person M9) shown in the detected person area 62 (person area 62H, person area 62I). Determine whether. In the case of the omnidirectional panoramic image 60F shown in FIG. 17B, the superposition determining unit 12T determines that the peripheral object D is not superposed on the person M8. In addition, the superimposition determining unit 12T determines that the peripheral object D8 indicating the person M8 is superimposed on the person M9.

そして、移動体判別部12Xは、重畳判別部12Tによって判別された、人物M9上に重畳している周辺物D8(人物M8)が、移動体および非移動体の何れであるかを判別する。 Then, the moving body discriminating unit 12X discriminates whether the peripheral object D8 (person M8) superposed on the person M9 discriminated by the superposition discriminating unit 12T is a moving body or a non-moving body.

例えば、移動体判別部12Xは、該全天球パノラマ画像60Fを撮影した撮影装置14によって、全天球パノラマ画像60Fより前に撮影された全天球パノラマ画像60E(図17(A))を、記憶部12Bの画像管理DB12Cから読取る。そして、移動体判別部12Xは、全天球パノラマ画像60Eにおける、全天球パノラマ画像60Fの周辺物D8に対応する位置に、該周辺物D8が存在するか否かを判別する。そして、移動体判別部12Xは、全天球パノラマ画像60Eにおける、全天球パノラマ画像60Fの周辺物D8に対応する位置に、該周辺物D8が存在しない場合、該周辺物D8を移動体であると判別する。図17に示す場合、移動体判別部12Xは、全天球パノラマ画像60Eには周辺物D8(人物M8)が存在しない。このため、移動体判別部12Xは、周辺物D8(人物M8)が移動体であると判別する。 For example, the moving object discriminating unit 12X detects the omnidirectional panoramic image 60E (FIG. 17(A)) taken before the omnidirectional panoramic image 60F by the imaging device 14 that has taken the omnidirectional panoramic image 60F. , From the image management DB 12C of the storage unit 12B. Then, the moving body discriminating unit 12X discriminates whether or not the peripheral object D8 exists at a position in the spherical panoramic image 60E corresponding to the peripheral object D8 of the spherical panoramic image 60F. Then, when the peripheral object D8 does not exist at the position corresponding to the peripheral object D8 of the spherical panoramic image 60F in the spherical panoramic image 60E, the moving object discriminating unit 12X recognizes the peripheral object D8 as a moving object. Determine that there is. In the case shown in FIG. 17, the moving object discriminating unit 12X does not have the peripheral object D8 (person M8) in the omnidirectional panoramic image 60E. Therefore, the moving body determination unit 12X determines that the peripheral object D8 (person M8) is a moving body.

そして、位置特定部12Qは、全天球パノラマ画像60Fにおける、移動体である周辺物D8の重畳された人物M9については、該人物M9の姿勢に基づいて、全天球パノラマ画像60Fにおける人物M9の位置P9を特定する。姿勢に基づいた位置Pの特定方法は、上記と同様である。 Then, for the person M9 on which the peripheral object D8, which is a moving body, in the omnidirectional panoramic image 60F is superimposed, the position specifying unit 12Q determines the person M9 in the omnidirectional panoramic image 60F based on the posture of the person M9. Position P9 is specified. The method of identifying the position P based on the posture is the same as above.

一方、全天球パノラマ画像60Fにおける人物M8上には、周辺物Dが重畳していない。このため、位置特定部12Qは、該人物M8の姿勢に基づいて、人物M8の位置P8を特定する。姿勢に基づいた位置Pの特定方法は、上記と同様である。 On the other hand, the peripheral object D is not superimposed on the person M8 in the spherical panoramic image 60F. Therefore, the position specifying unit 12Q specifies the position P8 of the person M8 based on the posture of the person M8. The method of identifying the position P based on the posture is the same as above.

図11に戻り、説明を続ける。受付部12Wは、ユーザによる入力部12Gの入力を受付ける。本実施の形態では、受付部12Wは、特定情報12Hの変更指示を入力部12Gから受付ける。なお、受付部12Wは、送受信部12Kを介して情報処理端末18から、特定情報12Hの変更指示を受付けてもよい。 Returning to FIG. 11, the description will be continued. The reception unit 12W receives an input from the input unit 12G by the user. In the present embodiment, reception unit 12W receives an instruction to change specific information 12H from input unit 12G. The accepting unit 12W may accept an instruction to change the specific information 12H from the information processing terminal 18 via the transmitting/receiving unit 12K.

例えば、表示制御部12Vは、特定情報12Hの変更を受付けるための設定画面を、表示部12Fに表示する。図18は、設定画面70の一例を示す模式図である。設定画面70は、姿勢、周辺物、人物の位置、の各々を設定するための設定欄を含む。ユーザは、設定画面70を視認しながら入力部12Gを操作することで、所望の姿勢や周辺物Dに対応する、位置特定条件を入力する。 For example, the display control unit 12V displays a setting screen for accepting the change of the specific information 12H on the display unit 12F. FIG. 18 is a schematic diagram showing an example of the setting screen 70. The setting screen 70 includes setting fields for setting each of the posture, the peripheral objects, and the position of the person. The user operates the input unit 12G while visually checking the setting screen 70, thereby inputting the position specifying condition corresponding to the desired posture and the peripheral object D.

受付部12Wは、ユーザによって入力された、姿勢、周辺物、および、位置特定条件を、特定情報12Hの変更指示として受付ける。変更部12Sは、変更指示に応じて、特定情報12Hを変更する。詳細には、変更部12Sは、変更指示に示される、姿勢、周辺物、および、位置特定条件を、対応づけて、記憶部12Bにおける特定情報12Hに登録する。これによって、記憶部12Bにおける特定情報12Hが更新される。 The accepting unit 12W accepts the posture, the peripheral objects, and the position specifying condition input by the user as an instruction to change the specifying information 12H. The changing unit 12S changes the specific information 12H according to the change instruction. Specifically, the changing unit 12S registers the posture, the peripheral object, and the position specifying condition indicated in the change instruction in association with each other in the specifying information 12H in the storage unit 12B. As a result, the specific information 12H in the storage unit 12B is updated.

図11に戻り、説明を続ける。制御部12Aが上記処理を行うことによって、撮影装置14から全天球パノラマ画像60を受信する毎に、画像管理DB12Cには、該全天球パノラマ画像60が登録されると共に、該全天球パノラマ画像60に対応する解析情報(図13参照)が登録される。 Returning to FIG. 11, the description will be continued. By performing the above processing by the control unit 12A, every time the spherical panoramic image 60 is received from the image capturing device 14, the spherical panoramic image 60 is registered in the image management DB 12C, and the spherical panoramic image 60 is registered. Analysis information (see FIG. 13) corresponding to the panoramic image 60 is registered.

次に、情報処理端末18の機能構成を説明する。情報処理端末18は、送受信部18Aと、受付部18Cと、表示制御部18Dと、記憶・読出部18Bと、記憶部18Eと、入力部18Fと、表示部18Gと、取得部18Hと、表示画像生成部18Iと、を備える。 Next, the functional configuration of the information processing terminal 18 will be described. The information processing terminal 18 includes a transmission/reception unit 18A, a reception unit 18C, a display control unit 18D, a storage/readout unit 18B, a storage unit 18E, an input unit 18F, a display unit 18G, an acquisition unit 18H, and a display. And an image generation unit 18I.

送受信部18A、記憶・読出部18B、受付部18C、表示制御部18D、記憶部18E、取得部18H、および、表示画像生成部18Iは、データや信号を授受可能に接続されている。 The transmission/reception unit 18A, the storage/readout unit 18B, the reception unit 18C, the display control unit 18D, the storage unit 18E, the acquisition unit 18H, and the display image generation unit 18I are connected so that data and signals can be exchanged.

受付部18Cは、入力部18Fに接続されている。受付部18Cは、ユーザによる入力部18Fの操作指示を受付ける。入力部18Fは、キーボード511やマウス512に相当する(図9参照)。表示制御部18Dは、表示部18Gへ各種画像を表示する。表示部18Gは、ディスプレイ508に相当する(図9参照)。送受信部18Aは、ネットワーク20を介してサーバ装置12と通信する。記憶部18Eは、各種データを記憶する。例えば、記憶部18Eは、情報処理端末18を操作するユーザのユーザIDを記憶する。記憶・読出部18Bは、記憶部18Eへの各種データの記憶、および記憶部18Eからの各種データの読出しを行う。 The reception unit 18C is connected to the input unit 18F. The reception unit 18C receives an operation instruction of the input unit 18F by the user. The input unit 18F corresponds to the keyboard 511 and the mouse 512 (see FIG. 9). The display control unit 18D displays various images on the display unit 18G. The display unit 18G corresponds to the display 508 (see FIG. 9). The transmission/reception unit 18A communicates with the server device 12 via the network 20. The storage unit 18E stores various data. For example, the storage unit 18E stores the user ID of the user who operates the information processing terminal 18. The memory/reader 18B stores various data in the memory 18E and reads various data from the memory 18E.

ユーザは、入力部18Fを操作することで、解析結果取得要求を入力する。 The user inputs the analysis result acquisition request by operating the input unit 18F.

解析結果取得要求は、画像IDと、画像IDによって識別される全天球パノラマ画像60における人物Mの位置の解析結果と、表示対象の全天球パノラマ画像60の画像ID(以下、代表画像IDと称する場合がある)と、解析結果の取得要求を示す要求信号と、を含む。 The analysis result acquisition request includes the image ID, the analysis result of the position of the person M in the omnidirectional panorama image 60 identified by the image ID, and the image ID of the omnidirectional panorama image 60 to be displayed (hereinafter referred to as representative image ID In some cases) and a request signal indicating a request to acquire the analysis result.

例えば、ユーザは、表示部18Gを参照しながら、入力部18Fを操作することで、解析結果取得要求を入力する。 For example, the user inputs the analysis result acquisition request by operating the input unit 18F while referring to the display unit 18G.

受付部18Cは、入力部18Fから解析結果取得要求を受付けると、送受信部18Aを介してサーバ装置12へ送信する。サーバ装置12の送受信部12Kは、情報処理端末18から解析結果取得要求を受付けると、記憶制御部12Pへ出力する。記憶制御部12Pは、受付けた解析結果取得要求に含まれる画像IDに対応する全天球パノラマ画像60と、該画像IDに対応する撮影日時情報と、該画像IDに対応する解析情報と、を、解析結果情報として、画像管理DB12Cから読取る(図13参照)。そして、送受信部12Kは、解析結果情報を、解析結果取得要求の送信元の情報処理端末18へ送信する。 When receiving the analysis result acquisition request from the input unit 18F, the reception unit 18C transmits the analysis result acquisition request to the server device 12 via the transmission/reception unit 18A. Upon receiving the analysis result acquisition request from the information processing terminal 18, the transmission/reception unit 12K of the server device 12 outputs it to the storage control unit 12P. The storage control unit 12P stores the omnidirectional panoramic image 60 corresponding to the image ID included in the received analysis result acquisition request, the shooting date/time information corresponding to the image ID, and the analysis information corresponding to the image ID. The image management DB 12C is read as analysis result information (see FIG. 13). Then, the transmission/reception unit 12K transmits the analysis result information to the information processing terminal 18, which is the transmission source of the analysis result acquisition request.

情報処理端末18の送受信部18Aは、サーバ装置12へ送信した解析結果取得要求に対する応答として、サーバ装置12から解析結果情報を受信する。取得部18Hは、送受信部18Aから解析結果情報を取得する。すなわち、取得部18Hは、画像IDと、画像IDに対応する全天球パノラマ画像60と、該全天球パノラマ画像60に含まれる人物領域62ごとに特定された人物Mの位置Pを示す位置座標と、を取得する。 The transmission/reception unit 18A of the information processing terminal 18 receives the analysis result information from the server device 12 as a response to the analysis result acquisition request transmitted to the server device 12. The acquisition unit 18H acquires the analysis result information from the transmission/reception unit 18A. That is, the acquisition unit 18H indicates a position P indicating the image ID, the omnidirectional panoramic image 60 corresponding to the image ID, and the position M of the person M specified for each person region 62 included in the omnidirectional panoramic image 60. Get the coordinates and.

表示画像生成部18Iは、表示画像を生成する。詳細には、表示画像生成部18Iは、解析結果情報に含まれる全天球パノラマ画像60を読取る。そして、該全天球パノラマ画像60における、人物Mの位置Pを示す位置座標に、人物Mを示す描画点を描画した、表示画像を生成する。 The display image generation unit 18I generates a display image. Specifically, the display image generation unit 18I reads the spherical panoramic image 60 included in the analysis result information. Then, a display image in which a drawing point indicating the person M is drawn at the position coordinates indicating the position P of the person M in the omnidirectional panoramic image 60 is generated.

図19は、表示画像72の一例(表示画像72A)を示す模式図である。表示画像72Aは、図15に示す全天球パノラマ画像60Bを表示部18Gに表示した状態を示す模式図である。図15を用いて説明したように、サーバ装置12の位置特定部12Qは、全天球パノラマ画像60Bに含まれる人物M1〜人物M5の各々の姿勢や周辺物Dに応じて、これらの人物Mの各々の位置P(位置P1〜位置P5)を特定する。 FIG. 19 is a schematic diagram showing an example of the display image 72 (display image 72A). The display image 72A is a schematic diagram showing a state in which the spherical panoramic image 60B shown in FIG. 15 is displayed on the display unit 18G. As described with reference to FIG. 15, the position identifying unit 12Q of the server device 12 determines the person M1 to the person M5 included in the omnidirectional panorama image 60B according to the postures and peripheral objects D of the person M1 to the person M5. Each position P (position P1 to position P5) is specified.

このため、表示画像生成部18Iは、全天球パノラマ画像60Bにおける、解析情報に含まれる人物領域IDに対応する人物Mの位置座標によって示される位置に、人物Mを示す描画点B(描画点B1〜描画点B5)を描画する。このようにして、表示画像生成部18Iは、全天球パノラマ画像60Bに含まれる人物M(人物M1〜人物M5)の各々の姿勢に基づいた位置P(位置P1〜位置P5)に、描画点B(描画点B1〜描画点B5)の各々を描画した、表示画像72Aを生成する。 Therefore, the display image generation unit 18I causes the drawing point B (drawing point B indicating the person M at the position indicated by the position coordinates of the person M corresponding to the person region ID included in the analysis information in the omnidirectional panoramic image 60B. B1 to drawing point B5) are drawn. In this way, the display image generating unit 18I draws the drawing points at the positions P (positions P1 to P5) based on the respective postures of the person M (people M1 to M5) included in the omnidirectional panoramic image 60B. A display image 72A in which each of B (drawing point B1 to drawing point B5) is drawn is generated.

そして、表示制御部18Dは、表示画像72を表示部18Gへ表示する。 Then, the display control unit 18D displays the display image 72 on the display unit 18G.

ここで、表示制御部18Dが表示画像72の作成時に用いた人物Mの位置Pを示す位置座標は、位置特定部12Qが人物Mの姿勢に基づいて特定した位置Pである。このため、表示制御部18Dは、全天球パノラマ画像60内に含まれる人物Mの位置Pを精度良く表した、表示画像72を表示することができる。 Here, the position coordinate indicating the position P of the person M used when the display control unit 18D created the display image 72 is the position P specified by the position specifying unit 12Q based on the posture of the person M. Therefore, the display control unit 18D can display the display image 72 that accurately represents the position P of the person M included in the spherical panoramic image 60.

なお、表示画像生成部18Iは、サーバ装置12から受信した解析結果情報に含まれる複数の全天球パノラマ画像60の内の1つを、表示対象の代表画像として特定してもよい。ユーザは、入力部18Fを操作することで、表示対象の代表画像を指定すればよい。そして、表示画像生成部18Iは、入力部18Fから受付部18Cを介して受付けた、代表画像として指定された全天球パノラマ画像60上に、描画点Bを描画すればよい。 The display image generation unit 18I may specify one of the plurality of spherical panoramic images 60 included in the analysis result information received from the server device 12 as the representative image to be displayed. The user may specify the representative image to be displayed by operating the input unit 18F. Then, the display image generation unit 18I may draw the drawing point B on the omnidirectional panoramic image 60 designated as the representative image, which is received from the input unit 18F via the reception unit 18C.

この場合、表示画像生成部18Iは、代表画像として指定された全天球パノラマ画像60における、該全天球パノラマ画像60および他の全天球パノラマ画像60の各々に対応する人物Mの位置Pの各々に、描画点Bを描画することで、表示画像72を生成すればよい。 In this case, the display image generation unit 18I determines the position P of the person M corresponding to each of the omnidirectional panoramic image 60 and the other omnidirectional panoramic image 60 in the omnidirectional panoramic image 60 designated as the representative image. The display image 72 may be generated by drawing the drawing point B on each of these.

これによって、表示画像生成部18Iは、代表画像としての全天球パノラマ画像60上に、人物Mの滞留度合を示すヒートマップを示す描画点Bを描画した、表示画像72を生成することができる。 Accordingly, the display image generation unit 18I can generate the display image 72 in which the drawing point B indicating the heat map indicating the staying degree of the person M is drawn on the omnidirectional panoramic image 60 as the representative image. ..

また、ヒートマップを示す描画点Bを描画する場合には、表示画像生成部18Iは、描画点Bの密集度に応じて描画点Bの色を調整することが好ましい。これにより、代表画像としての全天球パノラマ画像60上に、人物Mの滞留度合を示す描画点Bを描画することができる。なお、ヒートマップの作成方法には、公知の方法を用いればよい。但し、本実施の形態では、位置特定部12Qで特定した、人物Mの姿勢に基づいた位置Pを用いて、ヒートマップを作成する。このため、本実施の形態の情報処理システム10では、人物Mの滞留度合をより精度良く示すヒートマップを作成することができる。 Further, when drawing the drawing point B indicating the heat map, it is preferable that the display image generation unit 18I adjust the color of the drawing point B according to the density of the drawing points B. As a result, the drawing point B indicating the degree of stay of the person M can be drawn on the omnidirectional panoramic image 60 as the representative image. A known method may be used as the method for creating the heat map. However, in the present embodiment, the heat map is created using the position P based on the posture of the person M identified by the position identifying unit 12Q. Therefore, in the information processing system 10 of the present embodiment, it is possible to create a heat map that more accurately indicates the degree of staying of the person M.

なお、取得部18Hおよび表示画像生成部18Iを、サーバ装置12の制御部12Aに設けた構成としてもよい。すなわち、制御部12A側で、表示画像72を作成してもよい。 The acquisition unit 18H and the display image generation unit 18I may be provided in the control unit 12A of the server device 12. That is, the display image 72 may be created on the control unit 12A side.

次に、サーバ装置12で実行する情報処理の手順を説明する。図20は、サーバ装置12の制御部12Aで実行する情報処理の手順の一例を示すフローチャートである。 Next, a procedure of information processing executed by the server device 12 will be described. FIG. 20 is a flowchart showing an example of an information processing procedure executed by the control unit 12A of the server device 12.

まず、送受信部12Kが、撮影装置14から全天球パノラマ画像60および関連情報61を受信したか否かを判別する(ステップS100)。ステップS100で肯定判断すると(ステップS100:Yes)、ステップS102へ進む。 First, the transmission/reception unit 12K determines whether or not the spherical panoramic image 60 and the related information 61 have been received from the imaging device 14 (step S100). If an affirmative decision is made in step S100 (step S100: Yes), the operation proceeds to step S102.

ステップS102では、水平補正部12Yが、ステップS100で受信した全天球パノラマ画像60の水平補正を行う(ステップS102)。次に、歪補正部12Zが、ステップS102で水平補正された全天球パノラマ画像60の歪みを補正する(ステップS104)。 In step S102, the horizontal correction unit 12Y performs horizontal correction of the spherical panoramic image 60 received in step S100 (step S102). Next, the distortion correction unit 12Z corrects the distortion of the omnidirectional panoramic image 60 that has been horizontally corrected in step S102 (step S104).

そして、記憶制御部12Pは、ステップS100で受信し、ステップS102およびステップS104で補正された全天球パノラマ画像60を、画像管理DB12Cへ登録する(ステップS106)。このとき、記憶制御部12Pは、ステップS100で受信した関連情報61に含まれる撮影日時情報および撮影装置IDを、該全天球パノラマ画像60に対応づけて画像管理DB12Cへ登録する。また、記憶制御部12Pは、全天球パノラマ画像60に画像IDを付与し、対応づけて画像管理DB12Cへ登録する。 Then, the storage control unit 12P registers the spherical panorama image 60 received in step S100 and corrected in steps S102 and S104 in the image management DB 12C (step S106). At this time, the storage control unit 12P registers the shooting date and time information and the shooting device ID included in the related information 61 received in step S100 in the image management DB 12C in association with the spherical panorama image 60. In addition, the storage control unit 12P assigns an image ID to the omnidirectional panoramic image 60, and associates the image ID with the image ID and registers it in the image management DB 12C.

このため、ステップS100〜ステップS106の処理によって、画像管理DB12C(図13参照)には、撮影装置14から受信し、且つ水平補正および歪み補正の行われた全天球パノラマ画像60と、撮影装置IDと、画像IDと、撮影日時情報と、が対応づけて登録される。言い換えると、撮影装置14から全天球パノラマ画像60を受信する毎に、画像管理DB12Cには、新たな撮影画像情報が登録される。 For this reason, by the processing of steps S100 to S106, the image management DB 12C (see FIG. 13) has the omnidirectional panoramic image 60 that has been received from the imaging device 14 and has been subjected to horizontal correction and distortion correction, and the imaging device. The ID, the image ID, and the shooting date/time information are registered in association with each other. In other words, every time the omnidirectional panoramic image 60 is received from the image capturing device 14, new captured image information is registered in the image management DB 12C.

次に、人物領域検出部12Mが、ステップS106で画像管理DB12Cに登録した全天球パノラマ画像60に含まれる人物領域62を検出する(ステップS108)。そして、人物領域検出部12Mは、検出した人物領域62の各々に人物領域IDを付与する。さらに、人物領域検出部12Mは、人物領域IDと、人物領域IDによって識別される人物領域62の領域情報(位置座標、サイズ)と、を、該全天球パノラマ画像60の画像IDに対応付けて画像管理DB12Cへ登録する(図13参照)。 Next, the person area detection unit 12M detects the person area 62 included in the omnidirectional panorama image 60 registered in the image management DB 12C in step S106 (step S108). Then, the person area detection unit 12M gives a person area ID to each of the detected person areas 62. Further, the person area detection unit 12M associates the person area ID and the area information (positional coordinates, size) of the person area 62 identified by the person area ID with the image ID of the omnidirectional panoramic image 60. And register it in the image management DB 12C (see FIG. 13).

次に、制御部12Aは、ステップS100で受信した全天球パノラマ画像60について、ステップS108で検出した人物領域62ごとに、ステップS110〜ステップS132の処理を繰返す。 Next, the control unit 12A repeats the processes of steps S110 to S132 for the omnidirectional panoramic image 60 received in step S100 for each person region 62 detected in step S108.

詳細には、周辺特定部12Rが、人物領域62の周辺の周辺物Dを特定する(ステップS110)。次に、周辺特定部12Rが、ステップS110で周辺物Dを特定できたか否かを判断する(ステップS112)。ステップS112で否定判断すると(ステップS112:No)、後述するステップS118へ進む。ステップS112で肯定判断すると(ステップS112:Yes)、ステップS114へ進む。 In detail, the periphery specifying unit 12R specifies the peripheral object D around the person area 62 (step S110). Next, the periphery specifying unit 12R determines whether or not the peripheral object D has been specified in step S110 (step S112). When a negative determination is made in step S112 (step S112: No), the process proceeds to step S118 described below. If an affirmative decision is made in step S112 (step S112: Yes), the operation proceeds to step S114.

ステップS114では、ステップS112で特定した周辺物Dが、処理対象の人物領域62の人物M上に重畳しているか非重畳であるか判断する(ステップS114)。人物M上に周辺物Dが非重畳であると判断した場合(ステップS114:No)、ステップS118へ進む。 In step S114, it is determined whether the peripheral object D identified in step S112 is superposed or non-superposed on the person M in the person area 62 to be processed (step S114). When it is determined that the peripheral object D is not superposed on the person M (step S114: No), the process proceeds to step S118.

一方、人物M上に周辺物Dが重畳していると判断した場合(ステップS114:Yes)、ステップS116へ進む。ステップS116では、移動体判別部12Xが、ステップS112で特定した周辺物Dが移動体であるか否かを判断する(ステップS116)。 On the other hand, when it is determined that the peripheral object D is superimposed on the person M (step S114: Yes), the process proceeds to step S116. In step S116, the moving body determination unit 12X determines whether or not the peripheral object D identified in step S112 is a moving body (step S116).

人物M上に重畳している周辺物Dが移動体であると判断すると(ステップS116:Yes)、ステップS118へ進む。 When it is determined that the peripheral object D superimposed on the person M is a moving body (step S116: Yes), the process proceeds to step S118.

ステップS118では、姿勢判別部12Jが人物Mの姿勢を判別する(ステップS118)。次に、姿勢判別部12Jは、人物Mの姿勢を判別することが出来たか否かを判断する(ステップS120)。人物Mの姿勢を判別することが出来た場合(ステップS120:Yes)、ステップS122へ進む。 In step S118, the posture determination unit 12J determines the posture of the person M (step S118). Next, the posture determination unit 12J determines whether or not the posture of the person M can be determined (step S120). When the posture of the person M can be determined (step S120: Yes), the process proceeds to step S122.

ステップS122では、ステップS110の処理によって周辺物Dが特定出来たか否かを判断する(ステップS122)。周辺物Dが特定出来た場合(ステップS122:Yes)、ステップS124へ進む。 In step S122, it is determined whether or not the peripheral object D has been identified by the process of step S110 (step S122). When the peripheral object D can be specified (step S122: Yes), the process proceeds to step S124.

ステップS124では、位置特定部12Qが、人物Mの姿勢および周辺物Dから、該人物Mの位置を特定する(ステップS124)。そして、ステップS132へ進む。 In step S124, the position specifying unit 12Q specifies the position of the person M from the posture of the person M and the peripheral object D (step S124). Then, the process proceeds to step S132.

一方、上記ステップS122で、周辺物Dを特定出来なかったと判断した場合(ステップS122:No)、ステップS126へ進む。ステップS126では、位置特定部12Qが、人物Mの姿勢から、人物Mの位置を特定する(ステップS126)。そして、ステップS132へ進む。 On the other hand, when it is determined in step S122 that the peripheral object D cannot be specified (step S122: No), the process proceeds to step S126. In step S126, the position specifying unit 12Q specifies the position of the person M from the posture of the person M (step S126). Then, the process proceeds to step S132.

一方、ステップS120で、人物Mの姿勢を判別出来なかったと判断した場合(ステップS120:No)、ステップS128へ進む。ステップS128では、位置特定部12Qは、人物領域62における所定位置を、人物Mの位置として特定する(ステップS128)。そして、ステップS132へ進む。 On the other hand, when it is determined in step S120 that the posture of the person M cannot be determined (step S120: No), the process proceeds to step S128. In step S128, the position specifying unit 12Q specifies a predetermined position in the person area 62 as the position of the person M (step S128). Then, the process proceeds to step S132.

さらに、上記ステップS116の判断で、人物M上に重畳している周辺物Dが非移動体であると判断した場合(ステップS116:No)、ステップS130へ進む。ステップS130では、位置特定部12Qは、人物領域62の所定位置を、人物Mの位置として特定する(ステップS130)。そして、ステップS132へ進む。 Further, when it is determined in the above step S116 that the peripheral object D superimposed on the person M is a non-moving object (step S116: No), the process proceeds to step S130. In step S130, the position specifying unit 12Q specifies the predetermined position of the person area 62 as the position of the person M (step S130). Then, the process proceeds to step S132.

ステップS132では、記憶制御部12Pが、ステップS124〜ステップS130の処理によって特定された人物Mの位置を示す位置座標を、処理対象の全天球パノラマ画像60の画像IDおよび処理対象の人物領域62の人物領域IDに対応づけて、画像管理DB12Cへ登録する(ステップS132)。 In step S132, the storage control unit 12P sets the position coordinates indicating the position of the person M identified by the processing in steps S124 to S130 to the image ID of the omnidirectional panorama image 60 to be processed and the person area 62 to be processed. It is registered in the image management DB 12C in association with the person area ID of (step S132).

そして、制御部12Aは、ステップS100で受信した全天球パノラマ画像60について、ステップS108で検出した人物領域62の全てについて、ステップS110〜ステップS132の処理を繰返し行うと、この繰返しを終了する。そして、本ルーチンを終了する。 Then, the control unit 12A ends the repetition when the processes of steps S110 to S132 are repeated for all of the person regions 62 detected in step S108 for the omnidirectional panoramic image 60 received in step S100. Then, this routine ends.

一方、上記ステップS100で否定判断すると(ステップS100:No)、ステップS134へ進む。ステップS134では、受付部12Wが、特定情報12Hの変更指示を受付けたか否かを判断する(ステップS134)。 On the other hand, when a negative determination is made in step S100 (step S100: No), the process proceeds to step S134. In step S134, the reception unit 12W determines whether or not an instruction to change the specific information 12H has been received (step S134).

ステップS134で肯定判断すると(ステップS134:Yes)、ステップS136へ進む。ステップS136では、変更部12Sが、ステップS134で受付けた変更指示に応じて、特定情報12Hを更新する(ステップS136)。そして、本ルーチンを終了する。 If an affirmative decision is made in step S134 (step S134: Yes), the operation proceeds to step S136. In step S136, the changing unit 12S updates the specific information 12H according to the change instruction received in step S134 (step S136). Then, this routine ends.

一方、ステップS134で否定判断すると(ステップS134:No)、ステップS138へ進む。ステップS138では、送受信部12Kが、情報処理端末18から解析結果取得要求を受信したか否かを判断する(ステップS138)。ステップS138で肯定判断すると(ステップS138:Yes)、ステップS140へ進む。 On the other hand, when a negative determination is made in step S134 (step S134: No), the process proceeds to step S138. In step S138, the transmission/reception unit 12K determines whether or not an analysis result acquisition request has been received from the information processing terminal 18 (step S138). If an affirmative decision is made in step S138 (step S138: Yes), the operation proceeds to step S140.

ステップS140では、記憶制御部12Pが、画像管理DB12Cにおける、撮影画像情報および解析情報を含む解析結果情報を読取り(ステップS140)、ステップS142へ進む。ステップS142では、送受信部12Kが、ステップS140で読取った解析結果情報を、ステップS138の解析結果取得要求の送信元の情報処理端末18へ送信する(ステップS142)。そして、本ルーチンを終了する。また、ステップS138で否定判断した場合(ステップS138:No)、本ルーチンを終了する。 In step S140, the storage control unit 12P reads the analysis result information including the captured image information and the analysis information in the image management DB 12C (step S140), and proceeds to step S142. In step S142, the transmission/reception unit 12K transmits the analysis result information read in step S140 to the information processing terminal 18 that is the transmission source of the analysis result acquisition request in step S138 (step S142). Then, this routine ends. If a negative decision is made in step S138 (step S138: No), this routine is ended.

次に、情報処理端末18で実行する情報処理の手順の一例を説明する。図21は、情報処理端末18で実行する情報処理の手順の一例を示すフローチャートである。 Next, an example of an information processing procedure executed by the information processing terminal 18 will be described. FIG. 21 is a flowchart showing an example of an information processing procedure executed by the information processing terminal 18.

まず情報処理端末18の受付部18Cが、解析結果取得要求を受付ける(ステップS200)。次に、送受信部18Aが、ステップS200で受付けた解析結果取得要求を、サーバ装置12へ送信する(ステップS202)。 First, the reception unit 18C of the information processing terminal 18 receives the analysis result acquisition request (step S200). Next, the transmission/reception unit 18A transmits the analysis result acquisition request accepted in step S200 to the server device 12 (step S202).

次に、取得部18Hが、送受信部18Aを介してサーバ装置12から解析結果情報を取得する(ステップS204)。次に、表示画像生成部18Iが、解析結果情報に含まれる全天球パノラマ画像60における、解析情報によって示される人物Mの位置に、人物Mを示す描画点Bを描画した、表示画像72を生成する(ステップS206)。なお、上述したように、表示画像生成部18Iは、代表画像として指定された全天球パノラマ画像60上における、複数の全天球パノラマ画像60の各々に対応する人物Mの位置に描画点Bを描画することで、表示画像72を生成してもよい。 Next, the acquisition unit 18H acquires the analysis result information from the server device 12 via the transmission/reception unit 18A (step S204). Next, the display image generation unit 18I draws the drawing point B indicating the person M at the position of the person M indicated by the analysis information in the omnidirectional panoramic image 60 included in the analysis result information. It is generated (step S206). As described above, the display image generation unit 18I causes the drawing point B to be located at the position of the person M corresponding to each of the plurality of spherical panoramic images 60 on the spherical panoramic image 60 designated as the representative image. The display image 72 may be generated by drawing.

次に、表示制御部18Dは、ステップS206で生成した表示画像72を、表示部18Gへ表示する(ステップS208)。そして、本ルーチンを終了する。 Next, the display control unit 18D displays the display image 72 generated in step S206 on the display unit 18G (step S208). Then, this routine ends.

以上説明したように、本実施の形態のサーバ装置12(情報処理装置)は、人物領域検出部12M(検出部)と、姿勢判別部12Jと、位置特定部12Qと、を備える。人物領域検出部12Mは、全天球パノラマ画像60(画像)に含まれる人物領域62を検出する。姿勢判別部12Jは、人物領域62に示される人物Mの姿勢を判別する。位置特定部12Qは、姿勢に基づいて、全天球パノラマ画像60における人物Mの位置を特定する。 As described above, the server device 12 (information processing device) of the present embodiment includes the person area detection unit 12M (detection unit), the posture determination unit 12J, and the position identification unit 12Q. The person area detection unit 12M detects the person area 62 included in the omnidirectional panoramic image 60 (image). The posture determination unit 12J determines the posture of the person M shown in the person area 62. The position specifying unit 12Q specifies the position of the person M in the omnidirectional panoramic image 60 based on the posture.

このように、本実施の形態のサーバ装置12では、全天球パノラマ画像60に含まれる人物領域62に示される人物Mの姿勢に基づいて、該人物Mの位置を特定する。 As described above, in the server device 12 of the present embodiment, the position of the person M is specified based on the posture of the person M shown in the person area 62 included in the omnidirectional panoramic image 60.

このため、全天球パノラマ画像60における人物領域62内の同じ位置(例えば、中央など)を、該人物領域62に示される人物Mの位置として特定する場合などに生じる、全天球パノラマ画像60を視認したときに不自然な箇所が、人物Mの位置として特定されることを抑制することができる。 Therefore, when the same position (for example, the center) in the person area 62 in the omnidirectional panoramic image 60 is specified as the position of the person M shown in the person area 62, the omnidirectional panoramic image 60 occurs. It is possible to prevent an unnatural portion from being identified as the position of the person M when visually recognizing.

なお、上述したように、サーバ装置12が処理する対象の画像は、全天球パノラマ画像60に限定されない。 As described above, the target image processed by the server device 12 is not limited to the spherical panoramic image 60.

従って、本実施の形態のサーバ装置12は、精度良く、画像内の人物Mの位置Pを特定することができる。 Therefore, the server device 12 according to the present embodiment can accurately specify the position P of the person M in the image.

周辺特定部12Rは、全天球パノラマ画像60における人物領域62の周辺の周辺領域(例えば、周辺物D)を特定する。位置特定部12Qは、姿勢および周辺領域(例えば、周辺物D)に基づいて、全天球パノラマ画像60における人物Mの位置を特定する。 The peripheral specifying unit 12R specifies a peripheral area (for example, the peripheral object D) around the human area 62 in the omnidirectional panoramic image 60. The position specifying unit 12Q specifies the position of the person M in the omnidirectional panoramic image 60 based on the posture and the peripheral area (for example, the peripheral object D).

このため、サーバ装置12は、上記効果に加えて、更に精度良く、画像内の人物Mの位置Pを特定することができる。 Therefore, in addition to the above effects, the server device 12 can specify the position P of the person M in the image with higher accuracy.

また、位置特定部12Qは、人物領域62に示される人物Mの姿勢が判別されなかった場合、人物領域62における所定位置を、人物Mの位置Pとして特定する。 Further, when the posture of the person M shown in the person area 62 is not determined, the position specifying unit 12Q specifies a predetermined position in the person area 62 as the position P of the person M.

重畳判別部12Tは、全天球パノラマ画像60における人物領域62に示される人物M上に他の物体が重畳しているか非重畳であるかを判別する。移動体判別部12Xは、他の物体が移動体および非移動体の何れであるかを判別する。位置特定部12Qは、人物領域62に示される人物M上に他の物体が重畳していると判別され、且つ該他の物体が非移動体であると判別された場合、該人物領域62内の所定位置を、人物Mの位置Pとして特定する。また、位置特定部12Qは、人物領域62に示される人物M上に他の物体が重畳していると判別され、且つ該他の物体が移動体であると判別された場合、該人物領域62に示される人物Mの姿勢に基づいて、全天球パノラマ画像60における人物Mの位置を特定する。また、位置特定部12Qは、人物領域62に示される人物M上に他の物体が非重畳であると判別された場合、人物Mの姿勢に基づいて全天球パノラマ画像60における人物Mの位置を特定する。 The superposition determining unit 12T determines whether another object is superposed or non-superposed on the person M shown in the person area 62 in the omnidirectional panoramic image 60. The moving body determination unit 12X determines whether the other object is a moving body or a non-moving body. If it is determined that another object is superposed on the person M shown in the person area 62 and that the other object is a non-moving object, the position identifying unit 12Q Is specified as the position P of the person M. Further, when it is determined that another object is superposed on the person M shown in the person area 62 and the other object is a moving body, the position specifying unit 12Q determines that the person area 62 is a moving body. The position of the person M in the spherical panoramic image 60 is specified based on the posture of the person M shown in FIG. Further, when it is determined that another object is not superposed on the person M shown in the person area 62, the position identifying unit 12Q determines the position of the person M in the omnidirectional panorama image 60 based on the posture of the person M. Specify.

表示画像生成部18Iは、表示対象の全天球パノラマ画像60における、位置特定部12Qによって特定された人物Mの位置Pに、描画点Bを描画した表示画像72を生成する。 The display image generation unit 18I generates the display image 72 in which the drawing point B is drawn at the position P of the person M specified by the position specifying unit 12Q in the omnidirectional panorama image 60 to be displayed.

位置特定部12Qは、姿勢と、人物Mの位置Pを特定するための位置特定条件と、を対応づけた第1の特定情報12D(特定情報12H)における、判別された姿勢に対応する位置特定条件によって特定される位置Pを、人物Mの位置Pとして特定する。 The position specifying unit 12Q specifies the position corresponding to the determined attitude in the first specifying information 12D (specific information 12H) in which the attitude and the position specifying condition for specifying the position P of the person M are associated with each other. The position P specified by the condition is specified as the position P of the person M.

また、位置特定部12Qは、姿勢と、周辺領域と、人物Mの位置Pを特定するための位置特定条件と、を対応づけた第2の特定情報12E(特定情報12H)における、判別された姿勢および特定された周辺領域に対応する位置特定条件によって特定される位置Pを、人物Mの位置Pとして特定する。 In addition, the position specifying unit 12Q is determined in the second specifying information 12E (specific information 12H) in which the posture, the peripheral area, and the position specifying condition for specifying the position P of the person M are associated with each other. The position P specified by the position specifying condition corresponding to the posture and the specified peripheral region is specified as the position P of the person M.

受付部12Wは、特定条件情報の変更指示を受付ける。変更部12Sは、変更指示に応じて特定情報12Hを変更する。 The reception unit 12W receives an instruction to change the specific condition information. The changing unit 12S changes the specific information 12H according to the change instruction.

画像は、全方位の範囲の撮影によって得られた全天球パノラマ画像60である。 The image is a omnidirectional panoramic image 60 obtained by photographing in all directions.

水平補正部12Yは、全天球パノラマ画像60における水平方向と撮影環境における水平方向とが一致するように補正する。歪補正部12Zは、全天球パノラマ画像60の歪みを補正する。姿勢判別部12Jは、補正された画像としての全天球パノラマ画像60に含まれる人物Mの姿勢を判別する。位置特定部12Qは、全天球パノラマ画像60における人物Mの位置を特定する。 The horizontal correction unit 12Y corrects the horizontal panoramic image 60 so that the horizontal direction matches the horizontal direction in the shooting environment. The distortion correction unit 12Z corrects the distortion of the spherical panoramic image 60. The posture determination unit 12J determines the posture of the person M included in the omnidirectional panoramic image 60 as the corrected image. The position specifying unit 12Q specifies the position of the person M in the spherical panoramic image 60.

情報処理システム10は、サーバ装置12(情報処理装置)と、情報処理端末18と、を備える。情報処理端末18は、表示制御部18Dを備える。表示制御部18Dは、人物Mの位置を示す表示画像72を表示部18Gに表示する。 The information processing system 10 includes a server device 12 (information processing device) and an information processing terminal 18. The information processing terminal 18 includes a display control unit 18D. The display control unit 18D displays the display image 72 showing the position of the person M on the display unit 18G.

(第2の実施の形態)
本実施の形態では、人物領域62ごとに、人物Mの姿勢に基づいた位置(第1の位置)と、人物Mの周辺領域に基づいた位置(第2の位置)と、の各々を特定する場合を説明する。
(Second embodiment)
In the present embodiment, a position (first position) based on the posture of the person M and a position (second position) based on the peripheral region of the person M are specified for each person region 62. The case will be described.

図1は、本実施の形態の情報処理システム10Aの構成図である。なお、情報処理システム10Aは、サーバ装置12に代えてサーバ装置11を備え、情報処理端末18に代えて情報処理端末19を備えた以外は、第1の実施の形態の情報処理システム10と同様である。 FIG. 1 is a configuration diagram of an information processing system 10A according to the present embodiment. The information processing system 10A is similar to the information processing system 10 of the first embodiment except that the server apparatus 11 is provided instead of the server apparatus 12 and the information processing terminal 19 is provided instead of the information processing terminal 18. Is.

また、サーバ装置11および情報処理端末19の各々のハードウェア構成は、第1の実施の形態の情報処理システム10および情報処理端末18の各々と同様である。 The hardware configurations of the server device 11 and the information processing terminal 19 are similar to those of the information processing system 10 and the information processing terminal 18 of the first embodiment.

次に、本実施の形態の情報処理システム10Aを構成する各装置の機能について、詳細に説明する。 Next, the function of each device constituting the information processing system 10A of the present embodiment will be described in detail.

図22は、情報処理システム10Aにおける、サーバ装置11、撮影装置14、通信端末15、および情報処理端末19の各々の機能的構成を示す模式図である。撮影装置14、および通信端末15の構成は、第1の実施の形態と同様である。 FIG. 22 is a schematic diagram showing the functional configurations of the server device 11, the imaging device 14, the communication terminal 15, and the information processing terminal 19 in the information processing system 10A. The configurations of the image capturing device 14 and the communication terminal 15 are the same as those in the first embodiment.

サーバ装置11は、制御部11Aと、記憶部11Bと、表示部12Fと、入力部12Gと、を備える。記憶部11B、表示部12F、および入力部12Gと、制御部11Aと、は、データや信号を授受可能に接続されている。表示部12Fおよび入力部12Gは、第1の実施の形態と同様である。 The server device 11 includes a control unit 11A, a storage unit 11B, a display unit 12F, and an input unit 12G. The storage unit 11B, the display unit 12F, the input unit 12G, and the control unit 11A are connected to each other so that data and signals can be exchanged. The display unit 12F and the input unit 12G are the same as those in the first embodiment.

記憶部11Bは、各種データを記憶する。記憶部11Bは、例えば、画像管理DB(データベース)11Cと、特定情報12Hと、を記憶する。記憶部11Bは、画像管理DB12Cに代えて、画像管理DB11Cを記憶した点以外は、第1の実施の形態の記憶部12Bと同様である。 The storage unit 11B stores various data. The storage unit 11B stores, for example, an image management DB (database) 11C and specific information 12H. The storage unit 11B is similar to the storage unit 12B of the first embodiment except that the image management DB 11C is stored instead of the image management DB 12C.

画像管理DB11Cには、全天球パノラマ画像60や、解析情報などが格納される。図23は、画像管理DB11Cのデータ構成の一例を示す模式図である。画像管理DB11Cは、撮影画像情報と、解析情報と、を管理するためのデータベースである。なお、画像管理DB11Cのデータ構成は、データベースに限定されず、テーブルなどであってもよい。撮影画像情報は、第1の実施の形態の、画像管理DB12Cにおける撮影画像情報と同様である。 The image management DB 11C stores the spherical panoramic image 60, analysis information, and the like. FIG. 23 is a schematic diagram showing an example of the data configuration of the image management DB 11C. The image management DB 11C is a database for managing captured image information and analysis information. The data structure of the image management DB 11C is not limited to the database and may be a table or the like. The captured image information is the same as the captured image information in the image management DB 12C of the first embodiment.

画像管理DB11Cにおける解析情報は、制御部11Aによる全天球パノラマ画像60の解析結果を示す情報である。本実施の形態における解析情報は、制御部11Aによる後述する処理によって、画像管理DB11Cへ登録される。 The analysis information in the image management DB 11C is information indicating the analysis result of the spherical panoramic image 60 by the control unit 11A. The analysis information in the present embodiment is registered in the image management DB 11C by the processing to be described later by the control unit 11A.

本実施の形態の解析情報は、人物領域IDと、領域情報と、姿勢と、周辺物と、第1の位置と、第2の位置と、を含む。人物領域ID、領域情報、姿勢、および周辺物は、第1の実施の形態と同様である。 The analysis information according to the present embodiment includes a person area ID, area information, a posture, peripheral objects, a first position, and a second position. The person area ID, area information, posture, and peripheral objects are the same as those in the first embodiment.

第1の位置、および、第2の位置は、制御部11Aによって特定された、対応する人物領域IDによって識別される人物領域に含まれる人物の、対応する全天球パノラマ画像60における位置である。 The first position and the second position are positions in the corresponding omnidirectional panoramic image 60 of the person included in the person area identified by the corresponding person area ID specified by the control unit 11A. ..

第1の位置は、人物Mの姿勢に基づいた、人物Mの位置Pである。すなわち、本実施の形態における第1の位置は、第1の実施の形態の位置特定部12Qが特定した、人物Mの位置Pと同様である。 The first position is the position P of the person M based on the posture of the person M. That is, the first position in the present embodiment is the same as the position P of the person M specified by the position specifying unit 12Q in the first embodiment.

第2の位置は、人物Mの位置を示し、人物領域の周辺の周辺領域の変化に非依存の位置である。このため、第1の位置は、言い換えると、人物領域の周辺の周辺領域の変化に依存する可能性のある(依存しうる)位置である。一方、第2の位置は、人物Mの周辺領域が時間変化によって変化した場合であっても、変わらない位置である。 The second position indicates the position of the person M, and is a position that is independent of changes in the peripheral area around the person area. Therefore, in other words, the first position is a position that may (or may) depend on changes in the peripheral region around the person region. On the other hand, the second position is a position that does not change even when the peripheral region of the person M changes with time.

これらの第1の位置および第2の位置は、後述する制御部11Aによって特定され、画像管理DB11Cに登録される。 These first position and second position are specified by the control unit 11A described later and registered in the image management DB 11C.

なお、画像管理DB11Cに登録される人物の位置(第1の位置、第2の位置)は、全天球パノラマ画像60における位置座標(x座標、y座標)で表せる。 The position of the person (first position, second position) registered in the image management DB 11C can be represented by position coordinates (x coordinate, y coordinate) in the spherical panoramic image 60.

図22に戻り説明を続ける。次に、サーバ装置11の制御部11Aについて説明する。制御部11Aは、サーバ装置11を制御する。制御部11Aは、位置特定部12Qおよび記憶制御部12Pに代えて、位置特定部11Qおよび記憶制御部11Pを備えた以外は、第1の実施の形態の制御部12Aと同様である。 Returning to FIG. 22, the description will be continued. Next, the control unit 11A of the server device 11 will be described. The control unit 11A controls the server device 11. The control unit 11A is the same as the control unit 12A of the first embodiment except that the position specifying unit 12Q and the storage control unit 12P are replaced by a position specifying unit 11Q and a storage control unit 11P.

位置特定部11Qは、人物領域検出部12Mで検出した人物領域62に示される人物Mの位置として、第1の位置と、第2の位置と、を特定する。位置特定部11Qは、第1の実施の形態の位置特定部12Qと同様にして、人物Mの位置を特定することで、第1の位置を特定する。 The position specifying unit 11Q specifies the first position and the second position as the position of the person M shown in the person area 62 detected by the person area detecting unit 12M. The position specifying unit 11Q specifies the first position by specifying the position of the person M in the same manner as the position specifying unit 12Q of the first embodiment.

第2の位置については、位置特定部11Qは、周辺物Dに非依存の位置の特定条件を予め記憶している(非依存特定条件とする)。そして、位置特定部11Qは、人物領域検出部12Mで特定した人物領域62に示される人物Mについて、非依存特定条件によって特定される位置を、人物Mの第2の位置として特定する。 Regarding the second position, the position specifying unit 11Q stores in advance a position specifying condition that is independent of the peripheral object D (referred to as an independent dependence condition). Then, the position specifying unit 11Q specifies the position specified by the non-dependent specifying condition for the person M shown in the person area 62 specified by the person area detecting unit 12M as the second position of the person M.

例えば、位置特定部11Qは、非依存特定条件として、“両足先間の中央位置”を予め記憶する。そして、位置特定部11Qは、人物領域検出部12Mで特定した人物領域62に示される人物Mについて、“両足先間の中央位置”に相当する位置を、人物Mの第2の位置として特定する。 For example, the position specifying unit 11Q stores in advance the "center position between the two toes" as the independent specifying condition. Then, the position identifying unit 11Q identifies, as the second position of the person M, a position corresponding to the “center position between the two toes” of the person M shown in the person region 62 specified by the person region detecting unit 12M. ..

これによって、位置特定部11Qは、全天球パノラマ画像60に含まれる人物領域62ごとに、特定した第1の位置と第2の位置とを含む解析情報を生成する。 As a result, the position specifying unit 11Q generates analysis information including the specified first position and the specified second position for each person region 62 included in the omnidirectional panoramic image 60.

記憶制御部11Pは、画像管理DB12Cに代えて、画像管理DB11Cに各種情報を登録する点以外は、第1の実施の形態の記憶制御部12Pと同様である。但し、記憶制御部11Pは、位置特定部11Qで特定した第1の位置および第2の位置を含む解析情報を、画像管理DB11Cへ記憶する。 The storage control unit 11P is the same as the storage control unit 12P of the first embodiment except that various types of information are registered in the image management DB 11C instead of the image management DB 12C. However, the storage control unit 11P stores the analysis information including the first position and the second position specified by the position specifying unit 11Q in the image management DB 11C.

次に、情報処理端末19の機能構成を説明する。情報処理端末19は、送受信部18Aと、受付部18Cと、表示制御部18Dと、記憶・読出部18Bと、記憶部18Eと、入力部18Fと、表示部18Gと、取得部19Hと、表示画像生成部19Iと、を備える。 Next, the functional configuration of the information processing terminal 19 will be described. The information processing terminal 19 includes a transmission/reception unit 18A, a reception unit 18C, a display control unit 18D, a storage/readout unit 18B, a storage unit 18E, an input unit 18F, a display unit 18G, an acquisition unit 19H, and a display. And an image generation unit 19I.

情報処理端末19は、取得部18Hおよび表示画像生成部18Iに代えて、取得部19Hおよび表示画像生成部19Iを備える以外は、第1の実施の形態の情報処理端末19と同様である。 The information processing terminal 19 is the same as the information processing terminal 19 of the first embodiment except that an acquisition unit 19H and a display image generation unit 19I are provided instead of the acquisition unit 18H and the display image generation unit 18I.

送受信部18Aは、第1の実施の形態と同様に、サーバ装置11へ送信した解析結果取得要求に対する応答として、サーバ装置11から解析結果情報を受信する。本実施の形態では、解析結果情報には、画像IDと、画像IDに対応する全天球パノラマ画像60と、該全天球パノラマ画像60に含まれる人物領域62ごとに特定された人物Mの第1の位置を示す位置座標と、第2の位置を示す位置座標と、が含まれる。 The transmission/reception unit 18A receives the analysis result information from the server device 11 as a response to the analysis result acquisition request transmitted to the server device 11, as in the first embodiment. In the present embodiment, the analysis result information includes the image ID, the omnidirectional panoramic image 60 corresponding to the image ID, and the person M specified for each person region 62 included in the omnidirectional panoramic image 60. The position coordinates indicating the first position and the position coordinates indicating the second position are included.

取得部19Hは、この解析結果情報を取得する。詳細には、取得部19Hは、表示対象の全天球パノラマ画像60としての代表画像と、代表画像および該代表画像に反映する対象の1または複数の全天球パノラマ画像60の各々に対応する解析情報を取得する。なお、複数の全天球パノラマ画像60の内の、何れを代表画像とするかを示す情報や、何れを該代表画像への反映対象の画像とするかを示す情報は、入力部18Fから取得してもよい。すなわち、ユーザは、複数の全天球パノラマ画像60の内、何れを表示対象とし、何れを該代表画像への人物Mの位置の反映対象とするかを入力する。そして、取得部19Hは、これらの情報を、受付部18Cを介して入力部18Fから取得してもよい。 The acquisition unit 19H acquires this analysis result information. Specifically, the acquisition unit 19H corresponds to each of the representative image as the omnidirectional panoramic image 60 to be displayed and the representative image and each of the one or more omnidirectional panoramic images 60 to be reflected in the representative image. Get analysis information. Information indicating which of the plurality of spherical panoramic images 60 is the representative image and information indicating which is the image to be reflected on the representative image is acquired from the input unit 18F. You may. That is, the user inputs which of the plurality of spherical panoramic images 60 is to be displayed and which is to be the target of reflecting the position of the person M in the representative image. Then, the acquisition unit 19H may acquire these pieces of information from the input unit 18F via the reception unit 18C.

表示画像生成部19Iは、表示画像72を生成する。本実施の形態では、表示画像生成部19Iは、第1の描画部19Jと、第2の描画部19Kと、を含む。 The display image generation unit 19I generates the display image 72. In the present embodiment, the display image generation unit 19I includes a first drawing unit 19J and a second drawing unit 19K.

第1の描画部19Jは、表示対象の代表画像として指定された全天球パノラマ画像60における、該代表画像の人物領域62に特定された第1の位置に、描画点Bを描画する。 The first drawing unit 19J draws the drawing point B at the first position specified in the person area 62 of the representative image in the omnidirectional panoramic image 60 designated as the representative image to be displayed.

第2の描画部19Kは、表示対象の代表画像として指定された全天球パノラマ画像60における、反映対象の他の全天球パノラマ画像60の人物領域62に特定された第1の位置または第2の位置に、描画点Bを描画する。 The second drawing unit 19K selects the first position or the first position specified in the person area 62 of the other spherical panorama image 60 to be reflected in the spherical panorama image 60 designated as the representative image to be displayed. The drawing point B is drawn at the position 2.

詳細には、第2の描画部19Kは、反映対象の全天球パノラマ画像60における人物領域62の周辺の周辺領域と、代表画像としての全天球パノラマ画像60における対応する領域と、の特徴量が一致する場合、該代表画像としての全天球パノラマ画像60における、該人物領域62に特定された第1の位置に、描画点Bを描画する。 In detail, the second drawing unit 19K features the peripheral area around the human area 62 in the omnidirectional panorama image 60 to be reflected and the corresponding area in the omnidirectional panorama image 60 as a representative image. When the amounts match, the drawing point B is drawn at the first position specified by the person region 62 in the spherical panoramic image 60 as the representative image.

周辺領域の特徴量が一致する、とは、周辺領域の被写体が同じであることを示す。具体的には、周辺領域の特徴量が一致するとは、周辺領域の周辺物Dが同じ物であることを示す。 The fact that the feature amounts of the peripheral region match means that the subjects in the peripheral region are the same. Specifically, if the feature amounts of the peripheral areas are the same, it means that the peripheral object D of the peripheral area is the same object.

例えば、反映対象の全天球パノラマ画像60における、ある人物領域62の周辺物Dが椅子であり、代表画像としての全天球パノラマ画像60における対応する位置に、椅子が存在すると仮定する。この場合、第2の描画部19Kは、代表画像としての全天球パノラマ画像60における、反映対象の全天球パノラマ画像60の該人物領域62に特定された第1の位置(人物Mの姿勢に基づいた位置)に、描画点Bを描画する。 For example, it is assumed that the peripheral object D of a certain person area 62 in the omnidirectional panoramic image 60 to be reflected is a chair, and the chair exists at the corresponding position in the omnidirectional panoramic image 60 as a representative image. In this case, the second drawing unit 19K determines the first position (the posture of the person M) specified in the person region 62 of the omnidirectional panorama image 60 to be reflected in the omnidirectional panorama image 60 as the representative image. The drawing point B is drawn at a position based on

一方、第2の描画部19Kは、反映対象の全天球パノラマ画像60における人物領域62の周辺の周辺領域と、代表画像としての全天球パノラマ画像60における対応する領域と、の特徴量が不一致である場合、該代表画像としての全天球パノラマ画像60における、該人物領域62に特定された第2の位置に、描画点Bを描画する。 On the other hand, the second drawing unit 19K determines that the feature amounts of the peripheral area around the human area 62 in the omnidirectional panorama image 60 to be reflected and the corresponding area in the omnidirectional panorama image 60 as the representative image are If they do not match, the drawing point B is drawn at the second position specified by the person area 62 in the spherical panoramic image 60 as the representative image.

周辺領域の特徴量が不一致である、とは、周辺領域の被写体が異なることを示す。具体的には、周辺領域の特徴量が不一致であるとは、周辺領域の周辺物Dが異なる物であることを示す。 The fact that the feature amounts of the peripheral region do not match means that the subjects in the peripheral region are different. Specifically, the fact that the feature amounts of the peripheral areas do not match indicates that the peripheral object D of the peripheral area is different.

例えば、反映対象の全天球パノラマ画像60における、ある人物領域62の周辺物Dが椅子であり、代表画像としての全天球パノラマ画像60における対応する位置に、椅子が存在しないと仮定する。この場合、第2の描画部19Kは、代表画像としての全天球パノラマ画像60における、反映対象の全天球パノラマ画像60の該人物領域62に特定された第2の位置(人物Mの周辺領域に非依存の位置)に、描画点Bを描画する。 For example, it is assumed that the peripheral object D of a certain person area 62 in the omnidirectional panoramic image 60 to be reflected is a chair, and no chair exists at the corresponding position in the omnidirectional panoramic image 60 as a representative image. In this case, the second drawing unit 19K determines the second position (around the person M) specified in the person area 62 of the omnidirectional panorama image 60 to be reflected in the omnidirectional panorama image 60 as the representative image. A drawing point B is drawn at a position independent of the area).

これによって、表示画像生成部19Iは、表示画像72を生成する。 As a result, the display image generation unit 19I generates the display image 72.

図24は、表示画像72の説明図である。例えば、撮影装置14によって、全天球パノラマ画像60Jおよび全天球パノラマ画像60Kが得られたと仮定する(図24(A)、図24(B)参照)。 FIG. 24 is an explanatory diagram of the display image 72. For example, it is assumed that the omnidirectional panoramic image 60J and the omnidirectional panoramic image 60K are obtained by the imaging device 14 (see FIGS. 24A and 24B).

そして、位置特定部11Qによって、全天球パノラマ画像60Jに含まれる人物M(人物M10、人物M11、人物M12)の各々について、人物Mの姿勢に基づいた第1の位置として、位置P10、位置P11、位置P12が特定されたと仮定する。同様に、位置特定部11Qによって、全天球パノラマ画像60Jに含まれる人物M(人物M10、人物M11、人物M12)の各々について、人物Mの周辺物D(ここでは椅子、周辺物D10、周辺物D11、周辺物D12)に非依存の第2の位置として、位置P’10、位置P’11、位置P’12が特定されたと仮定する。 Then, by the position specifying unit 11Q, for each of the persons M (person M10, person M11, person M12) included in the omnidirectional panoramic image 60J, the position P10 1 , as the first position based on the posture of the person M, It is assumed that the position P11 1 and the position P12 1 are specified. Similarly, by the position specifying unit 11Q, for each of the persons M (person M10, person M11, person M12) included in the omnidirectional panorama image 60J, the peripheral object D (here, chair, peripheral object D10, peripheral area) of the person M is included. It is assumed that the position P′10 1 , the position P′11 1 , and the position P′12 1 are specified as the second position independent of the object D11 and the peripheral object D12).

また、位置特定部11Qによって、全天球パノラマ画像60Kに含まれる人物M(人物M11)について、人物M11の姿勢に基づいた第1の位置として、位置P’11が特定されたと仮定する。同様に、位置特定部11Qによって、全天球パノラマ画像60Jに含まれる人物M(人物M11)については、周辺物が特定されなかったと仮定する。 Further, it is assumed by the position specifying unit 11Q, and the person M included in the full spherical panoramic image 60K (human M11), as the first position based on the posture of the person M11, position P'11 2 were identified. Similarly, regarding the person M (person M11) included in the omnidirectional panoramic image 60J, it is assumed that the peripheral object has not been specified by the position specifying unit 11Q.

そして、全天球パノラマ画像60Jが表示対象の代表画像として指定され、全天球パノラマ画像60Kが反映対象の画像として指定されたと仮定する。この場合、表示画像生成部19Iは、図24(C)に示す表示画像72Jを生成する。 It is assumed that the omnidirectional panoramic image 60J is designated as the representative image to be displayed and the omnidirectional panoramic image 60K is designated as the image to be reflected. In this case, the display image generation unit 19I generates the display image 72J shown in FIG.

具体的には、表示画像生成部19Iは、全天球パノラマ画像60J上における、全天球パノラマ画像60Jに含まれる人物M(人物M10、人物M11、人物M12)の各々の第1の位置(位置P10、位置P11、位置P12)に描画点Bを描画する。 Specifically, the display image generation unit 19I causes the first position of each of the persons M (person M10, person M11, person M12) included in the omnidirectional panorama image 60J on the omnidirectional panorama image 60J ( The drawing point B is drawn at the position P10 1 , the position P11 1 , and the position P12 1 .

また、表示画像生成部19Iは、全天球パノラマ画像60Kに含まれる人物M11の周辺物と、全天球パノラマ画像60Jにおける対応する位置の周辺物D11と、を比較する。図24に示す例では、全天球パノラマ画像60Kの人物M11には周辺物Dが存在しないが、全天球パノラマ画像60Jの人物Mには周辺物D11が存在する。この場合、表示画像生成部19Iは、反映対象の全天球パノラマ画像60Kにおける人物M11の周辺領域と、代表画像としての全天球パノラマ画像60Jにおける対応する領域との特徴量が不一致であると判断する。このため、表示画像生成部19Iは、全天球パノラマ画像60J上における、全天球パノラマ画像60Kの人物M11の第2の位置(位置P’11)に、描画点B’を描画する。これによって、表示画像生成部19Iは、図24に示す表示画像72Jを作成する。 In addition, the display image generation unit 19I compares the peripheral object of the person M11 included in the spherical panoramic image 60K with the peripheral object D11 at the corresponding position in the spherical panoramic image 60J. In the example shown in FIG. 24, the peripheral object D does not exist in the person M11 of the omnidirectional panoramic image 60K, but the peripheral object D11 exists in the person M of the omnidirectional panoramic image 60J. In this case, the display image generation unit 19I determines that the feature amount of the peripheral area of the person M11 in the omnidirectional panoramic image 60K to be reflected and the corresponding area of the omnidirectional panoramic image 60J as the representative image do not match. to decide. Therefore, the display image generation unit 19I draws the drawing point B′ at the second position (position P′11 2 ) of the person M11 of the omnidirectional panorama image 60K on the omnidirectional panorama image 60J. As a result, the display image generation unit 19I creates the display image 72J shown in FIG.

一方、全天球パノラマ画像60Kが表示対象の代表画像として指定され、全天球パノラマ画像60Jが反映対象の画像として指定されたと仮定する。この場合、表示画像生成部19Iは、図24(D)に示す表示画像72Kを生成する。 On the other hand, it is assumed that the omnidirectional panoramic image 60K is designated as the representative image to be displayed and the omnidirectional panoramic image 60J is designated as the image to be reflected. In this case, the display image generation unit 19I generates the display image 72K shown in FIG.

具体的には、表示画像生成部19Iは、全天球パノラマ画像60K上における、該全天球パノラマ画像60Kに含まれる人物M(人物M11)の第1の位置(位置P11)に、描画点Bを描画する。 Specifically, the display image generation unit 19I draws the person M (person M11) included in the omnidirectional panorama image 60K at the first position (position P11 2 ) on the omnidirectional panorama image 60K. Draw point B.

そして、表示画像生成部19Iは、全天球パノラマ画像60Jに含まれる人物M10の周辺物D10(椅子)と、全天球パノラマ画像60Kにおける対応する位置の周辺物D10(椅子)と、を比較する。図24に示す例では、これらの周辺物D10は一致する。この場合、表示画像生成部19Iは、反映対象の全天球パノラマ画像60Jにおける人物M10の周辺物Dと、代表画像の全天球パノラマ画像60Kにおける対応する領域との特徴量が一致すると判断する。このため、表示画像生成部19Iは、全天球パノラマ画像60K上における、全天球パノラマ画像60Jの人物M10の第1の位置(位置P10)に、描画点Bを描画する。 Then, the display image generation unit 19I compares the peripheral object D10 (chair) of the person M10 included in the spherical panoramic image 60J with the peripheral object D10 (chair) at the corresponding position in the spherical panoramic image 60K. To do. In the example shown in FIG. 24, these peripheral objects D10 match. In this case, the display image generation unit 19I determines that the peripheral object D of the person M10 in the omnidirectional panoramic image 60J to be reflected and the corresponding area in the omnidirectional panoramic image 60K of the representative image have the same feature amount. .. Therefore, the display image generation unit 19I draws the drawing point B at the first position (position P10 1 ) of the person M10 in the omnidirectional panorama image 60J on the omnidirectional panorama image 60K.

また、表示画像生成部19Iは、全天球パノラマ画像60Jに含まれる人物M11の周辺物D11(椅子)と、全天球パノラマ画像60Kにおける対応する位置と、を比較する。図24に示す例では、全天球パノラマ画像60Kには、周辺物D11に相当する周辺物Dが存在しない。このため、この場合、表示画像生成部19Iは、反映対象の全天球パノラマ画像60Jにおける人物M11の周辺物D11と、代表画像の全天球パノラマ画像60Kにおける対応する領域との特徴量が不一致であると判断する。このため、表示画像生成部19Iは、全天球パノラマ画像60K上における、全天球パノラマ画像60Jの人物M11の第2の位置(位置P’11)に、描画点B’を描画する。 In addition, the display image generation unit 19I compares the peripheral object D11 (chair) of the person M11 included in the omnidirectional panoramic image 60J with the corresponding position in the omnidirectional panoramic image 60K. In the example shown in FIG. 24, the peripheral object D corresponding to the peripheral object D11 does not exist in the spherical panoramic image 60K. Therefore, in this case, the display image generation unit 19I does not match the feature amount between the peripheral object D11 of the person M11 in the omnidirectional panoramic image 60J to be reflected and the corresponding area in the omnidirectional panoramic image 60K of the representative image. It is determined that Therefore, the display image generation unit 19I draws the drawing point B′ at the second position (position P′11 1 ) of the person M11 of the omnidirectional panorama image 60J on the omnidirectional panorama image 60K.

また、表示画像生成部19Iは、全天球パノラマ画像60Jに含まれる人物M12が、全天球パノラマ画像60Kにおける対応する位置に存在しないことを判断する。この場合、表示画像生成部19Iは、全天球パノラマ画像60K上における、全天球パノラマ画像60Jの人物M12の第2の位置(位置P’12)に、描画点B’を描画する。これによって、表示画像生成部19Iは、図24(D)に示す表示画像72Jを作成する。 In addition, the display image generation unit 19I determines that the person M12 included in the spherical panoramic image 60J is not present at the corresponding position in the spherical panoramic image 60K. In this case, the display image generation unit 19I draws the drawing point B′ at the second position (position P′12 1 ) of the person M12 of the omnidirectional panorama image 60J on the omnidirectional panorama image 60K. As a result, the display image generation unit 19I creates the display image 72J shown in FIG.

なお、図24には、代表画像としての全天球パノラマ画像60に反映する対象の全天球パノラマ画像60が1枚である場合を、一例として示した。しかし、代表画像としての全天球パノラマ画像60に反映する対象の全天球パノラマ画像60は、複数枚であってもよい。複数枚である場合についても、表示画像生成部19Iは、同様にして、表示画像72を生成すればよい。 Note that FIG. 24 illustrates, as an example, the case where the number of the target omnidirectional panoramic image 60 reflected in the omnidirectional panoramic image 60 as the representative image is one. However, there may be a plurality of target spherical panoramic images 60 that are reflected in the spherical panoramic image 60 as the representative image. The display image generation unit 19I may generate the display image 72 in the same manner even in the case of a plurality of images.

また、本実施の形態では、情報処理端末19が、取得部19Hおよび表示画像生成部19Iを備えた構成である場合を説明した。しかし、サーバ装置11の制御部11Aが、取得部19Hおよび表示画像生成部19Iを備えた構成であってもよい。 Further, in the present embodiment, the case where the information processing terminal 19 is configured to include the acquisition unit 19H and the display image generation unit 19I has been described. However, the control unit 11A of the server device 11 may include the acquisition unit 19H and the display image generation unit 19I.

次に、サーバ装置11で実行する情報処理の手順を説明する。図25は、サーバ装置11の制御部11Aで実行する情報処理の手順の一例を示すフローチャートである。 Next, a procedure of information processing executed by the server device 11 will be described. FIG. 25 is a flowchart showing an example of an information processing procedure executed by the control unit 11A of the server device 11.

制御部11Aは、第1の実施の形態の制御部12Aが実行するステップS100〜ステップS110と同様にして、ステップS300〜ステップS308の処理を実行する。 11 A of control parts perform the process of step S300-step S308 similarly to step S100-step S110 which the control part 12A of 1st Embodiment performs.

次に、制御部11Aは、ステップS300で受信した全天球パノラマ画像60について、ステップS308で検出した人物領域62ごとに、ステップS310〜ステップS336の処理を繰返す。 Next, 11 A of control parts repeat the process of step S310-step S336 about the person area 62 detected by step S308 about the omnidirectional panoramic image 60 received by step S300.

詳細には、周辺特定部12Rが、人物領域62の周辺の周辺物Dを特定する(ステップS310)。次に、周辺特定部12Rが、ステップS310で周辺物Dを特定できたか否かを判断する(ステップS312)。ステップS312で否定判断すると(ステップS312:No)、後述するステップS320へ進む。ステップS312で肯定判断すると(ステップS312:Yes)、ステップS314へ進む。 In detail, the periphery specifying unit 12R specifies the peripheral object D around the person area 62 (step S310). Next, the periphery specifying unit 12R determines whether or not the peripheral object D has been specified in step S310 (step S312). When a negative determination is made in step S312 (step S312: No), the process proceeds to step S320 described below. If an affirmative decision is made in step S312 (step S312: Yes), the operation proceeds to step S314.

ステップS314では、位置特定部11Qが、人物領域62における第2の位置を特定する(ステップS314)。次に、位置特定部11Qは、記憶制御部11Pを介して画像管理DB11Cへ、特定した第2の位置を登録する(ステップS316)。 In step S314, the position specifying unit 11Q specifies the second position in the person area 62 (step S314). Next, the position specifying unit 11Q registers the specified second position in the image management DB 11C via the storage control unit 11P (step S316).

次に、周辺特定部12Rが、ステップS310で特定した周辺物Dが、処理対象の人物領域62の人物M上に重畳しているか非重畳であるか判断する(ステップS318)。人物M上に周辺物Dが非重畳であると判断した場合(ステップS318:No)、ステップS320へ進む。 Next, the peripheral identification unit 12R determines whether the peripheral object D identified in step S310 is superimposed or non-superimposed on the person M in the processing target person area 62 (step S318). When it is determined that the peripheral object D is not superposed on the person M (step S318: No), the process proceeds to step S320.

一方、人物M上に周辺物Dが重畳していると判断した場合(ステップS318:Yes)、ステップS322へ進む。ステップS322では、移動体判別部12Xが、ステップS310で特定した周辺物Dが移動体であるか否かを判断する(ステップS322)。 On the other hand, when it is determined that the peripheral object D is superimposed on the person M (step S318: Yes), the process proceeds to step S322. In step S322, the moving body determination unit 12X determines whether or not the peripheral object D identified in step S310 is a moving body (step S322).

人物M上に重畳している周辺物Dが移動体であると判断すると(ステップS322:Yes)、ステップS320へ進む。 When it is determined that the peripheral object D superimposed on the person M is a moving body (step S322: Yes), the process proceeds to step S320.

ステップS320では、姿勢判別部12Jが人物Mの姿勢を判別する(ステップS320)。次に、姿勢判別部12Jは、人物Mの姿勢を判別することが出来たか否かを判断する(ステップS324)。人物Mの姿勢を判別することが出来た場合(ステップS324:Yes)、ステップS326へ進む。 In step S320, the posture determination unit 12J determines the posture of the person M (step S320). Next, the posture determination unit 12J determines whether or not the posture of the person M could be determined (step S324). When the posture of the person M can be determined (step S324: Yes), the process proceeds to step S326.

ステップS326では、ステップS310の処理によって周辺物Dが特定出来たか否かを判断する(ステップS326)。周辺物Dが特定出来た場合(ステップS326:Yes)、ステップS328へ進む。 In step S326, it is determined whether the peripheral object D has been identified by the process of step S310 (step S326). When the peripheral object D can be specified (step S326: Yes), the process proceeds to step S328.

ステップS328では、位置特定部11Qが、人物Mの姿勢および周辺物Dから、該人物Mの第1の位置を特定する(ステップS328)。そして、ステップS336へ進む。 In step S328, the position specifying unit 11Q specifies the first position of the person M from the posture of the person M and the peripheral object D (step S328). Then, the process proceeds to step S336.

一方、上記ステップS326で、周辺物Dを特定出来なかったと判断した場合(ステップS326:No)、ステップS330へ進む。ステップS330では、位置特定部11Qが、人物Mの姿勢から、人物Mの第1の位置を特定する(ステップS330)。そして、ステップS336へ進む。 On the other hand, if it is determined in step S326 that the peripheral object D could not be specified (step S326: No), the process proceeds to step S330. In step S330, the position specifying unit 11Q specifies the first position of the person M from the posture of the person M (step S330). Then, the process proceeds to step S336.

一方、ステップS324で、人物Mの姿勢を判別出来なかったと判断した場合(ステップS324:No)、ステップS332へ進む。ステップS332では、位置特定部11Qは、人物領域62における所定位置を、人物Mの第1の位置として特定する(ステップS332)。そして、ステップS336へ進む。 On the other hand, when it is determined in step S324 that the posture of the person M cannot be determined (step S324: No), the process proceeds to step S332. In step S332, the position specifying unit 11Q specifies the predetermined position in the person area 62 as the first position of the person M (step S332). Then, the process proceeds to step S336.

さらに、上記ステップS322の判断で、人物M上に重畳している周辺物Dが非移動体であると判断した場合(ステップS322:No)、ステップS334へ進む。ステップS334では、位置特定部11Qは、人物領域62の所定位置を、人物Mの第1の位置として特定する(ステップS334)。そして、ステップS336へ進む。 Furthermore, when it is determined in the determination in step S322 that the peripheral object D superimposed on the person M is a non-moving object (step S322: No), the process proceeds to step S334. In step S334, the position specifying unit 11Q specifies the predetermined position of the person area 62 as the first position of the person M (step S334). Then, the process proceeds to step S336.

ステップS336では、記憶制御部11Pが、ステップS328〜ステップS334の処理によって特定された人物Mの第1の位置を示す位置座標を、処理対象の全天球パノラマ画像60の画像IDおよび処理対象の人物領域62の人物領域IDに対応づけて、画像管理DB11Cへ登録する(ステップS336)。 In step S336, the storage control unit 11P sets the position coordinates indicating the first position of the person M identified by the processing in steps S328 to S334 to the image ID of the omnidirectional panorama image 60 to be processed and the processing target. It is registered in the image management DB 11C in association with the person area ID of the person area 62 (step S336).

そして、制御部11Aは、ステップS300で受信した全天球パノラマ画像60について、ステップS308で検出した人物領域62の全てについて、ステップS310〜ステップS336の処理を繰返し行うと、この繰返しを終了する。そして、本ルーチンを終了する。 Then, the control unit 11A repeats the processes of steps S310 to S336 for all of the human area 62 detected in step S308 for the spherical panoramic image 60 received in step S300, and then ends the repetition. Then, this routine ends.

一方、上記ステップS300で否定判断すると(ステップS300:No)、ステップS338へ進む。そして、制御部11Aは、第1の実施の形態の制御部12AのステップS134〜ステップS142と同様にして、ステップS338〜ステップS346の処理を実行する。そして、本ルーチンを終了する。 On the other hand, when a negative determination is made in step S300 (step S300: No), the process proceeds to step S338. Then, the control unit 11A executes the processes of steps S338 to S346 in the same manner as steps S134 to S142 of the control unit 12A of the first embodiment. Then, this routine ends.

次に、情報処理端末19で実行する情報処理の手順の一例を説明する。図26は、情報処理端末19で実行する情報処理の手順の一例を示すフローチャートである。 Next, an example of a procedure of information processing executed by the information processing terminal 19 will be described. FIG. 26 is a flowchart showing an example of an information processing procedure executed by the information processing terminal 19.

まず情報処理端末19の受付部18Cが、解析結果取得要求を受付ける(ステップS400)。次に、送受信部18Aが、ステップS400で受付けた解析結果取得要求を、サーバ装置11へ送信する(ステップS402)。 First, the reception unit 18C of the information processing terminal 19 receives the analysis result acquisition request (step S400). Next, the transmission/reception unit 18A transmits the analysis result acquisition request accepted in step S400 to the server device 11 (step S402).

次に、取得部19Hが、送受信部18Aを介してサーバ装置11から解析結果情報を取得する(ステップS404)。次に、表示画像生成部19Iの第1の描画部19Jが、表示対象の代表画像として指定された全天球パノラマ画像60における、該代表画像の人物領域62に特定された第1の位置に、描画点Bを描画する(ステップS406)。 Next, the acquisition unit 19H acquires the analysis result information from the server device 11 via the transmission/reception unit 18A (step S404). Next, the first drawing unit 19J of the display image generation unit 19I sets the first position specified in the person area 62 of the representative image in the omnidirectional panoramic image 60 designated as the representative image to be displayed. , Drawing point B is drawn (step S406).

次に、第2の描画部19Kが、表示対象の代表画像として指定された全天球パノラマ画像60における、反映対象の他の全天球パノラマ画像60の人物領域62に特定された第1の位置または第2の位置に、描画点Bまたは描画点B’を描画する(ステップS408)。これによって、表示画像生成部19Iは、表示画像72を生成する。 Next, the second drawing unit 19K identifies the first panorama image 60 specified as the representative image to be displayed, which is specified in the person region 62 of the other panorama image 60 to be reflected. The drawing point B or the drawing point B′ is drawn at the position or the second position (step S408). As a result, the display image generation unit 19I generates the display image 72.

次に、表示制御部18Dは、生成した表示画像72を、表示部18Gへ表示する(ステップS410)。そして、本ルーチンを終了する。 Next, the display control unit 18D displays the generated display image 72 on the display unit 18G (step S410). Then, this routine ends.

以上説明したように、本実施の形態のサーバ装置11(情報処理装置)の位置特定部11Qは、検出された人物領域62ごとに、姿勢に基づいた人物Mの位置としての第1の位置と、人物領域62の周辺の周辺領域(周辺物D)の変化に非依存の第2の位置と、を特定する。そして、位置特定部11Qは、全天球パノラマ画像60(画像)に含まれる人物領域62ごとに特定した第1の位置と第2の位置とを含む解析情報を生成する。 As described above, the position specifying unit 11Q of the server device 11 (information processing device) according to the present exemplary embodiment defines, for each detected person region 62, the first position as the position of the person M based on the posture. , A second position independent of the change in the peripheral area (peripheral object D) around the person area 62 is specified. Then, the position specifying unit 11Q generates analysis information including the first position and the second position specified for each person region 62 included in the omnidirectional panoramic image 60 (image).

このため、本実施の形態のサーバ装置11は、第1の実施の形態の効果に加えて、人物Mの各々に対して、周辺領域の変化に非依存の位置(第2の位置)と、姿勢に基づいた位置(第1の位置)と、を精度良く特定することができる。 Therefore, in addition to the effects of the first embodiment, the server device 11 of the present embodiment has a position (second position) that is independent of the change in the peripheral region for each person M. A position (first position) based on the posture can be accurately specified.

また、取得部19Hは、表示対象の画像(全天球パノラマ画像60)としての代表画像と、代表画像および該代表画像に反映する反映対象の1または複数の画像(全天球パノラマ画像60)の各々に対応する解析情報と、を取得する。表示画像生成部19Iは、第1の描画部19Jと、第2の描画部19Kと、を有する。第1の描画部19Jは、代表画像における、該代表画像の人物領域62に特定された第1の位置に、第1の描画点を描画する。第2の描画部19Kは、代表画像における、反映対象の画像(全天球パノラマ画像60)の人物領域62に特定された第1の位置または第2の位置に、描画点を描画する。そして、第2の描画部19Kは、反映対象の画像における人物領域62の周辺の周辺領域(周辺物D)と代表画像における対応する領域との特徴量が一致する場合、代表画像における、該人物領域62に特定された第1の位置に描画点を描画する。また、第2の描画部19Kは、反映対象の画像(全天球パノラマ画像60)における人物領域62の周辺の周辺領域(周辺物D)と代表画像における対応する領域との特徴量が不一致である場合、または該人物領域62が代表画像に含まれない場合、代表画像における、該人物領域62に特定された第2の位置に描画点を描画する。 In addition, the acquisition unit 19H uses the representative image as the image to be displayed (the spherical panoramic image 60), and the representative image and one or more images to be reflected on the representative image (the spherical panoramic image 60). And analysis information corresponding to each of. The display image generation unit 19I includes a first drawing unit 19J and a second drawing unit 19K. The first drawing unit 19J draws a first drawing point at a first position in the representative image specified by the person area 62 of the representative image. The second drawing unit 19K draws a drawing point at the first position or the second position specified in the person area 62 of the image to be reflected (the omnidirectional panoramic image 60) in the representative image. Then, the second drawing unit 19K, when the peripheral region (peripheral object D) around the person region 62 in the reflection target image and the corresponding region in the representative image have the same feature amount, A drawing point is drawn at the first position specified in the area 62. In addition, the second drawing unit 19K determines that the feature amounts of the peripheral area (peripheral object D) around the human area 62 in the image to be reflected (the spherical panoramic image 60) and the corresponding area in the representative image do not match. If there is, or if the person area 62 is not included in the representative image, a drawing point is drawn at the second position specified by the person area 62 in the representative image.

なお、上記サーバ装置12、サーバ装置11、情報処理端末18、および情報処理端末19の各々で実行される、上記処理を実行するためのプログラムは、NV−RAMやROMやその他の不揮発性記憶媒体に予め組み込まれて提供される。また、サーバ装置12、サーバ装置11、情報処理端末18、および情報処理端末19の各々で実行される、上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録し提供することも可能である。 The programs for executing the above processes executed by each of the server device 12, the server device 11, the information processing terminal 18, and the information processing terminal 19 are NV-RAM, ROM, and other non-volatile storage media. It is provided by being pre-installed in. Further, a program for executing the above-described processing, which is executed by each of the server device 12, the server device 11, the information processing terminal 18, and the information processing terminal 19, is a file in an installable format or an executable format on a CD. It is also possible to record and provide in a computer-readable recording medium such as a ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk).

また、サーバ装置12、サーバ装置11、情報処理端末18、および情報処理端末19の各々で実行される、上記処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供または配布するように構成してもよい。 Further, a program for executing the above-described processing, which is executed by each of the server device 12, the server device 11, the information processing terminal 18, and the information processing terminal 19, is stored on a computer connected to a network such as the Internet. , May be provided or distributed by being downloaded via a network.

また、サーバ装置12、サーバ装置11、情報処理端末18、および情報処理端末19の各々で実行される、上記処理を実行するためのプログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the server device 12, the server device 11, the information processing terminal 18, and the information processing terminal 19 are each configured to be provided with a program for executing the above-described processing pre-installed in a ROM or the like. Good.

また、サーバ装置12、サーバ装置11、情報処理端末18、および情報処理端末19の各々で実行される、上記処理を実行するためのプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が記憶媒体から該プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上記各部が主記憶装置上に生成されるようになっている。 In addition, the program for executing the above-described processing, which is executed by each of the server device 12, the server device 11, the information processing terminal 18, and the information processing terminal 19, has a module configuration including the above-described units. As hardware, a CPU (processor) reads the program from a storage medium and executes the program to load the above-mentioned units onto the main storage device and generate the above-mentioned units onto the main storage device.

なお、サーバ装置12、サーバ装置11、情報処理端末18、および情報処理端末19の記憶部(記憶部12B、記憶部11B、記憶部18E)に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置と、サーバ装置12、サーバ装置11、情報処理端末18、および情報処理端末19と、を、ネットワーク等を介して接続した構成とすればよい。 The various information stored in the storage units (storage unit 12B, storage unit 11B, storage unit 18E) of the server device 12, the server device 11, the information processing terminal 18, and the information processing terminal 19 are stored in an external device. May be. In this case, the external device and the server device 12, the server device 11, the information processing terminal 18, and the information processing terminal 19 may be connected via a network or the like.

なお、上記には、本実施の形態を説明したが、上記実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the present embodiment has been described above, the above embodiment is presented as an example and is not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. The above-described embodiments and modifications thereof are included in the scope and the gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto.

10、10A 情報処理システム
11、12 サーバ装置
11Q、12Q 位置特定部
12J 姿勢判別部
12R 周辺特定部
12T 重畳判別部
12X 移動体判別部
18、19 情報処理端末
18H 取得部
18I、19I 表示画像生成部
19J 第1の描画部
19K 第2の描画部
10, 10A Information processing system 11, 12 Server device 11Q, 12Q Position specifying unit 12J Posture determining unit 12R Surrounding specifying unit 12T Superimposition determining unit 12X Mobile body determining unit 18, 19 Information processing terminal 18H Acquisition unit 18I, 19I Display image generation unit 19J 1st drawing part 19K 2nd drawing part

特開2015−087841号公報JP, 2005-087841, A

Claims (14)

画像に含まれる人物領域を検出する検出部と、
前記人物領域に示される人物の姿勢を判別する姿勢判別部と、
前記姿勢に基づいて前記画像における前記人物の位置を特定する位置特定部と、
前記画像における前記人物領域に示される人物上に他の物体が重畳しているか非重畳であるかを判別する重畳判別部と、
前記他の物体が移動体および非移動体の何れであるかを判別する移動体判別部と、を備え、
前記位置特定部は、
前記人物領域に示される人物上に他の物体が重畳していると判別され、且つ該他の物体が非移動体であると判別された場合、該人物領域内の所定位置を、前記人物の位置として特定し、
前記人物領域に示される人物上に他の物体が重畳していると判別され、且つ該他の物体が移動体であると判別された場合、該人物領域に示される人物の姿勢に基づいて前記画像における前記人物の位置を特定し、
前記人物領域に示される人物上に他の物体が非重畳であると判別された場合、前記姿勢に基づいて前記画像における前記人物の位置を特定する、
報処理装置。
A detection unit that detects a person area included in the image,
A posture determination unit that determines the posture of the person shown in the person region,
A position specifying unit that specifies the position of the person in the image based on the posture;
A superimposition determining unit that determines whether another object is superimposed or non-superimposed on the person shown in the person region in the image,
A moving body discriminating unit which discriminates whether the other object is a moving body or a non-moving body,
The position specifying unit,
When it is determined that another object is superposed on the person shown in the person area, and when the other object is a non-moving object, the predetermined position in the person area is set to Identified as a position,
If it is determined that another object is superimposed on the person shown in the person area, and if it is determined that the other object is a moving body, then it is determined based on the posture of the person shown in the person area. Locate the person in the image,
When it is determined that another object is not superposed on the person shown in the person area, the position of the person in the image is specified based on the posture,
Information processing apparatus.
画像に含まれる人物領域を検出する検出部と、A detection unit that detects a person area included in the image,
前記人物領域に示される人物の姿勢を判別する姿勢判別部と、A posture determination unit that determines the posture of the person shown in the person region,
前記姿勢に基づいて前記画像における前記人物の位置を特定する位置特定部と、A position specifying unit that specifies the position of the person in the image based on the posture;
表示対象の前記画像における特定された前記人物の位置に、描画点を描画した表示画像を生成する表示画像生成部と、を備え、A display image generation unit that generates a display image in which a drawing point is drawn at the position of the identified person in the image to be displayed,
前記位置特定部は、The position specifying unit,
検出された前記人物領域ごとに、前記姿勢に基づいた前記人物の位置としての第1の位置と、前記人物領域の周辺の周辺領域の変化に非依存の第2の位置と、を特定し、For each of the detected person regions, a first position as the position of the person based on the posture, and a second position that is independent of changes in peripheral regions around the person region are specified,
前記画像に含まれる前記人物領域ごとに特定した前記第1の位置と前記第2の位置とを含む解析情報を生成する、Generating analysis information including the first position and the second position specified for each of the person regions included in the image,
情報処理装置。Information processing device.
全方位の範囲の撮影によって得られる全天球パノラマの画像である全天球パノラマ画像に含まれる人物領域を検出する検出部と、A detection unit that detects a person region included in a omnidirectional panorama image, which is an omnidirectional panorama image obtained by shooting in an omnidirectional range,
前記全天球パノラマ画像における水平方向と撮影環境における水平方向とが一致するように補正する水平補正部と、A horizontal correction unit that corrects the horizontal direction in the spherical panoramic image to match the horizontal direction in the shooting environment;
前記全天球パノラマ画像の歪みを補正する歪補正部と、A distortion correction unit that corrects the distortion of the spherical panoramic image,
補正された前記全天球パノラマ画像に含まれる人物の姿勢を判別する姿勢判別部と、A posture determination unit that determines the posture of a person included in the corrected spherical panoramic image,
前記姿勢に基づいて、前記全天球パノラマ画像における前記人物の位置を特定する位置特定部と、A position specifying unit that specifies the position of the person in the spherical panoramic image based on the posture;
を備える情報処理装置。An information processing apparatus including.
前記画像における前記人物領域の周辺の周辺領域を特定する周辺特定部を備え、
前記位置特定部は、
前記姿勢および前記周辺領域に基づいて、前記画像における前記人物の位置を特定する、
請求項1〜請求項3の何れか1項に記載の情報処理装置。
A peripheral specifying unit that specifies a peripheral area around the person area in the image,
The position specifying unit,
Specifying the position of the person in the image based on the posture and the peripheral region,
The information processing apparatus according to any one of claims 1 to 3 .
前記位置特定部は、
前記人物領域に示される前記人物の前記姿勢が判別されなかった場合、該人物領域における所定位置を、該人物の位置として特定する、
請求項1請求項4の何れか1項に記載の情報処理装置。
The position specifying unit,
When the posture of the person shown in the person area is not determined, a predetermined position in the person area is specified as the position of the person,
The information processing apparatus according to any one of claims 1 to 4.
表示対象の前記画像における特定された前記人物の位置に、描画点を描画した表示画像を生成する表示画像生成部を備える、
請求項1〜請求項の何れか1項に記載の情報処理装置。
A display image generation unit that generates a display image in which drawing points are drawn at the position of the specified person in the image to be displayed,
The information processing device according to any one of claims 1 to 5 .
表示対象の前記画像としての代表画像と、前記代表画像および該代表画像に反映する反映対象の1または複数の前記画像の各々に対応する前記解析情報と、を取得する取得部を備え、
前記表示画像生成部は、
前記代表画像における、該代表画像の前記人物領域に特定された前記第1の位置に、第1の描画点を描画する第1の描画部と、
前記代表画像における、前記反映対象の前記画像の前記人物領域に特定された前記第1の位置または前記第2の位置に、描画点を描画する第2の描画部と、を有し、
前記第2の描画部は、
前記反映対象の画像における前記人物領域の周辺の前記周辺領域と前記代表画像における対応する領域との特徴量が一致する場合、前記代表画像における、該人物領域に特定された前記第1の位置に描画点を描画し、
前記反映対象の画像における前記人物領域の周辺の前記周辺領域と前記代表画像における対応する領域との特徴量が不一致である場合、または該人物領域が前記代表画像に含まれない場合、前記代表画像における、該人物領域に特定された前記第2の位置に描画点を描画する、
請求項に記載の情報処理装置。
A representative image as the image to be displayed, and an acquisition unit that acquires the representative image and the analysis information corresponding to each of the one or more images to be reflected on the representative image,
The display image generation unit,
A first drawing unit that draws a first drawing point at the first position specified in the person area of the representative image in the representative image;
A second drawing unit that draws a drawing point at the first position or the second position specified in the person region of the image to be reflected in the representative image,
The second drawing unit is
When the feature amounts of the peripheral area around the person area in the image to be reflected and the corresponding area in the representative image match, the characteristic image is located at the first position specified in the person area in the representative image. Draw a drawing point,
If the feature amount of the peripheral area around the person area in the image to be reflected and the corresponding area in the representative image do not match, or if the person area is not included in the representative image, the representative image , Drawing a drawing point at the second position specified in the person area,
The information processing apparatus according to claim 2 .
前記位置特定部は、
前記姿勢と前記人物の位置を特定するための位置特定条件とを対応づけた特定情報における、判別された前記姿勢に対応する前記位置特定条件によって特定される位置を、前記人物の位置として特定する、請求項1〜請求項7の何れか1項に記載の情報処理装置。
The position specifying unit,
In the specification information in which the posture and the position specifying condition for specifying the position of the person are associated, the position specified by the position specifying condition corresponding to the determined posture is specified as the position of the person. The information processing apparatus according to any one of claims 1 to 7.
前記位置特定部は、
前記姿勢と、前記周辺領域と、前記人物の位置を特定するための位置特定条件と、を対応づけた特定情報における、判別された前記姿勢および特定された前記周辺領域に対応する前記位置特定条件によって特定される位置を、前記人物の位置として特定する、請求項に記載の情報処理装置。
The position specifying unit,
The position specifying condition corresponding to the determined posture and the specified peripheral region in the specifying information in which the posture, the peripheral region, and the position specifying condition for specifying the position of the person are associated with each other. The information processing apparatus according to claim 4 , wherein the position specified by is specified as the position of the person.
前記特定情報の変更指示を受付ける受付部と、
前記変更指示に応じて前記特定情報を変更する変更部と、
を備える、請求項9に記載の情報処理装置。
A reception unit that receives an instruction to change the specific information,
A change unit for changing the specific information according to the change instruction,
The information processing apparatus according to claim 9, comprising:
前記画像は、全方位の範囲の撮影によって得られた全天球パノラマ画像である、請求項1、請求項2、請求項4〜請求項10の何れか1項に記載の情報処理装置。 The information processing device according to claim 1 , wherein the image is a spherical panoramic image obtained by photographing in an omnidirectional range. 情報処理装置と、前記情報処理装置と通信する情報処理端末と、を備える情報処理システムであって、
前記情報処理装置は、
画像に含まれる人物領域を検出する検出部と、
前記人物領域に示される人物の姿勢を判別する姿勢判別部と、
前記姿勢に基づいて前記画像における前記人物の位置を特定する位置特定部と、
前記画像における前記人物領域に示される人物上に他の物体が重畳しているか非重畳であるかを判別する重畳判別部と、
前記他の物体が移動体および非移動体の何れであるかを判別する移動体判別部と、を備え、
前記位置特定部は、
前記人物領域に示される人物上に他の物体が重畳していると判別され、且つ該他の物体が非移動体であると判別された場合、該人物領域内の所定位置を、前記人物の位置として特定し、
前記人物領域に示される人物上に他の物体が重畳していると判別され、且つ該他の物体が移動体であると判別された場合、該人物領域に示される人物の姿勢に基づいて前記画像における前記人物の位置を特定し、
前記人物領域に示される人物上に他の物体が非重畳であると判別された場合、前記姿勢に基づいて前記画像における前記人物の位置を特定し、
前記情報処理端末は、
前記人物の位置を示す表示画像を表示部に表示する表示制御部を備える、
情報処理システム。
An information processing system comprising an information processing device and an information processing terminal communicating with the information processing device,
The information processing device,
A detection unit that detects a person area included in the image,
A posture determination unit that determines the posture of the person shown in the person region,
A position specifying unit that specifies the position of the person in the image based on the posture;
A superimposition determining unit that determines whether another object is superimposed or non-superimposed on the person shown in the person region in the image,
A moving body discriminating unit which discriminates whether the other object is a moving body or a non-moving body,
The position specifying unit,
When it is determined that another object is superposed on the person shown in the person area, and when the other object is a non-moving object, the predetermined position in the person area is set to Identified as a position,
If it is determined that another object is superimposed on the person shown in the person area, and if it is determined that the other object is a moving body, then it is determined based on the posture of the person shown in the person area. Locate the person in the image,
When it is determined that other objects are not superposed on the person shown in the person area, the position of the person in the image is specified based on the posture,
The information processing terminal,
A display control unit that displays a display image showing the position of the person on the display unit;
Information processing system.
情報処理装置と、前記情報処理装置と通信する情報処理端末と、を備える情報処理システムであって、An information processing system comprising an information processing device and an information processing terminal communicating with the information processing device,
前記情報処理装置は、The information processing device,
画像に含まれる人物領域を検出する検出部と、A detection unit that detects a person area included in the image,
前記人物領域に示される人物の姿勢を判別する姿勢判別部と、A posture determination unit that determines the posture of the person shown in the person region,
前記姿勢に基づいて前記画像における前記人物の位置を特定する位置特定部と、A position specifying unit that specifies the position of the person in the image based on the posture;
表示対象の前記画像における特定された前記人物の位置に、描画点を描画した表示画像を生成する表示画像生成部と、を備え、A display image generation unit that generates a display image in which a drawing point is drawn at the position of the identified person in the image to be displayed,
前記位置特定部は、The position specifying unit,
検出された前記人物領域ごとに、前記姿勢に基づいた前記人物の位置としての第1の位置と、前記人物領域の周辺の周辺領域の変化に非依存の第2の位置と、を特定し、For each of the detected person regions, a first position as the position of the person based on the posture, and a second position that is independent of changes in peripheral regions around the person region are specified,
前記画像に含まれる前記人物領域ごとに特定した前記第1の位置と前記第2の位置とを含む解析情報を生成し、Generating analysis information including the first position and the second position specified for each of the person regions included in the image,
前記情報処理端末は、The information processing terminal,
前記人物の位置を示す表示画像を表示部に表示する表示制御部を備える、A display control unit that displays a display image showing the position of the person on the display unit;
情報処理システム。Information processing system.
情報処理装置と、前記情報処理装置と通信する情報処理端末と、を備える情報処理システムであって、An information processing system comprising an information processing device and an information processing terminal communicating with the information processing device,
前記情報処理装置は、The information processing device,
全方位の範囲の撮影によって得られる全天球パノラマ画像に含まれる人物領域を検出する検出部と、A detection unit that detects a person region included in a omnidirectional panoramic image obtained by shooting in an omnidirectional range,
前記全天球パノラマ画像における水平方向と撮影環境における水平方向とが一致するように補正する水平補正部と、A horizontal correction unit that corrects the horizontal direction in the spherical panoramic image to match the horizontal direction in the shooting environment;
前記全天球パノラマ画像の歪みを補正する歪補正部と、A distortion correction unit that corrects the distortion of the spherical panoramic image,
補正された前記全天球パノラマ画像に含まれる人物の姿勢を判別する姿勢判別部と、A posture determination unit that determines the posture of a person included in the corrected spherical panoramic image,
前記姿勢に基づいて、前記全天球パノラマ画像における前記人物の位置を特定する位置特定部と、を備え、A position specifying unit that specifies the position of the person in the omnidirectional panoramic image based on the posture;
前記情報処理端末は、The information processing terminal,
前記人物の位置を示す表示画像を表示部に表示する表示制御部を備える、A display control unit that displays a display image showing the position of the person on the display unit;
情報処理システム。Information processing system.
JP2016121641A 2016-06-20 2016-06-20 Information processing device and information processing system Active JP6729043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016121641A JP6729043B2 (en) 2016-06-20 2016-06-20 Information processing device and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016121641A JP6729043B2 (en) 2016-06-20 2016-06-20 Information processing device and information processing system

Publications (2)

Publication Number Publication Date
JP2017227957A JP2017227957A (en) 2017-12-28
JP6729043B2 true JP6729043B2 (en) 2020-07-22

Family

ID=60891728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016121641A Active JP6729043B2 (en) 2016-06-20 2016-06-20 Information processing device and information processing system

Country Status (1)

Country Link
JP (1) JP6729043B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6937266B2 (en) * 2018-05-18 2021-09-22 Kddi株式会社 Area selection device, area selection method, and area selection program
JP7188240B2 (en) * 2019-04-01 2022-12-13 オムロン株式会社 Human detection device and human detection method
WO2021033242A1 (en) * 2019-08-19 2021-02-25 株式会社ソニー・インタラクティブエンタテインメント Image recognition device, image recognition method, and image recognition program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1066055A (en) * 1996-08-20 1998-03-06 Fujitsu General Ltd Video monitor system
JP2011175336A (en) * 2010-02-23 2011-09-08 Panasonic Corp Device position specifying device
JP6331270B2 (en) * 2013-06-06 2018-05-30 日本電気株式会社 Information processing system, information processing method, and program
JP2017097578A (en) * 2015-11-24 2017-06-01 キヤノン株式会社 Information processing apparatus and method

Also Published As

Publication number Publication date
JP2017227957A (en) 2017-12-28

Similar Documents

Publication Publication Date Title
JP6919334B2 (en) Image processing device, image processing method, program
JP2013214947A (en) Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
JP2019057903A (en) Image processing apparatus, photographing system, image processing method, and program
JP6729043B2 (en) Information processing device and information processing system
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP2019057264A (en) Image processing apparatus, photographing system, image processing method, and program
US10964045B2 (en) Information processing device, information processing method, and individual imaging device for measurement of a size of a subject
JP7024817B2 (en) Image pickup device, image pickup system, image processing method, information processing device, and program
JP2019075766A (en) Image processing apparatus, photographing system, image processing method, and program
JP5448739B2 (en) Image reproducing apparatus, imaging apparatus, and image reproducing method
JP5714960B2 (en) Monitoring range detector
JP6720585B2 (en) Information processing system, information processing terminal, and program
US20200167948A1 (en) Control system, method of performing analysis and storage medium
KR20120005735A (en) Method and apparatus for presenting location information on augmented reality
JP2018139052A (en) Communication terminal, image communication system, display method and program
WO2017179136A1 (en) Entire celestial sphere camera robot altitude adjusting system, entire celestial sphere camera robot altitude adjusting method and program
JP2019185757A (en) Image processing device, imaging system, image processing method, and program
EP3871196A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP6812643B2 (en) Communication terminals, image communication systems, display methods, and programs
JP6370446B1 (en) Viewpoint-based object picking system and method
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
JP6762108B2 (en) Target detection device, processing method, program
JP2010206290A (en) Imaging device and masking method
JP2017169151A (en) Information processing system, use terminal, server device, and program
JP7439398B2 (en) Information processing equipment, programs and information processing systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6729043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151