JP6784199B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6784199B2
JP6784199B2 JP2017045268A JP2017045268A JP6784199B2 JP 6784199 B2 JP6784199 B2 JP 6784199B2 JP 2017045268 A JP2017045268 A JP 2017045268A JP 2017045268 A JP2017045268 A JP 2017045268A JP 6784199 B2 JP6784199 B2 JP 6784199B2
Authority
JP
Japan
Prior art keywords
image
spherical
boundary
boundary information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017045268A
Other languages
Japanese (ja)
Other versions
JP2018150086A (en
Inventor
早織 石岡
早織 石岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP2017045268A priority Critical patent/JP6784199B2/en
Publication of JP2018150086A publication Critical patent/JP2018150086A/en
Application granted granted Critical
Publication of JP6784199B2 publication Critical patent/JP6784199B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、エレベータの昇降路内を撮影した画像を処理する画像処理装置に関する。 The present invention relates to an image processing device that processes an image taken in the hoistway of an elevator.

エレベータにおいては、昇降路内の点検や異常検知のために、かごにカメラを設置して昇降路内を撮影することが行われている。その際、通常のカメラを使用した撮影では、昇降路内の四方を別々に撮影する必要が生じ不便であることから、全天球カメラの使用が検討されている。全天球カメラとは、上下左右全方位の360度パノラマ撮影を行うカメラであり、全方位カメラとも呼ばれている。 In elevators, cameras are installed in cages to take pictures of the inside of the hoistway for inspection and abnormality detection. At that time, since it is inconvenient to take pictures of all four sides of the hoistway separately in taking pictures using a normal camera, the use of a spherical camera is being considered. The omnidirectional camera is a camera that performs 360-degree panoramic photography in all directions, up, down, left, and right, and is also called an omnidirectional camera.

全天球カメラにより撮影された画像は、画像処理を施すことにより、複数の領域に分割することができ、分割された領域ごとに画面表示することができる。このように分割を行うことについては、例えば特許文献1に記載されている。 The image taken by the omnidirectional camera can be divided into a plurality of areas by performing image processing, and the divided areas can be displayed on the screen. For example, Patent Document 1 describes the division in this way.

特開2016−54423号公報(2016年4月14日公開)Japanese Unexamined Patent Publication No. 2016-54423 (published on April 14, 2016)

エレベータの昇降路内の撮影は、かごの移動方向に沿った複数の位置での静止画撮影、または、かごの移動方向に沿って移動しつつの動画撮影が行われることが多い。この撮影に全天球カメラを用いた場合、各位置において撮影された静止画、または動画の各フレームに対して個別に上述した領域分割を行うことは煩雑な作業となる。 In the hoistway of the elevator, still images are often taken at a plurality of positions along the moving direction of the car, or moving images are taken while moving along the moving direction of the car. When an omnidirectional camera is used for this shooting, it is a complicated task to individually perform the above-mentioned region division for each frame of the still image or the moving image shot at each position.

一方、特許文献1に開示された技術では、全天球カメラによって撮影した画像を、同カメラ内において特定の画像領域数に分割することとされている。このような全天球カメラを用いると領域分割のための煩雑さは解消されるが、各画像領域の境界がカメラによって特定されてしまっているため、点検や異常検知において重要なポイントが境界に重なってしまい、点検や異常検知に不都合をきたすおそれがある。 On the other hand, in the technique disclosed in Patent Document 1, an image taken by an omnidirectional camera is divided into a specific number of image regions in the camera. Using such a spherical camera eliminates the complexity of dividing the area, but since the boundary of each image area has been specified by the camera, an important point in inspection and abnormality detection is the boundary. It may overlap, causing inconvenience in inspection and abnormality detection.

この問題を回避するためには、撮影時に全天球カメラの撮影方向を適切に調整することが考えられるが、このような調整作業は撮影時の煩雑さを招来することとなる。 In order to avoid this problem, it is conceivable to appropriately adjust the shooting direction of the spherical camera at the time of shooting, but such adjustment work causes complexity at the time of shooting.

本発明は、以上の課題に鑑み、上記煩雑さを抑制できる画像処理装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image processing apparatus capable of suppressing the above complexity.

上記の課題を解決するために、本発明の一態様に係る画像処理装置は、360度カメラで撮影された360度画像を平面画像へ展開して表示する際の、前記360度画像の切れ目となる境界を規定する境界情報を取得する境界情報取得部と、前記境界情報により規定される境界を複数の360度画像に対して適用することにより、各360度画像を平面画像へ展開する展開部と、を備える。 In order to solve the above problems, the image processing device according to one aspect of the present invention has a break in the 360-degree image when the 360-degree image taken by the 360-degree camera is expanded and displayed on a flat image. A boundary information acquisition unit that acquires boundary information that defines the boundary, and a development unit that expands each 360-degree image into a flat image by applying the boundary defined by the boundary information to a plurality of 360-degree images. And.

上記の構成によれば、取得した境界情報に基づき、複数の360度画像それぞれを平面画像へ展開することができる。そのため、複数の360度画像それぞれに対して個別に境界を指定することの煩雑さを抑制することができる。また、点検や異常検知における重要ポイントと重ならないように境界を設定すれば、360度画像の撮影時に360度カメラの撮影方向を調整する必要がなくなり、それゆえ、撮影方向を調整することの煩雑さを抑制することができる。 According to the above configuration, each of the plurality of 360-degree images can be developed into a plane image based on the acquired boundary information. Therefore, it is possible to suppress the complexity of individually designating boundaries for each of the plurality of 360-degree images. In addition, if the boundary is set so as not to overlap with the important points in inspection and abnormality detection, it is not necessary to adjust the shooting direction of the 360-degree camera when shooting a 360-degree image, and therefore it is complicated to adjust the shooting direction. Can be suppressed.

なお、境界情報は、例えば360度画像を構成する画像データにおける座標など、画像データのフォーマット上での位置を特定する情報であればよい。 The boundary information may be any information that specifies the position of the image data in the format, such as coordinates in the image data constituting the 360-degree image.

また、上記「360度画像」には、円筒スクリーンへの投影に対応する「全周画像」、半球スクリーンへの投影に対応する「全天周画像」、全球スクリーンへの投影に対応する「全天球画像」が含まれる。 Further, the above-mentioned "360 degree image" includes an "all-around image" corresponding to projection on a cylindrical screen, an "omnidirectional image" corresponding to projection on a hemispherical screen, and "all-around image" corresponding to projection on a global screen. "Spherical image" is included.

また、上記画像は、静止画像であっても、一連の動画像の1フレームであってもよい。さらに、上記画像処理装置は、上記カメラに内蔵されていてもよいが、上記カメラとは別に、例えばパーソナルコンピュータとして実現されてもよい。 Further, the image may be a still image or one frame of a series of moving images. Further, the image processing device may be built in the camera, but may be realized as, for example, a personal computer separately from the camera.

また、本発明の一態様に係る画像処理装置において、前記360度画像の画像データに対する画像認識処理により、予め定められた条件を満たす部分を特定し、その部分を前記境界とする境界情報を生成して前記境界情報取得部へ提供する第1境界情報生成部をさらに備えてもよい。 Further, in the image processing apparatus according to one aspect of the present invention, a portion satisfying a predetermined condition is specified by image recognition processing for the image data of the 360-degree image, and boundary information with that portion as the boundary is generated. A first boundary information generation unit that is provided to the boundary information acquisition unit may be further provided.

エレベータの昇降路内を360度カメラで撮影した360度画像には、例えば昇降路の四隅やかごの四隅など、360度画像を平面画像へ展開して表示する際の境界として適し、かつ画像認識処理により特定可能な特徴部分が写っている。 A 360-degree image taken by a 360-degree camera inside the elevator hoistway is suitable as a boundary when a 360-degree image is expanded and displayed on a flat image, such as the four corners of the hoistway and the four corners of a car, and image recognition. The characteristic part that can be identified by the processing is shown.

上記の構成によれば、境界情報生成部により特徴部分を特定し、該特徴部分を境界とする境界情報を生成することができる。これにより、自動的に適切な境界を設定して平面画像への展開を行うことが可能となる。 According to the above configuration, the feature portion can be specified by the boundary information generation unit, and the boundary information having the feature portion as the boundary can be generated. As a result, it is possible to automatically set an appropriate boundary and develop a flat image.

また、本発明の一態様に係る画像処理装置において、前記360度画像を表示装置に表示させる画像表示部と、前記画像表示部により表示された360度画像に基づき前記境界の位置をユーザに特定させ、その位置に対応する境界情報を生成して前記境界情報取得部へ提供する第2境界情報生成部と、をさらに備えてもよい。 Further, in the image processing device according to one aspect of the present invention, the position of the boundary is specified to the user based on the image display unit for displaying the 360-degree image on the display device and the 360-degree image displayed by the image display unit. A second boundary information generation unit, which generates boundary information corresponding to the position and provides the boundary information to the boundary information acquisition unit, may be further provided.

上記の構成によれば、ユーザが、表示された360度画像を見ながら境界の位置を特定する必要は生じるが、1つの360度画像に対して特定した境界の位置を展開部において他の360度画像へも適用することができるため、ユーザに求められる作業が煩雑となることを回避することができる。 According to the above configuration, the user needs to specify the position of the boundary while looking at the displayed 360-degree image, but the position of the specified boundary with respect to one 360-degree image is set to the other 360 in the developing unit. Since it can be applied to the image, it is possible to avoid complicated work required by the user.

また、本発明の一態様に係る画像処理装置において、前記境界情報取得部は、平面上に位置する互いに異なる4つの方位に対応する4つの平面画像へ360度画像を分割しつつ展開するために必要な境界情報を取得してもよい。 Further, in the image processing apparatus according to one aspect of the present invention, the boundary information acquisition unit divides and develops a 360-degree image into four plane images corresponding to four different orientations located on a plane. You may get the necessary boundary information.

エレベータの昇降路は通常、ほぼ直方体形状となっている。そのため、上記の構成のとおり、境界情報取得部が、平面上に位置する互いに異なる4つの方位に対応する4つの平面画像へ360度画像を分割しつつ展開するために必要な境界情報を取得し、この境界情報に基づいて360度画像を平面画像へ展開することにより、昇降路内の各側壁を正面とした領域への画像の分割を行うことができるようになる。これにより、分割された画像に基づく点検や異常検知が容易となる。 Elevator hoistways are usually approximately rectangular parallelepiped. Therefore, as described in the above configuration, the boundary information acquisition unit acquires the boundary information necessary for developing the 360-degree image while dividing the 360-degree image into four plane images corresponding to four different directions located on the plane. By developing a 360-degree image into a flat image based on this boundary information, it becomes possible to divide the image into a region in which each side wall in the hoistway is the front surface. This facilitates inspection and abnormality detection based on the divided images.

また、本発明の一態様に係る画像処理装置において、前記展開部によって展開された4つの平面画像を横に並べた画面を生成する画面生成部をさらに備えてもよい。 Further, the image processing apparatus according to one aspect of the present invention may further include a screen generation unit that generates a screen in which four plane images developed by the development unit are arranged side by side.

上記の構成によれば、昇降路内の各側壁を撮影した画像を横に展開した状態で一覧することができるため、分割された画像に基づく点検や異常検知がさらに容易になる。 According to the above configuration, since the images of each side wall in the hoistway can be displayed in a horizontally expanded state, inspection and abnormality detection based on the divided images become easier.

また、本発明の一態様に係る画像処理装置において、前記画面生成部は、前記各360度画像に対応する横に並べた前記平面画像の組みを縦に並べた画面を生成してもよい。 Further, in the image processing apparatus according to one aspect of the present invention, the screen generation unit may generate a screen in which a set of horizontally arranged plane images corresponding to each 360-degree image is vertically arranged.

上記の構成によれば、昇降路内を縦方向に沿って撮影した複数の360度画像を対象とすることにより、側壁ごとに、複数の撮影位置を縦に展開した状態で一覧することができるため、分割された画像に基づく点検や異常検知がさらに容易になる。 According to the above configuration, by targeting a plurality of 360-degree images taken along the vertical direction in the hoistway, it is possible to list a plurality of shooting positions vertically expanded for each side wall. Therefore, inspection and abnormality detection based on the divided images become easier.

本発明の一態様によれば、360度画像を平面画像へ展開して表示する際の360度画像の切れ目となる境界を複数の360度画像それぞれに対して個別に指定することの煩雑さを抑制することができるという効果を奏する。 According to one aspect of the present invention, it is complicated to individually specify a boundary that becomes a break of a 360-degree image for each of a plurality of 360-degree images when the 360-degree image is expanded and displayed on a flat image. It has the effect of being able to be suppressed.

また、点検や異常検知における重要ポイントと重ならないように境界を設定すれば、360度画像の撮影時に360度カメラの撮影方向を調整する必要がなくなり、それゆえ、撮影方向を調整することの煩雑さを抑制することができる。 In addition, if the boundary is set so as not to overlap with the important points in inspection and abnormality detection, it is not necessary to adjust the shooting direction of the 360-degree camera when shooting a 360-degree image, and therefore it is complicated to adjust the shooting direction. Can be suppressed.

本発明の実施形態1に係る画像処理システムに含まれる画像処理装置の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the image processing apparatus included in the image processing system which concerns on Embodiment 1 of this invention. 図1に示すエレベータの構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the elevator shown in FIG. 図1に示す表示装置が表示する全天球画像の一例を示す図である。It is a figure which shows an example of the spherical image displayed by the display device shown in FIG. 図1に示す表示装置が表示する平面画像の一例を示す図である。It is a figure which shows an example of the plane image displayed by the display device shown in FIG. 図1に示す画像処理装置が実行する画像展開処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image development processing executed by the image processing apparatus shown in FIG. 本発明の実施形態2に係る画像処理システムに含まれる画像処理装置の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the image processing apparatus included in the image processing system which concerns on Embodiment 2 of this invention. 図6に示す画像処理装置が実行する画像展開処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image development processing executed by the image processing apparatus shown in FIG. 本発明の実施形態3に係る画像処理システムに含まれる画像処理装置の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the image processing apparatus included in the image processing system which concerns on Embodiment 3 of this invention. (a)は、分割画像を生成するための境界を示す図である。(b)は、図8に示す表示装置が表示する分割画像の一例を示す図である。(A) is a figure which shows the boundary for generating a divided image. FIG. 8B is a diagram showing an example of a divided image displayed by the display device shown in FIG. 図8に示す画像処理装置が実行する画像展開処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image development processing executed by the image processing apparatus shown in FIG. エレベータの他の構成例を示す概略図である。It is the schematic which shows the other structural example of an elevator. エレベータのさらなる他の構成例を示す概略図である。It is the schematic which shows the further other structural example of an elevator.

〔実施形態1〕
以下、本発明の実施形態について、図1から図5に基づいて詳細に説明する。
[Embodiment 1]
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 5.

(エレベータ20の概要)
まず、本実施形態に係るエレベータ20の基本構造について、図2を参照して説明する。図2は、エレベータ20の構成の一例を示す概略図である。なお、エレベータ20の概略構成は図示の例に限定されない。
(Overview of elevator 20)
First, the basic structure of the elevator 20 according to the present embodiment will be described with reference to FIG. FIG. 2 is a schematic view showing an example of the configuration of the elevator 20. The schematic configuration of the elevator 20 is not limited to the illustrated example.

図示のエレベータ20は、昇降路21と機械室23とを備えたエレベータである。なお、機械室23の位置は、昇降路21の上方に限定されない。また、エレベータ20は、機械室23を備えない構成であってもよい。 The illustrated elevator 20 is an elevator provided with a hoistway 21 and a machine room 23. The position of the machine room 23 is not limited to the upper part of the hoistway 21. Further, the elevator 20 may be configured not to include the machine room 23.

図示のように、エレベータ20のかご22は、ロープの一端部に連結されている。また、ロープの他端部には釣合おもりが連結されている。該ロープを機械室23に設置された巻上機が巻き上げることで、かご22が昇降路21内を昇降する。 As shown, the car 22 of the elevator 20 is connected to one end of the rope. A balancing weight is connected to the other end of the rope. The hoisting machine installed in the machine room 23 winds up the rope, so that the car 22 moves up and down in the hoistway 21.

機械室23には、エレベータ20の各部に対する制御を行う制御盤24が設置されている。制御盤24は、エレベータ20に設けられた各種ボタン(例えば乗場ボタン)などから取得した制御信号に応じて、利用者が指定した階床へのかご22の移動および該階床での停止、かご22および乗場に設けられたドアの開閉、乗場に設けられた位置表示機の表示変更などを制御する。 In the machine room 23, a control panel 24 that controls each part of the elevator 20 is installed. The control panel 24 moves the car 22 to the floor designated by the user, stops on the floor, and stops the car in response to control signals acquired from various buttons (for example, a landing button) provided on the elevator 20. 22 and the opening and closing of the door provided in the landing, the display change of the position display provided in the landing, and the like are controlled.

また、制御盤24は、所定の通信網(例えば、インターネットなど)を介して、外部の装置と通信可能に構成されていてもよく、上記通信網を介して、本実施形態に係る画像処理装置1と通信してもよい。 Further, the control panel 24 may be configured to be able to communicate with an external device via a predetermined communication network (for example, the Internet), and the image processing device according to the present embodiment may be configured to communicate with the external device via the communication network. You may communicate with 1.

(全天球カメラ2)
図示のように、本実施形態に係るかご22には、全天球カメラ2が設置されている。全天球カメラ2は、かご22の移動方向に沿った複数の位置での昇降路21内の静止画撮影、および、かご22の移動方向に沿って移動しつつの昇降路21内の動画撮影の少なくとも一方を行い、画像を生成する。また、全天球カメラ2は、上下左右全方位の360度パノラマ撮影を行う、いわゆる「360度カメラ」である。換言すれば、全天球カメラ2が生成した画像は、全球スクリーンへの投影に対応する、いわゆる「全天球画像」(360度画像)である。また、本実施形態に係る全天球カメラ2は、作業員の遠隔操作によって、または、所定の期間ごとに自動的に撮影を行うカメラである。
(Spherical camera 2)
As shown in the figure, the spherical camera 2 is installed in the car 22 according to the present embodiment. The omnidirectional camera 2 captures a still image in the hoistway 21 at a plurality of positions along the moving direction of the car 22 and a moving image in the hoistway 21 while moving along the moving direction of the car 22. Do at least one of the above to generate an image. The omnidirectional camera 2 is a so-called "360-degree camera" that performs 360-degree panoramic photography in all directions, up, down, left, and right. In other words, the image generated by the spherical camera 2 is a so-called "spherical image" (360-degree image) corresponding to the projection on the spherical screen. Further, the omnidirectional camera 2 according to the present embodiment is a camera that automatically takes a picture by remote control of a worker or at predetermined intervals.

なお、本実施形態では、かご22に設置するカメラとして、全天球カメラ2を例に挙げて説明するが、これに限定されるものではない。例えば、かご22に設置するカメラは、円筒スクリーンへの投影に対応する、いわゆる全周画像を生成するカメラであってもよいし、半球スクリーンへの投影に対応する、いわゆる全天周画像を生成するカメラであってもよい。 In the present embodiment, the spherical camera 2 will be described as an example of the camera installed in the car 22, but the present invention is not limited to this. For example, the camera installed in the car 22 may be a camera that generates a so-called all-around image corresponding to projection on a cylindrical screen, or may generate a so-called all-sky image corresponding to projection on a hemispherical screen. It may be a camera that does.

図示の例では、全天球カメラ2は、かご22の外側上部に設置されている。ただし、全天球カメラ2の設置位置は図示の例に限定されない。全天球カメラ2は、昇降路21内を撮影できる位置に設置されていればよく、例えば、かご22の外側下部に設置されてもよい。 In the illustrated example, the spherical camera 2 is installed on the outer upper part of the car 22. However, the installation position of the spherical camera 2 is not limited to the illustrated example. The omnidirectional camera 2 may be installed at a position where the inside of the hoistway 21 can be photographed, and may be installed, for example, at the lower outer side of the car 22.

さらに、全天球カメラ2は、かご22に常時設置されていなくてもよい。具体的には、全天球カメラ2は、エレベータ20の点検を行う作業員によって保守点検時に持ち込まれ、かご22に設置されてもよい。また、全天球カメラ2は、かご22に設置されていない状態で使用されてもよい。具体的には、かご22の上に乗った作業員が全天球カメラ2を手に持った状態で昇降路21内を撮影してもよい。この例の場合、全天球カメラ2は、作業員の遠隔操作によって撮影を行う機能、または、所定の期間ごとに自動的に撮影を行う機能を備えていなくてもよい。 Further, the spherical camera 2 does not have to be always installed in the car 22. Specifically, the spherical camera 2 may be brought into the car 22 by a worker who inspects the elevator 20 during maintenance and inspection. Further, the spherical camera 2 may be used in a state where it is not installed in the car 22. Specifically, the worker on the car 22 may take a picture of the inside of the hoistway 21 while holding the spherical camera 2 in his hand. In the case of this example, the spherical camera 2 does not have to have a function of taking a picture by remote control of an operator or a function of taking a picture automatically at predetermined intervals.

(画像処理システム100の概要)
次に、本実施形態に係る画像処理システム100の概要について、図1を参照して説明する。図1は、画像処理システム100に含まれる画像処理装置1の要部構成の一例を示すブロック図である。図示のように、画像処理システム100は、画像処理装置1、上述した全天球カメラ2、記憶装置3、入力装置4、および表示装置5を含む。画像処理装置1は、入力された画像を処理し出力する、いわゆるコンピュータである。
(Outline of image processing system 100)
Next, an outline of the image processing system 100 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing an example of a main configuration of an image processing device 1 included in the image processing system 100. As shown in the figure, the image processing system 100 includes an image processing device 1, the above-mentioned spherical camera 2, a storage device 3, an input device 4, and a display device 5. The image processing device 1 is a so-called computer that processes and outputs an input image.

入力装置4は、ユーザの操作を受け付けて、該操作に応じた信号(図示の操作信号)を画像処理装置1へ入力する。入力装置4は、例えばマウスおよびキーボードである。表示装置5は、画像処理装置1が生成した画像(図示の表示データ)を取得し、表示する。表示装置5は、例えば液晶ディスプレイである。また、入力装置4および表示装置5は、画像処理装置1と一体となった構成であってもよい。 The input device 4 accepts a user's operation and inputs a signal (illustrated operation signal) corresponding to the operation to the image processing device 1. The input device 4 is, for example, a mouse and a keyboard. The display device 5 acquires and displays an image (display data shown in the figure) generated by the image processing device 1. The display device 5 is, for example, a liquid crystal display. Further, the input device 4 and the display device 5 may be integrated with the image processing device 1.

記憶装置3は、全天球カメラ2が生成した全天球画像を記憶する。記憶装置3は、典型的には、全天球カメラ2に着脱可能なSD(Secure Digital)メモリーカードなどの、画像処理装置1と物理的に接続することが可能な記憶装置であるが、所定の通信網(例えば、インターネットなど)を介して、全天球カメラ2および画像処理装置1と通信可能な記憶装置であってもよい。なお、全天球カメラ2が有線または無線で画像処理装置1と通信可能であり、かつ、全天球カメラ2が生成した全天球画像が画像処理装置1へ直接送信される構成である場合、画像処理システム100は記憶装置3を含んでいなくてもよい。 The storage device 3 stores the omnidirectional image generated by the omnidirectional camera 2. The storage device 3 is typically a storage device that can be physically connected to the image processing device 1 such as an SD (Secure Digital) memory card that can be attached to and detached from the spherical camera 2. It may be a storage device capable of communicating with the spherical camera 2 and the image processing device 1 via the communication network (for example, the Internet). When the spherical camera 2 can communicate with the image processing device 1 by wire or wirelessly, and the spherical image generated by the spherical camera 2 is directly transmitted to the image processing device 1. , The image processing system 100 does not have to include the storage device 3.

(画像処理装置1の要部構成)
次に、画像処理装置1の要部構成について、引き続き図1を参照して説明する。画像処理装置1は、図示のように、制御部10、記憶部11、および通信部12を備えている。制御部10は画像処理装置1の各部を統括して制御する。なお、制御部10の詳細については後述する。
(Main part configuration of image processing device 1)
Next, the configuration of the main part of the image processing apparatus 1 will be described with reference to FIG. As shown in the figure, the image processing device 1 includes a control unit 10, a storage unit 11, and a communication unit 12. The control unit 10 controls each unit of the image processing device 1 in an integrated manner. The details of the control unit 10 will be described later.

記憶部11は、画像処理装置1が使用する各種データを記憶する。本実施形態に係る記憶部11は、全天球カメラ2が生成した全天球画像、および、画像処理装置1が全天球画像を展開して生成した平面画像を記憶する。平面画像とは、平面のスクリーンへの投影に対応する画像である。また、記憶部11は、全天球画像を表示装置5に表示させるためのアプリケーション(以下、「全天球画像ビューア」と称する。)を記憶する。なお、記憶部11は、画像処理装置1の内蔵メモリであってもよいし、画像処理装置1に外付けされるハードディスクであってもよい。 The storage unit 11 stores various data used by the image processing device 1. The storage unit 11 according to the present embodiment stores the spherical image generated by the spherical camera 2 and the planar image generated by developing the spherical image by the image processing device 1. A flat image is an image that corresponds to the projection of a flat screen onto a screen. In addition, the storage unit 11 stores an application for displaying the spherical image on the display device 5 (hereinafter, referred to as “spherical image viewer”). The storage unit 11 may be a built-in memory of the image processing device 1 or a hard disk externally attached to the image processing device 1.

通信部12は、外部装置と有線または無線で通信可能に接続し、接続した外部装置からデータを取得する。本実施形態に係る通信部12は、記憶装置3から全天球画像を取得し、取得した全天球画像を記憶部11に記憶させる。通信部12は、入力装置4からの操作信号をトリガとして、記憶装置3から全天球画像を取得してもよい。また、通信部12は、画像処理装置1と記憶装置3とが通信可能に接続されたときに、自動的に記憶装置3から全天球画像を取得してもよい。 The communication unit 12 connects to an external device in a wired or wireless manner, and acquires data from the connected external device. The communication unit 12 according to the present embodiment acquires a spherical image from the storage device 3 and stores the acquired spherical image in the storage unit 11. The communication unit 12 may acquire a spherical image from the storage device 3 by using an operation signal from the input device 4 as a trigger. Further, the communication unit 12 may automatically acquire a spherical image from the storage device 3 when the image processing device 1 and the storage device 3 are communicably connected to each other.

制御部10は、図示のように、入力制御部101、境界情報生成部102(第2境界情報生成部)、展開部103、および表示制御部105(画像表示部)を含んでいる。 As shown in the figure, the control unit 10 includes an input control unit 101, a boundary information generation unit 102 (second boundary information generation unit), a development unit 103, and a display control unit 105 (image display unit).

入力制御部101は、入力装置4からの操作信号を取得して、該操作信号に応じた指示を制御部10の各部へ出力する。特に、入力制御部101は、全天球画像または平面画像を表示装置5へ表示させる操作を示す操作信号を取得すると、これらの画像を表示装置5へ表示させる指示(図示の画像表示指示)を表示制御部105へ出力する。また、入力制御部101は、全天球画像を平面画像へ展開して表示する際に、該全天球画像の切れ目となる境界の起点となる位置を指定する操作(以下、「指定操作」と称する。)を示す操作信号を取得すると、該境界を規定する境界情報を生成させる指示(以下、「生成指示」と称する。)を境界情報生成部102へ出力する。なお、生成指示には、指定された位置を示す情報(以下、「位置情報」と称する。)、および、指定操作がなされた全天球画像を示す情報(以下、「画像情報」と称する。)が含まれている。位置情報の典型例は、表示装置5の表示領域における座標である。 The input control unit 101 acquires an operation signal from the input device 4 and outputs an instruction corresponding to the operation signal to each unit of the control unit 10. In particular, when the input control unit 101 acquires an operation signal indicating an operation for displaying a spherical image or a plane image on the display device 5, an instruction for displaying these images on the display device 5 (illustrated image display instruction) is given. Output to the display control unit 105. Further, the input control unit 101 is an operation of designating a position serving as a starting point of a boundary which is a break of the spherical image when the spherical image is expanded and displayed on a flat image (hereinafter, "designating operation"). When the operation signal indicating (referred to as) is acquired, an instruction for generating boundary information defining the boundary (hereinafter referred to as “generation instruction”) is output to the boundary information generation unit 102. In the generation instruction, information indicating a designated position (hereinafter referred to as "position information") and information indicating an omnidirectional image on which the designated operation has been performed (hereinafter referred to as "image information"). )It is included. A typical example of the position information is the coordinates in the display area of the display device 5.

ここで、図3を参照して、指定操作について具体的に説明する。図3は、表示装置5が表示する全天球画像の一例を示す図である。より詳細に説明すると、図3は、一般的な全天球画像ビューアにより、昇降路21内を撮影した全天球画像51を表示装置5に表示させた様子の一例を示す図である。同図では、全天球画像ビューアの表示領域には全天球画像51の一部のみが表示されており、その他の部分は表示されていない。表示されていない部分を表示させるには、通常、ユーザの操作に応じて、表示領域内の全天球画像51をスライドさせる。該操作の典型例は、全天球画像ビューアの表示領域内にカーソル52がある状態での、入力装置4であるマウスを用いたドラッグ操作である。 Here, the designated operation will be specifically described with reference to FIG. FIG. 3 is a diagram showing an example of a spherical image displayed by the display device 5. More specifically, FIG. 3 is a diagram showing an example of displaying the spherical image 51 captured in the hoistway 21 on the display device 5 by a general spherical image viewer. In the figure, only a part of the spherical image 51 is displayed in the display area of the spherical image viewer, and the other parts are not displayed. In order to display the non-displayed portion, the spherical image 51 in the display area is usually slid according to the user's operation. A typical example of this operation is a drag operation using a mouse, which is an input device 4, with the cursor 52 in the display area of the spherical image viewer.

指定操作の典型例は、マウスを用いたクリック操作である。具体的には、ユーザは、マウスを用いて全天球画像51上でカーソル52を移動させ、全天球画像51を展開する際の切れ目となる境界の起点としたい位置でクリック操作を行う。なお、指定操作はマウスを用いたクリック操作に限定されるものではない。 A typical example of a designated operation is a click operation using a mouse. Specifically, the user moves the cursor 52 on the spherical image 51 using a mouse, and performs a click operation at a position desired to be the starting point of a boundary that becomes a break when the spherical image 51 is developed. The designated operation is not limited to the click operation using the mouse.

再び図1に戻り説明する。境界情報生成部102は、入力制御部101からの生成指示に従い、上述した境界情報を生成し、該境界情報を境界情報取得部104へ提供する。本実施形態に係る境界情報生成部102は、生成指示に含まれる位置情報が示す、表示装置5の表示領域における座標を、全天球画像51において対応する座標に変換する。境界情報生成部102は、変換後の座標を、境界情報として展開部103へ出力する。なお、境界情報は、全天球画像上の位置を特定することができる情報であれば、座標に限定されない。また、境界情報生成部102は、境界情報とともに、生成指示に含まれる画像情報を展開部103へ出力する。 The explanation will be given by returning to FIG. The boundary information generation unit 102 generates the above-mentioned boundary information in accordance with the generation instruction from the input control unit 101, and provides the boundary information to the boundary information acquisition unit 104. The boundary information generation unit 102 according to the present embodiment converts the coordinates in the display area of the display device 5 indicated by the position information included in the generation instruction into the corresponding coordinates in the spherical image 51. The boundary information generation unit 102 outputs the converted coordinates to the development unit 103 as boundary information. The boundary information is not limited to the coordinates as long as it can specify the position on the spherical image. Further, the boundary information generation unit 102 outputs the image information included in the generation instruction to the development unit 103 together with the boundary information.

展開部103は、全天球画像を平面画像へ展開するものであり、境界情報取得部104を含んでいる。境界情報取得部104は、境界情報生成部102から境界情報および画像情報を取得する。境界情報取得部104が境界情報および画像情報を取得すると、展開部103は、画像情報で示される全天球画像が静止画像である場合、画像情報で示される全天球画像とともに、該全天球画像とは別の1つ以上の全天球画像を記憶部11から読み出す。別の全天球画像の典型例は、(1)画像情報で示される全天球画像と同一のフォルダに格納されている全天球画像、(2)ユーザによって選択された全天球画像であるが、この例に限定されるものではない。一方、画像情報で示される全天球画像が動画像の1フレームである場合、展開部103は、当該動画像の各フレームを記憶部11から読み出す。 The expansion unit 103 expands the spherical image into a plane image, and includes the boundary information acquisition unit 104. The boundary information acquisition unit 104 acquires boundary information and image information from the boundary information generation unit 102. When the boundary information acquisition unit 104 acquires the boundary information and the image information, the developing unit 103, when the spherical image indicated by the image information is a still image, together with the spherical image indicated by the image information. One or more spherical images different from the spherical image are read from the storage unit 11. Typical examples of another spherical image are (1) a spherical image stored in the same folder as the spherical image shown in the image information, and (2) a spherical image selected by the user. However, it is not limited to this example. On the other hand, when the spherical image indicated by the image information is one frame of the moving image, the developing unit 103 reads each frame of the moving image from the storage unit 11.

展開部103は、記憶部11から読み出した複数の全天球画像の各々を、境界情報により規定される境界を切れ目として、平面画像へ展開する。このとき、展開部103は、一つの境界情報により規定される境界を複数の全天球画像に対して一律に適用することにより、複数の全天球画像の各々を一括して平面画像へ展開する。 The developing unit 103 develops each of the plurality of spherical images read from the storage unit 11 into a flat image with the boundary defined by the boundary information as a break. At this time, the development unit 103 uniformly applies the boundary defined by one boundary information to the plurality of spherical images, thereby simultaneously developing each of the plurality of spherical images into a flat image. To do.

上記境界は、全天球画像の天頂と天底とを端点とし、位置情報が示す座標を通る、天球面に沿った曲線である。なお、天頂とは、天球の中心から真上に延ばした線が天球面と交わる点である。また、天底とは、天球の中心から真下に延ばした線が天球面と交わる点である。そして、上記曲線を境界として全天球画像を平面画像に展開しただけでは全天球画像由来の歪みが残存するため、展開部103はこの歪みを無くすように補正する。これにより、平面画像は、平面のスクリーンへの投影に対応する画像となる。そして、展開部103は、生成した複数の平面画像を記憶部11に記憶させる。なお、全天球画像を平面画像へ展開する技術、および、歪みを補正する技術については、既存の技術を用いることができるため、詳細な説明を省略する。 The boundary is a curve along the celestial sphere that passes through the coordinates indicated by the position information, with the zenith and nadir of the spherical image as end points. The zenith is the point where the line extending directly above the center of the celestial sphere intersects the celestial sphere. The nadir is the point where the line extending directly below the center of the celestial sphere intersects the celestial sphere. Then, since the distortion derived from the spherical image remains only when the spherical image is expanded on the plane image with the curve as the boundary, the developing unit 103 corrects so as to eliminate this distortion. As a result, the plane image becomes an image corresponding to the projection of the plane onto the screen. Then, the developing unit 103 stores the generated plurality of plane images in the storage unit 11. As for the technique of developing the spherical image into a plane image and the technique of correcting distortion, existing techniques can be used, and detailed description thereof will be omitted.

表示制御部105は、表示データを生成し、該表示データを表示装置5に表示させる。本実施形態に係る表示制御部105は、入力制御部101から、全天球画像の表示指示を取得すると、該表示指示で示される全天球画像を記憶部11から読み出し、全天球画像ビューアを起動して、表示装置5に表示させる。これにより、表示装置5は、図3に示すように、全天球画像51を表示する。 The display control unit 105 generates display data and causes the display device 5 to display the display data. When the display control unit 105 according to the present embodiment acquires the display instruction of the spherical image from the input control unit 101, the display control unit 105 reads the spherical image indicated by the display instruction from the storage unit 11 and reads the spherical image viewer. Is started and displayed on the display device 5. As a result, the display device 5 displays the spherical image 51 as shown in FIG.

また、表示制御部105は、平面画像を記憶部11から読み出し、表示装置5に表示させる。このとき、表示制御部105は、全天球画像ビューアを起動して平面画像を表示させてもよいし、他の画像ビューアを起動して平面画像を表示させてもよい。また、表示制御部105は、入力制御部101から、平面画像の表示指示を取得したことをトリガとして、平面画像を表示させてもよいし、展開部103によって平面画像が生成されたことをトリガとして、平面画像を表示させてもよい。また、表示制御部105は、同じ境界情報に基づいて生成された複数の平面画像を表示装置5に同時に表示させてもよい。 Further, the display control unit 105 reads a plane image from the storage unit 11 and displays it on the display device 5. At this time, the display control unit 105 may activate the spherical image viewer to display the planar image, or may activate another image viewer to display the planar image. Further, the display control unit 105 may display the plane image by using the acquisition of the display instruction of the plane image from the input control unit 101 as a trigger, or triggers that the plane image is generated by the development unit 103. As a result, a flat image may be displayed. Further, the display control unit 105 may simultaneously display a plurality of plane images generated based on the same boundary information on the display device 5.

ここで、図4を参照して、平面画像を表示する様子について具体的に説明する。図4は、一般的な画像ビューアにより、平面画像を表示装置5に表示させた様子の一例を示す図である。同図に示す例は、画像ビューアにて、2つの全天球画像それぞれを同じ境界情報に基づいて展開した平面画像53aおよび53bを表示させている例である。また、平面画像53a上の破線内の領域は、図3に示す全天球画像ビューアの表示領域に表示されている全天球画像51に対応する領域である。なお、以降では、平面画像53aおよび53bを区別しない場合、単に「平面画像53」と記載する。 Here, a state of displaying a plane image will be specifically described with reference to FIG. FIG. 4 is a diagram showing an example of a flat image displayed on the display device 5 by a general image viewer. The example shown in the figure is an example in which the two spherical images are displayed as plane images 53a and 53b developed based on the same boundary information by the image viewer. The area inside the broken line on the plane image 53a is an area corresponding to the spherical image 51 displayed in the display area of the spherical image viewer shown in FIG. In the following, when the plane images 53a and 53b are not distinguished, they are simply referred to as "plane image 53".

平面画像53は、上述したように、境界情報により規定される境界を切れ目として全天球画像を展開した画像である。図示のように、表示制御部105は、画像ビューアの表示領域に、平面画像53の全領域を表示させる。これにより、ユーザは、一般的な全天球画像ビューアにて全天球画像を確認する際に通常行っていたスライド操作を行わずとも、全領域を、一目で、かつ視認しやすい状態で確認することができる。 As described above, the plane image 53 is an image obtained by developing a spherical image with a boundary defined by boundary information as a break. As shown in the figure, the display control unit 105 causes the display area of the image viewer to display the entire area of the plane image 53. As a result, the user can check the entire area at a glance and in an easy-to-see state without performing the slide operation that is normally performed when checking the spherical image with a general spherical image viewer. can do.

全天球画像の各々は、かご22に設置された全天球カメラ2によって時間をずらして撮影された画像であり、また、複数の平面画像53の各々は、同じ境界情報に基づいて全天球画像の各々を展開した画像である。よって、各撮影の時点で全天球カメラ2に対する相対方向が同じ部分は、各全天球画像の同じ領域に写ることとなり、それゆえ、各平面画像53においても同じ領域に写ることとなる。例えば、昇降路21を構成する側壁は、いずれも、各撮影の時点で全天球カメラ2に対する相対方向が変わらないから、平面画像53の各々において同じ領域に写る。したがって、表示制御部105は、図示の平面画像53aおよび53bのように、表示対象である複数の平面画像53を、縦方向にスクロール可能に並べて表示させることが、視認性向上の観点から好ましい。このように表示させておけば、例えば、昇降路21の側壁を、複数の平面画像53にまたがって続けて確認したい場合、画面を縦方向にスクロールするだけで容易に確認することができる。また、ユーザが注目する側壁が表示される画面上の領域は、画面をスクロールしても変わらない。つまりユーザは、昇降路21の確認したい側壁の状態を、目線を横方向に大きく移動させることなく続けて確認することができる。 Each of the spherical images is an image taken by the spherical camera 2 installed in the car 22 at different times, and each of the plurality of planar images 53 is the whole sky based on the same boundary information. It is an image which developed each of the spherical images. Therefore, the portion having the same relative direction with respect to the spherical camera 2 at the time of each shooting is captured in the same region of each spherical image, and therefore, is captured in the same region of each planar image 53. For example, the side walls forming the hoistway 21 are reflected in the same area in each of the plane images 53 because the relative directions with respect to the spherical camera 2 do not change at the time of each shooting. Therefore, it is preferable that the display control unit 105 displays a plurality of plane images 53 to be displayed side by side so as to be scrollable in the vertical direction, as in the illustrated plane images 53a and 53b, from the viewpoint of improving visibility. With this display, for example, when it is desired to continuously check the side wall of the hoistway 21 across a plurality of plane images 53, the side wall can be easily checked by simply scrolling the screen in the vertical direction. Further, the area on the screen where the side wall of the user's attention is displayed does not change even if the screen is scrolled. That is, the user can continuously confirm the state of the side wall of the hoistway 21 to be confirmed without moving the line of sight significantly in the lateral direction.

なお、上述した例では、予め全天球画像を平面画像へ展開しておくものとして説明したが、表示制御部105が平面画像の表示指示を受け付けたことをトリガとして、全天球画像を平面画像へ展開するようにしてもよい。 In the above-mentioned example, the spherical image is expanded into a flat image in advance, but the spherical image is flattened by the display control unit 105 receiving the display instruction of the flat image as a trigger. It may be expanded to an image.

(画像展開処理の流れ)
次に、画像処理装置1が実行する画像展開処理の流れについて、図5を参照して説明する。図5は、画像展開処理の流れの一例を示すフローチャートである。図5の(a)は、画像展開処理の前半の流れの一例を示し、図5の(b)は、画像展開処理の後半の流れの一例を示す。
(Flow of image development processing)
Next, the flow of the image development process executed by the image processing device 1 will be described with reference to FIG. FIG. 5 is a flowchart showing an example of the flow of the image development process. FIG. 5A shows an example of the flow of the first half of the image development process, and FIG. 5B shows an example of the flow of the latter half of the image development process.

まず、図5の(a)に示すように、通信部12は、記憶装置3から取得した複数の全天球画像を記憶部11に記憶させる(S1)。続いて、入力制御部101は、入力装置4から、いずれかの全天球画像を表示させるための操作信号を受け付けると、該全天球画像の表示指示を表示制御部105に出力する。表示制御部105は、取得した表示指示で示される全天球画像を記憶部11から読み出し、全天球画像ビューアを起動して、表示装置5に表示させる(S2)。 First, as shown in FIG. 5A, the communication unit 12 stores a plurality of spherical images acquired from the storage device 3 in the storage unit 11 (S1). Subsequently, when the input control unit 101 receives an operation signal for displaying any spherical image from the input device 4, the input control unit 101 outputs a display instruction of the spherical image to the display control unit 105. The display control unit 105 reads out the spherical image indicated by the acquired display instruction from the storage unit 11, activates the spherical image viewer, and displays the spherical image on the display device 5 (S2).

続いて、図5の(b)に示すように、入力制御部101は、全天球画像の切れ目となる境界を指定する指定操作の操作信号を待機する状態となる(S3)。入力制御部101が、入力装置4から指定操作の操作信号を取得すると(S3でYES)、入力制御部101は、取得した操作信号に従って、境界情報を生成させる生成指示を境界情報生成部102に出力する。 Subsequently, as shown in FIG. 5B, the input control unit 101 is in a state of waiting for an operation signal of a designated operation for designating a boundary to be a break in the spherical image (S3). When the input control unit 101 acquires an operation signal for the designated operation from the input device 4 (YES in S3), the input control unit 101 sends a generation instruction to the boundary information generation unit 102 to generate boundary information according to the acquired operation signal. Output.

続いて、境界情報生成部102は、生成指示に含まれる位置情報で示される位置を通る境界を指定する境界情報を生成する(S4)。そして、境界情報取得部104は、境界情報生成部102が生成した境界情報、および、生成指示に含まれる画像情報を取得する(S5)。 Subsequently, the boundary information generation unit 102 generates boundary information that specifies a boundary passing through the position indicated by the position information included in the generation instruction (S4). Then, the boundary information acquisition unit 104 acquires the boundary information generated by the boundary information generation unit 102 and the image information included in the generation instruction (S5).

続いて、展開部103は、境界情報とともに取得した画像情報で示される全天球画像を含む、複数の全天球画像を読み出す。そして、展開部103は、境界情報により規定される境界を切れ目として、読み出した複数の全天球画像の各々を平面画像へ展開する(S6)。そして、展開部103は、平面画像を記憶部11に記憶させる(S7)。 Subsequently, the development unit 103 reads out a plurality of spherical images including the spherical image indicated by the image information acquired together with the boundary information. Then, the developing unit 103 develops each of the read-out spherical spherical images into a plane image with the boundary defined by the boundary information as a break (S6). Then, the developing unit 103 stores the plane image in the storage unit 11 (S7).

最後に、表示制御部105は、記憶部11から平面画像を読み出し、表示装置5に表示させる(S8)。以上で、画像処理装置1が実行する画像展開処理は終了する。 Finally, the display control unit 105 reads a plane image from the storage unit 11 and displays it on the display device 5 (S8). This completes the image development process executed by the image processing device 1.

(画像処理装置1が奏する効果)
以上のように、画像処理装置1によれば、1つの全天球画像に対して生成した境界情報により規定される境界を、複数の全天球画像に対して一律に適用することにより、複数の全天球画像のそれぞれを一括して平面画像に展開することができる。また、境界情報の生成のために、ユーザは、1つの全天球画像に対して境界の起点となる位置を指定するだけでよい。これにより、複数の全天球画像のそれぞれに対して、個別に境界を指定することの煩雑さを抑制することができる。
(Effect of image processing device 1)
As described above, according to the image processing device 1, a plurality of boundaries defined by the boundary information generated for one spherical image are uniformly applied to the plurality of spherical images. It is possible to develop each of the spherical images of the above into a plane image at once. Further, in order to generate the boundary information, the user only needs to specify the position that is the starting point of the boundary with respect to one spherical image. As a result, it is possible to reduce the complexity of individually designating boundaries for each of the plurality of spherical images.

また、境界の起点となる位置を点検や異常検知における重要ポイントと重ならないように指定しさえすれば、全天球画像の撮影時に全天球カメラ2の撮影方向を調整する必要がなくなり、それゆえ、撮影時に撮影方向を調整することの煩雑さを抑制することができる。 In addition, as long as the position that is the starting point of the boundary is specified so that it does not overlap with the important points in inspection and abnormality detection, it is not necessary to adjust the shooting direction of the spherical camera 2 when shooting the spherical image. Therefore, it is possible to suppress the complexity of adjusting the shooting direction at the time of shooting.

〔実施形態2〕
本発明の他の実施形態について、図6および図7に基づいて詳細に説明する。なお、これ以降の各実施形態では、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材に同じ符号を付記し、その説明を省略する。
[Embodiment 2]
Other embodiments of the present invention will be described in detail with reference to FIGS. 6 and 7. In each of the following embodiments, for convenience of explanation, the same reference numerals are added to the members having the same functions as the members described in the first embodiment, and the description thereof will be omitted.

本実施形態では、画像認識処理(画像パターン認識処理)によって、全天球画像の切れ目となる境界を特定し、境界情報を自動生成する画像処理装置1aについて説明する。 In the present embodiment, the image processing device 1a that identifies the boundary that becomes the break of the spherical image by the image recognition process (image pattern recognition process) and automatically generates the boundary information will be described.

(画像処理装置1aの要部構成)
まず、画像処理装置1aの要部構成について、図6を参照して説明する。図6は、本実施形態に係る画像処理システム100aに含まれる画像処理装置1aの要部構成の一例を示すブロック図である。
(Main part configuration of image processing device 1a)
First, the configuration of a main part of the image processing apparatus 1a will be described with reference to FIG. FIG. 6 is a block diagram showing an example of the main configuration of the image processing device 1a included in the image processing system 100a according to the present embodiment.

画像処理装置1aは、図示のように、制御部10a、記憶部11、通信部12を備えている。制御部10aは、図示のように、入力制御部101、境界情報生成部102a(第1境界情報生成部)、展開部103、および表示制御部105を含んでいる。 As shown in the figure, the image processing device 1a includes a control unit 10a, a storage unit 11, and a communication unit 12. As shown in the figure, the control unit 10a includes an input control unit 101, a boundary information generation unit 102a (first boundary information generation unit), a development unit 103, and a display control unit 105.

上述したように、本実施形態に係る画像処理装置1aは、境界情報を自動生成する。そのため、本実施形態に係る入力制御部101は、指定操作の操作信号を取得する機能、および、生成指示を出力する機能を備えていなくてもよい。 As described above, the image processing apparatus 1a according to the present embodiment automatically generates boundary information. Therefore, the input control unit 101 according to the present embodiment does not have to have a function of acquiring an operation signal of a designated operation and a function of outputting a generation instruction.

境界情報生成部102aは、全天球画像に対する画像認識処理の結果に基づいて、境界情報を生成する。具体的には、境界情報生成部102aは、まず、記憶部11に記憶された複数の全天球画像を読み出す。なお、複数の全天球画像とは、実施形態1にて展開部103が読み出す複数の全天球画像と同様である。また、境界情報生成部102aが全天球画像を読み出すトリガは特に限定されない。例えば、通信部12が、全天球画像を記憶部11に記憶したことをトリガとしてもよい。 The boundary information generation unit 102a generates boundary information based on the result of image recognition processing for the spherical image. Specifically, the boundary information generation unit 102a first reads out a plurality of spherical images stored in the storage unit 11. The plurality of spherical images are the same as the plurality of spherical images read by the developing unit 103 in the first embodiment. Further, the trigger for the boundary information generation unit 102a to read the spherical image is not particularly limited. For example, the communication unit 12 may use the storage unit 11 to store the spherical image as a trigger.

そして、境界情報生成部102aは、読み出した全天球画像のいずれか1つに対して画像認識処理を行い、全天球画像のうち、昇降路21やかご22の構造的特徴に基づいて予め定められた条件を満たす部分を特定する。条件の一例としては、(1)昇降路21内の隣接する側壁の境目、(2)かご22の四隅、(3)昇降方向に沿った柱、(4)乗場ドアと昇降路21内の側壁との境目、などが挙げられる。なお、条件は、ユーザが境界に適すると考える部分として、予め指定されるものとする。 Then, the boundary information generation unit 102a performs image recognition processing on any one of the read spherical images, and in advance based on the structural features of the hoistway 21 and the car 22 in the spherical images. Identify the part that meets the specified conditions. Examples of conditions include (1) the boundary between adjacent side walls in the hoistway 21, (2) the four corners of the car 22, (3) pillars along the elevating direction, and (4) the landing door and the side wall in the hoistway 21. The boundary with, etc. can be mentioned. The condition shall be specified in advance as a part that the user considers to be suitable for the boundary.

そして、境界情報生成部102aは、条件を満たす部分を境界とする境界情報を生成する。境界情報生成部102aは、生成した境界情報を境界情報取得部104に出力する。また、境界情報生成部102aは、記憶部11から読み出した全天球画像を展開部103へ出力する。 Then, the boundary information generation unit 102a generates boundary information with a portion satisfying the condition as a boundary. The boundary information generation unit 102a outputs the generated boundary information to the boundary information acquisition unit 104. Further, the boundary information generation unit 102a outputs the spherical image read from the storage unit 11 to the development unit 103.

(画像展開処理の流れ)
次に、画像処理装置1aが実行する画像展開処理の流れについて、図7を参照して説明する。図7は、画像展開処理の流れの一例を示すフローチャートである。なお、実施形態1で説明した画像展開処理の各ステップと同じ処理を実行するステップについては、同じステップ番号を付し、その説明を省略する。
(Flow of image development processing)
Next, the flow of the image development process executed by the image processing apparatus 1a will be described with reference to FIG. 7. FIG. 7 is a flowchart showing an example of the flow of the image development process. The steps for executing the same processing as each step of the image development processing described in the first embodiment are assigned the same step numbers, and the description thereof will be omitted.

境界情報生成部102aは、記憶部11から複数の全天球画像を読み出し、読み出した全天球画像のいずれか1つに対して画像認識処理を行い、条件を満たす部分を特定する(S11)。そして、境界情報生成部102aは、条件を満たす部分を境界とする境界情報を生成する(S12)。境界情報生成部102aは、生成した境界情報を境界情報取得部104に出力する。また、境界情報生成部102aは、記憶部11から読み出した全天球画像を展開部103へ出力する。 The boundary information generation unit 102a reads out a plurality of spherical images from the storage unit 11, performs image recognition processing on any one of the read spherical images, and identifies a portion that satisfies the condition (S11). .. Then, the boundary information generation unit 102a generates boundary information with a portion satisfying the condition as a boundary (S12). The boundary information generation unit 102a outputs the generated boundary information to the boundary information acquisition unit 104. Further, the boundary information generation unit 102a outputs the spherical image read from the storage unit 11 to the development unit 103.

(画像処理装置1aが奏する効果)
以上のように、画像処理装置1aによれば、全天球画像に写る、境界として適した部分を特定し、該特定した部分を境界とする境界情報を自動生成することができる。これにより、画像処理装置1aは、自動的に適切な境界を設定し、該設定した境界を切れ目として全天球画像を平面画像に展開することができる。よって、ユーザは、境界を設定する操作を行うことなく、全天球画像を展開した平面画像を確認することができる。
(Effect of image processing device 1a)
As described above, according to the image processing apparatus 1a, it is possible to specify a portion suitable as a boundary in the spherical image and automatically generate boundary information with the specified portion as the boundary. As a result, the image processing device 1a can automatically set an appropriate boundary and develop the spherical image into a flat image with the set boundary as a break. Therefore, the user can confirm the developed plane image of the spherical image without performing the operation of setting the boundary.

なお、画像処理装置1aは、自動生成された境界情報を、ユーザの操作に従って修正する機能を備えていてもよい。具体的には、表示制御部105が平面画像を表示装置5に表示させた後、入力制御部101が、指定操作の操作信号(実施形態1参照)を取得すると、入力制御部101は、境界指定を境界情報生成部102aへ出力する。そして、境界情報生成部102aは、取得した境界指定に基づいて、境界情報を新たに生成し、展開部103へ出力する。これにより、展開部103は、境界が修正された平面画像を生成することができる。つまりユーザは、表示装置5に表示された平面画像が、適切でないと判断した場合、自身の操作によって、自身が適すると考える平面画像に修正することができる。 The image processing device 1a may have a function of correcting the automatically generated boundary information according to the user's operation. Specifically, after the display control unit 105 displays the plane image on the display device 5, when the input control unit 101 acquires the operation signal of the designated operation (see the first embodiment), the input control unit 101 changes the boundary. The designation is output to the boundary information generation unit 102a. Then, the boundary information generation unit 102a newly generates boundary information based on the acquired boundary designation and outputs the boundary information to the expansion unit 103. As a result, the development unit 103 can generate a plane image with the corrected boundary. That is, when the user determines that the plane image displayed on the display device 5 is not appropriate, the user can modify the plane image to be considered to be suitable by his / her own operation.

〔実施形態3〕
本発明のさらなる別の実施形態について、図8から図10に基づいて詳細に説明する。本実施形態では、1つの全天球画像を1つの平面画像へ展開するのではなく、1つの全天球画像を分割しつつ複数の平面画像へ展開する画像処理装置1bについて説明する。全天球画像を分割しつつ展開した平面画像を、以下では「分割画像」と称する。
[Embodiment 3]
Yet another embodiment of the present invention will be described in detail with reference to FIGS. 8-10. In the present embodiment, an image processing device 1b that expands one spherical image into a plurality of planar images while dividing one spherical image will be described instead of developing one spherical image into one planar image. A plane image developed while dividing a spherical image is hereinafter referred to as a "divided image".

(画像処理装置1bの要部構成)
まず、画像処理装置1bの要部構成について、図8を参照して説明する。図8は、本実施形態に係る画像処理システム100bに含まれる画像処理装置1bの要部構成の一例を示すブロック図である。
(Main part configuration of image processing device 1b)
First, the configuration of a main part of the image processing apparatus 1b will be described with reference to FIG. FIG. 8 is a block diagram showing an example of the main configuration of the image processing device 1b included in the image processing system 100b according to the present embodiment.

画像処理装置1bは、図示のように制御部10b、記憶部11、通信部12を備えている。制御部10b、図示のように、入力制御部101、境界情報生成部102、展開部103b、および表示制御部105(画面生成部)を含んでいる。 The image processing device 1b includes a control unit 10b, a storage unit 11, and a communication unit 12 as shown in the figure. The control unit 10b, as shown in the figure, includes an input control unit 101, a boundary information generation unit 102, a development unit 103b, and a display control unit 105 (screen generation unit).

画像処理装置1bは、全天球画像を、平面上に位置する互いに異なる方位に対応する分割画像へ分割する。一般的な昇降路21は、直方体形状であり4つの側壁を有するから、本実施形態では、画像処理装置1bは、全天球画像を、平面上に位置する互いに異なる4つの方位に対応する4つの分割画像へ分割するものとして説明する。よって、本実施形態では、指定操作は、4つの境界の位置を指定する操作であるものとする。したがって、入力制御部101は、指定操作に基づく4つの位置それぞれの位置情報を含む生成指示を境界情報生成部102へ出力する。なお、本実施形態では、指定された4つの位置が、それぞれ、昇降路21の隣接する側壁の境目の位置に対応する例を説明する。より具体的には、指定された4つの位置は、それぞれ、昇降路21における4つの上記境目の位置に対応する。 The image processing device 1b divides the spherical image into divided images located on a plane and corresponding to different directions. Since the general hoistway 21 has a rectangular parallelepiped shape and has four side walls, in the present embodiment, the image processing device 1b corresponds to the spherical image in four different directions located on a plane. It will be described as dividing into two divided images. Therefore, in the present embodiment, the designation operation is an operation for designating the positions of the four boundaries. Therefore, the input control unit 101 outputs a generation instruction including position information of each of the four positions based on the designated operation to the boundary information generation unit 102. In this embodiment, an example will be described in which each of the four designated positions corresponds to the position of the boundary between the adjacent side walls of the hoistway 21. More specifically, the four designated positions each correspond to the positions of the four boundaries on the hoistway 21.

境界情報生成部102は、4つの位置情報の各々に基づいて、4つの境界情報を生成する。なお、各境界情報の生成については、実施形態1で説明した方法と同様であるため、ここでの説明は省略する。 The boundary information generation unit 102 generates four boundary information based on each of the four position information. Since the generation of each boundary information is the same as the method described in the first embodiment, the description thereof is omitted here.

展開部103bは、境界情報取得部104が、境界情報生成部102から取得した4つの境界情報により規定される境界を切れ目として、記憶部11から読み出した複数の全天球画像を、4つの分割画像へ分割しつつ展開する。そして、展開部103bは、4つの分割画像を一つの組みとして記憶部11に記憶させる。 The expansion unit 103b divides a plurality of spherical images read from the storage unit 11 into four by the boundary information acquisition unit 104, with the boundary defined by the four boundary information acquired from the boundary information generation unit 102 as a break. Expand while dividing into images. Then, the developing unit 103b stores the four divided images as one set in the storage unit 11.

ここで、図9を参照して、画像の分割について具体的に説明する。図9の(a)は、分割画像を生成するための境界を示す図である。また、図9の(b)は、表示装置5が表示する分割画像の一例を示す図である。図9の(a)に示す平面画像53aは、実施形態1で説明した、1つの境界情報に基づいて全天球画像51を展開した図である。本実施形態の展開部103bは、さらに3つの境界情報に基づいて、平面画像53aを4つに分割する。この3つの境界情報は、例えば、図9の(a)に記載の破線で示される境界を規定する情報である。これにより、平面画像53aは、図9の(b)に示す分割画像の組み54aに含まれる、4つの分割画像となる。上述したように、4つの境界情報はそれぞれ、昇降路21の隣接する側壁の境目に対応するため、分割画像はそれぞれ、昇降路21の各側壁を正面とした画像となる。 Here, the division of the image will be specifically described with reference to FIG. FIG. 9A is a diagram showing boundaries for generating a divided image. Further, FIG. 9B is a diagram showing an example of a divided image displayed by the display device 5. The plane image 53a shown in FIG. 9A is a diagram in which the spherical image 51 is developed based on one boundary information described in the first embodiment. The development unit 103b of the present embodiment further divides the plane image 53a into four based on the three boundary information. These three boundary information are, for example, information that defines the boundary shown by the broken line shown in FIG. 9A. As a result, the plane image 53a becomes four divided images included in the set 54a of the divided images shown in FIG. 9B. As described above, since each of the four boundary information corresponds to the boundary between the adjacent side walls of the hoistway 21, the divided image is an image with each side wall of the hoistway 21 as the front.

なお、分割処理および展開処理の順序は限定されるものではない。すなわち、展開部103bは、全天球画像から、図9の(a)に示すような平面画像を生成した後に、該平面画像を分割することにより、図9の(b)に示すような分割画像を生成する構成に限定されない。例えば、展開部103bは、4つの境界情報に基づいて、全天球画像から直接分割画像を生成してもよい。 The order of the division process and the expansion process is not limited. That is, the development unit 103b generates a plane image as shown in FIG. 9A from the spherical image, and then divides the plane image to divide the plane image as shown in FIG. 9B. It is not limited to the configuration that generates an image. For example, the development unit 103b may directly generate a divided image from the spherical image based on the four boundary information.

表示制御部105は、分割画像の組みを記憶部11から読み出し、表示装置5に表示させる。なお、表示制御部105は、入力制御部101から、分割画像の表示指示を取得したことをトリガとして、分割画像を表示させてもよいし、展開部103bによって分割画像が生成されたことをトリガとして、分割画像を表示させてもよい。また、表示制御部105は、同じ境界情報に基づいて生成された複数の分割画像の組みを表示装置5に同時に表示させてもよい。 The display control unit 105 reads out the set of the divided images from the storage unit 11 and displays them on the display device 5. The display control unit 105 may display the divided image by using the acquisition of the display instruction of the divided image from the input control unit 101 as a trigger, or triggers that the divided image is generated by the developing unit 103b. As a result, the divided image may be displayed. Further, the display control unit 105 may display a set of a plurality of divided images generated based on the same boundary information on the display device 5 at the same time.

ここで、図9の(b)を参照して、分割画像の組みを表示する様子について具体的に説明する。なお以降、分割画像の組み54aおよび54bを区別しない場合、「分割画像の組み54」と記載する。 Here, a state of displaying a set of divided images will be specifically described with reference to FIG. 9B. Hereinafter, when the set 54a and 54b of the divided images are not distinguished, it is described as "the set 54 of the divided images".

表示制御部105は、図示の分割画像の組み54のように、分割画像の組み54に含まれる4つの分割画像を横方向に並べて表示装置5に表示させることが好ましい。これにより、表示制御部105は、4つの方位に対応する4つの分割画像を、横方向に並べて表示させることができる。例えば、表示制御部105は、4つの側壁それぞれを正面とした4つの分割画像を、横方向に並べて表示させることができる。これにより、ユーザは、各分割画像に写る領域の位置関係を容易に把握することができるとともに、注目する側壁を容易に確認することができる。したがって、昇降路21の点検や異常検知をさらに容易に実施することができる。 It is preferable that the display control unit 105 displays the four divided images included in the divided image assembly 54 on the display device 5 side by side in the horizontal direction, as in the illustrated divided image assembly 54. As a result, the display control unit 105 can display the four divided images corresponding to the four directions side by side in the horizontal direction. For example, the display control unit 105 can display four divided images with each of the four side walls as the front side by side in the horizontal direction. As a result, the user can easily grasp the positional relationship of the areas reflected in each divided image, and can easily confirm the side wall of interest. Therefore, the hoistway 21 can be inspected and abnormality detection can be performed more easily.

また、表示制御部105は、図示の分割画像の組み54aおよび54bのように、表示対象である複数の分割画像の組み54を、縦方向にスクロール可能に並べて表示装置5に表示させることが、視認性向上の観点から好ましい。このとき、同じ方位が撮影された分割画像を縦方向にスクロール可能に並べて表示させることが好ましい。例えば、表示制御部105は、4つの側壁それぞれを正面とした、横並びの画像の組みを、同じ横並び順で、縦方向にスクロール可能に並べて表示させる。このように表示させておけば、例えば、昇降路21の側壁を連続して確認したい場合、画面を縦方向にスクロールするだけで容易に確認することができる。また、ユーザが注目する側壁が表示される画面上の領域は、画面をスクロールしても変わらない。つまり、ユーザは、昇降路21の確認したい側壁の状態を、目線を横方向に大きく移動させることなく続けて確認することができる。 Further, the display control unit 105 can display the set 54 of the plurality of divided images to be displayed on the display device 5 by arranging them so as to be scrollable in the vertical direction, as in the set 54a and 54b of the shown divided images. It is preferable from the viewpoint of improving visibility. At this time, it is preferable to display the divided images taken in the same direction side by side so as to be scrollable in the vertical direction. For example, the display control unit 105 displays a set of horizontally arranged images with each of the four side walls as the front side in the same horizontal arrangement order so as to be scrollable in the vertical direction. With this display, for example, when it is desired to continuously check the side walls of the hoistway 21, the screen can be easily checked by simply scrolling the screen in the vertical direction. Further, the area on the screen where the side wall of the user's attention is displayed does not change even if the screen is scrolled. That is, the user can continuously confirm the state of the side wall of the hoistway 21 to be confirmed without moving the line of sight significantly in the lateral direction.

なお、上述した例では、予め全天球画像を分割画像へ展開しておくものとして説明したが、表示制御部105が分割画像の表示指示を受け付けたことをトリガとして、全天球画像を分割画像へ展開するようにしてもよい。 In the above-mentioned example, the spherical image is expanded into the divided image in advance, but the spherical image is divided by the display control unit 105 receiving the display instruction of the divided image as a trigger. It may be expanded to an image.

(画像展開処理の流れ)
次に、画像処理装置1bが実行する画像展開処理の流れについて、図10を参照して説明する。図10は、画像展開処理の流れの一例を示すフローチャートである。図10の(a)は、画像展開処理の前半の流れの一例を示し、図10の(b)は、画像展開処理の後半の流れの一例を示す。なお、実施形態1で説明した画像展開処理の各ステップと同じ処理を実行するステップについては、同じステップ番号を付し、その説明を省略する。このため、図10の(a)については説明を省略する。
(Flow of image development processing)
Next, the flow of the image development process executed by the image processing apparatus 1b will be described with reference to FIG. FIG. 10 is a flowchart showing an example of the flow of the image development process. FIG. 10A shows an example of the flow of the first half of the image development process, and FIG. 10B shows an example of the flow of the latter half of the image development process. The steps for executing the same processing as each step of the image development processing described in the first embodiment are assigned the same step numbers, and the description thereof will be omitted. Therefore, the description of (a) in FIG. 10 will be omitted.

図10の(b)に示すように、入力制御部101は、全天球画像の切れ目となる、4ヶ所の境界を指定する指定操作の操作信号を待機する状態となる(S21)。入力制御部101が、入力装置4から指定操作の操作信号を取得すると(S21でYES)、入力制御部101は、取得した操作信号に従って、境界情報を生成させる生成指示を境界情報生成部102に出力する。 As shown in FIG. 10B, the input control unit 101 is in a state of waiting for an operation signal of a designated operation for designating boundaries at four locations, which is a break in the spherical image (S21). When the input control unit 101 acquires an operation signal for the designated operation from the input device 4 (YES in S21), the input control unit 101 sends a generation instruction for generating boundary information to the boundary information generation unit 102 according to the acquired operation signal. Output.

境界情報生成部102は、生成指示に含まれる位置情報で示される位置を通る4つの境界の各々を規定する4つの境界情報を生成する(S22)。そして、境界情報取得部104は、境界情報生成部102が生成した4つの境界情報、および、生成指示に含まれる画像情報を取得する(S23)。 The boundary information generation unit 102 generates four boundary information defining each of the four boundaries passing through the position indicated by the position information included in the generation instruction (S22). Then, the boundary information acquisition unit 104 acquires the four boundary information generated by the boundary information generation unit 102 and the image information included in the generation instruction (S23).

続いて、展開部103bは、境界情報とともに取得した画像情報で示される全天球画像を含む、複数の全天球画像を読み出す。そして、展開部103bは、境界情報により規定される境界を切れ目として、読み出した複数の全天球画像の各々を分割画像へ展開する(S24)。そして、展開部103bは、1つの全天球画像から分割された4つの分割画像を一つの組みとして、記憶部11に記憶させる(S25)。 Subsequently, the developing unit 103b reads out a plurality of spherical images including the spherical image indicated by the image information acquired together with the boundary information. Then, the developing unit 103b develops each of the read-out spherical spherical images into a divided image with the boundary defined by the boundary information as a break (S24). Then, the developing unit 103b stores the four divided images divided from one spherical image as one set in the storage unit 11 (S25).

最後に、表示制御部105は、記憶部11から分割画像の組みを読み出し、表示装置5に表示させる(S26)。以上で、画像処理装置1bが実行する画像展開処理は終了する。 Finally, the display control unit 105 reads out the set of the divided images from the storage unit 11 and displays them on the display device 5 (S26). This completes the image development process executed by the image processing device 1b.

(画像処理装置1bが奏する効果)
以上のように、画像処理装置1bによれば、1つの全天球画像に対して生成した4つの境界情報に基づき、複数の全天球画像のそれぞれを、4つの分割画像に展開することができる。これにより、ユーザは、昇降路21内の、平面上に位置する互いに異なる4つの方位の状況について、それぞれ別画像として確認することができる。例えば、画像処理装置1bが、全天球画像のそれぞれを、昇降路21の各側壁を正面とした分割画像とすれば、ユーザは、昇降路21の各側壁の状況をそれぞれ別画像として確認することができるため、視認性が良い。よって、昇降路21の点検や異常検知をさらに容易に実施することができる。
(Effect of image processing device 1b)
As described above, according to the image processing device 1b, each of the plurality of spherical images can be expanded into four divided images based on the four boundary information generated for one spherical image. it can. As a result, the user can confirm the situations of the four different orientations located on the plane in the hoistway 21 as separate images. For example, if the image processing device 1b uses each of the spherical images as a divided image with each side wall of the hoistway 21 as the front, the user confirms the situation of each side wall of the hoistway 21 as a separate image. Because it can be done, visibility is good. Therefore, the inspection of the hoistway 21 and the abnormality detection can be carried out more easily.

なお、本実施形態では、全天球画像を4つの分割画像へ展開する例を説明したが、分割画像の数はこの例に限定されない。また、本実施形態では、境界の位置をユーザが指定する例を説明したが、実施形態2のように、境界の位置を画像認識処理によって自動的に特定してもよい。また、境界の位置をユーザが指定する構成と、境界の位置を自動的に特定する構成とを組み合わせてもよい。 In the present embodiment, an example of expanding the spherical image into four divided images has been described, but the number of divided images is not limited to this example. Further, in the present embodiment, the example in which the position of the boundary is specified by the user has been described, but as in the second embodiment, the position of the boundary may be automatically specified by the image recognition process. Further, a configuration in which the position of the boundary is specified by the user and a configuration in which the position of the boundary is automatically specified may be combined.

境界の位置を自動的に特定する構成の場合、画像処理装置1bは、昇降路21の寸法やかご22のサイズなどの比率(典型的には縦横比)を用いて、境界情報を生成してもよい。例えば、上面が四角形状であるかご22の外側上部の中央付近に全天球カメラ2を設置するとともに、画像処理装置1bが、かご22の上面(以下、単に「上面」と称する。)の縦横比を示す情報を記憶部11に記憶させている場合を例に挙げて説明する。この場合、全天球カメラ2が撮影した全天球画像にはかご22の上面のうち中央付近を除く部分がほぼ全て写ることとなる。よって、画像処理装置1bは、画像認識処理によって、例えばかご22の四隅のうちの1ヶ所を特定しさえすれば、記憶部11に記憶されている縦横比を示す情報に基づいて、全天球画像に写る上面の残りの三隅を特定することができ、全天球画像を分割するためのすべての境界情報を生成することができる。このように、この構成によれば、昇降路21の寸法やかご22のサイズなどの比率を用いることにより、分割画像を生成するために必要な境界情報を生成することができる。 In the case of a configuration in which the position of the boundary is automatically specified, the image processing device 1b generates boundary information by using a ratio (typically, an aspect ratio) such as the size of the hoistway 21 and the size of the car 22. May be good. For example, the spherical camera 2 is installed near the center of the outer upper part of the car 22 having a square upper surface, and the image processing device 1b is used to vertically and horizontally the upper surface of the car 22 (hereinafter, simply referred to as “upper surface”). The case where the information indicating the ratio is stored in the storage unit 11 will be described as an example. In this case, almost all of the upper surface of the car 22 except for the vicinity of the center is captured in the spherical image taken by the spherical camera 2. Therefore, the image processing device 1b only needs to identify one of the four corners of the car 22 by the image recognition process, and the spherical image processing device 1b is based on the information indicating the aspect ratio stored in the storage unit 11. The remaining three corners of the top surface in the image can be identified, and all boundary information for dividing the spherical image can be generated. As described above, according to this configuration, the boundary information necessary for generating the divided image can be generated by using the ratio such as the size of the hoistway 21 and the size of the car 22.

〔変形例1〕
本発明の各実施形態に係る変形例について、図11および図12に基づいて詳細に説明する。図11は、エレベータ20の他の構成例を示す概略図である。図12は、エレベータ20のさらなる他の構成例を示す概略図である。なお、ここでは、実施形態1の変形例として説明するが、本変形例は実施形態2および3にも適用可能である。
[Modification 1]
Modifications according to each embodiment of the present invention will be described in detail with reference to FIGS. 11 and 12. FIG. 11 is a schematic view showing another configuration example of the elevator 20. FIG. 12 is a schematic view showing still another configuration example of the elevator 20. Although the description will be given here as a modification of the first embodiment, the present modification is also applicable to the second and third embodiments.

上述した実施形態1では、全天球カメラ2が1つの例を説明した。しかしながら、全天球カメラ2の数は1つに限定されない。例えば、図11に示すように、全天球カメラ2は、かご22の外側上部に設置される全天球カメラ2aと、かご22の外側下部に設置される全天球カメラ2bとの2つであってもよい。 In the above-described first embodiment, an example in which the spherical camera 2 is one has been described. However, the number of spherical cameras 2 is not limited to one. For example, as shown in FIG. 11, there are two spherical cameras 2: a spherical camera 2a installed on the outer upper part of the car 22 and a spherical camera 2b installed on the outer lower part of the car 22. It may be.

また例えば、図12に示すように、全天球カメラ2は、上記全天球カメラ2aおよび全天球カメラ2bに、ピット25に設置された全天球カメラ2cを加えた3つであってもよい。なお、全天球カメラ2は、全天球カメラ2aおよび全天球カメラ2bのいずれか一方と、全天球カメラ2cとの2つであってもよい。 Further, for example, as shown in FIG. 12, there are three spherical cameras 2 in which the spherical camera 2a and the spherical camera 2b plus the spherical camera 2c installed in the pit 25 are added. May be good. The omnidirectional camera 2 may be one of the omnidirectional camera 2a and the omnidirectional camera 2b, and the omnidirectional camera 2c.

これら複数の全天球カメラ2を設ける構成においては、全天球カメラ2の各々が、同じタイミングで静止画像の撮影を行う(あるいは、同じタイミングで動画像の撮影を行う)構成とすることが好ましい。 In the configuration in which the plurality of spherical cameras 2 are provided, each of the spherical cameras 2 may take a still image at the same timing (or take a moving image at the same timing). preferable.

また、本変形例に係る記憶部11は、同時刻に撮影された複数の全天球画像を対応付けて記憶する構成であってもよい。これにより、本変形例に係る展開部103は、これら複数の全天球画像から展開した平面画像の各々を対応付けて記憶部11に記憶することができる。そして、本変形例に係る表示制御部105は、対応付けられた平面画像を縦方向に並べて表示装置5に表示させてもよい。これにより、ユーザは、昇降路21の注目する側壁の異なる位置における同時刻の状況を、一目で確認することができる。 Further, the storage unit 11 according to this modification may be configured to store a plurality of spherical images taken at the same time in association with each other. As a result, the development unit 103 according to the present modification can store each of the plane images developed from the plurality of spherical images in association with each other in the storage unit 11. Then, the display control unit 105 according to this modification may display the associated plane images on the display device 5 by arranging them in the vertical direction. As a result, the user can check at a glance the situation at the same time at different positions of the side wall of interest of the hoistway 21.

〔変形例2〕
本発明の各実施形態に係る他の変形例について、詳細に説明する。なおここでは、実施形態1の変形例として説明するが、本変形例は実施形態2および3にも適用可能である。
[Modification 2]
Other modifications according to each embodiment of the present invention will be described in detail. Although it will be described here as a modification of the first embodiment, this modification can also be applied to the second and third embodiments.

上述した実施形態1では、境界情報生成部102および展開部103は、画像処理装置1の制御部10に含まれる構成として説明した。しかしながら、境界情報生成部102および展開部103は、全天球カメラ2に含まれる構成であってもよい。つまり、全天球カメラ2は、生成した全天球画像を平面画像に展開し、該平面画像を記憶装置3に記憶させる構成であってもよい。この場合、画像処理システム100は、画像処理装置1に代えて、入力装置4からの操作信号を受け付けて、記憶部11に記憶されている平面画像を読み出し、表示装置5に該平面画像を表示させる機能を有する情報処理装置を含む構成であればよい。 In the first embodiment described above, the boundary information generation unit 102 and the development unit 103 have been described as a configuration included in the control unit 10 of the image processing device 1. However, the boundary information generation unit 102 and the expansion unit 103 may be configured to be included in the spherical camera 2. That is, the spherical camera 2 may be configured to develop the generated spherical image into a flat image and store the flat image in the storage device 3. In this case, the image processing system 100 receives the operation signal from the input device 4 instead of the image processing device 1, reads out the plane image stored in the storage unit 11, and displays the plane image on the display device 5. Any configuration may include an information processing device having a function of causing the image.

〔ソフトウェアによる実現例〕
画像処理装置1、1a、1bの制御ブロック(特に制御部10、10a、10b)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of realization by software]
The control blocks (particularly the control units 10, 10a, 10b) of the image processing devices 1, 1a, 1b may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by a CPU (hardware). It may be realized by software using a Central Processing Unit).

後者の場合、画像処理装置1、1a、1bは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the image processing devices 1, 1a, and 1b are a CPU that executes a command of a program that is software that realizes each function, and a ROM in which the program and various data are readablely recorded by a computer (or CPU). It is equipped with a Read Only Memory) or a storage device (these are referred to as "recording media"), a RAM (Random Access Memory) for developing the above program, and the like. Then, the object of the present invention is achieved by the computer (or CPU) reading the program from the recording medium and executing the program. As the recording medium, a "non-temporary tangible medium", for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

1、1a、1b 画像処理装置
2 全天球カメラ(360度カメラ)
5 表示装置
51 全天球画像(360度画像)
53、53a、53b 平面画像
102、102b 境界情報生成部(第2境界情報生成部)
102a 境界情報生成部(第1境界情報生成部)
103、103b 展開部
104 境界情報取得部
105 表示制御部(画像表示部、画面生成部)
1,1a, 1b Image processing device 2 Spherical camera (360 degree camera)
5 Display device 51 Spherical image (360 degree image)
53, 53a, 53b Plane image 102, 102b Boundary information generation unit (second boundary information generation unit)
102a Boundary information generation unit (first boundary information generation unit)
103, 103b Expansion unit 104 Boundary information acquisition unit 105 Display control unit (image display unit, screen generation unit)

Claims (5)

360度カメラで撮影された、エレベータの昇降路内の360度画像を平面画像へ展開して表示する際の、前記360度画像の切れ目となる境界を規定する境界情報を取得する境界情報取得部と、
前記境界情報により規定される境界を複数の360度画像に対して適用することにより、各360度画像を平面画像へ展開する展開部と、
前記360度画像の画像データに対する画像認識処理により、前記エレベータの昇降路およびかごの少なくとも一方の構造的特徴に基づいて予め定められた条件を満たす部分を特定し、その部分を前記境界とする境界情報を生成して前記境界情報取得部へ提供する第1境界情報生成部と、を備えることを特徴とする画像処理装置。
Boundary information acquisition unit that acquires boundary information that defines the boundary that is the break of the 360-degree image when the 360-degree image in the hoistway of the elevator , taken by the 360-degree camera, is expanded and displayed on a flat image. When,
By applying the boundary defined by the boundary information to a plurality of 360-degree images, a developing unit that expands each 360-degree image into a flat image, and
By image recognition processing on the image data of the 360-degree image, a portion that satisfies a predetermined condition based on the structural features of at least one of the hoistway and the car of the elevator is specified, and that portion is the boundary. An image processing device including a first boundary information generation unit that generates information and provides the information to the boundary information acquisition unit .
前記境界情報取得部は、平面上に位置する互いに異なる4つの方位に対応する4つの平面画像へ360度画像を分割しつつ展開するために必要な境界情報を取得することを特徴とする請求項1に記載の画像処理装置。 The claim is characterized in that the boundary information acquisition unit acquires boundary information necessary for developing a 360-degree image while dividing it into four plane images corresponding to four different directions located on a plane. the image processing apparatus according to 1. 前記第1境界情報生成部は、前記条件を満たす部分を前記境界の1つとして特定した後、前記昇降路の寸法および前記かごのサイズの少なくとも一方の比率に基づき、残りの前記境界を特定する、請求項2に記載の画像処理装置。 The first boundary information generation unit identifies a portion satisfying the above conditions as one of the boundaries, and then identifies the remaining boundary based on at least one ratio of the hoistway size and the car size. , The image processing apparatus according to claim 2. 前記展開部によって展開された4つの平面画像を横に並べた画面を生成する画面生成部をさらに備えることを特徴とする請求項2または3に記載の画像処理装置。 The image processing apparatus according to claim 2 or 3 , further comprising a screen generation unit that generates a screen in which four plane images developed by the development unit are arranged side by side. 前記画面生成部は、前記各360度画像に対応する横に並べた前記平面画像の組みを縦に並べた画面を生成することを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 4 , wherein the screen generation unit generates a screen in which a set of horizontally arranged plane images corresponding to each 360-degree image is vertically arranged.
JP2017045268A 2017-03-09 2017-03-09 Image processing device Active JP6784199B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017045268A JP6784199B2 (en) 2017-03-09 2017-03-09 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017045268A JP6784199B2 (en) 2017-03-09 2017-03-09 Image processing device

Publications (2)

Publication Number Publication Date
JP2018150086A JP2018150086A (en) 2018-09-27
JP6784199B2 true JP6784199B2 (en) 2020-11-11

Family

ID=63680717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017045268A Active JP6784199B2 (en) 2017-03-09 2017-03-09 Image processing device

Country Status (1)

Country Link
JP (1) JP6784199B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185513A1 (en) * 2021-03-05 2022-09-09 三菱電機ビルテクノサービス株式会社 Elevator device and dropped article detection device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6459451B2 (en) * 1996-06-24 2002-10-01 Be Here Corporation Method and apparatus for a panoramic camera to capture a 360 degree image
JP3066594U (en) * 1999-08-13 2000-02-25 株式会社アドバネット Image conversion device
JP2005286820A (en) * 2004-03-30 2005-10-13 Vistapoint Technology Inc Monitor system
JP5586414B2 (en) * 2010-10-21 2014-09-10 株式会社大林組 Bar arrangement information acquisition apparatus and bar arrangement information acquisition method
JP2014005117A (en) * 2012-06-25 2014-01-16 Mitsubishi Electric Building Techno Service Co Ltd Device and method for inspecting long object in elevator hoistway
JP2016098063A (en) * 2014-11-19 2016-05-30 株式会社東芝 Elevator hoistway inner shape measurement device, elevator hoistway inner shape measurement method, and elevator hoistway inner shape measurement program
JP2018164168A (en) * 2017-03-24 2018-10-18 カシオ計算機株式会社 Display device, display method, and program
JP6950301B2 (en) * 2017-06-29 2021-10-13 株式会社大林組 Image output system, image output method and image output program

Also Published As

Publication number Publication date
JP2018150086A (en) 2018-09-27

Similar Documents

Publication Publication Date Title
US10304157B2 (en) Information processing method, information processing device, and program
US9906762B2 (en) Communication apparatus, method of controlling communication apparatus, non-transitory computer-readable storage medium
US9646404B2 (en) Information processing method, information processing device, and program that facilitates image processing operations on a mobile device
US7928994B2 (en) Graphics items that extend outside a background perimeter
JP6946690B2 (en) Display device, display method and program
JP6312046B2 (en) Image processing system, image processing method, and program
JP5037061B2 (en) Image output apparatus, image list display system, program, recording medium, and image output method
JP6784199B2 (en) Image processing device
CN114007053B (en) Image generation method, image generation system, and recording medium
JP6576117B2 (en) Projection apparatus, program, and control method
WO2020162264A1 (en) Photographing system, photographing spot setting device, photographing device, and photographing method
JP2018005091A (en) Display control program, display control method and display controller
US20180174345A1 (en) Non-transitory computer-readable storage medium, display control device and display control method
JP2020123818A (en) Monitoring system, monitoring method, and computer program
JP2018144952A (en) Information processing unit
JP6805858B2 (en) Transmission control program, transmission control method and transmission control device
US20180068477A1 (en) Display method, display device, and non-transitory computer-readable recording medium
JP2013143709A (en) Image display device
JP2005333628A (en) Camera control apparatus, and monitoring camera system using same
JP7445906B1 (en) Installation support device, installation support method, and installation support program
US20230188855A1 (en) Installation assistance apparatus, installation assistance method, and non-transitory computer-readable storage medium
WO2024018975A1 (en) Information processing method, information processing device, and information processing program
CN108293107A (en) Display processing unit, display processing method and the computer-readable medium for executing display processing method
KR20150116591A (en) Method for configuring a map and electronic device thereof
KR20230055018A (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200923

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201006

R150 Certificate of patent or registration of utility model

Ref document number: 6784199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250