JP7133900B2 - Shooting position specifying system, shooting position specifying method, and program - Google Patents

Shooting position specifying system, shooting position specifying method, and program Download PDF

Info

Publication number
JP7133900B2
JP7133900B2 JP2016224309A JP2016224309A JP7133900B2 JP 7133900 B2 JP7133900 B2 JP 7133900B2 JP 2016224309 A JP2016224309 A JP 2016224309A JP 2016224309 A JP2016224309 A JP 2016224309A JP 7133900 B2 JP7133900 B2 JP 7133900B2
Authority
JP
Japan
Prior art keywords
points
observation point
image
coordinate system
surrounding image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016224309A
Other languages
Japanese (ja)
Other versions
JP2018081571A (en
Inventor
裕樹 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Facilities Inc
Original Assignee
NTT Facilities Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Facilities Inc filed Critical NTT Facilities Inc
Priority to JP2016224309A priority Critical patent/JP7133900B2/en
Publication of JP2018081571A publication Critical patent/JP2018081571A/en
Application granted granted Critical
Publication of JP7133900B2 publication Critical patent/JP7133900B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影位置特定システム、撮影位置特定方法、及びプログラムに関する。 The present invention relates to a photographing position specifying system, a photographing position specifying method, and a program.

建物の維持管理及びレイアウト設計などの各業務では、対象とされる建物の状況を正確に把握することが必要とされる。現場で撮影した撮影画像は、建物の状況を正確に把握するための有効な手段である。撮影して得られた撮影画像が多くなると、各画像を撮影した位置の特定が困難になることが有る。
撮影して得られた撮影画像と、予めデータベースに格納されている画像との類似性を判定し、判定の結果により、画像に関連付けてデータベースに格納されている撮影位置情報を検索し、類似すると判定された画像の撮影位置情報を通知する技術が知られている(例えば、特許文献1参照)。
In each business such as building maintenance management and layout design, it is necessary to accurately grasp the situation of the target building. Photographed images taken on-site are effective means for accurately grasping the situation of a building. When the number of images obtained by photographing increases, it may become difficult to identify the position where each image was photographed.
The similarity between the photographed image obtained by photographing and the image stored in advance in the database is determined, and based on the result of the determination, the photographing position information stored in the database in association with the image is retrieved, and the similarity is determined. A technique for notifying the shooting position information of the determined image is known (see, for example, Patent Document 1).

特開2008-310446号公報Japanese Patent Application Laid-Open No. 2008-310446

しかしながら、特許文献1の技術では、予め格納されている位置情報が通知されるに過ぎず大局的な位置を示す情報しか得ることができないことがある。
本発明が解決しようとする課題は、より簡易な方法で、撮影された画像の位置を特定できる撮影位置特定システム、撮影位置特定方法、及びプログラムを提供することにある。
However, with the technique disclosed in Patent Document 1, there are cases where only pre-stored position information is notified, and only information indicating a general position can be obtained.
The problem to be solved by the present invention is to provide a photographing position specifying system, a photographing position specifying method, and a program that can specify the position of a photographed image by a simpler method.

(1)本発明の一態様の撮影位置特定システムは、実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得する実画像取得部と、前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出する位置導出部と、を備え、前記位置導出部は、前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にする
(2)また、上記の撮影位置特定システムにおいて、前記位置導出部は、前記第1組の2点と前記第2組の2点の位置に基づいて角度を導出し、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置と前記角度とに基づいて、前記観測点に対応する前記基準面上の位置を導出する。
(3)また、上記の撮影位置特定システムにおいて、前記位置導出部は、前記第1方向が軸を中心に一巡する前記球面の周方向であって、前記一巡する前記球面に前記周囲画像を対応付ける
)また、上記の撮影位置特定システムにおいて、前記位置導出部は、前記第1組の2点と前記第2組の2点のうちの1点を共有する。
)また、上記の撮影位置特定システムにおいて、前記位置導出部は、前記球の内面である前記球面に前記周囲画像を射影する。
)本発明の一態様の撮影位置特定方法は、実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得するステップと、前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出するステップと、前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にするステップとを含む。
)本発明の一態様のプログラムは、実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得するステップと、前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出するステップと、前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にするステップとをコンピュータに実行させるためのプログラムである。
(1) A photographing position specifying system according to one aspect of the present invention includes a real image acquisition unit that acquires an all-surrounding image as a surrounding image that shows the situation around an observation point in real space by projecting onto a spherical surface; A plurality of pairs are extracted from a combination of points spaced apart in a first horizontal direction among directions along the spherical surface, and two points of the first pair and a second pair are extracted from the plurality of pairs. and the positions of points on the reference plane corresponding to the first set of two points and the second set of two points, respectively, on the reference plane corresponding to the observation point a position derivation unit for deriving a position, the position derivation unit being a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image, and an orthogonal coordinate system having an axis extending vertically from the origin. With regard to the coordinate system, the inclination is adjusted so that the polar direction of the polar coordinate system and the vertical direction of the orthogonal coordinate system are aligned, and after the adjustment, the surrounding image is projected onto the spherical surface and used to perform the observation . The position corresponding to the point is associated with the origin of the polar coordinate system, and the position corresponding to the observation point is defined as a position on the reference plane including the horizontal axis in the orthogonal coordinate system and a position on the reference plane. , and based on the position corresponding to the observation point, it is possible to associate collected information indicating the surrounding situation of the observation point with a predetermined position on the spherical surface .
(2) In the photographing position specifying system, the position derivation unit derives an angle based on the positions of the first set of two points and the second set of two points, A position on the reference plane corresponding to the observation point is derived based on the position of the point on the reference plane corresponding to the point and the second set of two points, respectively, and the angle.
(3) Further, in the photographing position specifying system, the position derivation unit associates the peripheral image with the spherical surface, wherein the first direction is a circumferential direction of the spherical surface that makes a round about an axis. .
( 4 ) Further, in the photographing position specifying system, the position derivation unit shares one of the two points of the first set and the two points of the second set.
( 5 ) In the photographing position specifying system, the position derivation unit projects the surrounding image onto the spherical surface that is the inner surface of the sphere .
( 6 ) A method for identifying a photographing position according to an aspect of the present invention includes the steps of: obtaining an all-surrounding image as a surrounding image showing a situation around an observation point in real space by projecting onto a spherical surface; A plurality of sets are extracted from combinations of points arranged at a distance in a first direction related to the horizontal direction among the along directions, and two points of the first set and two points of the second set are extracted from the plurality of sets. and the positions of the points on the reference plane corresponding to the two points of the first set and the two points of the second set, respectively, the position on the reference plane corresponding to the observation point is derived. a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image, and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system The inclination is adjusted so that the vertical direction of the coordinate system is aligned, and after the adjustment, the surrounding image is projected onto the spherical surface and used to associate the origin of the polar coordinate system with the position corresponding to the observation point. and a position corresponding to the observation point is indicated by using a position on the reference plane including the horizontal axis in the orthogonal coordinate system and a height from the reference plane , and corresponding to the observation point and making it possible to associate the collected information indicating the circumstances around the observation point with a predetermined position on the spherical surface on the basis of the position .
( 7 ) A program according to one aspect of the present invention comprises the steps of: obtaining an all-surrounding image as a surrounding image showing a situation around an observation point in real space by projecting onto a spherical surface; A plurality of pairs are extracted from combinations of points arranged at a distance in a first horizontal direction, and the positions of two points of the first pair and two points of the second pair among the plurality of pairs are extracted. , deriving a position on the reference plane corresponding to the observation point based on the positions of points on the reference plane corresponding to the first set of two points and the second set of two points, respectively; , a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image, and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system and the orthogonal coordinate system The tilt is adjusted so that it matches the vertical direction, and after the adjustment, the surrounding image is projected onto the spherical surface and used, and the origin of the polar coordinate system is associated with the position corresponding to the observation point. , indicating the position corresponding to the observation point by using the position on the reference plane including the horizontal axis in the orthogonal coordinate system and the height from the reference plane , and the position corresponding to the observation point as the reference and enabling a predetermined position on the spherical surface to be associated with collected information indicating the situation around the observation point .

本発明によれば、より簡易な方法で、撮影された画像の位置を特定できる撮影位置特定システム、撮影位置特定方法、及びプログラムを提供できる。 According to the present invention, it is possible to provide a photographing position specifying system, a photographing position specifying method, and a program that can specify the position of a photographed image by a simpler method.

本発明の実施形態に係る撮影位置特定システムの構成図である。1 is a configuration diagram of a photographing position identification system according to an embodiment of the present invention; FIG. 実施形態に係る射影面Sを形成する空間モデルMの一例を示す図である。It is a figure which shows an example of the space model M which forms the projection plane S which concerns on embodiment. 実施形態に係る撮像装置100の構成図である。1 is a configuration diagram of an imaging device 100 according to an embodiment; FIG. 実施形態に係る正距円筒図法による画像について示す図である。FIG. 10 is a diagram showing an image by the equirectangular projection method according to the embodiment; 実施形態に係る図4Aの画像を、中空の円筒の表面の内側に描かれた状態の一例を示す図である。FIG. 4B illustrates an example of the image of FIG. 4A drawn inside the surface of a hollow cylinder, according to an embodiment; 実施形態に係る図4Aの画像を、中空の球体の表面の内側に射影した状態の一例を示す図である。FIG. 4B is a diagram illustrating an example of a state in which the image of FIG. 4A is projected inside the surface of a hollow sphere according to the embodiment; 実施形態に係る端末装置200の構成図である。1 is a configuration diagram of a terminal device 200 according to an embodiment; FIG. 実施形態に係る情報提供支援装置400のハードウェア構成図である。2 is a hardware configuration diagram of an information provision support device 400 according to an embodiment; FIG. 実施形態に係る情報提供支援装置400の機能構成図である。1 is a functional configuration diagram of an information provision support device 400 according to an embodiment; FIG. 実施形態に係る3次元仮想空間を表示する一例を示す図である。It is a figure which shows an example which displays the three-dimensional virtual space which concerns on embodiment. 実施形態に係る周囲画像を加工する処理を示すための図である。It is a figure for showing the processing which processes the surroundings image concerning an embodiment. 実施形態に係る観測点の位置を導出する処理の一例を示すフローチャートである。4 is a flow chart showing an example of processing for deriving the position of an observation point according to the embodiment; 実施形態に係る正距円筒図法の図を筒状に丸め、軸に沿う方向から平面視した図である。FIG. 2 is a diagram of a diagram of the equirectangular projection according to the embodiment rolled into a cylinder and viewed from the direction along the axis. 実施形態に係る建物2の対象範囲10(図9)の平面図である。Fig. 9 is a plan view of the target range 10 (Fig. 9) of the building 2 according to the embodiment; 実施形態に係る観測点の位置を取得する処理を示すための図である。It is a figure for showing processing which acquires a position of an observation point concerning an embodiment. 第1の実施形態の変形例その3に係る複数の画像を合成する処理について説明するための図である。FIG. 11 is a diagram for explaining processing for synthesizing a plurality of images according to Modification 3 of the first embodiment; 第1の実施形態の変形例その4に係る角度を導出する処理について説明するための図である。FIG. 14 is a diagram for explaining a process of deriving an angle according to modification 4 of the first embodiment; 第2の実施形態に係る観測点の位置を導出する処理の一例を示すフローチャートである。9 is a flowchart showing an example of processing for deriving the position of an observation point according to the second embodiment; 第4の実施形態に係る周囲画像を加工する処理を示すための図である。FIG. 12 is a diagram for showing processing for processing a surrounding image according to the fourth embodiment; FIG.

以下、本発明の実施形態の撮影位置特定システム、情報可視化方法及びプログラムについて、添付図面を参照して説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS A shooting position specifying system, an information visualization method, and a program according to embodiments of the present invention will be described below with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の実施形態に係る撮影位置特定システムの構成図である。
(First embodiment)
FIG. 1 is a configuration diagram of a shooting position specifying system according to an embodiment of the present invention.

[撮影位置特定システム]
撮影位置特定システム1は、撮像装置100、端末装置200、及び、情報提供支援装置400を備える。撮像装置100、端末装置200、及び、情報提供支援装置400は、ネットワークNWを介して接続されている。
[Shooting position identification system]
The shooting position identification system 1 includes an imaging device 100 , a terminal device 200 and an information provision support device 400 . The imaging device 100, the terminal device 200, and the information provision support device 400 are connected via a network NW.

最初に、撮影位置特定システム1の概要について説明する。撮影位置特定システム1は、実在する建物2の対象範囲10内で撮影した撮影画像から、その撮影位置を特定する。例えば、対象範囲10には、実在する建物2の一部又は全部が含まれる。さらに、対象範囲10には、上記の建物に設けられた設備、什器などが含まれていてもよい。対象範囲10は、目印とする特徴点が含まれるようにその概略の位置が予め決定される。その特徴点が撮影範囲含まれるような位置で、撮影画像が撮影される。以下の説明において、その画像を撮影した位置を観測点Pという。例えば、観測点Pは、観測点Pの周囲の状況を掌握しやすい位置に、その位置が決定される。以下の説明では、観測点Pを単に観測点という。なお、対象範囲10における位置を、直交座標系(X,Y,Z)を用いて特定されてもよい。観測点の周囲画像とは、撮像装置100が観測点において撮像して得た画像、又は、観測点において撮像して得た複数の画像の組のことである。例えば、観測点の位置は、撮像装置100の光学系の位置に基づいて決定される。周囲画像の詳細については後述する。なお、観測点の周囲画像は、ユーザU1が撮像装置100を操作して撮像したものであってもよく、撮像装置100が予め定められたタイミングで撮像したものであってもよい。 First, an overview of the photographing position identification system 1 will be described. A photographing position identification system 1 identifies a photographing position from a photographed image photographed within a target range 10 of an existing building 2 . For example, the target range 10 includes part or all of the existing building 2 . Furthermore, the target range 10 may include facilities, fixtures, and the like provided in the building. The approximate position of the target range 10 is determined in advance so that the characteristic points to be marked are included. A photographed image is photographed at a position where the feature point is included in the photographing range. In the following description, the position where the image was taken is called an observation point P. For example, the position of the observation point P is determined at a position where the situation around the observation point P can be easily grasped. In the following description, the observation point P is simply referred to as an observation point. Note that the position in the target range 10 may be identified using an orthogonal coordinate system (X, Y, Z). The surrounding image of the observation point is an image obtained by imaging the imaging device 100 at the observation point, or a set of a plurality of images obtained by imaging at the observation point. For example, the position of the observation point is determined based on the position of the optical system of imaging device 100 . Details of the surrounding image will be described later. The surrounding image of the observation point may be captured by the user U1 operating the imaging device 100, or may be captured by the imaging device 100 at a predetermined timing.

撮影位置特定システム1は、上記の撮影画像の他に、その観測点周りの図面等を利用して、観測点の位置を取得する。例えば、観測点周りの図面には、BIM(Building Information Modeling)などの処理装置によりデータ化された3Dモデル(以下、単に3Dモデルという。)、2次元図面(2D図面)などが含まれてもよい。以下、3Dモデルと2次元図面とを合わせて3Dモデル等という。3Dモデル等には、対象範囲10を含む建物2の構造、建物2に配置された設備、什器などの位置を示す情報が含まれる。
撮影位置特定システム1は、撮像装置100によって撮像された画像のデータと3Dモデル等とを関連付けることにより、それぞれの情報を補完して利便性を高める。観測点の周囲画像と3Dモデルの両方に基づいて画像を撮影した位置を特定する場合を例示する。
The shooting position specifying system 1 acquires the position of the observation point by using the above-mentioned photographed image as well as a drawing or the like around the observation point. For example, the drawing around the observation point includes a 3D model (hereinafter simply referred to as a 3D model), a two-dimensional drawing (2D drawing), etc., which is converted into data by a processing device such as BIM (Building Information Modeling). good. Hereinafter, a 3D model and a two-dimensional drawing are collectively referred to as a 3D model and the like. The 3D model and the like include information indicating the structure of the building 2 including the target range 10, and the positions of facilities and fixtures arranged in the building 2. FIG.
The shooting position identification system 1 associates the data of the image captured by the imaging device 100 with the 3D model or the like, thereby complementing each piece of information and improving convenience. A case will be exemplified where the position where the image was captured is specified based on both the surrounding image of the observation point and the 3D model.

本実施形態では、上記の処理を、画像に映った被写体の位置に基づいて観測点を推定するための角度を導出する第1処理と、導出された角度から観測点の位置を導出する第2処理に大別する。 In this embodiment, the above-described processing is performed by first processing for deriving an angle for estimating an observation point based on the position of the subject in the image, and second processing for deriving the position of the observation point from the derived angle. It is roughly divided into processing.

第1処理には、例えば、(1-1)軸を中心に周方向に一巡する面に射影した周囲画像を利用して、観測点から見込んだ特徴点の間の角度を導出する方法と、(1-2)周囲画像内の点の位置からその角度を導出する方法と、(1-3)撮像時に利用した光学系の画角が既知の周囲画像に対し、その画像内の点の位置からその角度を導出する方法とがある。なお、(1-1)の手法において、軸を中心に周方向に一巡する面は、3次元仮想空間における仮想の構造体として形成されてもよい。 The first processing includes, for example, a method of deriving the angle between the feature points viewed from the observation point by using a surrounding image projected onto a surface that circles around the (1-1) axis in the circumferential direction; (1-2) A method of deriving the angle from the position of the point in the surrounding image, and (1-3) the position of the point in the image with respect to the surrounding image in which the angle of view of the optical system used at the time of imaging is known. There is a method of deriving the angle from In the method (1-1), the surface that circles around the axis in the circumferential direction may be formed as a virtual structure in the three-dimensional virtual space.

第2処理には、例えば、(2-1)円の周上にある2点と中心とにより形成される中心角を利用して観測点の位置を導出する方法と、(2-2)ベクトルの内積を利用して求めた角度から観測点の位置を導出する方法とがある。
それぞれの方法の詳細については後述する。
The second processing includes, for example, (2-1) a method of deriving the position of the observation point by using the central angle formed by two points on the circumference of the circle and the center, and (2-2) vector There is a method of deriving the position of the observation point from the angle obtained by using the inner product of .
Details of each method will be described later.

本実施形態では、上記の「(1-1)軸を中心に周方向に一巡する面に射影した周囲画像を利用して角度を導出する方法」と「(2-1)円の周上にある2点と中心とにより形成される中心角を利用して観測点の位置を導出する方法」とを組み合わせた一例を挙げ、以下に説明する。 In the present embodiment, the above-mentioned "(1-1) method of deriving the angle using a peripheral image projected onto a surface that circles in the circumferential direction around the axis" and "(2-1) on the circumference of a circle A method of deriving the position of an observation point using a central angle formed by two points and the center” will be described below.

撮影位置特定システム1は、周囲画像を表示する場合に、周囲画像と3Dモデル等とを対応付けることで周囲画像に生じた歪を補正するとよい。この歪を補正する方法として、撮影位置特定システム1は、周囲画像と3Dモデルに基づいた画像との対応付けを、それらに共通する射影面Sを用いて実施してもよい。この場合、撮影位置特定システム1は、上記の射影面Sを3次元仮想空間における仮想の構造体(以下、空間モデルMという。)として扱う。3次元仮想空間における空間モデルMは、実空間における観測点に対応して設けられる。空間モデルMは、その観測点から視認できる範囲の状況が射影される仮想の面を有する。撮影位置特定システム1は、観測点から視認できる範囲の状況を、上記の観測点から見込む方向を維持するように空間モデルMの面に射影することで、画像の歪を補正することができる。 When displaying the surrounding image, the photographing position identification system 1 preferably corrects distortion in the surrounding image by associating the surrounding image with a 3D model or the like. As a method of correcting this distortion, the photographing position specifying system 1 may associate the surrounding image with the image based on the 3D model using the projection plane S common to them. In this case, the shooting position specifying system 1 treats the projection plane S as a virtual structure (hereinafter referred to as a space model M) in a three-dimensional virtual space. A space model M in the three-dimensional virtual space is provided corresponding to an observation point in the real space. The space model M has a virtual plane on which the situation within the visible range from the observation point is projected. The photographing position specifying system 1 can correct the distortion of the image by projecting the situation of the range visible from the observation point onto the plane of the space model M so as to maintain the viewing direction from the observation point.

図2は、実施形態に係る射影面Sを形成する空間モデルMの一例を示す図である。例えば、空間モデルMは、中空の球体として形成され、その内面に射影面Sを有する。撮影位置特定システム1は、球体の表面の内側に、観測点の位置で撮影した周囲画像(全周囲画像)を射影する。球体の中心Cに視点を置くことにより、球体の表面に射影された周囲画像を球体の中心Cから見込む方向と、実空間において観測点P(図1)の位置から被写体を見込む方向とを一致させることができる。なお、空間モデルMが直交座標系の軸方向に対して傾いている場合には、空間モデルMの極方向が直交座標系の軸方向に一致するように調整するとよい。例えば、情報提供支援装置400は、図2に示すように空間モデルMの極方向を、直交座標系のZ軸方向に一致するように調整する。例えば、このように空間モデルMの傾きを調整した後、周囲画像を射影するとよい。 FIG. 2 is a diagram showing an example of the space model M forming the projection plane S according to the embodiment. For example, the space model M is formed as a hollow sphere and has a projection plane S on its inner surface. The photographing position identification system 1 projects a surrounding image (omnidirectional image) photographed at the position of the observation point onto the inside of the surface of the sphere. By placing the viewpoint at the center C of the sphere, the direction in which the surrounding image projected onto the surface of the sphere is viewed from the center C of the sphere coincides with the direction in which the subject is viewed from the position of the observation point P (Fig. 1) in real space. can be made If the space model M is tilted with respect to the axial direction of the orthogonal coordinate system, the polar direction of the spatial model M should be adjusted to coincide with the axial direction of the orthogonal coordinate system. For example, the information provision support device 400 adjusts the polar direction of the space model M so as to match the Z-axis direction of the orthogonal coordinate system as shown in FIG. For example, after adjusting the inclination of the space model M in this way, the surrounding image may be projected.

上記の説明では、観測点における周囲画像を一例として示したが、空間モデルMに対応付ける情報の種類は、これに限らない。撮影位置特定システム1は、周囲画像に加えて、各種情報を空間モデルMに対応付けてもよい。例えば、撮影位置特定システム1は、空間モデルMを中空の球体として形成し、球体の表面に収集情報などの各種情報を関連付ける。上記の収集情報とは、観測点の周囲の状況を共有するために収集された情報のことである。上記の収集情報には、観測点の周囲を撮像して得た画像情報、画像情報と異なる種別の情報などが含まれる。画像情報と異なる種別の情報として、例えば、観測点の周囲の状況を示すテキスト(文字情報)が含まれていてもよい。 In the above description, the surrounding image at the observation point is shown as an example, but the type of information associated with the space model M is not limited to this. The shooting position specifying system 1 may associate various information with the space model M in addition to the surrounding image. For example, the shooting position specifying system 1 forms the space model M as a hollow sphere, and associates various types of information such as collected information with the surface of the sphere. The above collected information is information collected to share the situation around the observation point. The collected information includes image information obtained by imaging the surroundings of the observation point, information of a type different from the image information, and the like. Information different in type from the image information may include, for example, text (character information) indicating the circumstances around the observation point.

上記のように空間モデルMを用いて画像の歪を補正する他に、空間モデルMを用いない演算処理による方法で実現してもよい。本実施形態に示す撮影位置特定システム1は、空間モデルMを利用する場合を例示する。以下、本実施形態に関する詳細について説明する。 In addition to correcting the distortion of the image using the space model M as described above, a method using arithmetic processing without using the space model M may be used. The shooting position specifying system 1 shown in this embodiment exemplifies the case where the space model M is used. The details of this embodiment will be described below.

最初に、撮影位置特定システム1に係る各装置について説明する。 First, each device related to the photographing position identification system 1 will be described.

[撮像装置]
撮像装置100の構成の一例について説明する。図3は、実施形態に係る撮像装置100の構成図である。撮像装置100は、その周囲を撮影し、得られる周囲画像を出力する。
[Imaging device]
An example of the configuration of the imaging device 100 will be described. FIG. 3 is a configuration diagram of the imaging device 100 according to the embodiment. The imaging device 100 captures an image of its surroundings and outputs the obtained surrounding image.

撮像装置100は、光学系111と、光学系112と、撮像部121と、撮像部122と、信号処理部130と、受付部140と、制御部150と、出力部160とを備える。 The imaging device 100 includes an optical system 111 , an optical system 112 , an imaging section 121 , an imaging section 122 , a signal processing section 130 , a reception section 140 , a control section 150 and an output section 160 .

光学系111と光学系112は、それぞれが魚眼系レンズを成し、それぞれ180度以上の画角で撮影可能とする。光学系111と光学系112は、光学系111の光軸と光学系112の光軸が略平行になるように、撮像装置100の筐体などに支持される。光学系111の光軸方向と光学系112の光軸方向は、反対方向に向けられている。 The optical system 111 and the optical system 112 each form a fish-eye lens, and are capable of photographing at an angle of view of 180 degrees or more. The optical system 111 and the optical system 112 are supported by the housing of the imaging device 100 or the like so that the optical axis of the optical system 111 and the optical axis of the optical system 112 are substantially parallel. The optical axis direction of the optical system 111 and the optical axis direction of the optical system 112 are directed in opposite directions.

撮像部121は、光学系111と対になるように設けられ、光学系111の画角の範囲内の対象物(被写体)を撮像する。撮像部122は、光学系112と対になるように設けられ、光学系112の画角の範囲内の対象物(被写体)を撮像する。 The imaging unit 121 is provided so as to be paired with the optical system 111 and images an object (subject) within the range of the angle of view of the optical system 111 . The imaging unit 122 is provided so as to be paired with the optical system 112 and images an object (subject) within the range of the angle of view of the optical system 112 .

信号処理部130は、撮像部121が撮像して得られた画像と、撮像部122が撮像して得られた画像とを合成することにより、撮像された画像から、正距円筒図法に基づいた画像又は全周囲画像などの合成画像を生成する。 The signal processing unit 130 synthesizes the image obtained by imaging by the imaging unit 121 and the image obtained by imaging by the imaging unit 122 to obtain a Generate a composite image, such as an image or an all-around image.

受付部140は、ユーザの撮像を指示する操作を受け付ける。 The accepting unit 140 accepts a user's operation of instructing imaging.

制御部150は、受付部140によって受け付けた撮像の指示に基づいて、撮像部121と撮像部122に撮像させる。制御部150は、撮像部121と撮像部122が互いに同期して撮像するように、各撮像部を制御する。制御部150は、撮像部121と撮像部122とにより撮像された結果に基づいて、信号処理部130により合成画像を生成させる。制御部150は、出力部160から、信号処理部130によって生成された合成画像を出力させる。 The control unit 150 causes the image capturing unit 121 and the image capturing unit 122 to capture an image based on the imaging instruction received by the receiving unit 140 . The control unit 150 controls each imaging unit such that the imaging unit 121 and the imaging unit 122 perform imaging in synchronization with each other. The control unit 150 causes the signal processing unit 130 to generate a composite image based on the results of imaging by the imaging unit 121 and the imaging unit 122 . The control unit 150 causes the output unit 160 to output the composite image generated by the signal processing unit 130 .

例えば、撮像装置100が合成画像として出力する周囲画像には、正距円筒図法による画像、全天周画像などの全方向の画像が含まれていることが望ましい。図4Aは、実施形態に係る正距円筒図法による画像について示す図である。正距円筒図法は、前述の図2に示すような球体の表面を展開し、その表面を長方形に射影して示す図法である。球体の緯度経度は、長方形内内で直角かつ等間隔に交差するように各部の尺度が調整される。図4Bは、図4Aの画像を、中空の円筒の表面の内側に描かれた状態の一例を示す図である。 For example, the surrounding image output by the imaging device 100 as a composite image preferably includes an omnidirectional image such as an equirectangular projection image or an omnidirectional image. FIG. 4A is a diagram showing an image by equirectangular projection according to the embodiment. The equirectangular projection is a projection method in which the surface of a sphere as shown in FIG. 2 is developed and projected into a rectangle. The latitude and longitude of the sphere are scaled so that they intersect at right angles and at equal intervals within the rectangle. FIG. 4B is a diagram illustrating an example of the image of FIG. 4A drawn inside the surface of a hollow cylinder.

以下に示す実施形態では、図4に示す正距円筒図法による画像を、図2に示す空間モデルMとしての球体の表面の内側に射影する。図5は、図4Aの画像を、中空の球体の表面の内側に射影した状態の一例を示す図である。この図5は、球体の奥行き方向に遠方側の半球を示し、近方側の半球の描画を省略している。この図5に示すように、球体の表面の内側に射影された画像は、球体の内側から球全体をみれば全天周画像になる。つまり、撮像装置100により撮像された画像を、中空の球体の表面として形成された空間モデルMの表面の内側に射影することにより、観測点の周囲の状態を示す画像情報が球体の表面に配された状態を得ることができる。なお、撮像装置100は、正距円筒図法による画像と全天周画像の少なくとも何れかの画像の一部又は全部を出力する。このような撮像装置100であれば、1回の操作で全周囲を纏めて撮影することができ、周囲を漏れなく撮影できる。 In the embodiment described below, the equirectangular projection image shown in FIG. 4 is projected inside the surface of the sphere as the space model M shown in FIG. FIG. 5 is a diagram showing an example of a state in which the image of FIG. 4A is projected inside the surface of a hollow sphere. This FIG. 5 shows the far side hemisphere in the depth direction of the sphere and omits drawing of the near side hemisphere. As shown in FIG. 5, the image projected inside the surface of the sphere becomes an omnidirectional image when the entire sphere is viewed from the inside of the sphere. That is, by projecting an image captured by the imaging device 100 onto the inside of the surface of the space model M formed as the surface of a hollow sphere, image information indicating the surrounding state of the observation point is arranged on the surface of the sphere. can be obtained. Note that the imaging apparatus 100 outputs a part or all of at least one of the equirectangular projection image and the omnidirectional image. With such an imaging device 100, it is possible to collectively photograph the entire surroundings with one operation, and to photograph the surroundings without omission.

つまり、撮像装置100は、画像を合成するためのユーザの手間を省き、更に、画像の空間方向の連続性の品質を高めることができる。また、撮像装置100は、全周囲を1回の操作で撮影することで、撮影に係る時間を短縮する。また、上記のような撮像装置100であれば、撮影漏れなどによる部分的な欠損が生じる虞がない。これらに起因して、ユーザの作業効率が高まる。 In other words, the imaging apparatus 100 saves the user the trouble of synthesizing the images, and can improve the quality of continuity of the images in the spatial direction. In addition, the imaging device 100 can shorten the time required for imaging by imaging the entire surroundings with one operation. In addition, with the image pickup apparatus 100 as described above, there is no possibility of partial loss due to omission of photographing or the like. Due to these, the work efficiency of the user is enhanced.

以下の実施形態の説明では、撮像装置100は、正距円筒図法による画像を、対象の周囲画像として出力するものとする。撮像装置100は、上記の対象の周囲画像を情報提供支援装置400に対して送信する。 In the following description of the embodiments, it is assumed that the imaging device 100 outputs an equirectangular projection image as a surrounding image of the object. The imaging device 100 transmits the surrounding image of the target to the information provision support device 400 .

[端末装置]
図6は、実施形態に係る端末装置200の構成図である。端末装置200は、例えば、CPU200Aと、RAM(Random Access Memory)200Bと、不揮発性記憶装置200Cと、可搬型記憶媒体ドライブ装置200Dと、入出力装置200Eと、通信インターフェース200Fとを備える。端末装置200は、CPU200Aに代えて、任意の形態のプロセッサを備えてもよいし、図6に示した各構成要素のうち一部を省略してもよい。
[Terminal device]
FIG. 6 is a configuration diagram of the terminal device 200 according to the embodiment. The terminal device 200 includes, for example, a CPU 200A, a RAM (Random Access Memory) 200B, a nonvolatile storage device 200C, a portable storage medium drive device 200D, an input/output device 200E, and a communication interface 200F. The terminal device 200 may include any form of processor instead of the CPU 200A, or may omit some of the components shown in FIG.

CPU200Aは、不揮発性記憶装置200Cに格納されたプログラム、又は可搬型記憶媒体ドライブ装置200Dに装着された可搬型記憶媒体に格納されたプログラムをRAM200Bに展開して実行することで、以下に説明する種々の処理を行う。RAM200Bは、CPU200Aによってワーキングエリアとして使用される。不揮発性記憶装置200Cは、例えば、HDDやフラッシュメモリ、ROM(Read Only Memory)などである。可搬型記憶媒体ドライブ装置200Dには、DVD(Digital Versatile Disc)やCD(Compact Disc)、SDカードなどの可搬型記憶媒体が装着される。入出力装置200Eは、例えば、キーボードやマウス、タッチパネル、表示装置などを含む。通信インターフェース200Fは、ネットワークNWに接続され、端末装置200における通信を制御する。 The CPU 200A expands the program stored in the nonvolatile storage device 200C or the program stored in the portable storage medium attached to the portable storage medium drive device 200D to the RAM 200B and executes the program as described below. Various processing is performed. RAM 200B is used as a working area by CPU 200A. The nonvolatile storage device 200C is, for example, an HDD, flash memory, ROM (Read Only Memory), or the like. A portable storage medium such as a DVD (Digital Versatile Disc), a CD (Compact Disc), an SD card, or the like is attached to the portable storage medium drive device 200D. The input/output device 200E includes, for example, a keyboard, mouse, touch panel, display device, and the like. The communication interface 200</b>F is connected to the network NW and controls communication in the terminal device 200 .

図6を参照して、実施形態に係る端末装置200の機能構成について説明する。端末装置200は、受付処理部211と、データ取得部212と、表示制御部213とを備える。これらの機能部は、例えば、CPU200Aがプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。 A functional configuration of the terminal device 200 according to the embodiment will be described with reference to FIG. The terminal device 200 includes a reception processing section 211 , a data acquisition section 212 and a display control section 213 . These functional units are implemented by, for example, CPU 200A executing a program. In addition, these functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), etc. It may be realized by

受付処理部211は、入出力装置200Eによって検出されたユーザの操作を受け付ける。例えば、受付処理部211は、入出力装置200Eにより表示された画像上のボタンなどを選択する操作を検出して、ユーザの操作として受け付ける。受付処理部211は、検出したユーザの操作に基づいて、情報を共有するための要求を情報提供支援装置400宛に送信する。 The reception processing unit 211 receives a user's operation detected by the input/output device 200E. For example, the reception processing unit 211 detects an operation of selecting a button or the like on an image displayed by the input/output device 200E and receives it as a user operation. The reception processing unit 211 transmits a request for sharing information to the information provision support apparatus 400 based on the detected user's operation.

データ取得部212は、情報提供支援装置400から送信された情報を取得する。情報提供支援装置400から取得する情報には、特定の観測点に対応する取得情報が含まれる。 The data acquisition unit 212 acquires information transmitted from the information provision support device 400 . The information acquired from the information provision support device 400 includes acquired information corresponding to a specific observation point.

表示制御部213は、情報提供支援装置400から送信された情報に基づいて、入出力装置200Eにおける表示部に表示させる画像を生成する。例えば、表示制御部213は、特定の観測点に対応する取得情報に基づいた閲覧画像を生成して、表示部に表示させる。 The display control unit 213 generates an image to be displayed on the display unit of the input/output device 200E based on the information transmitted from the information provision support device 400. FIG. For example, the display control unit 213 generates a browsing image based on acquired information corresponding to a specific observation point, and causes the display unit to display it.

なお、端末装置200は、受付処理部211、データ取得部212、及び、表示制御部213の一部又は全部を、Webシステムに適用されるブラウザを利用して実現してもよい。 Note that the terminal device 200 may realize part or all of the reception processing unit 211, the data acquisition unit 212, and the display control unit 213 using a browser applied to a web system.

[情報提供支援装置]
図7は、実施形態に係る情報提供支援装置400のハードウェア構成図である。情報提供支援装置400は、例えば、CPU400Aと、RAM400Bと、不揮発性記憶装置400Cと、可搬型記憶媒体ドライブ装置400Dと、入出力装置400Eと、通信インターフェース400Fとを備える。情報提供支援装置400は、CPU400Aに代えて、任意の形態のプロセッサを備えてもよいし、図7に示した各構成要素のうち一部を省略してもよい。
[Information provision support device]
FIG. 7 is a hardware configuration diagram of the information provision support device 400 according to the embodiment. The information provision support device 400 includes, for example, a CPU 400A, a RAM 400B, a nonvolatile storage device 400C, a portable storage medium drive device 400D, an input/output device 400E, and a communication interface 400F. The information provision support device 400 may include any form of processor instead of the CPU 400A, or may omit some of the components shown in FIG.

CPU400Aは、不揮発性記憶装置400Cに格納されたプログラム、又は可搬型記憶媒体ドライブ装置400Dに装着された可搬型記憶媒体に格納されたプログラムをRAM400Bに展開して実行することで、以下に説明する種々の処理を行う。RAM400Bは、CPU400Aによってワーキングエリアとして使用される。不揮発性記憶装置400Cは、例えば、HDDやフラッシュメモリ、ROMなどである。可搬型記憶媒体ドライブ装置400Dには、DVDやCD、SDカードなどの可搬型記憶媒体が装着される。入出力装置400Eは、例えば、キーボードやマウス、タッチパネル、表示装置などを含む。通信インターフェース400Fは、ネットワークNWに接続され、情報提供支援装置400における通信を制御する。なお、通信インターフェース400Fは、Webシステムに適用されるWebサーバとしての機能を有していてもよい。 The CPU 400A expands the program stored in the nonvolatile storage device 400C or the program stored in the portable storage medium attached to the portable storage medium drive device 400D to the RAM 400B and executes the program as described below. Various processing is performed. RAM 400B is used as a working area by CPU 400A. The nonvolatile storage device 400C is, for example, an HDD, flash memory, ROM, or the like. A portable storage medium such as a DVD, a CD, or an SD card is installed in the portable storage medium drive device 400D. The input/output device 400E includes, for example, a keyboard, mouse, touch panel, and display device. The communication interface 400</b>F is connected to the network NW and controls communication in the information provision support device 400 . Note that the communication interface 400F may have a function as a web server applied to the web system.

図8は、実施形態に係る情報提供支援装置400の機能構成図である。情報提供支援装置400は、記憶部410と、制御部420とを備える。 FIG. 8 is a functional configuration diagram of the information provision support device 400 according to the embodiment. Information provision support device 400 includes storage unit 410 and control unit 420 .

記憶部410は、RAM400B又は不揮発性記憶装置400Cに設けられた記憶領域である。記憶部410は、情報提供支援装置400からアクセス可能なNAS装置などの外部記憶装置によって実現されてもよい。 The storage unit 410 is a storage area provided in the RAM 400B or the nonvolatile storage device 400C. The storage unit 410 may be realized by an external storage device such as a NAS device that can be accessed from the information provision support device 400 .

記憶部410は、空間モデル情報411、収集情報412、見込む位置情報413などの情報を格納する。 The storage unit 410 stores information such as space model information 411 , collection information 412 , and expected position information 413 .

空間モデル情報411は、観測点ごとに設けられた空間モデルMを識別し、その位置を特定するための情報を含む。 The spatial model information 411 includes information for identifying the spatial model M provided for each observation point and specifying its position.

収集情報412は、実空間における観測点の周囲画像、建物2を3Dモデルとして数値化したデータ、建物2に関する各種図面などを含む。例えば、建物2を3Dモデルとして数値化したデータには、建物2の構造図などのデータが含まれる。 The collected information 412 includes an image of the surroundings of the observation point in real space, data obtained by digitizing the building 2 as a 3D model, various drawings related to the building 2, and the like. For example, data obtained by digitizing the building 2 as a 3D model includes data such as a structural drawing of the building 2 .

図9は、実施形態に係る3次元仮想空間を表示する一例を示す図である。図9には、対象範囲10に対応する3次元仮想空間を俯瞰した図が示されている。例えば、この図9に示すように、3Dモデルに含まれる情報には、壁面に設けられた窓、装置などの構成を示す情報を必須とせず、例えば、建物2を構成する部材の概略の位置が識別可能な情報が含まれていればよい。
なお、建物2に関する各種図面には、建物2の構造図、フロアごとの平面図、設備配置図、配管図などを2次元情報で示す各種図面(2次元図面等)の一部又は全部が含まれる。2次元図面等においても、建物2を構成する部材の概略の位置が識別可能な情報が含まれていればよい。
FIG. 9 is a diagram showing an example of displaying a three-dimensional virtual space according to the embodiment. FIG. 9 shows a bird's-eye view of the three-dimensional virtual space corresponding to the target range 10. As shown in FIG. For example, as shown in FIG. 9, the information included in the 3D model does not necessarily include information indicating the configuration of windows, devices, etc. provided on the wall surface. Identifiable information should be included.
The various drawings related to the building 2 include some or all of the various drawings (two-dimensional drawings, etc.) showing the structural drawing of the building 2, the floor plan of each floor, the facility layout, the piping diagram, etc. in two-dimensional information. be A two-dimensional drawing or the like may also include information that allows the approximate positions of the members that make up the building 2 to be identified.

前述の図8に戻り、見込む位置情報413は、空間モデルMの射影面Sを見込む位置を示す情報を含む。 Returning to FIG. 8 described above, the expected position information 413 includes information indicating the position from which the projection plane S of the space model M is expected.

制御部420について説明する。制御部420は、指定情報取得部421と、周囲画像取得部422と、表示制御部423と、位置導出部424と、出力処理部427とを備える。指定情報取得部421と周囲画像取得部422は、取得部の一例である。 The control unit 420 will be explained. Control unit 420 includes designation information acquisition unit 421 , surrounding image acquisition unit 422 , display control unit 423 , position derivation unit 424 , and output processing unit 427 . The specified information acquisition unit 421 and the surrounding image acquisition unit 422 are examples of acquisition units.

指定情報取得部421は、端末装置200におけるユーザの操作の検出結果を、端末装置200から取得する。指定情報取得部421は、端末装置200から取得した情報を、記憶部410における収集情報412に追加する。 The designated information acquisition unit 421 acquires from the terminal device 200 the detection result of the user's operation in the terminal device 200 . The specified information acquisition unit 421 adds the information acquired from the terminal device 200 to the collected information 412 in the storage unit 410 .

周囲画像取得部422は、実空間における観測点の周囲画像、実空間の状態を示す図面などを取得して、同様に収集情報412に追加する。 The ambient image acquisition unit 422 acquires the ambient image of the observation point in the real space, a drawing showing the state of the real space, and the like, and similarly adds them to the collected information 412 .

指定情報取得部421と周囲画像取得部422は、実空間における観測点の周囲の状況を示す周囲画像(全方位画像等)を取得する。 The designated information acquisition unit 421 and the surrounding image acquisition unit 422 acquire surrounding images (such as omnidirectional images) that indicate the surroundings of the observation point in real space.

表示制御部423は、端末装置200に表示させる画像を生成する。例えば、撮像装置100によって撮像された画像のデータを情報提供支援装置400が収集し、表示制御部423は、収集した画像のデータに基づいた全周囲画像を生成する。 The display control unit 423 generates an image to be displayed on the terminal device 200 . For example, the information provision support device 400 collects image data captured by the imaging device 100, and the display control unit 423 generates an all-surrounding image based on the collected image data.

なお、上記の観測点に対応する3次元仮想空間とは、その観測点に対応する「空間モデルM(図2)」を配置するための仮想の3次元空間のことである。
上記の基準点Rの周りに設けられた射影面Sは、基準点Rを基準に配置された中空の球体の表面における内側の面又は中空の円筒の側面における内側の面の少なくとも一部を含む。以下の説明において、基準点Rの周りに設けられた射影面Sは、中空の球体の内側の面を成すものとする。
The three-dimensional virtual space corresponding to the observation point is a virtual three-dimensional space for arranging the "space model M (FIG. 2)" corresponding to the observation point.
The projection plane S provided around the reference point R includes at least a part of the inner surface of the surface of the hollow sphere or the inner surface of the side surface of the hollow cylinder arranged with reference to the reference point R. . In the following description, it is assumed that the projection plane S provided around the reference point R forms the inner surface of the hollow sphere.

表示制御部423は、射影面Sに射影された周囲画像(図5参照)と3次元仮想空間における仮想構造物を示す仮想空間画像とを対応付ける。表示制御部423は、対応付けた周囲画像と仮想空間画像とにおいて、周囲画像を表示する表示領域と、仮想空間画像を表示する表示領域のそれぞれに共通する領域が含まれる表示画像を生成してもよい。
なお、上記の共通する領域とは、例えば、対象範囲10内の一部であって、表示画像に基づいて検討、検証などを実施する対象物を含む領域のことである。
The display control unit 423 associates the surrounding image projected onto the projection plane S (see FIG. 5) with the virtual space image showing the virtual structure in the three-dimensional virtual space. The display control unit 423 generates a display image including an area common to the display area for displaying the surrounding image and the display area for displaying the virtual space image in the associated surrounding image and virtual space image. good too.
Note that the above-mentioned common area is, for example, a part of the target range 10 and includes an object to be examined, verified, etc. based on the display image.

表示制御部423は、基準点Rの位置又は射影面Sを見込む位置を基準に位置を定め、その定めた位置から見込む仮想構造物を仮想空間画像に示すように、仮想構造物に基づいた表示画像を生成してもよい。表示制御部423は、予め、空間モデルMと、周囲画像と、仮想空間画像との3つの相対的な位置関係を調整する。その調整方法として下記が挙げられる。例えば、第1の調整方法として、表示制御部423は、空間モデルMに対して周囲画像の位置を調整し、その後に、3次元仮想空間に対する空間モデルMの方向を調整する。或いは、第2の調整方法として、表示制御部423は、空間モデルMに対する位置を、周囲画像と仮想空間画像とを独立に調整する。第3の調整方法として、表示制御部423は、まず周囲画像と仮想空間画像との相対位置を調整し、その後に、それらの画像を纏めて空間モデルMに対する位置を調整する。これらの何れかを実施することにより、表示制御部423は、射影面Sに沿って周囲画像を移動させて、少なくとも3次元仮想空間における周囲画像の代表点の方向を調整する。
表示制御部423は、空間モデルMと、周囲画像と、仮想空間画像との3つの相対的な位置関係を調整した後に、周囲画像から抽出した範囲と仮想空間画像から抽出した範囲の双方に共通する範囲が含まれる表示画像を生成してもよい。
The display control unit 423 determines the position based on the position of the reference point R or the position from which the projection plane S is viewed, and displays the virtual structure based on the virtual structure so that the virtual structure viewed from the determined position is shown in the virtual space image. An image may be generated. The display control unit 423 adjusts in advance three relative positional relationships among the space model M, the surrounding image, and the virtual space image. The adjustment method includes the following. For example, as a first adjustment method, the display control unit 423 adjusts the position of the surrounding image with respect to the space model M, and then adjusts the direction of the space model M with respect to the three-dimensional virtual space. Alternatively, as a second adjustment method, the display control unit 423 adjusts the position with respect to the space model M independently of the surrounding image and the virtual space image. As a third adjustment method, the display control unit 423 first adjusts the relative positions of the surrounding image and the virtual space image, and then adjusts the position with respect to the space model M collectively. By performing any of these operations, the display control unit 423 moves the surrounding image along the projection plane S, and at least adjusts the direction of the representative point of the surrounding image in the three-dimensional virtual space.
After adjusting the three relative positional relationships among the space model M, the surrounding image, and the virtual space image, the display control unit 423 adjusts the range extracted from the surrounding image and the range extracted from the virtual space image. A display image including the range to be displayed may be generated.

出力処理部427は、端末装置200からの要求に応じて、要求に対する所望の情報を端末装置200に対して出力する。 The output processing unit 427 outputs desired information for the request to the terminal device 200 in response to the request from the terminal device 200 .

図10は、実施形態に係る周囲画像を加工する処理を示すための図である。例えば、位置導出部424は、対象の空間モデルMの半径rを、空間モデル情報411から取得し、正距円筒図法の図の延伸方向と直交する方向の長さL1を、空間モデル(球体)の周の半分(πr)になるように調整する。位置導出部424は、正距円筒図法の図の延伸方向の長さL2を空間モデルMの周の(2πr―Δ)になるように調整する。Δは、0近傍の微小量を示す。これを角度で示すと、0度から(360度―δ)になる。δは0近傍の微小角を示す。 FIG. 10 is a diagram illustrating processing for processing a surrounding image according to the embodiment. For example, the position derivation unit 424 acquires the radius r of the target space model M from the space model information 411, and calculates the length L1 in the direction perpendicular to the drawing direction of the equirectangular projection as is adjusted to be half the circumference (πr). The position derivation unit 424 adjusts the length L2 in the drawing direction of the equirectangular projection to be (2πr−Δ) of the circumference of the space model M. FIG. Δ indicates a very small amount near zero. If this is expressed in terms of angle, it becomes (360 degrees - δ) from 0 degrees. δ indicates a minute angle near zero.

図11は、実施形態に係る観測点の位置を導出する処理の一例を示すフローチャートである。予め、現場の画像は、撮像装置100によって撮影される。周囲画像取得部422は、撮像装置100から画像を取得して、周囲画像として収集情報412に追加する。 FIG. 11 is a flowchart illustrating an example of processing for deriving the position of an observation point according to the embodiment; An image of the site is captured by the imaging device 100 in advance. The surrounding image acquisition unit 422 acquires an image from the imaging device 100 and adds it to the collected information 412 as a surrounding image.

また、3Dデータ等は、収集情報412に格納されている。本実施形態において、観測点の特定に必要とされる最低限の既存要素(既設物)の情報が3Dデータ等に含まれていればよい。例えば、部屋などの内装についての情報を整理する目的であれば、部屋の形状を示す情報が入力されていればよい。例えば、3次元の情報が図面に明示されていない2次元図面(2D図面)に内壁面、天井面、床面を示すことで、部屋の形状を平面図又は立面図によって示すことができる。その部屋に設けられている窓や設備などの情報は必須の情報としない。これらの情報は、後述する画像を重ねる処理で補完される。 3D data and the like are stored in the collected information 412 . In the present embodiment, the 3D data or the like only needs to include the minimum information of the existing elements (existing objects) required for specifying the observation point. For example, for the purpose of arranging information about the interior of a room or the like, information indicating the shape of the room may be input. For example, by showing the inner wall surface, ceiling surface, and floor surface in a two-dimensional drawing (2D drawing) in which three-dimensional information is not clearly shown in the drawing, the shape of the room can be indicated by a plan view or an elevation view. Information such as windows and equipment provided in the room is not essential information. These pieces of information are complemented by a process of superimposing images, which will be described later.

まず、位置導出部424は、周囲画像における建物2の像などから特徴点を決定する(S111)。例えば、位置導出部424は、実空間で鉛直な形状を有する構造物、例えば、柱、壁面の角(入隅、出隅)などを対象の特徴点として決定する。
次に、位置導出部424は、対を成す2組以上の特徴点の組を抽出する(S112)。
First, the position derivation unit 424 determines feature points from the image of the building 2 in the surrounding image (S111). For example, the position derivation unit 424 determines a structure having a vertical shape in the real space, such as a pillar, a corner of a wall surface (internal corner, external corner), etc., as the target feature point.
Next, the position deriving unit 424 extracts two or more pairs of feature points (S112).

次に、位置導出部424は、S112において抽出した組の特徴点に対応する点を選択し、図12に示す周上に配置する(S113)。例えば、抽出した組の特徴点は、図10の画像に示す点A’、点B’、点C’、点D’の4点である。図12は、実施形態に係る正距円筒図法の図を筒状に丸め、軸に沿う方向から平面視した図である。上記の4点は、図12に示す円周上に時計回りに表記の順に並べて配置されている。ここで、円筒の軸の位置を点O’で示す。図12に示す通り∠A’O’B’が為す角が∠aであり、∠B’O’C’が為す角が∠bであり、∠C’O’D’が為す角が∠cであり、∠D’O’A’が為す角が∠dである。位置導出部424は、筒状に丸めた正距円筒図法の図を利用して、隣接して配置された特徴点の組に対応する中心角を導出する(S114)。上記の∠a、∠b、∠c、∠dのそれぞれが中心角の一例である。 Next, the position derivation unit 424 selects points corresponding to the set of feature points extracted in S112, and arranges them on the circumference shown in FIG. 12 (S113). For example, the extracted sets of feature points are four points, point A', point B', point C', and point D' shown in the image of FIG. FIG. 12 is a plan view of the equirectangular projection according to the embodiment rolled into a cylinder and viewed from the direction along the axis. The above four points are arranged clockwise on the circle shown in FIG. 12 in the order of notation. Here, the position of the axis of the cylinder is indicated by point O'. As shown in FIG. 12, the angle formed by ∠A'O'B' is ∠a, the angle formed by ∠B'O'C' is ∠b, and the angle formed by ∠C'O'D' is ∠c. and the angle formed by ∠D'O'A' is ∠d. The position deriving unit 424 derives a central angle corresponding to a set of adjacently arranged feature points using the cylindrically rounded equirectangular projection (S114). Each of the above ∠a, ∠b, ∠c, and ∠d is an example of the central angle.

図13を参照して、建物2の対象範囲10について説明する。図13は、実施形態に係る建物2の対象範囲10(図9)の平面図である。この平面図は、3DCADのデータを単に平面視して生成されたものであってよい。位置導出部424は、特徴点にそれぞれ対応する基準面上の4つの点を決定する(S115)。例えば、図12に示した点A’、点B’、点C’、点D’の4点がS112において選択されている。これらの点にそれぞれ対応する点として、図13における点A、点B、点C、点Dが決定される。これらの点は、ユーザの操作などに基づいて決定されてもよい。 The target range 10 of the building 2 will be described with reference to FIG. FIG. 13 is a plan view of the target range 10 (FIG. 9) of the building 2 according to the embodiment. This plan view may be generated by simply viewing the 3D CAD data. The position derivation unit 424 determines four points on the reference plane respectively corresponding to the feature points (S115). For example, four points A', B', C', and D' shown in FIG. 12 are selected in S112. Points A, B, C, and D in FIG. 13 are determined as points corresponding to these points. These points may be determined based on a user's operation or the like.

図14を参照して、観察点の位置を導出する処理について説明する。図14は、観察点の位置を導出する処理を示すための図である。位置導出部424は、S112において選択された点A’、点B’、点C’、点D’の4点と、軸の位置を示す点O’の5つの点を利用して、例えば、位置導出部424は、円の周上で互いに隣接する2点と中心(点O’)とにより形成される円周角が、上記の中心角と一致する点を抽出するという中心角を利用する方法により、観測点を導出する。 Processing for deriving the position of the observation point will be described with reference to FIG. FIG. 14 is a diagram showing the process of deriving the position of the observation point. The position derivation unit 424 uses the four points A', B', C', and D' selected in S112 and the five points O' indicating the position of the axis, for example, The position derivation unit 424 uses the central angle to extract points where the circumference angle formed by two points adjacent to each other on the circumference of the circle and the center (point O') matches the above-mentioned central angle. The method derives the observation points.

例えば、位置導出部424は、点Aと点Bの組を基準に、∠AOBが為す角が、∠a(∠A’O’B’の値)と一致する点の軌跡を導出し、それを描く(S116)。上記の軌跡は、点Aと点Bを含む第1の円弧(円周)であり、点Aと点Bからの円周角が∠AOBになる点の集合である。 For example, the position derivation unit 424 derives a trajectory of points where the angle formed by ∠AOB matches ∠a (the value of ∠A'O'B') based on the pair of points A and B, and is drawn (S116). The above trajectory is the first circular arc (circumference) including points A and B, and is a set of points whose circumference angle from points A and B is ∠AOB.

次に、位置導出部424は、点Aと点Bの組と異なる組を選択する。例えば、位置導出部424は、点Cと点Dの組を選択する。位置導出部424は、点Cと点Dの組を基準に、∠CODが為す角が、∠c(∠C’O’D’の値)と一致する点の軌跡を導出する。上記の軌跡は、点Cと点Dを含む第2の円弧(円周)である。 Next, the position derivation unit 424 selects a pair different from the pair of points A and B. FIG. For example, the position derivation unit 424 selects a pair of points C and D. The position derivation unit 424 derives a locus of points where the angle formed by ∠COD matches ∠c (the value of ∠C'O'D') based on the pair of points C and D. The above trajectory is a second arc (circumference) containing points C and D.

次に、位置導出部424は、上記の2組と異なる組を選択する。例えば、位置導出部424は、点Bと点Cの組を選択する。位置導出部424は、点Bと点Cの組を基準に、∠BOCが為す角が、∠b(∠B’O’C’の値)と一致する点の軌跡を導出する。上記の軌跡は、点Bと点Cを含む第3の円弧(円周)である。 Next, the position derivation unit 424 selects a set different from the above two sets. For example, the position derivation unit 424 selects a pair of points B and C. The position derivation unit 424 derives the trajectory of points where the angle formed by ∠BOC matches ∠b (the value of ∠B'O'C') based on the pair of points B and C. The above trajectory is the third arc (circumference) containing points B and C.

次に、位置導出部424は、上記の処理により導出した2つの軌跡が交差する点には観測点が含まれる。例えば、上記の処理により導出した2つの軌跡が交差する点が1点に定まる場合には、その点の位置を観測点の位置としてもよい。
或いは、位置導出部424は、3つの軌跡が交差する点を選択し、その点の位置を観測点の位置とする。上記の処理により、位置導出部424は、導出した観測点の位置を空間モデル情報411に書き込む。
Next, the position derivation unit 424 includes an observation point at the intersection of the two trajectories derived by the above process. For example, if the intersection point of the two trajectories derived by the above process is determined to be one point, the position of that point may be the position of the observation point.
Alternatively, the position derivation unit 424 selects a point where the three trajectories intersect, and sets the position of that point as the position of the observation point. Through the above processing, the position derivation unit 424 writes the derived position of the observation point into the space model information 411 .

以上の処理により、位置導出部424は、観測点の位置を導出する。 Through the above processing, the position derivation unit 424 derives the position of the observation point.

なお、中心角から点Oの位置を導出する方法は、上記以外の方法を利用してもよい。
例えば、位置導出部424は、円周上の各点(例えば点A’と点B’)と点O’による中心角に基づいて、基準面における各点(例えば点Aと点B)から点Oを見込む角を導出し、観測点の位置を推定してもよい。
As for the method of deriving the position of the point O from the central angle, a method other than the above may be used.
For example, the position derivation unit 424 calculates the point from each point (for example, point A and point B) on the reference plane based on the central angle formed by each point (for example, point A' and point B') on the circumference and point O'. An angle to look at O may be derived to estimate the position of the observation point.

なお、位置導出部424は、観測点の高さを、例えば、予め定めた値にしてもよい。 Note that the position derivation unit 424 may set the height of the observation point to, for example, a predetermined value.

上記の実施形態によれば、撮影位置特定システムの位置導出部424は、周囲画像の面に沿う方向のうちの第1方向(長辺方向)に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、複数の組のうち第1組の2点(例えば、点A’、点B’)と第2組の2点(例えば、点C’、点D’)の位置と、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点(例えば、点A、点B、点C、点D)の位置とに基づいて、観測点に対応する前記基準面上の位置を導出する位置導出部424と、を備えることにより、より簡易な方法で、その観測点の位置の周囲の状況を共有できる。 According to the above-described embodiment, the position derivation unit 424 of the shooting position specifying system calculates the position from a combination of points spaced apart in the first direction (long side direction) of the directions along the surface of the surrounding image. A plurality of pairs are extracted, and the positions of two points of the first pair (for example, point A′ and point B′) and two points of the second pair (for example, point C′ and point D′) among the plurality of pairs , and the positions of points on the reference plane (e.g., points A, B, C, and D) corresponding to the first set of two points and the second set of two points, respectively. and a position deriving unit 424 for deriving the position on the reference plane to which the observation point is located, the situation around the position of the observation point can be shared by a simpler method.

また、位置導出部424は、第1組の2点と第2組の2点の位置に基づいて角度を導出し、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点の位置と導出した角度とに基づいて、観測点に対応する基準面上の位置を導出する。 In addition, the position derivation unit 424 derives an angle based on the positions of the two points of the first set and the two points of the second set, and the reference angles corresponding to the two points of the first set and the two points of the second set, respectively. A position on the reference plane corresponding to the observation point is derived based on the position of the point on the plane and the derived angle.

なお、第1方向が軸を中心に一巡する面の周方向であってよく、位置導出部は、一巡する面に周囲画像を対応付ける。その軸を中心に周方向に一巡する面は、軸を基準に形成される同心構造体の表面であってよく、軸から等距離に配置されていない面であってもよい。位置導出部424は、同心構造体の表面又は軸から等距離に配置されていない面に周囲画像を射影する。なお、軸を中心に周方向に一巡する面は、軸を中心とする円筒の側面であってもよい。 Note that the first direction may be the circumferential direction of the surface that makes a circuit around the axis, and the position deriving unit associates the surrounding image with the surface that makes a circuit. A surface that circles around the axis in the circumferential direction may be a surface of a concentric structure formed on the basis of the axis, or may be a surface that is not equidistant from the axis. The position derivation unit 424 projects the ambient image onto the surfaces of the concentric structures or planes that are not equidistant from the axis. It should be noted that the surface that circles around the axis in the circumferential direction may be a side surface of a cylinder centered on the axis.

また、上記の実施形態によれば、撮影位置特定システムは、軸を基準に形成される筒(同心構造体)の表面に周囲画像を射影し、射影された周囲画像が展開され延伸する方向に互いに位置が異なる点を組み合わせた複数の組が生成され、上記組のうち第1組の2点(例えば、点A’、点B’)を筒の軸方向に法線を持つ基準面に射影して、基準面上の軸の位置(例えば、点O’)から第1組の2点から射影された2点(例えば、点A’、点B’)を見込む第1角度(例えば、∠a)に応じて変化する第1の値と、第1組とは異なる第2組の2点(例えば、点C’、点D’)を筒の軸に直交する面に射影して、その面上の軸の位置(例えば、点O’)から第2組の2点から射影された2点(例えば、点C’、点D’)を見込む第2角度(例えば、∠c)に応じて変化する第2の値と、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点(例えば、点A、点B、点C、点D)の位置とに基づいて、軸の基準面上の位置を導出する。これにより、より簡易な方法で、ある観測点の位置の周囲の状況を3次元CADの情報に付加することで、その観測点の位置の周囲の状況を共有できる。 Further, according to the above-described embodiment, the imaging position specifying system projects the surrounding image onto the surface of the cylinder (concentric structure) formed with the axis as a reference, and the projected surrounding image is developed and extended in the direction of extension. A plurality of sets are generated by combining points at different positions, and two points of the first set (for example, point A' and point B') among the sets are projected onto a reference plane normal to the axial direction of the cylinder. Then, a first angle (eg, ∠ a), and a second set of two points different from the first set (for example, point C' and point D') are projected onto a plane perpendicular to the axis of the tube, and the Depending on the second angle (eg, ∠c) looking at two points (eg, point C' and point D') projected from the second set of two points from the position of the axis on the surface (eg, point O') and the positions of points on the reference plane (for example, points A, B, C, and D) corresponding to the first set of two points and the second set of two points, respectively; , the position of the axis on the reference plane is derived. As a result, by adding the situation around the position of a certain observation point to the information of the three-dimensional CAD by a simpler method, the situation around the position of the observation point can be shared.

(第1の実施形態の変形例その1)
第1の実施形態の変形例その1について説明する。第1の実施形態では、第1組の2点第2組の2点は、互いに異なる4点を処理の対象にする場合を例示したが、これに代えて、第2組の2点は、第1組の2点のうち1点が異なり、1点が共有されてもよい。この場合、第1組と第2組に含まれる計3点を利用して上記の処理を実施することで、観測点の位置を導出することができる。
(Modification 1 of the first embodiment)
Modification 1 of the first embodiment will be described. In the first embodiment, the two points of the first set are four points that are different from each other. Of the two points in the first set, one point may be different and one point may be shared. In this case, the position of the observation point can be derived by performing the above processing using a total of three points included in the first set and the second set.

(第1の実施形態の変形例その2)
第1の実施形態の変形例その2について説明する。第1の実施形態では、正距円筒図法による周囲画像を筒状に丸めて処理の対象にする場合を例示したが、これに代えて、球体として形成された全周囲画像を処理の対象にする場合を例示する。第1の実施形態との相違点を中心に説明する。
(Modification 2 of the first embodiment)
Modification 2 of the first embodiment will be described. In the first embodiment, the case where the surrounding image by the equirectangular projection is rounded into a cylinder and processed is exemplified, but instead of this, the surrounding image formed as a sphere is processed. Illustrate the case. The description will focus on differences from the first embodiment.

位置導出部424は、前述の図5に示す全周囲画像を対象にして、同全周囲画像において、第1の実施形態と同様の特徴点を選択する。位置導出部424は、この点を通る線を球体の周に沿って、極方向に延伸させる。 The position derivation unit 424 targets the omnidirectional image shown in FIG. 5 and selects the same feature points as in the first embodiment in the omnidirectional image. The position deriving unit 424 extends a line passing through this point in the polar direction along the circumference of the sphere.

位置導出部424は、この球体を、軸と直交する基準面に射影することにより、前述の図12と同様の図を得ることができる。図13を参照して説明した処理に続く処理は、第1の実施形態と同様である。このように、軸を中心に周方向に一巡する面は、軸を中心とする球面であってもよい。 The position derivation unit 424 can obtain a diagram similar to FIG. 12 by projecting this sphere onto a reference plane perpendicular to the axis. Processing following the processing described with reference to FIG. 13 is the same as in the first embodiment. In this way, the surface that circles around the axis in the circumferential direction may be a spherical surface centered on the axis.

本変形例によれば、第1の実施形態と共通する効果を奏することのほかに、処理の対象の画像を全周囲画像とすることができる。 According to this modified example, the image to be processed can be a omnidirectional image, in addition to the effects common to those of the first embodiment.

(第1の実施形態の変形例その3)
第1の実施形態の変形例その3について説明する。第1の実施形態では、撮像装置100が正距円筒図法に基づく画像又は全周囲画像を周囲画像として撮像し、情報提供支援装置400は、周囲画像を生成する合成処理を不要とする場合を例示して説明した。これに代えて、本変形例では、情報提供支援装置400は、撮像装置100から供給される複数の画像を合成することで、周囲画像を生成する合成処理を実施する場合を例示する。第1の実施形態との相違点を中心に説明する。
(Modification 3 of the first embodiment)
Modification 3 of the first embodiment will be described. In the first embodiment, the imaging device 100 captures an image based on equirectangular projection or a omnidirectional image as a surrounding image, and the information provision support device 400 does not require a synthesis process for generating the surrounding image. explained. Instead of this, in this modified example, the information provision support device 400 synthesizes a plurality of images supplied from the imaging device 100 to perform synthesizing processing for generating a surrounding image. The description will focus on differences from the first embodiment.

実施形態の撮像装置100は、超広角レンズ、広角レンズ、標準レンズなどを用いる。超広角レンズ、広角レンズ、標準レンズ等のレンズは、前述の第1の実施形態に示した魚眼レンズに比べて画角が狭い。超広角レンズ、広角レンズ、標準レンズを使用して全周囲を撮影する場合には、全周囲を3以上の複数に分割して撮像する。情報提供支援装置400は、これらの全周囲を3以上の複数に分割して撮像された画像を取得して、これらの画像を組み合わせる合成処理を施す。 The imaging device 100 of the embodiment uses a super-wide-angle lens, a wide-angle lens, a standard lens, and the like. A lens such as a super-wide-angle lens, a wide-angle lens, or a standard lens has a narrower angle of view than the fish-eye lens shown in the first embodiment. When the entire surroundings are photographed using a super-wide-angle lens, a wide-angle lens, and a standard lens, the entire surroundings are divided into three or more and photographed. The information provision support device 400 acquires images captured by dividing the entire surroundings into three or more pluralities, and performs synthesis processing of combining these images.

図15は、実施形態に係る複数の画像を合成する処理について説明するための図である。 FIG. 15 is a diagram for explaining processing for synthesizing a plurality of images according to the embodiment;

例えば、撮像装置100は、90度以上180度未満の画角を有する超広角レンズを利用して撮影した画像を用いて撮像する。撮像装置100は、光軸を、XC軸の正方向と負方向、YC軸の正方向と負方向、ZC軸の正方向と負方向のそれぞれに向けて、計6枚の画像を撮影する。なお、XC軸、YC軸、ZC軸は、点Cを原点とする直交座標である。この撮像装置100は、上記の各画像に、撮影時の光軸の方向、画像の向きに関する情報を付与してもよい。撮像装置100は、上記の各画像を、情報提供支援装置400に供給する。情報提供支援装置400は、取得した画像を、全周囲画像として、収集情報412に追加する。 For example, the imaging apparatus 100 captures an image using an ultra-wide-angle lens having an angle of view of 90 degrees or more and less than 180 degrees. The imaging device 100 directs the optical axis in the positive and negative directions of the XC axis, the positive and negative directions of the YC axis, and the positive and negative directions of the ZC axis, and takes a total of six images. The XC axis, YC axis, and ZC axis are orthogonal coordinates with the point C as the origin. The imaging apparatus 100 may add information regarding the direction of the optical axis at the time of imaging and the orientation of the image to each of the images. The imaging device 100 supplies each of the above images to the information provision support device 400 . The information provision support device 400 adds the acquired image to the collected information 412 as a omnidirectional image.

情報提供支援装置400は、観測点に対応する点Cを中心にして、取得した画像を同図に示すように配置する。 The information provision support device 400 arranges the obtained images as shown in the figure, centering on the point C corresponding to the observation point.

例えば、XC軸の正方向の画像と負方向の画像を、XC軸に直交するように配置して、その位置をXC軸の正方向と負方向にする。例えば、その位置を決定するXC軸の正方向と負方向の値を、絶対値が等しくなるようにする。つまり、C点からの距離が等しい位置にXC軸の正方向の画像と負方向の画像が配置される。YC軸に対応する画像、ZC軸に対応する画像も、上記のXC軸に対応する画像と同様にする。 For example, an image in the positive direction and an image in the negative direction of the XC axis are arranged so as to be orthogonal to the XC axis, and their positions are in the positive and negative directions of the XC axis. For example, the positive and negative values of the XC axis that determine the position are made equal in absolute value. In other words, the image in the positive direction and the image in the negative direction of the XC axis are arranged at positions at equal distances from point C. FIG. The image corresponding to the YC axis and the image corresponding to the ZC axis are also the same as the image corresponding to the XC axis.

上記のように6枚の画像を配置することにより、点Cを囲む立方体が形成される。例えば、情報提供支援装置400は、立方体の各面の内側に描かれた画像を、空間モデルMとする球体の表面の内側に射影する。これにより、情報提供支援装置400は、空間モデルMに射影された全周囲画像を生成する。 By arranging the six images as described above, a cube surrounding point C is formed. For example, the information provision support device 400 projects an image drawn inside each face of the cube onto the inside of the surface of the sphere as the space model M. FIG. As a result, the information provision support device 400 generates an all-surrounding image projected onto the space model M. FIG.

上記の実施形態によれば、第1の実施形態と共通する効果を奏することの他に、撮像装置100から供給される複数の画像を合成して周囲画像を生成することができる。 According to the above-described embodiment, it is possible to combine a plurality of images supplied from the imaging device 100 to generate a surrounding image, in addition to achieving the same effects as the first embodiment.

なお、上記の方法で撮影する際には、撮像装置100の位置を管理して、その光軸方向を正確に向けることが重要である。例えば、撮像装置100は、上記の各画像を撮影する際に、光軸の方向を、基準とする座標軸の方向に正確に向け、撮影時の位置が基準とする座標軸の原点の位置からずれないようにするとよい。 It is important to manage the position of the image pickup device 100 and accurately orient the optical axis direction when photographing by the above method. For example, the imaging apparatus 100 accurately orients the direction of the optical axis in the direction of the reference coordinate axis when capturing each of the above images, so that the position at the time of capturing does not deviate from the position of the origin of the reference coordinate axis. It is better to

(第1の実施形態の変形例その4)
第1の実施形態の変形例その4について説明する。第1の実施形態の変形例その3では、情報提供支援装置400は、撮像装置100から供給される複数の画像を合成することで、周囲画像を生成する合成処理を実施する場合を例示した。これに代えて、その合成処理を実施することなく、撮像装置100から供給される1数の画像から、画像中の特徴点を見込む角度を導出する場合を例示する。つまり、本変形例は、「(1-3)撮像時に利用した光学系の画角が既知の周囲画像に対し、その画像内の点の位置から角度を導出する方法」を例示するものである。第1の実施形態の変形例その3との相違点を中心に説明する。
(Modification 4 of the first embodiment)
Modification 4 of the first embodiment will be described. In Modified Example 3 of the first embodiment, the information provision support device 400 synthesizes a plurality of images supplied from the imaging device 100 to perform synthesis processing for generating a surrounding image. Instead of this, a case of deriving an angle at which a feature point in an image is expected from one image supplied from the imaging device 100 without performing the combining process will be exemplified. In other words, this modified example exemplifies "(1-3) a method of deriving an angle from the position of a point in the image with respect to a surrounding image in which the angle of view of the optical system used at the time of imaging is known". . The description will focus on differences from the third modification of the first embodiment.

実施形態の撮像装置100は、超広角レンズ、広角レンズ、標準レンズなどを用いる。撮像装置100は、上記のレンズを利用して、対象の鉛直な壁面を、その法線方向から撮像する。情報提供支援装置400は、撮像された画像を取得する。以下の説明では、合成処理を実施しないものとして説明するが、合成処理を実施することを制限するものではない。 The imaging device 100 of the embodiment uses a super-wide-angle lens, a wide-angle lens, a standard lens, and the like. The imaging device 100 uses the lens described above to capture an image of a vertical wall surface of an object from its normal direction. The information provision support device 400 acquires the captured image. In the following description, it is assumed that the composition processing is not performed, but it is not intended to limit the execution of the composition processing.

図16は、本変形例に係る角度を導出する処理について説明するための図である。 FIG. 16 is a diagram for explaining processing for deriving an angle according to this modification.

例えば、撮像装置100は、広角レンズを利用して撮影した画像を用いて、対象の壁面を撮像する。図16(a)に、撮像された画像の一例を示し、図16(b)に、処理を説明するための平面図を示す。 For example, the imaging device 100 captures a wall surface of an object using an image captured using a wide-angle lens. FIG. 16(a) shows an example of a captured image, and FIG. 16(b) shows a plan view for explaining the processing.

図16(a)に示す画像の中央がレンズの光軸の方向に一致する。レンズの焦点距離が既知であるとする。つまり、この図に示された画像が示す範囲に対応する画角(水平画角)は明らかである。この画像から、特徴点間の間隔l、画像の長辺方向の幅Lが既知であるとする。 The center of the image shown in FIG. 16(a) coincides with the direction of the optical axis of the lens. Suppose the focal length of the lens is known. That is, the angle of view (horizontal angle of view) corresponding to the range indicated by the image shown in this figure is clear. It is assumed that the interval l between feature points and the width L in the long side direction of the image are known from this image.

画面に向かって右側の特徴点と画面中央までの距離がl1であり、その特徴点の方向が画面中心から角度θ1ほど右側に逸れている。画面に向かって左側の特徴点と画面中央までの距離がl2であり、その特徴点の方向が画面中心から角度θ2ほど左側に逸れている。特徴点間の間隔lは、式(1)に示すように、上記の距離l1と距離l2の和に一致する。 The distance between the feature point on the right side of the screen and the center of the screen is l1, and the direction of the feature point deviates to the right from the center of the screen by an angle θ1. The distance between the feature point on the left side of the screen and the center of the screen is l2, and the direction of the feature point deviates to the left from the center of the screen by an angle θ2. The interval l between feature points corresponds to the sum of the above distance l1 and distance l2, as shown in equation (1).

l=l1+l2 ・・・(1) l=l1+l2 (1)

なお、l1とl2は、その値が異なっていてもよい。画像の水平方向の長さL(長辺方向の長さ)と、水平画角θと、特徴点の距離(l1、l2)と、その方向(θ1とθ2)との関係を式(2)に整理する。 Note that l1 and l2 may have different values. The relationship between the horizontal length L (the length in the long side direction) of the image, the horizontal angle of view θ, the distances (l1, l2) of the feature points, and their directions (θ1 and θ2) is given by equation (2). to organize.

A(tanθ1+tanθ2)/2Atan(θ/2)=(l1+l2)/L
・・・(2)
A(tan θ1+tan θ2)/2A tan(θ/2)=(l1+l2)/L
... (2)

上記式(2)において、Aは、観測点を中心とし、画面に接する球を描いた場合の球の半径である。ひき(2)を整理すると、式(3)が得られる。 In the above formula (2), A is the radius of a sphere drawn with the observation point as the center and in contact with the screen. Rearranging the subtraction (2) yields the equation (3).

tanθ1=(2l1/L)tan(θ/2)
tanθ2=(2l2/L)tan(θ/2)
・・・(3)
tan θ1 = (2l1/L) tan (θ/2)
tan θ2 = (2l2/L) tan (θ/2)
... (3)

上記の式(3)から、θ1とθ2を導出し、式(4)に従い、観察点の位置から
特徴点を見込む角度θを導出する。
θ1 and θ2 are derived from Equation (3) above, and the angle θ at which the feature point is expected from the position of the observation point is derived according to Equation (4).

θ=θ1+θ2 ・・・(4) θ=θ1+θ2 (4)

導出された角度θから観測点の位置を導出するための第2処理は、任意の手法を利用することができ、例えば、第1の実施形態に示した手法(2-1)を適用してもよく、他の処理を適用してもよい。 The second process for deriving the position of the observation point from the derived angle θ can use any method, for example, applying the method (2-1) shown in the first embodiment. may be used, and other treatments may be applied.

本変形例によれば、対象の周囲画像は、観測点の周囲を一巡する画像として形成されていなくてもよいという点は、第1の実施形態のその3と共通する効果である。これのほかに、本変形例は、画像を合成することなく特徴点の方向を示す角度を算術的に導出することができる。 According to this modified example, the peripheral image of the object does not have to be formed as an image that circles around the observation point, which is an effect common to the third embodiment of the first embodiment. In addition to this, this modification can arithmetically derive the angle indicating the direction of the feature point without combining the images.

(第2の実施形態)
第2の実施形態について説明する。第1の実施形態では、上記の「(1-1)軸を中心に周方向に一巡する面に射影した周囲画像を利用して角度を導出する方法」と「(2-1)2点を通る円の円周角を利用して観測点の位置を導出する方法」との組み合わせについて例示した。これに代えて、本実施形態では、上記の「(1-2)軸を中心に周方向に一巡する面を利用せずに、周囲画像内の点の位置から角度を導出する方法」と(2-2)ベクトルの内積を利用して求めた角度から観測点の位置を導出する方法」とを組み合わせた一例を挙げ、第1の実施形態との相違点を中心に説明する。
(Second embodiment)
A second embodiment will be described. In the first embodiment, the above-mentioned "(1-1) method of deriving the angle using a peripheral image projected onto a surface that circles in the circumferential direction around the axis" and "(2-1) two points A method of deriving the position of an observation point using the circumference angle of a passing circle”. Instead of this, in the present embodiment, the above "(1-2) method of deriving the angle from the position of the point in the surrounding image without using a surface that circles around the axis in the circumferential direction" and ( 2-2) A method of deriving the position of the observation point from the angle obtained by using the inner product of vectors”, and the explanation will focus on the differences from the first embodiment.

図17は、実施形態に係る観測点の位置を導出する処理の一例を示すフローチャートである。 17 is a flowchart illustrating an example of processing for deriving the position of an observation point according to the embodiment; FIG.

まず、位置導出部424は、周囲画像等における建物2の像などから特徴点を決定する(S171)。 First, the position derivation unit 424 determines feature points from the image of the building 2 in the surrounding image (S171).

次に、位置導出部424は、周囲画像における建物2の像などから特徴点を定め、選択する(S172)。例えば、選択された特徴点は、点A’、点B’、点C’、点D’の4点である。 Next, the position derivation unit 424 determines and selects feature points from the image of the building 2 in the surrounding image (S172). For example, the selected feature points are four points, point A', point B', point C', and point D'.

次に、位置導出部424は、点A’、点B’、点C’、点D’の各点の位置に基づいて、特徴点である各点の画像の長辺方向の間隔を導出する(S173)。位置導出部424は、画像の短辺又は長辺の長さと、各点の画像の長辺方向の間隔との比に基づいて、図12における角度(∠a、∠b、∠c、∠d)を導出する(S174)。例えば、図10に示したように点A’と点B’の画像の長辺方向の間隔は、A’B’の長さである。式(5)に示すように、A’B’の長さとL2の比から∠aが求まる。 Next, the position derivation unit 424 derives the interval in the long side direction of the image of each point, which is the feature point, based on the positions of the points A', B', C', and D'. (S173). The position derivation unit 424 calculates angles (∠a, ∠b, ∠c, ∠d) in FIG. ) is derived (S174). For example, as shown in FIG. 10, the distance between points A' and B' in the long side direction of the image is the length of A'B'. As shown in equation (5), ∠a can be obtained from the ratio of the length of A'B' to L2.

∠a=(360×A’B’)/L2 ・・・(5) ∠a=(360×A'B')/L2 (5)

∠bと∠cについても同様に求めることができる。 ∠b and ∠c can also be found in the same way.

次に、位置導出部424は、周囲画像内の点の位置から導出した角度を利用して、下記の条件を満たす点Xの位置を導出する(S175)。下記の条件とは、図12の点A’、点B’、点C’、点D’にそれぞれ対応する基準面上の点(例えば、点A、点B、点C、点D)から選択した2点と、他の点Xとが為す角が、S174において導出した角度に一致することである。 Next, the position derivation unit 424 derives the position of the point X that satisfies the following condition using the angle derived from the position of the point in the surrounding image (S175). The following conditions are selected from points on the reference plane corresponding to points A′, B′, C′, and D′ in FIG. 12 (for example, points A, B, C, and D). The angle formed by the two points and the other point X must match the angle derived in S174.

例えば、位置導出部424は、図13において、例えば、点A、点B、点C、点Dのうちから2点を選択する。選択した2点(例えば、点A、点B)と点Xに基づいて、∠AXBが∠aとなる点Xの位置を導出する。ここで導出された位置を満たす点Xを、条件1を満たす点Xとする。例えば、上記の角度は、ベクトルAXとベクトルBXの内積を計算することで求められる。 For example, the position derivation unit 424 selects two points from point A, point B, point C, and point D in FIG. Based on the selected two points (for example, points A and B) and the point X, the position of the point X where ∠AXB becomes ∠a is derived. The point X that satisfies the position derived here is the point X that satisfies the condition 1. For example, the above angle is obtained by calculating the inner product of vector AX and vector BX.

同様に、位置導出部424は、選択した2点(例えば、点C、点D)と点Xに基づいて、∠CXDが∠cになる点Xの位置を導出する。ここで導出された位置を満たす点Xを、条件2を満たす点Xとする。 Similarly, the position derivation unit 424 derives the position of the point X at which ∠CXD becomes ∠c, based on the selected two points (for example, points C and D) and the point X. The point X that satisfies the position derived here is the point X that satisfies the condition 2.

次に、位置導出部424は、条件1と条件2とを満たす点Xを導出する。その点Xの位置に、観測点の位置が含まれる。ただし、観測点の位置が一意に定まらない場合には、他の条件を組み合わせることで、上記の導出された位置のうちから観測点の位置を一意に特定することができる。例えば、位置導出部424は、上記の他の条件として、選択した2点(例えば、点B、点C)と点Xに基づいて、上記と同様の処理の処理をする条件3を追加する。位置導出部424は、条件1と条件2と条件3とを満たす点Xを導出し、その点Xの位置を、観測点の位置とする。 Next, the position derivation unit 424 derives the point X that satisfies the conditions 1 and 2. FIG. The position of the point X contains the position of the observation point. However, if the position of the observation point cannot be uniquely determined, by combining other conditions, the position of the observation point can be uniquely identified from among the above derived positions. For example, the position derivation unit 424 adds a condition 3 that performs the same processing as above based on the selected two points (for example, points B and C) and the point X as the other conditions. The position derivation unit 424 derives the point X that satisfies the conditions 1, 2, and 3, and sets the position of the point X as the position of the observation point.

上記の実施形態によれば、撮影位置特定システムは、撮影位置特定システムの位置導出部424は、周囲画像の面に沿う方向のうちの第1方向(長辺方向)に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、複数の組のうち第1組の2点(例えば、点A’、点B’)と第2組の2点(例えば、点C’、点D’)の位置と、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点(例えば、点A、点B、点C、点D)の位置とに基づいて、観測点に対応する前記基準面上の位置を導出する位置導出部424と、を備えることにより、より簡易な方法で、その観測点の位置の周囲の状況を共有できる。なお、上記により導出された位置に観測点の位置が含まれてもよい。 According to the above embodiment, the position derivation unit 424 of the shooting position specifying system is arranged at a distance in the first direction (long side direction) of the directions along the surface of the surrounding image. A plurality of pairs are extracted from the combination of points, and among the plurality of pairs, two points of the first set (for example, point A ', point B ') and two points of the second set (for example, point C ', point D') and the positions of points on the reference plane (e.g., points A, B, C, and D) corresponding to the first set of two points and the second set of two points, respectively. and a position deriving unit 424 for deriving the position on the reference plane corresponding to the observation point, the situation around the position of the observation point can be shared in a simpler manner. Note that the position of the observation point may be included in the position derived as described above.

(第2の実施形態の変形例その1)
第2の実施形態の変形例その1について説明する。第2の実施形態では、計4点を処理の対象にする場合を例示した。第2の実施形態においても本変形例に示すように、前述の第1の実施形態の変形例その1と同様に、第2組の2点は、第1組の2点のうち1点が異なり、1点が共有されてもよい。例えば、位置導出部424は、点A’、点B’、点C’の計3点を処理の対象にする。
(Modification 1 of the second embodiment)
Modification 1 of the second embodiment will be described. In the second embodiment, the case of processing a total of four points is exemplified. As shown in this modification in the second embodiment, as in modification 1 of the first embodiment, two points in the second set are Different and one point may be shared. For example, the position derivation unit 424 processes a total of three points, point A', point B', and point C'.

この場合、位置導出部424は、点A’、点B’、点C’の各点の位置に基づいて、前述した方法で図12における∠a、∠bを導出する。 In this case, the position derivation unit 424 derives ∠a and ∠b in FIG.

位置導出部424は、例えば、図13における点A、点B、点Cの位置と、上記で導出した角度とに基づいて、上記の点と異なる点Xの位置を導出する。以下、第2の実施形態と同様の処理をする。 The position deriving unit 424 derives the position of the point X, which is different from the above points, based on the positions of the points A, B, and C in FIG. 13 and the angles derived above, for example. Thereafter, the same processing as in the second embodiment is performed.

本変形例によれば、1点を共用するという条件を利用したことにより、2つの条件を満たす点Xが1つに定まることから、第2の実施形態と共通する効果を奏することのほかに、処理を簡素化することができる。 According to this modified example, by using the condition that one point is shared, one point X that satisfies two conditions is determined. , can simplify the process.

(第2の実施形態の変形例その2)
第2の実施形態の変形例その2について説明する。第2の実施形態においても本変形例に示すように、前述の第1の実施形態の変形例その2と同様に、球体として形成された全周囲画像を処理の対象にしてもよい。
(Modification 2 of the second embodiment)
Modification 2 of the second embodiment will be described. Also in the second embodiment, as shown in this modification, an all-surrounding image formed as a sphere may be processed as in modification 2 of the first embodiment.

本変形例によれば、第2の実施形態と共通する効果を奏することのほかに、処理の対象の画像を全周囲画像とすることができる。 According to this modified example, the image to be processed can be a omnidirectional image, in addition to the effects common to those of the second embodiment.

(第2の実施形態の変形例その3)
第2の実施形態の変形例その3について説明する。第2の実施形態においても本変形例に示すように、前述の第1の実施形態の変形例その3と同様に、撮像装置100から供給される複数の画像を合成して周囲画像を処理の対象にしてもよい。
(Modification 3 of the second embodiment)
Modification 3 of the second embodiment will be described. As shown in this modification, in the second embodiment as well, similar to modification 3 of the first embodiment, a plurality of images supplied from the imaging device 100 are combined to process the surrounding image. You can target it.

上記の実施形態によれば、第2の実施形態と共通する効果を奏することの他に、撮像装置100から供給される複数の画像を合成して周囲画像を生成することができる。 According to the above-described embodiment, it is possible to combine a plurality of images supplied from the imaging device 100 to generate a surrounding image, in addition to the effects common to those of the second embodiment.

(第3の実施形態)
第3の実施形態について説明する。第1と第2の実施形態では、水平方向の面(基準面)の観測点の位置を導出する処理を例示した。これに代えて、本実施形態では、基準面からの観測点の高さを導出する処理を例示する。例えば、基準面は、視認可能な床面又は天井面などである。第1の実施形態との相違点を中心に説明するが、第1の実施形態と同様の手法を適用することを制限するものではない。
(Third embodiment)
A third embodiment will be described. In the first and second embodiments, the process of deriving the position of the observation point on the horizontal plane (reference plane) has been exemplified. Instead of this, the present embodiment exemplifies processing for deriving the height of the observation point from the reference plane. For example, the reference surface is a visible floor surface, ceiling surface, or the like. Although differences from the first embodiment will be mainly described, application of a method similar to that of the first embodiment is not limited.

本実施形態の位置導出部424は、基準面からの高さを導出する過程で、壁面などの鉛直な面を利用する。本実施形態における鉛直な面は、第1の実施形態の基準面に代わるものである。
本実施形態における全周囲画像は、例えば、正距円筒図法の画像であって、その短辺の方向が鉛直方向と直交するものとする。さらに、位置導出部424は、その短辺の方向が上記の鉛直な面と並行になるように決定する。
位置導出部424は、鉛直な面上の点の位置と、全周囲画像上で選択した点の位置とに基づいて、観測点の位置を導出する。
上記の観測点の位置の導出は、例えば、第1の実施形態における導出方法と同様であってもよい。
The position derivation unit 424 of this embodiment uses a vertical surface such as a wall surface in the process of deriving the height from the reference surface. The vertical plane in this embodiment replaces the reference plane in the first embodiment.
The omnidirectional image in this embodiment is, for example, an equirectangular projection image, and the direction of its short side is perpendicular to the vertical direction. Furthermore, the position derivation unit 424 determines the direction of the short side to be parallel to the vertical plane.
The position derivation unit 424 derives the position of the observation point based on the position of the point on the vertical plane and the position of the point selected on the omnidirectional image.
Derivation of the position of the observation point described above may be, for example, the same as the derivation method in the first embodiment.

上記の実施形態によれば、第1の実施形態と同様の効果として、観測点の鉛直方向の位置、すなわち高さを導出し、その観測点の鉛直方向の位置の周囲の状況を共有することができる。 According to the above embodiment, as an effect similar to that of the first embodiment, the vertical position of the observation point, that is, the height is derived, and the situation around the vertical position of the observation point is shared. can be done.

なお、観測点の高さの導出は、本実施形態の手法に限らず、第1と第2の実施形態及びそれらの変形例に示した手法を利用して導出してもよい。 Derivation of the height of the observation point is not limited to the method of this embodiment, and may be derived using the methods shown in the first and second embodiments and their modifications.

(第4の実施形態)
第4の実施形態について説明する。第3の実施形態では、第1の実施形態と同様の手法等により、高さを導出する場合を例示した。これに代わり、本変形例では、第1又は第2の実施形態の結果などにより、水平方向の観測点の位置が既に確定していることを条件に、観測点の高さを導出する手法を例示する。
(Fourth embodiment)
A fourth embodiment will be described. In the third embodiment, the case of deriving the height is exemplified by the same method as in the first embodiment. Instead of this, in this modified example, a method of deriving the height of the observation point on the condition that the position of the observation point in the horizontal direction has already been determined based on the results of the first or second embodiment is adopted. Illustrate.

図18は、観測点と床面と壁を示す立面図である。 FIG. 18 is an elevation view showing an observation point, a floor surface and a wall.

既に、観測点の水平方向の位置が確定しており、観測点の壁からの距離wは明らかである。床と壁との境界を、観測点から見込む際の俯角ψは、周囲画像の短辺方向の長さから明らかである。つまり、位置導出部424は、観測点の高さhを、式(6)に従い導出する。 Already the horizontal position of the observation point is fixed and the distance w of the observation point from the wall is known. The depression angle ψ when viewing the boundary between the floor and the wall from the observation point is clear from the length of the surrounding image in the direction of the short side. That is, the position derivation unit 424 derives the height h of the observation point according to Equation (6).

h=wtanψ ・・・(6) h=wtan ψ (6)

上記の実施形態によれば、水平方向の観測点の位置が既に確定している場合に、第3の実施形態と同様の効果を奏することができる。また、第1又は第2の実施形態の後に実施されることにより、観測点の水平方向の位置に加え、その高さも導出することができる。 According to the above embodiment, when the position of the observation point in the horizontal direction has already been determined, the same effects as those of the third embodiment can be obtained. Also, by being implemented after the first or second embodiment, in addition to the horizontal position of the observation point, its height can also be derived.

(第5の実施形態)
第5の実施形態について説明する。第1と第2の実施形態では、水平方向の観測点の位置を導出する処理を例示した。第3と第4の実施形態では、鉛直方向の観測点の位置を導出する処理を例示した。これに代えて、本実施形態では、基準面を基準に定めた3次元空間における観測点の位置を導出する処理を例示する。
例えば、1つの全周囲画像から、2種類の正距円筒図法の画像を生成する。
第1画像は、その短辺の方向が鉛直方向のものとする。さらに、その短辺の方向が上記の基準面と並行になるようにする。
第2画像は、その短辺の方向が鉛直方向と直交するものとする。さらに、その短辺の方向が上記の鉛直な面と並行になるようにする。
位置導出部424は、観測点の位置について、第1画像に基づいて、第1又は第2の実施形態の何れかの手法により基準面における水平方向の位置を導出し、第2画像に基づいて、第3の実施形態の手法により基準面に対する高さを導出する。位置導出部424は、導出した基準面における水平方向の位置と、基準面に対する高さとに基づいて、基準面を基準に定めた3次元空間における観測点の位置を導出する。
(Fifth embodiment)
A fifth embodiment will be described. The first and second embodiments have exemplified the process of deriving the position of the observation point in the horizontal direction. The third and fourth embodiments have exemplified the process of deriving the position of the observation point in the vertical direction. Instead of this, the present embodiment exemplifies processing for deriving the position of the observation point in a three-dimensional space defined on the basis of the reference plane.
For example, two types of equirectangular projection images are generated from one omnidirectional image.
It is assumed that the direction of the short side of the first image is the vertical direction. Furthermore, the direction of the short side should be parallel to the reference plane.
It is assumed that the direction of the short side of the second image is orthogonal to the vertical direction. Furthermore, the direction of the short side should be parallel to the vertical plane.
The position deriving unit 424 derives the position of the observation point in the horizontal direction on the reference plane based on the first image by the method of the first or second embodiment, and based on the second image, , the height with respect to the reference plane is derived by the method of the third embodiment. The position deriving unit 424 derives the position of the observation point in the three-dimensional space with reference to the reference plane, based on the derived horizontal position on the reference plane and the height with respect to the reference plane.

上記の実施形態によれば、第1の実施形態と共通する効果を奏することのほかに、観測点の高さも導出することで3次元空間における観測点の位置を導出し、その観測点の周囲の状況を共有できる。
なお、上記の実施形態では、第3の実施形態の手法を利用する事例を例示したが、これに代えて、第4の実施形態の手法を利用してもよい。
According to the above embodiment, in addition to the effects common to the first embodiment, the position of the observation point in the three-dimensional space is derived by deriving the height of the observation point, and the surroundings of the observation point are calculated. can share the status of
In addition, in the above embodiment, an example of using the technique of the third embodiment is illustrated, but instead of this, the technique of the fourth embodiment may be used.

少なくとも上記の何れかの実施形態によれば、撮影位置特定システム1は、実空間における観測点の周囲の状況を示す周囲画像を取得する実画像取得部(指定情報取得部421と周囲画像取得部422)と、周囲画像の面に沿う方向のうちの第1方向(周方向又は長辺方向)に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、複数の組のうち第1組の2点と第2組の2点の位置と、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、観測点に対応する前記基準面上の位置を導出する位置導出部424と、を備えることにより、より簡易な方法で、ある位置の周囲の状況を共有できる。 According to at least one of the above-described embodiments, the photographing position identification system 1 includes a real image acquisition unit (designation information acquisition unit 421 and surrounding image acquisition unit 422) and a combination of points spaced apart in a first direction (peripheral direction or long side direction) among directions along the surface of the surrounding image, and Based on the positions of the first set of two points and the second set of two points, and the positions of the points on the reference plane corresponding to the first set of two points and the second set of two points, respectively, By providing a position deriving unit 424 for deriving the corresponding position on the reference plane, the situation around a certain position can be shared in a simpler manner.

また、上記の実施形態によれば、建物2等を示す構造図は、図面(基準面)上の点の位置が識別可能であれば他の情報については概略の情報であってよい。これにより、ユーザは、観測点の位置を特定するのに必要とされる最小限の情報を作図するだけで、観測点の位置を導出できる。 Further, according to the above-described embodiment, the structural drawing showing the building 2 and the like may be general information as long as the positions of points on the drawing (reference plane) can be identified. As a result, the user can derive the position of the observation point only by drawing the minimum information required to specify the position of the observation point.

また、上記の実施形態によれば、情報提供支援装置400は、実空間の現実の状態を、実空間で撮影した画像として取得する。情報提供支援装置400が3Dモデルにその画像を重ねた画像を提供することにより、ユーザは、3Dモデルとしてモデリングされた結果だけの情報よりも、現実の状態の見落としや思い込みを低減できる。 Further, according to the above embodiment, the information provision support device 400 acquires the actual state of the real space as an image captured in the real space. By providing an image in which the image is superimposed on the 3D model by the information provision support device 400, the user can reduce oversight and prejudice of the actual state compared to the information only as a result of modeling as the 3D model.

さらに、撮影時の位置を特定し、その画像からパース図を作成することにより、直感的に理解しやすい情報を提供することが可能になる。特に、対象範囲10内に既存物があり、新たに設ける計画物と既存物との関係を示す場合などに有効である。上記のパース図によれば、計画物(新設物)と既存物との干渉が明らかになる。また、上記のパース図は、既存物を撤去する際にも、撤去後の状態を検討するうえで必要な情報をユーザに提供する。 Furthermore, by specifying the position at the time of shooting and creating a perspective view from the image, it is possible to provide intuitively understandable information. In particular, it is effective when there is an existing object within the target range 10 and the relationship between the new planned object and the existing object is indicated. According to the perspective view above, the interference between the plan (new construction) and the existing construction becomes clear. Also, the above perspective view provides the user with necessary information for examining the state after removal even when the existing object is removed.

さらに、上記のパース図は、対象範囲10の管理者、利用者などに上記の関係を示す場合などの説明用資料として適している。管理者、利用者などの説明を受ける説明会参加者にも説明が理解しやすくなり、その説明を納得してもらいやすくなる。また、説明会参加者が、質疑や議論の場に参加しやすくなり、その場で得られた説明会参加者の意見に基づいて、設計の改善を図ることが容易になる。 Furthermore, the above perspective view is suitable as an explanatory material for showing the above relationship to the administrator, user, etc. of the target range 10 . It becomes easier for the participants of the briefing session who receive the explanations from managers, users, etc., to understand the explanations, and to be easily convinced by the explanations. In addition, it becomes easier for the participants of the briefing to participate in questions and discussions, and it becomes easier to improve the design based on the opinions of the participants of the briefing obtained on the spot.

また、上記の実施形態によれば、対象範囲10の画像を撮像装置100により撮影するという簡易な作業により、対象範囲10の正確な情報を漏らさずに得ることが可能になる。
撮像装置100に対する比較例として、現場の状況を点群情報として取得するレーザスキャナが知られている。撮影位置特定システム1は、壁面等の状況などを取得する際などに、レーザスキャナなどの特殊な装置を利用することなく、撮像装置100を利用することで必要とされる情報を容易に得ることができる。なお、撮影位置特定システム1は、上記のように簡易な作業を提供するものであり、維持管理の業務に適用してもよい。
Further, according to the above-described embodiment, it is possible to obtain accurate information of the target range 10 without omission by a simple operation of capturing an image of the target range 10 with the imaging device 100 .
As a comparative example for the imaging device 100, a laser scanner is known that acquires the site situation as point group information. The shooting position specifying system 1 can easily obtain necessary information by using the imaging device 100 without using a special device such as a laser scanner when acquiring the situation of a wall surface or the like. can be done. Note that the photographing position identification system 1 provides simple work as described above, and may be applied to maintenance work.

なお、撮影位置特定システム1は、維持管理の業務の他、建物2に対する設計業務、監理業務、管理業務など以外の業務や用途に適用可能である。 In addition to maintenance work, the shooting position specifying system 1 can be applied to work and applications other than design work, supervision work, and management work for the building 2 .

以上、本発明の実施形態について説明したが、図1に示す撮影位置特定システム1は、内部にコンピュータシステムを有している。そして、上述した処理に関する一連の処理の過程は、プログラムの形式でコンピュータ読み取り可能な記憶媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここで、コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。また、ここでいう「コンピュータシステム」とは、OSなども含むものとする。 Although the embodiments of the present invention have been described above, the imaging position specifying system 1 shown in FIG. 1 has a computer system inside. A series of processes related to the above-described processes are stored in a computer-readable storage medium in the form of a program, and the above processes are performed by reading and executing this program by a computer. Here, computer-readable storage media include magnetic disks, magneto-optical disks, CD-ROMs, DVD-ROMs, semiconductor memories, and the like. Alternatively, the computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program. In addition, the term "computer system" as used herein includes an OS and the like.

以上、本発明の一実施形態について説明したが、本発明の実施形態は上記のものに限定されない。例えば、各実施形態とその変形例に例示した手法は、例示した組合せ以外の組みにしてもよい。また、本発明の実施形態は、例えば、上記の実施形態を次のように変形したものとすることができる。
例えば、上記の実施形態では、本発明に関連する構成を便宜上、撮影位置特定システム1を、撮像装置100、端末装置200、及び、情報提供支援装置400に分けて説明した。撮像装置100、端末装置200、及び、情報提供支援装置400の分割を、上記に例示したものと変更してもよく、各装置同士を一体化してもよい。また、各装置に含まれる一部の構成を、他の装置の構成に含めて構成してもよい。さらに、情報提供支援装置400は、BIMとしての機能を含むものであってもよい。
Although one embodiment of the present invention has been described above, the embodiment of the present invention is not limited to the above. For example, the methods exemplified in each embodiment and its modifications may be combined in combinations other than the exemplified combinations. Moreover, the embodiment of the present invention can be, for example, the above-described embodiment modified as follows.
For example, in the above embodiments, the photographing position identification system 1 was divided into the imaging device 100, the terminal device 200, and the information provision support device 400 for convenience of explanation of the configuration related to the present invention. The division of the imaging device 100, the terminal device 200, and the information provision support device 400 may be changed from the one exemplified above, and each device may be integrated. Also, a part of the configuration included in each device may be included in the configuration of another device. Furthermore, the information provision support device 400 may include a function as BIM.

なお、上記の実施形態では、撮像装置100により撮影された実空間の画像を利用する方法について例示したが、これに代えて、建物等をモデル化した3次元モデルに基づいて生成された画像を利用してもよい。 In the above-described embodiment, the method of using the image of the real space captured by the imaging device 100 is exemplified. may be used.

なお、撮影位置特定システム1は、建物2に対する設計業務、管理業務など以外の業務や用途に適用可能である。 Note that the shooting position specifying system 1 can be applied to tasks and uses other than design work and management work for the building 2 .

1 撮影位置特定システム、100 撮像装置、200 端末装置、400 情報提供支援装置、410 記憶部、411 空間モデル情報、412 収集情報、413 見込む位置情報、414 積算情報、420 制御部、421 指定情報取得部、422 周囲画像取得部、423 表示制御部、424 位置導出部、426 積算処理制御部、427 出力処理部。 1 shooting position identification system 100 imaging device 200 terminal device 400 information provision support device 410 storage unit 411 space model information 412 collection information 413 expected position information 414 integration information 420 control unit 421 designation information acquisition Section 422 Surrounding Image Acquisition Section 423 Display Control Section 424 Position Derivation Section 426 Integration Processing Control Section 427 Output Processing Section.

Claims (7)

実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得する実画像取得部と、
前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出する位置導出部と、
を備え、
前記位置導出部は、
前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、
前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、
前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にする
撮影位置特定システム。
a real image acquisition unit that acquires an all-surrounding image as a surrounding image that shows the situation around the observation point in real space by projecting onto a spherical surface;
extracting a plurality of sets from a combination of points arranged at a distance in a first horizontal direction out of directions along the spherical surface of the surrounding image; and the positions of the second set of two points, and the positions of the points on the reference plane corresponding to the first set of two points and the second set of two points, respectively. a position derivation unit that derives a position on the reference plane;
with
The position derivation unit
With respect to a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system and the orthogonal coordinate system Adjusting the inclination so that the vertical direction matches, and projecting the surrounding image onto the spherical surface after the adjustment ,
The position corresponding to the observation point is associated with the origin of the polar coordinate system, and the position corresponding to the observation point is defined as a position on the reference plane including the horizontal axis in the orthogonal coordinate system and the reference plane. shown using the height from and
Based on the position corresponding to the observation point, it is possible to associate collected information indicating the surrounding situation of the observation point with a predetermined position on the spherical surface.
Filming localization system.
前記位置導出部は、
前記第1組の2点と前記第2組の2点の位置に基づいて角度を導出し、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置と前記角度とに基づいて、前記観測点に対応する前記基準面上の位置を導出する、
請求項1に記載の撮影位置特定システム。
The position derivation unit
Deriving an angle based on the positions of the first set of two points and the second set of two points, and points on the reference plane corresponding to the first set of two points and the second set of two points, respectively Deriving a position on the reference plane corresponding to the observation point based on the position and the angle of
The photographing position specifying system according to claim 1.
前記位置導出部は、
前記第1方向が軸を中心に一巡する前記球面の周方向であって、前記一巡する前記球面に前記周囲画像を対応付ける、
請求項1又は請求項2に記載の撮影位置特定システム。
The position derivation unit
The first direction is a circumferential direction of the spherical surface that makes a round around an axis, and the surrounding image is associated with the spherical surface that makes a round.
The imaging position specifying system according to claim 1 or 2.
前記位置導出部は、
前記第1組の2点と前記第2組の2点のうちの1点を共有する
請求項1から請求項の何れか1項に記載の撮影位置特定システム。
The position derivation unit
4. The imaging position specifying system according to any one of claims 1 to 3 , wherein one of the two points of the first set and one of the two points of the second set are shared.
前記位置導出部は、
前記球の内面である前記球面に前記周囲画像を射影する、
請求項に記載の撮影位置特定システム。
The position derivation unit
projecting the ambient image onto the spherical surface, which is the inner surface of the sphere ;
The photographing position specifying system according to claim 1 .
実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得するステップと、
前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出するステップと、
前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、
前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、
前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にするステップと
を含む撮影位置特定方法。
a step of acquiring an all-surrounding image as a surrounding image showing the situation around the observation point in real space by projecting onto a spherical surface;
extracting a plurality of sets from a combination of points arranged at a distance in a first horizontal direction out of directions along the spherical surface of the surrounding image; and the positions of the second set of two points, and the positions of the points on the reference plane corresponding to the first set of two points and the second set of two points, respectively. deriving a position on the reference plane;
With respect to a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system and the orthogonal coordinate system Adjusting the inclination so that the vertical direction matches, and projecting the surrounding image onto the spherical surface after the adjustment ,
The position corresponding to the observation point is associated with the origin of the polar coordinate system, and the position corresponding to the observation point is defined as a position on the reference plane including the horizontal axis in the orthogonal coordinate system and the reference plane. shown using the height from and
and making it possible to associate collected information indicating a situation around the observation point with a predetermined position on the spherical surface with reference to the position corresponding to the observation point .
実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得するステップと、
前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出するステップと、
前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、
前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、
前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にするステップと
をコンピュータに実行させるためのプログラム。
a step of acquiring an all-surrounding image as a surrounding image showing the situation around the observation point in real space by projecting onto a spherical surface;
extracting a plurality of sets from a combination of points arranged at a distance in a first horizontal direction out of directions along the spherical surface of the surrounding image; and the positions of the second set of two points, and the positions of the points on the reference plane corresponding to the first set of two points and the second set of two points, respectively. deriving a position on the reference plane;
With respect to a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system and the orthogonal coordinate system Adjusting the inclination so that the vertical direction matches, and projecting the surrounding image onto the spherical surface after the adjustment ,
The position corresponding to the observation point is associated with the origin of the polar coordinate system, and the position corresponding to the observation point is defined as a position on the reference plane including the horizontal axis in the orthogonal coordinate system and the reference plane. shown using the height from and
A program for causing a computer to execute the step of enabling a predetermined position on the spherical surface to correspond to the collected information indicating the surrounding situation of the observation point, with reference to the position corresponding to the observation point .
JP2016224309A 2016-11-17 2016-11-17 Shooting position specifying system, shooting position specifying method, and program Active JP7133900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016224309A JP7133900B2 (en) 2016-11-17 2016-11-17 Shooting position specifying system, shooting position specifying method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016224309A JP7133900B2 (en) 2016-11-17 2016-11-17 Shooting position specifying system, shooting position specifying method, and program

Publications (2)

Publication Number Publication Date
JP2018081571A JP2018081571A (en) 2018-05-24
JP7133900B2 true JP7133900B2 (en) 2022-09-09

Family

ID=62198454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016224309A Active JP7133900B2 (en) 2016-11-17 2016-11-17 Shooting position specifying system, shooting position specifying method, and program

Country Status (1)

Country Link
JP (1) JP7133900B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7415496B2 (en) 2019-12-02 2024-01-17 大日本印刷株式会社 Image processing device, program and image processing system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176559A (en) 2014-03-18 2015-10-05 株式会社リコー information processing method, information processing apparatus, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015081814A (en) * 2013-10-22 2015-04-27 株式会社大林組 Position measurement system of movable body

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176559A (en) 2014-03-18 2015-10-05 株式会社リコー information processing method, information processing apparatus, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
倉爪 亮,外5名,全方位カメラとデッドレコニング機能を有するサッカーロボットのロバストな自己位置同定手法,日本ロボット学会誌 第22巻 第3号,日本,社団法人日本ロボット学会,2004年,第22巻,pp.63-72

Also Published As

Publication number Publication date
JP2018081571A (en) 2018-05-24

Similar Documents

Publication Publication Date Title
US11051000B2 (en) Method for calibrating cameras with non-overlapping views
JP4825980B2 (en) Calibration method for fisheye camera.
US20130335532A1 (en) Image processing apparatus, image processing method, and program
US11122195B2 (en) Camera parameter estimation device, method, and program
US10290049B1 (en) System and method for multi-user augmented reality shopping
CN114140516A (en) Automated analysis of image content for determining image acquisition location
EP3818741A1 (en) Method, apparatus and computer program for performing three dimensional radio model construction
JP2007024647A (en) Distance calculating apparatus, distance calculating method, structure analyzing apparatus and structure analyzing method
JP7241812B2 (en) Information visualization system, information visualization method, and program
JP2022058658A (en) Device and method for obtaining positioning error map indicating sharpness level of image
Chen et al. Calibration of a hybrid camera network
Deng et al. Accurate and flexible calibration method for a class of visual sensor networks
Sahin Comparison and calibration of mobile phone fisheye lens and regular fisheye lens via equidistant model
JP7133900B2 (en) Shooting position specifying system, shooting position specifying method, and program
JP6854631B2 (en) Information visualization system, information visualization method, and program
Rodríguez‐Gonzálvez et al. A hybrid approach to create an archaeological visualization system for a Palaeolithic cave
RU2679200C1 (en) Data from the video camera displaying method and system
Wahbeh et al. Toward the Interactive 3D Modelling Applied to Ponte Rotto in Rome
EP3882846B1 (en) Method and device for collecting images of a scene for generating virtual reality data
JP2009124204A (en) Apparatus and program for estimating camera parameter
JP6167135B2 (en) 3D position measurement method, surveying method, 3D position measurement apparatus, and 3D position measurement program
JP7045863B2 (en) Information management system, information management method, and program
JP2018013877A (en) System, method, and program for supporting information sharing
JP2018013878A (en) System, method, and program for supporting information sharing
CN105323553A (en) Holder equipment control method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210713

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210713

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210726

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210727

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210910

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210914

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220301

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220609

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220705

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220802

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220830

R150 Certificate of patent or registration of utility model

Ref document number: 7133900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150