JP7133900B2 - Shooting position specifying system, shooting position specifying method, and program - Google Patents
Shooting position specifying system, shooting position specifying method, and program Download PDFInfo
- Publication number
- JP7133900B2 JP7133900B2 JP2016224309A JP2016224309A JP7133900B2 JP 7133900 B2 JP7133900 B2 JP 7133900B2 JP 2016224309 A JP2016224309 A JP 2016224309A JP 2016224309 A JP2016224309 A JP 2016224309A JP 7133900 B2 JP7133900 B2 JP 7133900B2
- Authority
- JP
- Japan
- Prior art keywords
- points
- observation point
- image
- coordinate system
- surrounding image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
本発明は、撮影位置特定システム、撮影位置特定方法、及びプログラムに関する。 The present invention relates to a photographing position specifying system, a photographing position specifying method, and a program.
建物の維持管理及びレイアウト設計などの各業務では、対象とされる建物の状況を正確に把握することが必要とされる。現場で撮影した撮影画像は、建物の状況を正確に把握するための有効な手段である。撮影して得られた撮影画像が多くなると、各画像を撮影した位置の特定が困難になることが有る。
撮影して得られた撮影画像と、予めデータベースに格納されている画像との類似性を判定し、判定の結果により、画像に関連付けてデータベースに格納されている撮影位置情報を検索し、類似すると判定された画像の撮影位置情報を通知する技術が知られている(例えば、特許文献1参照)。
In each business such as building maintenance management and layout design, it is necessary to accurately grasp the situation of the target building. Photographed images taken on-site are effective means for accurately grasping the situation of a building. When the number of images obtained by photographing increases, it may become difficult to identify the position where each image was photographed.
The similarity between the photographed image obtained by photographing and the image stored in advance in the database is determined, and based on the result of the determination, the photographing position information stored in the database in association with the image is retrieved, and the similarity is determined. A technique for notifying the shooting position information of the determined image is known (see, for example, Patent Document 1).
しかしながら、特許文献1の技術では、予め格納されている位置情報が通知されるに過ぎず大局的な位置を示す情報しか得ることができないことがある。
本発明が解決しようとする課題は、より簡易な方法で、撮影された画像の位置を特定できる撮影位置特定システム、撮影位置特定方法、及びプログラムを提供することにある。
However, with the technique disclosed in
The problem to be solved by the present invention is to provide a photographing position specifying system, a photographing position specifying method, and a program that can specify the position of a photographed image by a simpler method.
(1)本発明の一態様の撮影位置特定システムは、実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得する実画像取得部と、前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出する位置導出部と、を備え、前記位置導出部は、前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にする。
(2)また、上記の撮影位置特定システムにおいて、前記位置導出部は、前記第1組の2点と前記第2組の2点の位置に基づいて角度を導出し、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置と前記角度とに基づいて、前記観測点に対応する前記基準面上の位置を導出する。
(3)また、上記の撮影位置特定システムにおいて、前記位置導出部は、前記第1方向が軸を中心に一巡する前記球面の周方向であって、前記一巡する前記球面に前記周囲画像を対応付ける。
(4)また、上記の撮影位置特定システムにおいて、前記位置導出部は、前記第1組の2点と前記第2組の2点のうちの1点を共有する。
(5)また、上記の撮影位置特定システムにおいて、前記位置導出部は、前記球の内面である前記球面に前記周囲画像を射影する。
(6)本発明の一態様の撮影位置特定方法は、実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得するステップと、前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出するステップと、前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にするステップとを含む。
(7)本発明の一態様のプログラムは、実空間における観測点の周囲の状況を球面に射影して示す周囲画像として全周囲画像を取得するステップと、前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出するステップと、前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にするステップとをコンピュータに実行させるためのプログラムである。
(1) A photographing position specifying system according to one aspect of the present invention includes a real image acquisition unit that acquires an all-surrounding image as a surrounding image that shows the situation around an observation point in real space by projecting onto a spherical surface; A plurality of pairs are extracted from a combination of points spaced apart in a first horizontal direction among directions along the spherical surface, and two points of the first pair and a second pair are extracted from the plurality of pairs. and the positions of points on the reference plane corresponding to the first set of two points and the second set of two points, respectively, on the reference plane corresponding to the observation point a position derivation unit for deriving a position, the position derivation unit being a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image, and an orthogonal coordinate system having an axis extending vertically from the origin. With regard to the coordinate system, the inclination is adjusted so that the polar direction of the polar coordinate system and the vertical direction of the orthogonal coordinate system are aligned, and after the adjustment, the surrounding image is projected onto the spherical surface and used to perform the observation . The position corresponding to the point is associated with the origin of the polar coordinate system, and the position corresponding to the observation point is defined as a position on the reference plane including the horizontal axis in the orthogonal coordinate system and a position on the reference plane. , and based on the position corresponding to the observation point, it is possible to associate collected information indicating the surrounding situation of the observation point with a predetermined position on the spherical surface .
(2) In the photographing position specifying system, the position derivation unit derives an angle based on the positions of the first set of two points and the second set of two points, A position on the reference plane corresponding to the observation point is derived based on the position of the point on the reference plane corresponding to the point and the second set of two points, respectively, and the angle.
(3) Further, in the photographing position specifying system, the position derivation unit associates the peripheral image with the spherical surface, wherein the first direction is a circumferential direction of the spherical surface that makes a round about an axis. .
( 4 ) Further, in the photographing position specifying system, the position derivation unit shares one of the two points of the first set and the two points of the second set.
( 5 ) In the photographing position specifying system, the position derivation unit projects the surrounding image onto the spherical surface that is the inner surface of the sphere .
( 6 ) A method for identifying a photographing position according to an aspect of the present invention includes the steps of: obtaining an all-surrounding image as a surrounding image showing a situation around an observation point in real space by projecting onto a spherical surface; A plurality of sets are extracted from combinations of points arranged at a distance in a first direction related to the horizontal direction among the along directions, and two points of the first set and two points of the second set are extracted from the plurality of sets. and the positions of the points on the reference plane corresponding to the two points of the first set and the two points of the second set, respectively, the position on the reference plane corresponding to the observation point is derived. a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image, and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system The inclination is adjusted so that the vertical direction of the coordinate system is aligned, and after the adjustment, the surrounding image is projected onto the spherical surface and used to associate the origin of the polar coordinate system with the position corresponding to the observation point. and a position corresponding to the observation point is indicated by using a position on the reference plane including the horizontal axis in the orthogonal coordinate system and a height from the reference plane , and corresponding to the observation point and making it possible to associate the collected information indicating the circumstances around the observation point with a predetermined position on the spherical surface on the basis of the position .
( 7 ) A program according to one aspect of the present invention comprises the steps of: obtaining an all-surrounding image as a surrounding image showing a situation around an observation point in real space by projecting onto a spherical surface; A plurality of pairs are extracted from combinations of points arranged at a distance in a first horizontal direction, and the positions of two points of the first pair and two points of the second pair among the plurality of pairs are extracted. , deriving a position on the reference plane corresponding to the observation point based on the positions of points on the reference plane corresponding to the first set of two points and the second set of two points, respectively; , a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image, and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system and the orthogonal coordinate system The tilt is adjusted so that it matches the vertical direction, and after the adjustment, the surrounding image is projected onto the spherical surface and used, and the origin of the polar coordinate system is associated with the position corresponding to the observation point. , indicating the position corresponding to the observation point by using the position on the reference plane including the horizontal axis in the orthogonal coordinate system and the height from the reference plane , and the position corresponding to the observation point as the reference and enabling a predetermined position on the spherical surface to be associated with collected information indicating the situation around the observation point .
本発明によれば、より簡易な方法で、撮影された画像の位置を特定できる撮影位置特定システム、撮影位置特定方法、及びプログラムを提供できる。 According to the present invention, it is possible to provide a photographing position specifying system, a photographing position specifying method, and a program that can specify the position of a photographed image by a simpler method.
以下、本発明の実施形態の撮影位置特定システム、情報可視化方法及びプログラムについて、添付図面を参照して説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS A shooting position specifying system, an information visualization method, and a program according to embodiments of the present invention will be described below with reference to the accompanying drawings.
(第1の実施形態)
図1は、本発明の実施形態に係る撮影位置特定システムの構成図である。
(First embodiment)
FIG. 1 is a configuration diagram of a shooting position specifying system according to an embodiment of the present invention.
[撮影位置特定システム]
撮影位置特定システム1は、撮像装置100、端末装置200、及び、情報提供支援装置400を備える。撮像装置100、端末装置200、及び、情報提供支援装置400は、ネットワークNWを介して接続されている。
[Shooting position identification system]
The shooting
最初に、撮影位置特定システム1の概要について説明する。撮影位置特定システム1は、実在する建物2の対象範囲10内で撮影した撮影画像から、その撮影位置を特定する。例えば、対象範囲10には、実在する建物2の一部又は全部が含まれる。さらに、対象範囲10には、上記の建物に設けられた設備、什器などが含まれていてもよい。対象範囲10は、目印とする特徴点が含まれるようにその概略の位置が予め決定される。その特徴点が撮影範囲含まれるような位置で、撮影画像が撮影される。以下の説明において、その画像を撮影した位置を観測点Pという。例えば、観測点Pは、観測点Pの周囲の状況を掌握しやすい位置に、その位置が決定される。以下の説明では、観測点Pを単に観測点という。なお、対象範囲10における位置を、直交座標系(X,Y,Z)を用いて特定されてもよい。観測点の周囲画像とは、撮像装置100が観測点において撮像して得た画像、又は、観測点において撮像して得た複数の画像の組のことである。例えば、観測点の位置は、撮像装置100の光学系の位置に基づいて決定される。周囲画像の詳細については後述する。なお、観測点の周囲画像は、ユーザU1が撮像装置100を操作して撮像したものであってもよく、撮像装置100が予め定められたタイミングで撮像したものであってもよい。
First, an overview of the photographing
撮影位置特定システム1は、上記の撮影画像の他に、その観測点周りの図面等を利用して、観測点の位置を取得する。例えば、観測点周りの図面には、BIM(Building Information Modeling)などの処理装置によりデータ化された3Dモデル(以下、単に3Dモデルという。)、2次元図面(2D図面)などが含まれてもよい。以下、3Dモデルと2次元図面とを合わせて3Dモデル等という。3Dモデル等には、対象範囲10を含む建物2の構造、建物2に配置された設備、什器などの位置を示す情報が含まれる。
撮影位置特定システム1は、撮像装置100によって撮像された画像のデータと3Dモデル等とを関連付けることにより、それぞれの情報を補完して利便性を高める。観測点の周囲画像と3Dモデルの両方に基づいて画像を撮影した位置を特定する場合を例示する。
The shooting
The shooting
本実施形態では、上記の処理を、画像に映った被写体の位置に基づいて観測点を推定するための角度を導出する第1処理と、導出された角度から観測点の位置を導出する第2処理に大別する。 In this embodiment, the above-described processing is performed by first processing for deriving an angle for estimating an observation point based on the position of the subject in the image, and second processing for deriving the position of the observation point from the derived angle. It is roughly divided into processing.
第1処理には、例えば、(1-1)軸を中心に周方向に一巡する面に射影した周囲画像を利用して、観測点から見込んだ特徴点の間の角度を導出する方法と、(1-2)周囲画像内の点の位置からその角度を導出する方法と、(1-3)撮像時に利用した光学系の画角が既知の周囲画像に対し、その画像内の点の位置からその角度を導出する方法とがある。なお、(1-1)の手法において、軸を中心に周方向に一巡する面は、3次元仮想空間における仮想の構造体として形成されてもよい。 The first processing includes, for example, a method of deriving the angle between the feature points viewed from the observation point by using a surrounding image projected onto a surface that circles around the (1-1) axis in the circumferential direction; (1-2) A method of deriving the angle from the position of the point in the surrounding image, and (1-3) the position of the point in the image with respect to the surrounding image in which the angle of view of the optical system used at the time of imaging is known. There is a method of deriving the angle from In the method (1-1), the surface that circles around the axis in the circumferential direction may be formed as a virtual structure in the three-dimensional virtual space.
第2処理には、例えば、(2-1)円の周上にある2点と中心とにより形成される中心角を利用して観測点の位置を導出する方法と、(2-2)ベクトルの内積を利用して求めた角度から観測点の位置を導出する方法とがある。
それぞれの方法の詳細については後述する。
The second processing includes, for example, (2-1) a method of deriving the position of the observation point by using the central angle formed by two points on the circumference of the circle and the center, and (2-2) vector There is a method of deriving the position of the observation point from the angle obtained by using the inner product of .
Details of each method will be described later.
本実施形態では、上記の「(1-1)軸を中心に周方向に一巡する面に射影した周囲画像を利用して角度を導出する方法」と「(2-1)円の周上にある2点と中心とにより形成される中心角を利用して観測点の位置を導出する方法」とを組み合わせた一例を挙げ、以下に説明する。 In the present embodiment, the above-mentioned "(1-1) method of deriving the angle using a peripheral image projected onto a surface that circles in the circumferential direction around the axis" and "(2-1) on the circumference of a circle A method of deriving the position of an observation point using a central angle formed by two points and the center” will be described below.
撮影位置特定システム1は、周囲画像を表示する場合に、周囲画像と3Dモデル等とを対応付けることで周囲画像に生じた歪を補正するとよい。この歪を補正する方法として、撮影位置特定システム1は、周囲画像と3Dモデルに基づいた画像との対応付けを、それらに共通する射影面Sを用いて実施してもよい。この場合、撮影位置特定システム1は、上記の射影面Sを3次元仮想空間における仮想の構造体(以下、空間モデルMという。)として扱う。3次元仮想空間における空間モデルMは、実空間における観測点に対応して設けられる。空間モデルMは、その観測点から視認できる範囲の状況が射影される仮想の面を有する。撮影位置特定システム1は、観測点から視認できる範囲の状況を、上記の観測点から見込む方向を維持するように空間モデルMの面に射影することで、画像の歪を補正することができる。
When displaying the surrounding image, the photographing
図2は、実施形態に係る射影面Sを形成する空間モデルMの一例を示す図である。例えば、空間モデルMは、中空の球体として形成され、その内面に射影面Sを有する。撮影位置特定システム1は、球体の表面の内側に、観測点の位置で撮影した周囲画像(全周囲画像)を射影する。球体の中心Cに視点を置くことにより、球体の表面に射影された周囲画像を球体の中心Cから見込む方向と、実空間において観測点P(図1)の位置から被写体を見込む方向とを一致させることができる。なお、空間モデルMが直交座標系の軸方向に対して傾いている場合には、空間モデルMの極方向が直交座標系の軸方向に一致するように調整するとよい。例えば、情報提供支援装置400は、図2に示すように空間モデルMの極方向を、直交座標系のZ軸方向に一致するように調整する。例えば、このように空間モデルMの傾きを調整した後、周囲画像を射影するとよい。
FIG. 2 is a diagram showing an example of the space model M forming the projection plane S according to the embodiment. For example, the space model M is formed as a hollow sphere and has a projection plane S on its inner surface. The photographing
上記の説明では、観測点における周囲画像を一例として示したが、空間モデルMに対応付ける情報の種類は、これに限らない。撮影位置特定システム1は、周囲画像に加えて、各種情報を空間モデルMに対応付けてもよい。例えば、撮影位置特定システム1は、空間モデルMを中空の球体として形成し、球体の表面に収集情報などの各種情報を関連付ける。上記の収集情報とは、観測点の周囲の状況を共有するために収集された情報のことである。上記の収集情報には、観測点の周囲を撮像して得た画像情報、画像情報と異なる種別の情報などが含まれる。画像情報と異なる種別の情報として、例えば、観測点の周囲の状況を示すテキスト(文字情報)が含まれていてもよい。
In the above description, the surrounding image at the observation point is shown as an example, but the type of information associated with the space model M is not limited to this. The shooting
上記のように空間モデルMを用いて画像の歪を補正する他に、空間モデルMを用いない演算処理による方法で実現してもよい。本実施形態に示す撮影位置特定システム1は、空間モデルMを利用する場合を例示する。以下、本実施形態に関する詳細について説明する。
In addition to correcting the distortion of the image using the space model M as described above, a method using arithmetic processing without using the space model M may be used. The shooting
最初に、撮影位置特定システム1に係る各装置について説明する。
First, each device related to the photographing
[撮像装置]
撮像装置100の構成の一例について説明する。図3は、実施形態に係る撮像装置100の構成図である。撮像装置100は、その周囲を撮影し、得られる周囲画像を出力する。
[Imaging device]
An example of the configuration of the
撮像装置100は、光学系111と、光学系112と、撮像部121と、撮像部122と、信号処理部130と、受付部140と、制御部150と、出力部160とを備える。
The
光学系111と光学系112は、それぞれが魚眼系レンズを成し、それぞれ180度以上の画角で撮影可能とする。光学系111と光学系112は、光学系111の光軸と光学系112の光軸が略平行になるように、撮像装置100の筐体などに支持される。光学系111の光軸方向と光学系112の光軸方向は、反対方向に向けられている。
The
撮像部121は、光学系111と対になるように設けられ、光学系111の画角の範囲内の対象物(被写体)を撮像する。撮像部122は、光学系112と対になるように設けられ、光学系112の画角の範囲内の対象物(被写体)を撮像する。
The
信号処理部130は、撮像部121が撮像して得られた画像と、撮像部122が撮像して得られた画像とを合成することにより、撮像された画像から、正距円筒図法に基づいた画像又は全周囲画像などの合成画像を生成する。
The
受付部140は、ユーザの撮像を指示する操作を受け付ける。
The accepting
制御部150は、受付部140によって受け付けた撮像の指示に基づいて、撮像部121と撮像部122に撮像させる。制御部150は、撮像部121と撮像部122が互いに同期して撮像するように、各撮像部を制御する。制御部150は、撮像部121と撮像部122とにより撮像された結果に基づいて、信号処理部130により合成画像を生成させる。制御部150は、出力部160から、信号処理部130によって生成された合成画像を出力させる。
The
例えば、撮像装置100が合成画像として出力する周囲画像には、正距円筒図法による画像、全天周画像などの全方向の画像が含まれていることが望ましい。図4Aは、実施形態に係る正距円筒図法による画像について示す図である。正距円筒図法は、前述の図2に示すような球体の表面を展開し、その表面を長方形に射影して示す図法である。球体の緯度経度は、長方形内内で直角かつ等間隔に交差するように各部の尺度が調整される。図4Bは、図4Aの画像を、中空の円筒の表面の内側に描かれた状態の一例を示す図である。
For example, the surrounding image output by the
以下に示す実施形態では、図4に示す正距円筒図法による画像を、図2に示す空間モデルMとしての球体の表面の内側に射影する。図5は、図4Aの画像を、中空の球体の表面の内側に射影した状態の一例を示す図である。この図5は、球体の奥行き方向に遠方側の半球を示し、近方側の半球の描画を省略している。この図5に示すように、球体の表面の内側に射影された画像は、球体の内側から球全体をみれば全天周画像になる。つまり、撮像装置100により撮像された画像を、中空の球体の表面として形成された空間モデルMの表面の内側に射影することにより、観測点の周囲の状態を示す画像情報が球体の表面に配された状態を得ることができる。なお、撮像装置100は、正距円筒図法による画像と全天周画像の少なくとも何れかの画像の一部又は全部を出力する。このような撮像装置100であれば、1回の操作で全周囲を纏めて撮影することができ、周囲を漏れなく撮影できる。
In the embodiment described below, the equirectangular projection image shown in FIG. 4 is projected inside the surface of the sphere as the space model M shown in FIG. FIG. 5 is a diagram showing an example of a state in which the image of FIG. 4A is projected inside the surface of a hollow sphere. This FIG. 5 shows the far side hemisphere in the depth direction of the sphere and omits drawing of the near side hemisphere. As shown in FIG. 5, the image projected inside the surface of the sphere becomes an omnidirectional image when the entire sphere is viewed from the inside of the sphere. That is, by projecting an image captured by the
つまり、撮像装置100は、画像を合成するためのユーザの手間を省き、更に、画像の空間方向の連続性の品質を高めることができる。また、撮像装置100は、全周囲を1回の操作で撮影することで、撮影に係る時間を短縮する。また、上記のような撮像装置100であれば、撮影漏れなどによる部分的な欠損が生じる虞がない。これらに起因して、ユーザの作業効率が高まる。
In other words, the
以下の実施形態の説明では、撮像装置100は、正距円筒図法による画像を、対象の周囲画像として出力するものとする。撮像装置100は、上記の対象の周囲画像を情報提供支援装置400に対して送信する。
In the following description of the embodiments, it is assumed that the
[端末装置]
図6は、実施形態に係る端末装置200の構成図である。端末装置200は、例えば、CPU200Aと、RAM(Random Access Memory)200Bと、不揮発性記憶装置200Cと、可搬型記憶媒体ドライブ装置200Dと、入出力装置200Eと、通信インターフェース200Fとを備える。端末装置200は、CPU200Aに代えて、任意の形態のプロセッサを備えてもよいし、図6に示した各構成要素のうち一部を省略してもよい。
[Terminal device]
FIG. 6 is a configuration diagram of the
CPU200Aは、不揮発性記憶装置200Cに格納されたプログラム、又は可搬型記憶媒体ドライブ装置200Dに装着された可搬型記憶媒体に格納されたプログラムをRAM200Bに展開して実行することで、以下に説明する種々の処理を行う。RAM200Bは、CPU200Aによってワーキングエリアとして使用される。不揮発性記憶装置200Cは、例えば、HDDやフラッシュメモリ、ROM(Read Only Memory)などである。可搬型記憶媒体ドライブ装置200Dには、DVD(Digital Versatile Disc)やCD(Compact Disc)、SDカードなどの可搬型記憶媒体が装着される。入出力装置200Eは、例えば、キーボードやマウス、タッチパネル、表示装置などを含む。通信インターフェース200Fは、ネットワークNWに接続され、端末装置200における通信を制御する。
The
図6を参照して、実施形態に係る端末装置200の機能構成について説明する。端末装置200は、受付処理部211と、データ取得部212と、表示制御部213とを備える。これらの機能部は、例えば、CPU200Aがプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。
A functional configuration of the
受付処理部211は、入出力装置200Eによって検出されたユーザの操作を受け付ける。例えば、受付処理部211は、入出力装置200Eにより表示された画像上のボタンなどを選択する操作を検出して、ユーザの操作として受け付ける。受付処理部211は、検出したユーザの操作に基づいて、情報を共有するための要求を情報提供支援装置400宛に送信する。
The
データ取得部212は、情報提供支援装置400から送信された情報を取得する。情報提供支援装置400から取得する情報には、特定の観測点に対応する取得情報が含まれる。
The
表示制御部213は、情報提供支援装置400から送信された情報に基づいて、入出力装置200Eにおける表示部に表示させる画像を生成する。例えば、表示制御部213は、特定の観測点に対応する取得情報に基づいた閲覧画像を生成して、表示部に表示させる。
The
なお、端末装置200は、受付処理部211、データ取得部212、及び、表示制御部213の一部又は全部を、Webシステムに適用されるブラウザを利用して実現してもよい。
Note that the
[情報提供支援装置]
図7は、実施形態に係る情報提供支援装置400のハードウェア構成図である。情報提供支援装置400は、例えば、CPU400Aと、RAM400Bと、不揮発性記憶装置400Cと、可搬型記憶媒体ドライブ装置400Dと、入出力装置400Eと、通信インターフェース400Fとを備える。情報提供支援装置400は、CPU400Aに代えて、任意の形態のプロセッサを備えてもよいし、図7に示した各構成要素のうち一部を省略してもよい。
[Information provision support device]
FIG. 7 is a hardware configuration diagram of the information
CPU400Aは、不揮発性記憶装置400Cに格納されたプログラム、又は可搬型記憶媒体ドライブ装置400Dに装着された可搬型記憶媒体に格納されたプログラムをRAM400Bに展開して実行することで、以下に説明する種々の処理を行う。RAM400Bは、CPU400Aによってワーキングエリアとして使用される。不揮発性記憶装置400Cは、例えば、HDDやフラッシュメモリ、ROMなどである。可搬型記憶媒体ドライブ装置400Dには、DVDやCD、SDカードなどの可搬型記憶媒体が装着される。入出力装置400Eは、例えば、キーボードやマウス、タッチパネル、表示装置などを含む。通信インターフェース400Fは、ネットワークNWに接続され、情報提供支援装置400における通信を制御する。なお、通信インターフェース400Fは、Webシステムに適用されるWebサーバとしての機能を有していてもよい。
The
図8は、実施形態に係る情報提供支援装置400の機能構成図である。情報提供支援装置400は、記憶部410と、制御部420とを備える。
FIG. 8 is a functional configuration diagram of the information
記憶部410は、RAM400B又は不揮発性記憶装置400Cに設けられた記憶領域である。記憶部410は、情報提供支援装置400からアクセス可能なNAS装置などの外部記憶装置によって実現されてもよい。
The
記憶部410は、空間モデル情報411、収集情報412、見込む位置情報413などの情報を格納する。
The
空間モデル情報411は、観測点ごとに設けられた空間モデルMを識別し、その位置を特定するための情報を含む。 The spatial model information 411 includes information for identifying the spatial model M provided for each observation point and specifying its position.
収集情報412は、実空間における観測点の周囲画像、建物2を3Dモデルとして数値化したデータ、建物2に関する各種図面などを含む。例えば、建物2を3Dモデルとして数値化したデータには、建物2の構造図などのデータが含まれる。
The collected
図9は、実施形態に係る3次元仮想空間を表示する一例を示す図である。図9には、対象範囲10に対応する3次元仮想空間を俯瞰した図が示されている。例えば、この図9に示すように、3Dモデルに含まれる情報には、壁面に設けられた窓、装置などの構成を示す情報を必須とせず、例えば、建物2を構成する部材の概略の位置が識別可能な情報が含まれていればよい。
なお、建物2に関する各種図面には、建物2の構造図、フロアごとの平面図、設備配置図、配管図などを2次元情報で示す各種図面(2次元図面等)の一部又は全部が含まれる。2次元図面等においても、建物2を構成する部材の概略の位置が識別可能な情報が含まれていればよい。
FIG. 9 is a diagram showing an example of displaying a three-dimensional virtual space according to the embodiment. FIG. 9 shows a bird's-eye view of the three-dimensional virtual space corresponding to the
The various drawings related to the
前述の図8に戻り、見込む位置情報413は、空間モデルMの射影面Sを見込む位置を示す情報を含む。 Returning to FIG. 8 described above, the expected position information 413 includes information indicating the position from which the projection plane S of the space model M is expected.
制御部420について説明する。制御部420は、指定情報取得部421と、周囲画像取得部422と、表示制御部423と、位置導出部424と、出力処理部427とを備える。指定情報取得部421と周囲画像取得部422は、取得部の一例である。
The
指定情報取得部421は、端末装置200におけるユーザの操作の検出結果を、端末装置200から取得する。指定情報取得部421は、端末装置200から取得した情報を、記憶部410における収集情報412に追加する。
The designated
周囲画像取得部422は、実空間における観測点の周囲画像、実空間の状態を示す図面などを取得して、同様に収集情報412に追加する。
The ambient
指定情報取得部421と周囲画像取得部422は、実空間における観測点の周囲の状況を示す周囲画像(全方位画像等)を取得する。
The designated
表示制御部423は、端末装置200に表示させる画像を生成する。例えば、撮像装置100によって撮像された画像のデータを情報提供支援装置400が収集し、表示制御部423は、収集した画像のデータに基づいた全周囲画像を生成する。
The
なお、上記の観測点に対応する3次元仮想空間とは、その観測点に対応する「空間モデルM(図2)」を配置するための仮想の3次元空間のことである。
上記の基準点Rの周りに設けられた射影面Sは、基準点Rを基準に配置された中空の球体の表面における内側の面又は中空の円筒の側面における内側の面の少なくとも一部を含む。以下の説明において、基準点Rの周りに設けられた射影面Sは、中空の球体の内側の面を成すものとする。
The three-dimensional virtual space corresponding to the observation point is a virtual three-dimensional space for arranging the "space model M (FIG. 2)" corresponding to the observation point.
The projection plane S provided around the reference point R includes at least a part of the inner surface of the surface of the hollow sphere or the inner surface of the side surface of the hollow cylinder arranged with reference to the reference point R. . In the following description, it is assumed that the projection plane S provided around the reference point R forms the inner surface of the hollow sphere.
表示制御部423は、射影面Sに射影された周囲画像(図5参照)と3次元仮想空間における仮想構造物を示す仮想空間画像とを対応付ける。表示制御部423は、対応付けた周囲画像と仮想空間画像とにおいて、周囲画像を表示する表示領域と、仮想空間画像を表示する表示領域のそれぞれに共通する領域が含まれる表示画像を生成してもよい。
なお、上記の共通する領域とは、例えば、対象範囲10内の一部であって、表示画像に基づいて検討、検証などを実施する対象物を含む領域のことである。
The
Note that the above-mentioned common area is, for example, a part of the
表示制御部423は、基準点Rの位置又は射影面Sを見込む位置を基準に位置を定め、その定めた位置から見込む仮想構造物を仮想空間画像に示すように、仮想構造物に基づいた表示画像を生成してもよい。表示制御部423は、予め、空間モデルMと、周囲画像と、仮想空間画像との3つの相対的な位置関係を調整する。その調整方法として下記が挙げられる。例えば、第1の調整方法として、表示制御部423は、空間モデルMに対して周囲画像の位置を調整し、その後に、3次元仮想空間に対する空間モデルMの方向を調整する。或いは、第2の調整方法として、表示制御部423は、空間モデルMに対する位置を、周囲画像と仮想空間画像とを独立に調整する。第3の調整方法として、表示制御部423は、まず周囲画像と仮想空間画像との相対位置を調整し、その後に、それらの画像を纏めて空間モデルMに対する位置を調整する。これらの何れかを実施することにより、表示制御部423は、射影面Sに沿って周囲画像を移動させて、少なくとも3次元仮想空間における周囲画像の代表点の方向を調整する。
表示制御部423は、空間モデルMと、周囲画像と、仮想空間画像との3つの相対的な位置関係を調整した後に、周囲画像から抽出した範囲と仮想空間画像から抽出した範囲の双方に共通する範囲が含まれる表示画像を生成してもよい。
The
After adjusting the three relative positional relationships among the space model M, the surrounding image, and the virtual space image, the
出力処理部427は、端末装置200からの要求に応じて、要求に対する所望の情報を端末装置200に対して出力する。
The
図10は、実施形態に係る周囲画像を加工する処理を示すための図である。例えば、位置導出部424は、対象の空間モデルMの半径rを、空間モデル情報411から取得し、正距円筒図法の図の延伸方向と直交する方向の長さL1を、空間モデル(球体)の周の半分(πr)になるように調整する。位置導出部424は、正距円筒図法の図の延伸方向の長さL2を空間モデルMの周の(2πr―Δ)になるように調整する。Δは、0近傍の微小量を示す。これを角度で示すと、0度から(360度―δ)になる。δは0近傍の微小角を示す。
FIG. 10 is a diagram illustrating processing for processing a surrounding image according to the embodiment. For example, the
図11は、実施形態に係る観測点の位置を導出する処理の一例を示すフローチャートである。予め、現場の画像は、撮像装置100によって撮影される。周囲画像取得部422は、撮像装置100から画像を取得して、周囲画像として収集情報412に追加する。
FIG. 11 is a flowchart illustrating an example of processing for deriving the position of an observation point according to the embodiment; An image of the site is captured by the
また、3Dデータ等は、収集情報412に格納されている。本実施形態において、観測点の特定に必要とされる最低限の既存要素(既設物)の情報が3Dデータ等に含まれていればよい。例えば、部屋などの内装についての情報を整理する目的であれば、部屋の形状を示す情報が入力されていればよい。例えば、3次元の情報が図面に明示されていない2次元図面(2D図面)に内壁面、天井面、床面を示すことで、部屋の形状を平面図又は立面図によって示すことができる。その部屋に設けられている窓や設備などの情報は必須の情報としない。これらの情報は、後述する画像を重ねる処理で補完される。
3D data and the like are stored in the collected
まず、位置導出部424は、周囲画像における建物2の像などから特徴点を決定する(S111)。例えば、位置導出部424は、実空間で鉛直な形状を有する構造物、例えば、柱、壁面の角(入隅、出隅)などを対象の特徴点として決定する。
次に、位置導出部424は、対を成す2組以上の特徴点の組を抽出する(S112)。
First, the
Next, the
次に、位置導出部424は、S112において抽出した組の特徴点に対応する点を選択し、図12に示す周上に配置する(S113)。例えば、抽出した組の特徴点は、図10の画像に示す点A’、点B’、点C’、点D’の4点である。図12は、実施形態に係る正距円筒図法の図を筒状に丸め、軸に沿う方向から平面視した図である。上記の4点は、図12に示す円周上に時計回りに表記の順に並べて配置されている。ここで、円筒の軸の位置を点O’で示す。図12に示す通り∠A’O’B’が為す角が∠aであり、∠B’O’C’が為す角が∠bであり、∠C’O’D’が為す角が∠cであり、∠D’O’A’が為す角が∠dである。位置導出部424は、筒状に丸めた正距円筒図法の図を利用して、隣接して配置された特徴点の組に対応する中心角を導出する(S114)。上記の∠a、∠b、∠c、∠dのそれぞれが中心角の一例である。
Next, the
図13を参照して、建物2の対象範囲10について説明する。図13は、実施形態に係る建物2の対象範囲10(図9)の平面図である。この平面図は、3DCADのデータを単に平面視して生成されたものであってよい。位置導出部424は、特徴点にそれぞれ対応する基準面上の4つの点を決定する(S115)。例えば、図12に示した点A’、点B’、点C’、点D’の4点がS112において選択されている。これらの点にそれぞれ対応する点として、図13における点A、点B、点C、点Dが決定される。これらの点は、ユーザの操作などに基づいて決定されてもよい。
The
図14を参照して、観察点の位置を導出する処理について説明する。図14は、観察点の位置を導出する処理を示すための図である。位置導出部424は、S112において選択された点A’、点B’、点C’、点D’の4点と、軸の位置を示す点O’の5つの点を利用して、例えば、位置導出部424は、円の周上で互いに隣接する2点と中心(点O’)とにより形成される円周角が、上記の中心角と一致する点を抽出するという中心角を利用する方法により、観測点を導出する。
Processing for deriving the position of the observation point will be described with reference to FIG. FIG. 14 is a diagram showing the process of deriving the position of the observation point. The
例えば、位置導出部424は、点Aと点Bの組を基準に、∠AOBが為す角が、∠a(∠A’O’B’の値)と一致する点の軌跡を導出し、それを描く(S116)。上記の軌跡は、点Aと点Bを含む第1の円弧(円周)であり、点Aと点Bからの円周角が∠AOBになる点の集合である。
For example, the
次に、位置導出部424は、点Aと点Bの組と異なる組を選択する。例えば、位置導出部424は、点Cと点Dの組を選択する。位置導出部424は、点Cと点Dの組を基準に、∠CODが為す角が、∠c(∠C’O’D’の値)と一致する点の軌跡を導出する。上記の軌跡は、点Cと点Dを含む第2の円弧(円周)である。
Next, the
次に、位置導出部424は、上記の2組と異なる組を選択する。例えば、位置導出部424は、点Bと点Cの組を選択する。位置導出部424は、点Bと点Cの組を基準に、∠BOCが為す角が、∠b(∠B’O’C’の値)と一致する点の軌跡を導出する。上記の軌跡は、点Bと点Cを含む第3の円弧(円周)である。
Next, the
次に、位置導出部424は、上記の処理により導出した2つの軌跡が交差する点には観測点が含まれる。例えば、上記の処理により導出した2つの軌跡が交差する点が1点に定まる場合には、その点の位置を観測点の位置としてもよい。
或いは、位置導出部424は、3つの軌跡が交差する点を選択し、その点の位置を観測点の位置とする。上記の処理により、位置導出部424は、導出した観測点の位置を空間モデル情報411に書き込む。
Next, the
Alternatively, the
以上の処理により、位置導出部424は、観測点の位置を導出する。
Through the above processing, the
なお、中心角から点Oの位置を導出する方法は、上記以外の方法を利用してもよい。
例えば、位置導出部424は、円周上の各点(例えば点A’と点B’)と点O’による中心角に基づいて、基準面における各点(例えば点Aと点B)から点Oを見込む角を導出し、観測点の位置を推定してもよい。
As for the method of deriving the position of the point O from the central angle, a method other than the above may be used.
For example, the
なお、位置導出部424は、観測点の高さを、例えば、予め定めた値にしてもよい。
Note that the
上記の実施形態によれば、撮影位置特定システムの位置導出部424は、周囲画像の面に沿う方向のうちの第1方向(長辺方向)に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、複数の組のうち第1組の2点(例えば、点A’、点B’)と第2組の2点(例えば、点C’、点D’)の位置と、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点(例えば、点A、点B、点C、点D)の位置とに基づいて、観測点に対応する前記基準面上の位置を導出する位置導出部424と、を備えることにより、より簡易な方法で、その観測点の位置の周囲の状況を共有できる。
According to the above-described embodiment, the
また、位置導出部424は、第1組の2点と第2組の2点の位置に基づいて角度を導出し、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点の位置と導出した角度とに基づいて、観測点に対応する基準面上の位置を導出する。
In addition, the
なお、第1方向が軸を中心に一巡する面の周方向であってよく、位置導出部は、一巡する面に周囲画像を対応付ける。その軸を中心に周方向に一巡する面は、軸を基準に形成される同心構造体の表面であってよく、軸から等距離に配置されていない面であってもよい。位置導出部424は、同心構造体の表面又は軸から等距離に配置されていない面に周囲画像を射影する。なお、軸を中心に周方向に一巡する面は、軸を中心とする円筒の側面であってもよい。
Note that the first direction may be the circumferential direction of the surface that makes a circuit around the axis, and the position deriving unit associates the surrounding image with the surface that makes a circuit. A surface that circles around the axis in the circumferential direction may be a surface of a concentric structure formed on the basis of the axis, or may be a surface that is not equidistant from the axis. The
また、上記の実施形態によれば、撮影位置特定システムは、軸を基準に形成される筒(同心構造体)の表面に周囲画像を射影し、射影された周囲画像が展開され延伸する方向に互いに位置が異なる点を組み合わせた複数の組が生成され、上記組のうち第1組の2点(例えば、点A’、点B’)を筒の軸方向に法線を持つ基準面に射影して、基準面上の軸の位置(例えば、点O’)から第1組の2点から射影された2点(例えば、点A’、点B’)を見込む第1角度(例えば、∠a)に応じて変化する第1の値と、第1組とは異なる第2組の2点(例えば、点C’、点D’)を筒の軸に直交する面に射影して、その面上の軸の位置(例えば、点O’)から第2組の2点から射影された2点(例えば、点C’、点D’)を見込む第2角度(例えば、∠c)に応じて変化する第2の値と、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点(例えば、点A、点B、点C、点D)の位置とに基づいて、軸の基準面上の位置を導出する。これにより、より簡易な方法で、ある観測点の位置の周囲の状況を3次元CADの情報に付加することで、その観測点の位置の周囲の状況を共有できる。 Further, according to the above-described embodiment, the imaging position specifying system projects the surrounding image onto the surface of the cylinder (concentric structure) formed with the axis as a reference, and the projected surrounding image is developed and extended in the direction of extension. A plurality of sets are generated by combining points at different positions, and two points of the first set (for example, point A' and point B') among the sets are projected onto a reference plane normal to the axial direction of the cylinder. Then, a first angle (eg, ∠ a), and a second set of two points different from the first set (for example, point C' and point D') are projected onto a plane perpendicular to the axis of the tube, and the Depending on the second angle (eg, ∠c) looking at two points (eg, point C' and point D') projected from the second set of two points from the position of the axis on the surface (eg, point O') and the positions of points on the reference plane (for example, points A, B, C, and D) corresponding to the first set of two points and the second set of two points, respectively; , the position of the axis on the reference plane is derived. As a result, by adding the situation around the position of a certain observation point to the information of the three-dimensional CAD by a simpler method, the situation around the position of the observation point can be shared.
(第1の実施形態の変形例その1)
第1の実施形態の変形例その1について説明する。第1の実施形態では、第1組の2点第2組の2点は、互いに異なる4点を処理の対象にする場合を例示したが、これに代えて、第2組の2点は、第1組の2点のうち1点が異なり、1点が共有されてもよい。この場合、第1組と第2組に含まれる計3点を利用して上記の処理を実施することで、観測点の位置を導出することができる。
(
(第1の実施形態の変形例その2)
第1の実施形態の変形例その2について説明する。第1の実施形態では、正距円筒図法による周囲画像を筒状に丸めて処理の対象にする場合を例示したが、これに代えて、球体として形成された全周囲画像を処理の対象にする場合を例示する。第1の実施形態との相違点を中心に説明する。
(
位置導出部424は、前述の図5に示す全周囲画像を対象にして、同全周囲画像において、第1の実施形態と同様の特徴点を選択する。位置導出部424は、この点を通る線を球体の周に沿って、極方向に延伸させる。
The
位置導出部424は、この球体を、軸と直交する基準面に射影することにより、前述の図12と同様の図を得ることができる。図13を参照して説明した処理に続く処理は、第1の実施形態と同様である。このように、軸を中心に周方向に一巡する面は、軸を中心とする球面であってもよい。
The
本変形例によれば、第1の実施形態と共通する効果を奏することのほかに、処理の対象の画像を全周囲画像とすることができる。 According to this modified example, the image to be processed can be a omnidirectional image, in addition to the effects common to those of the first embodiment.
(第1の実施形態の変形例その3)
第1の実施形態の変形例その3について説明する。第1の実施形態では、撮像装置100が正距円筒図法に基づく画像又は全周囲画像を周囲画像として撮像し、情報提供支援装置400は、周囲画像を生成する合成処理を不要とする場合を例示して説明した。これに代えて、本変形例では、情報提供支援装置400は、撮像装置100から供給される複数の画像を合成することで、周囲画像を生成する合成処理を実施する場合を例示する。第1の実施形態との相違点を中心に説明する。
(Modification 3 of the first embodiment)
Modification 3 of the first embodiment will be described. In the first embodiment, the
実施形態の撮像装置100は、超広角レンズ、広角レンズ、標準レンズなどを用いる。超広角レンズ、広角レンズ、標準レンズ等のレンズは、前述の第1の実施形態に示した魚眼レンズに比べて画角が狭い。超広角レンズ、広角レンズ、標準レンズを使用して全周囲を撮影する場合には、全周囲を3以上の複数に分割して撮像する。情報提供支援装置400は、これらの全周囲を3以上の複数に分割して撮像された画像を取得して、これらの画像を組み合わせる合成処理を施す。
The
図15は、実施形態に係る複数の画像を合成する処理について説明するための図である。 FIG. 15 is a diagram for explaining processing for synthesizing a plurality of images according to the embodiment;
例えば、撮像装置100は、90度以上180度未満の画角を有する超広角レンズを利用して撮影した画像を用いて撮像する。撮像装置100は、光軸を、XC軸の正方向と負方向、YC軸の正方向と負方向、ZC軸の正方向と負方向のそれぞれに向けて、計6枚の画像を撮影する。なお、XC軸、YC軸、ZC軸は、点Cを原点とする直交座標である。この撮像装置100は、上記の各画像に、撮影時の光軸の方向、画像の向きに関する情報を付与してもよい。撮像装置100は、上記の各画像を、情報提供支援装置400に供給する。情報提供支援装置400は、取得した画像を、全周囲画像として、収集情報412に追加する。
For example, the
情報提供支援装置400は、観測点に対応する点Cを中心にして、取得した画像を同図に示すように配置する。
The information
例えば、XC軸の正方向の画像と負方向の画像を、XC軸に直交するように配置して、その位置をXC軸の正方向と負方向にする。例えば、その位置を決定するXC軸の正方向と負方向の値を、絶対値が等しくなるようにする。つまり、C点からの距離が等しい位置にXC軸の正方向の画像と負方向の画像が配置される。YC軸に対応する画像、ZC軸に対応する画像も、上記のXC軸に対応する画像と同様にする。 For example, an image in the positive direction and an image in the negative direction of the XC axis are arranged so as to be orthogonal to the XC axis, and their positions are in the positive and negative directions of the XC axis. For example, the positive and negative values of the XC axis that determine the position are made equal in absolute value. In other words, the image in the positive direction and the image in the negative direction of the XC axis are arranged at positions at equal distances from point C. FIG. The image corresponding to the YC axis and the image corresponding to the ZC axis are also the same as the image corresponding to the XC axis.
上記のように6枚の画像を配置することにより、点Cを囲む立方体が形成される。例えば、情報提供支援装置400は、立方体の各面の内側に描かれた画像を、空間モデルMとする球体の表面の内側に射影する。これにより、情報提供支援装置400は、空間モデルMに射影された全周囲画像を生成する。
By arranging the six images as described above, a cube surrounding point C is formed. For example, the information
上記の実施形態によれば、第1の実施形態と共通する効果を奏することの他に、撮像装置100から供給される複数の画像を合成して周囲画像を生成することができる。
According to the above-described embodiment, it is possible to combine a plurality of images supplied from the
なお、上記の方法で撮影する際には、撮像装置100の位置を管理して、その光軸方向を正確に向けることが重要である。例えば、撮像装置100は、上記の各画像を撮影する際に、光軸の方向を、基準とする座標軸の方向に正確に向け、撮影時の位置が基準とする座標軸の原点の位置からずれないようにするとよい。
It is important to manage the position of the
(第1の実施形態の変形例その4)
第1の実施形態の変形例その4について説明する。第1の実施形態の変形例その3では、情報提供支援装置400は、撮像装置100から供給される複数の画像を合成することで、周囲画像を生成する合成処理を実施する場合を例示した。これに代えて、その合成処理を実施することなく、撮像装置100から供給される1数の画像から、画像中の特徴点を見込む角度を導出する場合を例示する。つまり、本変形例は、「(1-3)撮像時に利用した光学系の画角が既知の周囲画像に対し、その画像内の点の位置から角度を導出する方法」を例示するものである。第1の実施形態の変形例その3との相違点を中心に説明する。
(Modification 4 of the first embodiment)
Modification 4 of the first embodiment will be described. In Modified Example 3 of the first embodiment, the information
実施形態の撮像装置100は、超広角レンズ、広角レンズ、標準レンズなどを用いる。撮像装置100は、上記のレンズを利用して、対象の鉛直な壁面を、その法線方向から撮像する。情報提供支援装置400は、撮像された画像を取得する。以下の説明では、合成処理を実施しないものとして説明するが、合成処理を実施することを制限するものではない。
The
図16は、本変形例に係る角度を導出する処理について説明するための図である。 FIG. 16 is a diagram for explaining processing for deriving an angle according to this modification.
例えば、撮像装置100は、広角レンズを利用して撮影した画像を用いて、対象の壁面を撮像する。図16(a)に、撮像された画像の一例を示し、図16(b)に、処理を説明するための平面図を示す。
For example, the
図16(a)に示す画像の中央がレンズの光軸の方向に一致する。レンズの焦点距離が既知であるとする。つまり、この図に示された画像が示す範囲に対応する画角(水平画角)は明らかである。この画像から、特徴点間の間隔l、画像の長辺方向の幅Lが既知であるとする。 The center of the image shown in FIG. 16(a) coincides with the direction of the optical axis of the lens. Suppose the focal length of the lens is known. That is, the angle of view (horizontal angle of view) corresponding to the range indicated by the image shown in this figure is clear. It is assumed that the interval l between feature points and the width L in the long side direction of the image are known from this image.
画面に向かって右側の特徴点と画面中央までの距離がl1であり、その特徴点の方向が画面中心から角度θ1ほど右側に逸れている。画面に向かって左側の特徴点と画面中央までの距離がl2であり、その特徴点の方向が画面中心から角度θ2ほど左側に逸れている。特徴点間の間隔lは、式(1)に示すように、上記の距離l1と距離l2の和に一致する。 The distance between the feature point on the right side of the screen and the center of the screen is l1, and the direction of the feature point deviates to the right from the center of the screen by an angle θ1. The distance between the feature point on the left side of the screen and the center of the screen is l2, and the direction of the feature point deviates to the left from the center of the screen by an angle θ2. The interval l between feature points corresponds to the sum of the above distance l1 and distance l2, as shown in equation (1).
l=l1+l2 ・・・(1) l=l1+l2 (1)
なお、l1とl2は、その値が異なっていてもよい。画像の水平方向の長さL(長辺方向の長さ)と、水平画角θと、特徴点の距離(l1、l2)と、その方向(θ1とθ2)との関係を式(2)に整理する。 Note that l1 and l2 may have different values. The relationship between the horizontal length L (the length in the long side direction) of the image, the horizontal angle of view θ, the distances (l1, l2) of the feature points, and their directions (θ1 and θ2) is given by equation (2). to organize.
A(tanθ1+tanθ2)/2Atan(θ/2)=(l1+l2)/L
・・・(2)
A(tan θ1+tan θ2)/2A tan(θ/2)=(l1+l2)/L
... (2)
上記式(2)において、Aは、観測点を中心とし、画面に接する球を描いた場合の球の半径である。ひき(2)を整理すると、式(3)が得られる。 In the above formula (2), A is the radius of a sphere drawn with the observation point as the center and in contact with the screen. Rearranging the subtraction (2) yields the equation (3).
tanθ1=(2l1/L)tan(θ/2)
tanθ2=(2l2/L)tan(θ/2)
・・・(3)
tan θ1 = (2l1/L) tan (θ/2)
tan θ2 = (2l2/L) tan (θ/2)
... (3)
上記の式(3)から、θ1とθ2を導出し、式(4)に従い、観察点の位置から
特徴点を見込む角度θを導出する。
θ1 and θ2 are derived from Equation (3) above, and the angle θ at which the feature point is expected from the position of the observation point is derived according to Equation (4).
θ=θ1+θ2 ・・・(4) θ=θ1+θ2 (4)
導出された角度θから観測点の位置を導出するための第2処理は、任意の手法を利用することができ、例えば、第1の実施形態に示した手法(2-1)を適用してもよく、他の処理を適用してもよい。 The second process for deriving the position of the observation point from the derived angle θ can use any method, for example, applying the method (2-1) shown in the first embodiment. may be used, and other treatments may be applied.
本変形例によれば、対象の周囲画像は、観測点の周囲を一巡する画像として形成されていなくてもよいという点は、第1の実施形態のその3と共通する効果である。これのほかに、本変形例は、画像を合成することなく特徴点の方向を示す角度を算術的に導出することができる。 According to this modified example, the peripheral image of the object does not have to be formed as an image that circles around the observation point, which is an effect common to the third embodiment of the first embodiment. In addition to this, this modification can arithmetically derive the angle indicating the direction of the feature point without combining the images.
(第2の実施形態)
第2の実施形態について説明する。第1の実施形態では、上記の「(1-1)軸を中心に周方向に一巡する面に射影した周囲画像を利用して角度を導出する方法」と「(2-1)2点を通る円の円周角を利用して観測点の位置を導出する方法」との組み合わせについて例示した。これに代えて、本実施形態では、上記の「(1-2)軸を中心に周方向に一巡する面を利用せずに、周囲画像内の点の位置から角度を導出する方法」と(2-2)ベクトルの内積を利用して求めた角度から観測点の位置を導出する方法」とを組み合わせた一例を挙げ、第1の実施形態との相違点を中心に説明する。
(Second embodiment)
A second embodiment will be described. In the first embodiment, the above-mentioned "(1-1) method of deriving the angle using a peripheral image projected onto a surface that circles in the circumferential direction around the axis" and "(2-1) two points A method of deriving the position of an observation point using the circumference angle of a passing circle”. Instead of this, in the present embodiment, the above "(1-2) method of deriving the angle from the position of the point in the surrounding image without using a surface that circles around the axis in the circumferential direction" and ( 2-2) A method of deriving the position of the observation point from the angle obtained by using the inner product of vectors”, and the explanation will focus on the differences from the first embodiment.
図17は、実施形態に係る観測点の位置を導出する処理の一例を示すフローチャートである。 17 is a flowchart illustrating an example of processing for deriving the position of an observation point according to the embodiment; FIG.
まず、位置導出部424は、周囲画像等における建物2の像などから特徴点を決定する(S171)。
First, the
次に、位置導出部424は、周囲画像における建物2の像などから特徴点を定め、選択する(S172)。例えば、選択された特徴点は、点A’、点B’、点C’、点D’の4点である。
Next, the
次に、位置導出部424は、点A’、点B’、点C’、点D’の各点の位置に基づいて、特徴点である各点の画像の長辺方向の間隔を導出する(S173)。位置導出部424は、画像の短辺又は長辺の長さと、各点の画像の長辺方向の間隔との比に基づいて、図12における角度(∠a、∠b、∠c、∠d)を導出する(S174)。例えば、図10に示したように点A’と点B’の画像の長辺方向の間隔は、A’B’の長さである。式(5)に示すように、A’B’の長さとL2の比から∠aが求まる。
Next, the
∠a=(360×A’B’)/L2 ・・・(5) ∠a=(360×A'B')/L2 (5)
∠bと∠cについても同様に求めることができる。 ∠b and ∠c can also be found in the same way.
次に、位置導出部424は、周囲画像内の点の位置から導出した角度を利用して、下記の条件を満たす点Xの位置を導出する(S175)。下記の条件とは、図12の点A’、点B’、点C’、点D’にそれぞれ対応する基準面上の点(例えば、点A、点B、点C、点D)から選択した2点と、他の点Xとが為す角が、S174において導出した角度に一致することである。
Next, the
例えば、位置導出部424は、図13において、例えば、点A、点B、点C、点Dのうちから2点を選択する。選択した2点(例えば、点A、点B)と点Xに基づいて、∠AXBが∠aとなる点Xの位置を導出する。ここで導出された位置を満たす点Xを、条件1を満たす点Xとする。例えば、上記の角度は、ベクトルAXとベクトルBXの内積を計算することで求められる。
For example, the
同様に、位置導出部424は、選択した2点(例えば、点C、点D)と点Xに基づいて、∠CXDが∠cになる点Xの位置を導出する。ここで導出された位置を満たす点Xを、条件2を満たす点Xとする。
Similarly, the
次に、位置導出部424は、条件1と条件2とを満たす点Xを導出する。その点Xの位置に、観測点の位置が含まれる。ただし、観測点の位置が一意に定まらない場合には、他の条件を組み合わせることで、上記の導出された位置のうちから観測点の位置を一意に特定することができる。例えば、位置導出部424は、上記の他の条件として、選択した2点(例えば、点B、点C)と点Xに基づいて、上記と同様の処理の処理をする条件3を追加する。位置導出部424は、条件1と条件2と条件3とを満たす点Xを導出し、その点Xの位置を、観測点の位置とする。
Next, the
上記の実施形態によれば、撮影位置特定システムは、撮影位置特定システムの位置導出部424は、周囲画像の面に沿う方向のうちの第1方向(長辺方向)に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、複数の組のうち第1組の2点(例えば、点A’、点B’)と第2組の2点(例えば、点C’、点D’)の位置と、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点(例えば、点A、点B、点C、点D)の位置とに基づいて、観測点に対応する前記基準面上の位置を導出する位置導出部424と、を備えることにより、より簡易な方法で、その観測点の位置の周囲の状況を共有できる。なお、上記により導出された位置に観測点の位置が含まれてもよい。
According to the above embodiment, the
(第2の実施形態の変形例その1)
第2の実施形態の変形例その1について説明する。第2の実施形態では、計4点を処理の対象にする場合を例示した。第2の実施形態においても本変形例に示すように、前述の第1の実施形態の変形例その1と同様に、第2組の2点は、第1組の2点のうち1点が異なり、1点が共有されてもよい。例えば、位置導出部424は、点A’、点B’、点C’の計3点を処理の対象にする。
(
この場合、位置導出部424は、点A’、点B’、点C’の各点の位置に基づいて、前述した方法で図12における∠a、∠bを導出する。
In this case, the
位置導出部424は、例えば、図13における点A、点B、点Cの位置と、上記で導出した角度とに基づいて、上記の点と異なる点Xの位置を導出する。以下、第2の実施形態と同様の処理をする。
The
本変形例によれば、1点を共用するという条件を利用したことにより、2つの条件を満たす点Xが1つに定まることから、第2の実施形態と共通する効果を奏することのほかに、処理を簡素化することができる。 According to this modified example, by using the condition that one point is shared, one point X that satisfies two conditions is determined. , can simplify the process.
(第2の実施形態の変形例その2)
第2の実施形態の変形例その2について説明する。第2の実施形態においても本変形例に示すように、前述の第1の実施形態の変形例その2と同様に、球体として形成された全周囲画像を処理の対象にしてもよい。
(
本変形例によれば、第2の実施形態と共通する効果を奏することのほかに、処理の対象の画像を全周囲画像とすることができる。 According to this modified example, the image to be processed can be a omnidirectional image, in addition to the effects common to those of the second embodiment.
(第2の実施形態の変形例その3)
第2の実施形態の変形例その3について説明する。第2の実施形態においても本変形例に示すように、前述の第1の実施形態の変形例その3と同様に、撮像装置100から供給される複数の画像を合成して周囲画像を処理の対象にしてもよい。
(Modification 3 of the second embodiment)
Modification 3 of the second embodiment will be described. As shown in this modification, in the second embodiment as well, similar to modification 3 of the first embodiment, a plurality of images supplied from the
上記の実施形態によれば、第2の実施形態と共通する効果を奏することの他に、撮像装置100から供給される複数の画像を合成して周囲画像を生成することができる。
According to the above-described embodiment, it is possible to combine a plurality of images supplied from the
(第3の実施形態)
第3の実施形態について説明する。第1と第2の実施形態では、水平方向の面(基準面)の観測点の位置を導出する処理を例示した。これに代えて、本実施形態では、基準面からの観測点の高さを導出する処理を例示する。例えば、基準面は、視認可能な床面又は天井面などである。第1の実施形態との相違点を中心に説明するが、第1の実施形態と同様の手法を適用することを制限するものではない。
(Third embodiment)
A third embodiment will be described. In the first and second embodiments, the process of deriving the position of the observation point on the horizontal plane (reference plane) has been exemplified. Instead of this, the present embodiment exemplifies processing for deriving the height of the observation point from the reference plane. For example, the reference surface is a visible floor surface, ceiling surface, or the like. Although differences from the first embodiment will be mainly described, application of a method similar to that of the first embodiment is not limited.
本実施形態の位置導出部424は、基準面からの高さを導出する過程で、壁面などの鉛直な面を利用する。本実施形態における鉛直な面は、第1の実施形態の基準面に代わるものである。
本実施形態における全周囲画像は、例えば、正距円筒図法の画像であって、その短辺の方向が鉛直方向と直交するものとする。さらに、位置導出部424は、その短辺の方向が上記の鉛直な面と並行になるように決定する。
位置導出部424は、鉛直な面上の点の位置と、全周囲画像上で選択した点の位置とに基づいて、観測点の位置を導出する。
上記の観測点の位置の導出は、例えば、第1の実施形態における導出方法と同様であってもよい。
The
The omnidirectional image in this embodiment is, for example, an equirectangular projection image, and the direction of its short side is perpendicular to the vertical direction. Furthermore, the
The
Derivation of the position of the observation point described above may be, for example, the same as the derivation method in the first embodiment.
上記の実施形態によれば、第1の実施形態と同様の効果として、観測点の鉛直方向の位置、すなわち高さを導出し、その観測点の鉛直方向の位置の周囲の状況を共有することができる。 According to the above embodiment, as an effect similar to that of the first embodiment, the vertical position of the observation point, that is, the height is derived, and the situation around the vertical position of the observation point is shared. can be done.
なお、観測点の高さの導出は、本実施形態の手法に限らず、第1と第2の実施形態及びそれらの変形例に示した手法を利用して導出してもよい。 Derivation of the height of the observation point is not limited to the method of this embodiment, and may be derived using the methods shown in the first and second embodiments and their modifications.
(第4の実施形態)
第4の実施形態について説明する。第3の実施形態では、第1の実施形態と同様の手法等により、高さを導出する場合を例示した。これに代わり、本変形例では、第1又は第2の実施形態の結果などにより、水平方向の観測点の位置が既に確定していることを条件に、観測点の高さを導出する手法を例示する。
(Fourth embodiment)
A fourth embodiment will be described. In the third embodiment, the case of deriving the height is exemplified by the same method as in the first embodiment. Instead of this, in this modified example, a method of deriving the height of the observation point on the condition that the position of the observation point in the horizontal direction has already been determined based on the results of the first or second embodiment is adopted. Illustrate.
図18は、観測点と床面と壁を示す立面図である。 FIG. 18 is an elevation view showing an observation point, a floor surface and a wall.
既に、観測点の水平方向の位置が確定しており、観測点の壁からの距離wは明らかである。床と壁との境界を、観測点から見込む際の俯角ψは、周囲画像の短辺方向の長さから明らかである。つまり、位置導出部424は、観測点の高さhを、式(6)に従い導出する。
Already the horizontal position of the observation point is fixed and the distance w of the observation point from the wall is known. The depression angle ψ when viewing the boundary between the floor and the wall from the observation point is clear from the length of the surrounding image in the direction of the short side. That is, the
h=wtanψ ・・・(6) h=wtan ψ (6)
上記の実施形態によれば、水平方向の観測点の位置が既に確定している場合に、第3の実施形態と同様の効果を奏することができる。また、第1又は第2の実施形態の後に実施されることにより、観測点の水平方向の位置に加え、その高さも導出することができる。 According to the above embodiment, when the position of the observation point in the horizontal direction has already been determined, the same effects as those of the third embodiment can be obtained. Also, by being implemented after the first or second embodiment, in addition to the horizontal position of the observation point, its height can also be derived.
(第5の実施形態)
第5の実施形態について説明する。第1と第2の実施形態では、水平方向の観測点の位置を導出する処理を例示した。第3と第4の実施形態では、鉛直方向の観測点の位置を導出する処理を例示した。これに代えて、本実施形態では、基準面を基準に定めた3次元空間における観測点の位置を導出する処理を例示する。
例えば、1つの全周囲画像から、2種類の正距円筒図法の画像を生成する。
第1画像は、その短辺の方向が鉛直方向のものとする。さらに、その短辺の方向が上記の基準面と並行になるようにする。
第2画像は、その短辺の方向が鉛直方向と直交するものとする。さらに、その短辺の方向が上記の鉛直な面と並行になるようにする。
位置導出部424は、観測点の位置について、第1画像に基づいて、第1又は第2の実施形態の何れかの手法により基準面における水平方向の位置を導出し、第2画像に基づいて、第3の実施形態の手法により基準面に対する高さを導出する。位置導出部424は、導出した基準面における水平方向の位置と、基準面に対する高さとに基づいて、基準面を基準に定めた3次元空間における観測点の位置を導出する。
(Fifth embodiment)
A fifth embodiment will be described. The first and second embodiments have exemplified the process of deriving the position of the observation point in the horizontal direction. The third and fourth embodiments have exemplified the process of deriving the position of the observation point in the vertical direction. Instead of this, the present embodiment exemplifies processing for deriving the position of the observation point in a three-dimensional space defined on the basis of the reference plane.
For example, two types of equirectangular projection images are generated from one omnidirectional image.
It is assumed that the direction of the short side of the first image is the vertical direction. Furthermore, the direction of the short side should be parallel to the reference plane.
It is assumed that the direction of the short side of the second image is orthogonal to the vertical direction. Furthermore, the direction of the short side should be parallel to the vertical plane.
The
上記の実施形態によれば、第1の実施形態と共通する効果を奏することのほかに、観測点の高さも導出することで3次元空間における観測点の位置を導出し、その観測点の周囲の状況を共有できる。
なお、上記の実施形態では、第3の実施形態の手法を利用する事例を例示したが、これに代えて、第4の実施形態の手法を利用してもよい。
According to the above embodiment, in addition to the effects common to the first embodiment, the position of the observation point in the three-dimensional space is derived by deriving the height of the observation point, and the surroundings of the observation point are calculated. can share the status of
In addition, in the above embodiment, an example of using the technique of the third embodiment is illustrated, but instead of this, the technique of the fourth embodiment may be used.
少なくとも上記の何れかの実施形態によれば、撮影位置特定システム1は、実空間における観測点の周囲の状況を示す周囲画像を取得する実画像取得部(指定情報取得部421と周囲画像取得部422)と、周囲画像の面に沿う方向のうちの第1方向(周方向又は長辺方向)に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、複数の組のうち第1組の2点と第2組の2点の位置と、第1組の2点と第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、観測点に対応する前記基準面上の位置を導出する位置導出部424と、を備えることにより、より簡易な方法で、ある位置の周囲の状況を共有できる。
According to at least one of the above-described embodiments, the photographing
また、上記の実施形態によれば、建物2等を示す構造図は、図面(基準面)上の点の位置が識別可能であれば他の情報については概略の情報であってよい。これにより、ユーザは、観測点の位置を特定するのに必要とされる最小限の情報を作図するだけで、観測点の位置を導出できる。
Further, according to the above-described embodiment, the structural drawing showing the
また、上記の実施形態によれば、情報提供支援装置400は、実空間の現実の状態を、実空間で撮影した画像として取得する。情報提供支援装置400が3Dモデルにその画像を重ねた画像を提供することにより、ユーザは、3Dモデルとしてモデリングされた結果だけの情報よりも、現実の状態の見落としや思い込みを低減できる。
Further, according to the above embodiment, the information
さらに、撮影時の位置を特定し、その画像からパース図を作成することにより、直感的に理解しやすい情報を提供することが可能になる。特に、対象範囲10内に既存物があり、新たに設ける計画物と既存物との関係を示す場合などに有効である。上記のパース図によれば、計画物(新設物)と既存物との干渉が明らかになる。また、上記のパース図は、既存物を撤去する際にも、撤去後の状態を検討するうえで必要な情報をユーザに提供する。
Furthermore, by specifying the position at the time of shooting and creating a perspective view from the image, it is possible to provide intuitively understandable information. In particular, it is effective when there is an existing object within the
さらに、上記のパース図は、対象範囲10の管理者、利用者などに上記の関係を示す場合などの説明用資料として適している。管理者、利用者などの説明を受ける説明会参加者にも説明が理解しやすくなり、その説明を納得してもらいやすくなる。また、説明会参加者が、質疑や議論の場に参加しやすくなり、その場で得られた説明会参加者の意見に基づいて、設計の改善を図ることが容易になる。
Furthermore, the above perspective view is suitable as an explanatory material for showing the above relationship to the administrator, user, etc. of the
また、上記の実施形態によれば、対象範囲10の画像を撮像装置100により撮影するという簡易な作業により、対象範囲10の正確な情報を漏らさずに得ることが可能になる。
撮像装置100に対する比較例として、現場の状況を点群情報として取得するレーザスキャナが知られている。撮影位置特定システム1は、壁面等の状況などを取得する際などに、レーザスキャナなどの特殊な装置を利用することなく、撮像装置100を利用することで必要とされる情報を容易に得ることができる。なお、撮影位置特定システム1は、上記のように簡易な作業を提供するものであり、維持管理の業務に適用してもよい。
Further, according to the above-described embodiment, it is possible to obtain accurate information of the
As a comparative example for the
なお、撮影位置特定システム1は、維持管理の業務の他、建物2に対する設計業務、監理業務、管理業務など以外の業務や用途に適用可能である。
In addition to maintenance work, the shooting
以上、本発明の実施形態について説明したが、図1に示す撮影位置特定システム1は、内部にコンピュータシステムを有している。そして、上述した処理に関する一連の処理の過程は、プログラムの形式でコンピュータ読み取り可能な記憶媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここで、コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。また、ここでいう「コンピュータシステム」とは、OSなども含むものとする。
Although the embodiments of the present invention have been described above, the imaging
以上、本発明の一実施形態について説明したが、本発明の実施形態は上記のものに限定されない。例えば、各実施形態とその変形例に例示した手法は、例示した組合せ以外の組みにしてもよい。また、本発明の実施形態は、例えば、上記の実施形態を次のように変形したものとすることができる。
例えば、上記の実施形態では、本発明に関連する構成を便宜上、撮影位置特定システム1を、撮像装置100、端末装置200、及び、情報提供支援装置400に分けて説明した。撮像装置100、端末装置200、及び、情報提供支援装置400の分割を、上記に例示したものと変更してもよく、各装置同士を一体化してもよい。また、各装置に含まれる一部の構成を、他の装置の構成に含めて構成してもよい。さらに、情報提供支援装置400は、BIMとしての機能を含むものであってもよい。
Although one embodiment of the present invention has been described above, the embodiment of the present invention is not limited to the above. For example, the methods exemplified in each embodiment and its modifications may be combined in combinations other than the exemplified combinations. Moreover, the embodiment of the present invention can be, for example, the above-described embodiment modified as follows.
For example, in the above embodiments, the photographing
なお、上記の実施形態では、撮像装置100により撮影された実空間の画像を利用する方法について例示したが、これに代えて、建物等をモデル化した3次元モデルに基づいて生成された画像を利用してもよい。
In the above-described embodiment, the method of using the image of the real space captured by the
なお、撮影位置特定システム1は、建物2に対する設計業務、管理業務など以外の業務や用途に適用可能である。
Note that the shooting
1 撮影位置特定システム、100 撮像装置、200 端末装置、400 情報提供支援装置、410 記憶部、411 空間モデル情報、412 収集情報、413 見込む位置情報、414 積算情報、420 制御部、421 指定情報取得部、422 周囲画像取得部、423 表示制御部、424 位置導出部、426 積算処理制御部、427 出力処理部。
1 shooting
Claims (7)
前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出する位置導出部と、
を備え、
前記位置導出部は、
前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、
前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、
前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にする
撮影位置特定システム。 a real image acquisition unit that acquires an all-surrounding image as a surrounding image that shows the situation around the observation point in real space by projecting onto a spherical surface;
extracting a plurality of sets from a combination of points arranged at a distance in a first horizontal direction out of directions along the spherical surface of the surrounding image; and the positions of the second set of two points, and the positions of the points on the reference plane corresponding to the first set of two points and the second set of two points, respectively. a position derivation unit that derives a position on the reference plane;
with
The position derivation unit
With respect to a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system and the orthogonal coordinate system Adjusting the inclination so that the vertical direction matches, and projecting the surrounding image onto the spherical surface after the adjustment ,
The position corresponding to the observation point is associated with the origin of the polar coordinate system, and the position corresponding to the observation point is defined as a position on the reference plane including the horizontal axis in the orthogonal coordinate system and the reference plane. shown using the height from and
Based on the position corresponding to the observation point, it is possible to associate collected information indicating the surrounding situation of the observation point with a predetermined position on the spherical surface.
Filming localization system.
前記第1組の2点と前記第2組の2点の位置に基づいて角度を導出し、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置と前記角度とに基づいて、前記観測点に対応する前記基準面上の位置を導出する、
請求項1に記載の撮影位置特定システム。 The position derivation unit
Deriving an angle based on the positions of the first set of two points and the second set of two points, and points on the reference plane corresponding to the first set of two points and the second set of two points, respectively Deriving a position on the reference plane corresponding to the observation point based on the position and the angle of
The photographing position specifying system according to claim 1.
前記第1方向が軸を中心に一巡する前記球面の周方向であって、前記一巡する前記球面に前記周囲画像を対応付ける、
請求項1又は請求項2に記載の撮影位置特定システム。 The position derivation unit
The first direction is a circumferential direction of the spherical surface that makes a round around an axis, and the surrounding image is associated with the spherical surface that makes a round.
The imaging position specifying system according to claim 1 or 2.
前記第1組の2点と前記第2組の2点のうちの1点を共有する
請求項1から請求項3の何れか1項に記載の撮影位置特定システム。 The position derivation unit
4. The imaging position specifying system according to any one of claims 1 to 3 , wherein one of the two points of the first set and one of the two points of the second set are shared.
前記球の内面である前記球面に前記周囲画像を射影する、
請求項1に記載の撮影位置特定システム。 The position derivation unit
projecting the ambient image onto the spherical surface, which is the inner surface of the sphere ;
The photographing position specifying system according to claim 1 .
前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出するステップと、
前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、
前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、
前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にするステップと
を含む撮影位置特定方法。 a step of acquiring an all-surrounding image as a surrounding image showing the situation around the observation point in real space by projecting onto a spherical surface;
extracting a plurality of sets from a combination of points arranged at a distance in a first horizontal direction out of directions along the spherical surface of the surrounding image; and the positions of the second set of two points, and the positions of the points on the reference plane corresponding to the first set of two points and the second set of two points, respectively. deriving a position on the reference plane;
With respect to a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system and the orthogonal coordinate system Adjusting the inclination so that the vertical direction matches, and projecting the surrounding image onto the spherical surface after the adjustment ,
The position corresponding to the observation point is associated with the origin of the polar coordinate system, and the position corresponding to the observation point is defined as a position on the reference plane including the horizontal axis in the orthogonal coordinate system and the reference plane. shown using the height from and
and making it possible to associate collected information indicating a situation around the observation point with a predetermined position on the spherical surface with reference to the position corresponding to the observation point .
前記周囲画像の前記球面に沿う方向のうち水平方向に係る第1方向に距離を隔てて配置される点同士の組み合わせから複数の組を抽出し、前記複数の組のうち第1組の2点と第2組の2点の位置と、前記第1組の2点と前記第2組の2点とにそれぞれ対応する基準面上の点の位置とに基づいて、前記観測点に対応する前記基準面上の位置を導出するステップと、
前記周囲画像を射影するための球面を有する球の中心を基準にする極座標系と、原点から鉛直方向に延びる軸を有する直交座標系とについて、前記極座標系の極方向と前記直交座標系の前記鉛直方向とが一致するように傾きを調整して、前記調整後に前記周囲画像を前記球面に射影して用いて、
前記観測点に対応する位置に前記極座標系の原点が対応付けられていて、前記観測点に対応する位置を、前記直交座標系における水平方向の軸を含む前記基準面上の位置と前記基準面からの高さとを用いて示し、
前記観測点に対応する位置を基準にして、前記球面上の所定の位置に前記観測点の周囲の状況を示す収集情報を対応付けることを可能にするステップと
をコンピュータに実行させるためのプログラム。 a step of acquiring an all-surrounding image as a surrounding image showing the situation around the observation point in real space by projecting onto a spherical surface;
extracting a plurality of sets from a combination of points arranged at a distance in a first horizontal direction out of directions along the spherical surface of the surrounding image; and the positions of the second set of two points, and the positions of the points on the reference plane corresponding to the first set of two points and the second set of two points, respectively. deriving a position on the reference plane;
With respect to a polar coordinate system based on the center of a sphere having a spherical surface for projecting the surrounding image and an orthogonal coordinate system having an axis extending vertically from the origin, the polar direction of the polar coordinate system and the orthogonal coordinate system Adjusting the inclination so that the vertical direction matches, and projecting the surrounding image onto the spherical surface after the adjustment ,
The position corresponding to the observation point is associated with the origin of the polar coordinate system, and the position corresponding to the observation point is defined as a position on the reference plane including the horizontal axis in the orthogonal coordinate system and the reference plane. shown using the height from and
A program for causing a computer to execute the step of enabling a predetermined position on the spherical surface to correspond to the collected information indicating the surrounding situation of the observation point, with reference to the position corresponding to the observation point .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016224309A JP7133900B2 (en) | 2016-11-17 | 2016-11-17 | Shooting position specifying system, shooting position specifying method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016224309A JP7133900B2 (en) | 2016-11-17 | 2016-11-17 | Shooting position specifying system, shooting position specifying method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018081571A JP2018081571A (en) | 2018-05-24 |
JP7133900B2 true JP7133900B2 (en) | 2022-09-09 |
Family
ID=62198454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016224309A Active JP7133900B2 (en) | 2016-11-17 | 2016-11-17 | Shooting position specifying system, shooting position specifying method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7133900B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7415496B2 (en) | 2019-12-02 | 2024-01-17 | 大日本印刷株式会社 | Image processing device, program and image processing system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176559A (en) | 2014-03-18 | 2015-10-05 | 株式会社リコー | information processing method, information processing apparatus, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015081814A (en) * | 2013-10-22 | 2015-04-27 | 株式会社大林組 | Position measurement system of movable body |
-
2016
- 2016-11-17 JP JP2016224309A patent/JP7133900B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176559A (en) | 2014-03-18 | 2015-10-05 | 株式会社リコー | information processing method, information processing apparatus, and program |
Non-Patent Citations (1)
Title |
---|
倉爪 亮,外5名,全方位カメラとデッドレコニング機能を有するサッカーロボットのロバストな自己位置同定手法,日本ロボット学会誌 第22巻 第3号,日本,社団法人日本ロボット学会,2004年,第22巻,pp.63-72 |
Also Published As
Publication number | Publication date |
---|---|
JP2018081571A (en) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11051000B2 (en) | Method for calibrating cameras with non-overlapping views | |
JP4825980B2 (en) | Calibration method for fisheye camera. | |
US20130335532A1 (en) | Image processing apparatus, image processing method, and program | |
US11122195B2 (en) | Camera parameter estimation device, method, and program | |
US10290049B1 (en) | System and method for multi-user augmented reality shopping | |
CN114140516A (en) | Automated analysis of image content for determining image acquisition location | |
EP3818741A1 (en) | Method, apparatus and computer program for performing three dimensional radio model construction | |
JP2007024647A (en) | Distance calculating apparatus, distance calculating method, structure analyzing apparatus and structure analyzing method | |
JP7241812B2 (en) | Information visualization system, information visualization method, and program | |
JP2022058658A (en) | Device and method for obtaining positioning error map indicating sharpness level of image | |
Chen et al. | Calibration of a hybrid camera network | |
Deng et al. | Accurate and flexible calibration method for a class of visual sensor networks | |
Sahin | Comparison and calibration of mobile phone fisheye lens and regular fisheye lens via equidistant model | |
JP7133900B2 (en) | Shooting position specifying system, shooting position specifying method, and program | |
JP6854631B2 (en) | Information visualization system, information visualization method, and program | |
Rodríguez‐Gonzálvez et al. | A hybrid approach to create an archaeological visualization system for a Palaeolithic cave | |
RU2679200C1 (en) | Data from the video camera displaying method and system | |
Wahbeh et al. | Toward the Interactive 3D Modelling Applied to Ponte Rotto in Rome | |
EP3882846B1 (en) | Method and device for collecting images of a scene for generating virtual reality data | |
JP2009124204A (en) | Apparatus and program for estimating camera parameter | |
JP6167135B2 (en) | 3D position measurement method, surveying method, 3D position measurement apparatus, and 3D position measurement program | |
JP7045863B2 (en) | Information management system, information management method, and program | |
JP2018013877A (en) | System, method, and program for supporting information sharing | |
JP2018013878A (en) | System, method, and program for supporting information sharing | |
CN105323553A (en) | Holder equipment control method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210713 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210713 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210726 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210727 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210910 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210914 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220301 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220609 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220705 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220802 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7133900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |