JP2011130255A - Photography object information generation apparatus and photography object information generation program - Google Patents

Photography object information generation apparatus and photography object information generation program Download PDF

Info

Publication number
JP2011130255A
JP2011130255A JP2009287722A JP2009287722A JP2011130255A JP 2011130255 A JP2011130255 A JP 2011130255A JP 2009287722 A JP2009287722 A JP 2009287722A JP 2009287722 A JP2009287722 A JP 2009287722A JP 2011130255 A JP2011130255 A JP 2011130255A
Authority
JP
Japan
Prior art keywords
photographing
target
shooting
information
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009287722A
Other languages
Japanese (ja)
Other versions
JP5297366B2 (en
Inventor
Tadao Shimada
忠男 嶋田
Nobutaka Sakakibara
庸貴 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2009287722A priority Critical patent/JP5297366B2/en
Publication of JP2011130255A publication Critical patent/JP2011130255A/en
Application granted granted Critical
Publication of JP5297366B2 publication Critical patent/JP5297366B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accomplish a photography object information generation apparatus and photography object information generation program, in which information about a photography object can be provided in accordance with exactness of a position of the photography object, a degree of concern of a user, and the like. <P>SOLUTION: When a photographing apparatus 10 photographs a photography object, a control device 16 acquires image information and arithmetically operates the coordinate value of the photography object on the basis of the photographing position of the photographing apparatus 10, a distance to the photography object, and an azimuth angle and elevation and depression angles of the photographing apparatus 10 in a photographing direction measured by a coordinate measuring device 14 and an angle/distance measuring instrument 12. The control device 16 determines exactness of the arithmetically operated coordinate value, determines the display mode of information about the photography object in accordance with a predetermined display determination criterion on the basis of the exactness and the degree of concern of a user, and outputs the determined display mode to a display device or the like. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮影対象情報生成装置及び撮影対象情報生成プログラムに関する。   The present invention relates to a shooting target information generation apparatus and a shooting target information generation program.

従来より、航空機等に搭載したカメラにより地表面の画像を撮影し、撮影対象である地表面等の位置を特定する技術が提案されている。例えば、下記特許文献1には、航空機に搭載され常に鉛直下方を撮影するテレビカメラが出力する映像を見ながら、リアルタイムに被害地点の判読登録ができる位置判読装置が開示されている。また、下記特許文献2には、航空機等の移動体に搭載したカメラにより地表面の画像を撮影し、カメラの撮像方向、移動体の進行方向、移動体の絶対位置、カメラと被写体との距離から被写体の絶対位置を特定する移動体に搭載された位置特定装置が開示されている。   2. Description of the Related Art Conventionally, a technique has been proposed in which an image of the ground surface is captured by a camera mounted on an aircraft or the like, and the position of the ground surface or the like that is an object to be captured is specified. For example, Patent Document 1 below discloses a position interpretation device that can register and interpret a damage point in real time while watching a video output from a television camera that is mounted on an aircraft and always captures a vertically downward image. In Patent Document 2 below, an image of the ground surface is captured by a camera mounted on a moving body such as an aircraft, and the imaging direction of the camera, the traveling direction of the moving body, the absolute position of the moving body, and the distance between the camera and the subject. A position specifying device mounted on a moving body that specifies the absolute position of the subject is disclosed.

また、下記特許文献3には、空中より撮影された地表面の撮影画像を、機体の飛行経路とともに地図上に表示する技術が開示されている。   Patent Document 3 below discloses a technique for displaying a photographed image of the ground surface taken from the air on a map together with the flight path of the aircraft.

特開平11−331831号公報JP-A-11-331831 特開2001−343213号公報JP 2001-343213 A 再表2004/113836号公報No. 2004/113836

しかし、上記各従来技術では、撮影対象(被写体)に関する情報は、何れも撮影対象の画像、地図上における撮影対象の位置等に限られており、撮影対象に関する情報を、取得した位置の正確性や利用者の関心度等に応じて適宜変更することはできなかった。このため、上記位置の正確性、利用者の関心度等に応じて、利用者にとって利便性が高い撮影対象に関する情報を提供することが困難であるという問題があった。   However, in each of the above prior arts, the information related to the shooting target (subject) is limited to the image of the shooting target, the position of the shooting target on the map, and the like. It could not be changed as appropriate according to the user's interest level or the like. For this reason, there has been a problem that it is difficult to provide information related to an imaging target that is highly convenient for the user in accordance with the accuracy of the position, the degree of interest of the user, and the like.

本発明の目的は、撮影対象の位置の正確性、利用者の関心度等に応じて撮影対象に関する情報を提供できる撮影対象情報生成装置及び撮影対象情報生成プログラムを実現することにある。   An object of the present invention is to realize a photographing target information generating apparatus and a photographing target information generating program capable of providing information related to a photographing target in accordance with the accuracy of the position of the photographing target, the degree of interest of the user, and the like.

上記目的を達成するために、本発明の第1の実施形態は、撮影対象情報生成装置であって、任意の撮影位置から任意の撮影方向にある撮影対象を撮影する撮影手段と、前記撮影位置の座標値、前記撮影位置と前記撮影対象との距離、前記撮影手段の撮影方向に基づき、前記撮影対象の座標値を演算する撮影対象座標演算手段と、前記撮影手段が撮影した撮影対象の画像及び前記撮影対象座標演算手段が演算した撮影対象の座標値を含む撮影対象に関する情報を生成する撮影対象情報生成手段と、予め定めた判定基準に従い、前記撮影対象座標演算手段が演算した座標値の正確性を判定する判定手段と、を備え、前記撮影対象情報生成手段は、前記判定手段が判定した撮影対象の座標値の正確性と、利用者の関心度と、に基づき、予め定めた表示決定基準により表示態様を決定することを特徴とする。   In order to achieve the above object, a first embodiment of the present invention is a shooting target information generation device, which is a shooting unit for shooting a shooting target in an arbitrary shooting direction from an arbitrary shooting position, and the shooting position. Based on the coordinate value, the distance between the shooting position and the shooting target, the shooting direction of the shooting means, the shooting target coordinate calculation means for calculating the coordinate value of the shooting target, and the shooting target image shot by the shooting means And a shooting target information generating means for generating information relating to a shooting target including a shooting target coordinate value calculated by the shooting target coordinate calculating means, and a coordinate value calculated by the shooting target coordinate calculating means according to a predetermined criterion. Determination means for determining accuracy, and the imaging target information generation means is a table that is determined in advance based on the accuracy of the coordinate value of the imaging target determined by the determination means and the degree of interest of the user. The decision criterion and determines a display mode.

また、第2の実施形態は、上記撮影対象情報生成装置において、前記判定手段が、少なくとも、前記撮影位置の座標値の正確性、前記撮影位置と撮影対象との距離の正確性、前記撮影手段の撮影方向の正確性のうちの1つにより撮影対象の座標値の正確性を判定することを特徴とする。   In the second embodiment, in the photographing object information generating apparatus, the determination unit includes at least the accuracy of the coordinate value of the photographing position, the accuracy of the distance between the photographing position and the photographing object, and the photographing unit. The accuracy of the coordinate value of the object to be imaged is determined by one of the accuracy of the imaging direction.

また、第3の実施形態は、上記撮影対象情報生成装置において、前記撮影対象情報生成手段が、前記撮影手段による前記撮影対象の捕捉時間または前記撮影位置と前記撮影対象との距離の測定回数に基づいて前記利用者の関心度を判定することを特徴とする。   Further, in the third embodiment, in the photographing target information generating apparatus, the photographing target information generating unit is configured to determine a capturing time of the photographing target by the photographing unit or a measurement number of a distance between the photographing position and the photographing target. The user's degree of interest is determined based on the above.

また、第4の実施形態は、上記撮影対象情報生成装置において、前記撮影対象に関する情報には、地図上において前記撮影対象の位置を表す図形が含まれ、前記撮影対象情報生成手段が、前記判定手段の判定結果に基づいて、前記撮影対象の位置を表す図形を変更することを特徴とする。   In the fourth embodiment, in the photographing target information generation device, the information regarding the photographing target includes a figure representing the position of the photographing target on a map, and the photographing target information generation unit is configured to determine the determination. The figure representing the position of the photographing object is changed based on the determination result of the means.

また、第5の実施形態は、上記撮影対象情報生成装置において、前記撮影対象に関する情報には、前記撮影対象の位置を表す文字列が含まれ、前記文字列が、その表す情報の詳細度により複数準備されており、前記撮影対象情報生成手段は、前記判定手段の判定結果に基づいて、前記複数準備されている文字列の中から表示する文字列を選択することを特徴とする。   In the fifth embodiment, in the photographing target information generating apparatus, the information related to the photographing target includes a character string that represents the position of the photographing target, and the character string depends on the level of detail of the information that is represented. Plural preparations are provided, and the photographing target information generation unit selects a character string to be displayed from the plurality of prepared character strings based on a determination result of the determination unit.

また、第6の実施形態は、上記撮影対象情報生成装置が、さらに過去に撮影された画像が蓄積された画像データベースを有しており、前記撮影対象情報生成手段が、前記撮影対象の座標値に基づいて前記画像データベースから撮影対象画像を抽出することを特徴とする。   In the sixth embodiment, the imaging target information generation apparatus further includes an image database in which images captured in the past are accumulated, and the imaging target information generation unit includes the coordinate values of the imaging target. Based on the above, a shooting target image is extracted from the image database.

また、第7の実施形態は、撮影対象情報生成プログラムであって、コンピュータを、撮影手段により任意の撮影位置から任意の撮影方向にある撮影対象を撮影した画像情報を取得する画像情報取得手段、前記撮影位置の座標値、前記撮影位置と前記撮影対象との距離、前記撮影手段の撮影方向に基づき、前記撮影対象の座標値を演算する撮影対象座標演算手段、前記撮影手段が撮影した撮影対象の画像及び前記撮影対象座標演算手段が演算した撮影対象の座標値を含む撮影対象に関する情報を生成する撮影対象情報生成手段、予め定めた判定基準に従い、前記撮影対象座標演算手段が演算した座標値の正確性を判定する判定手段、として機能させ、前記撮影対象情報生成手段は、前記判定手段が判定した撮影対象の座標値の正確性と、利用者の関心度と、に基づき、予め定めた表示決定基準により表示態様を決定することを特徴とする。   Further, the seventh embodiment is a shooting target information generation program, and an image information acquisition unit that acquires image information obtained by shooting a shooting target in an arbitrary shooting direction from an arbitrary shooting position by a shooting unit; Based on the coordinate value of the shooting position, the distance between the shooting position and the shooting target, the shooting direction of the shooting means, the shooting target coordinate calculating means for calculating the coordinate value of the shooting target, the shooting target shot by the shooting means A shooting target information generating means for generating information relating to the shooting target including the image of the shooting target coordinate value calculated by the shooting target coordinate calculating means, a coordinate value calculated by the shooting target coordinate calculating means in accordance with a predetermined criterion And determining the accuracy of the imaging target information generating unit, the imaging target information generating unit determines the accuracy of the coordinate value of the imaging target determined by the determining unit, and the user Based on the interest level, and determines the display mode by the display determination criteria determined in advance.

本発明によれば、撮影対象の位置の正確性、利用者の関心度等に応じて撮影対象に関する情報を提供できる。   According to the present invention, it is possible to provide information related to a shooting target according to the accuracy of the position of the shooting target, the degree of interest of the user, and the like.

実施形態にかかる撮影対象情報生成装置の構成図である。1 is a configuration diagram of an imaging target information generation device according to an embodiment. 実施形態にかかる制御装置を構成するコンピュータのハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of the computer which comprises the control apparatus concerning embodiment. 実施形態にかかる制御装置の機能ブロック図である。It is a functional block diagram of a control device concerning an embodiment. 実施形態にかかる対象座標演算部の演算処理の説明図である。It is explanatory drawing of the calculation process of the object coordinate calculating part concerning embodiment. 実施形態にかかる対象情報生成部が撮影対象に関する情報の表示態様の決定に使用する表示決定基準の例を示す図である。It is a figure which shows the example of the display determination reference | standard used for the determination of the display mode of the information regarding the imaging | photography object by the target information generation part concerning embodiment. 実施形態にかかる撮影対象のガイド情報の表示態様の例を示す図である。It is a figure which shows the example of the display mode of the guide information of the imaging | photography object concerning embodiment. 実施形態にかかる撮影対象情報生成装置の動作例のフロー図である。It is a flowchart of the example of operation | movement of the imaging | photography target information generation apparatus concerning embodiment. 実施形態にかかる撮影対象情報生成装置の他の動作例のフロー図である。It is a flowchart of the other operation example of the imaging | photography target information generation apparatus concerning embodiment.

以下、本発明を実施するための形態(以下、実施形態という)を、図面に従って説明する。   Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.

図1には、実施形態にかかる撮影対象情報生成装置の構成図が示される。図1において、撮影対象情報生成装置は、撮影装置10、角度距離計測器12、座標計測装置14、制御装置16を含んで構成されている。   FIG. 1 is a configuration diagram of a photographing target information generation device according to the embodiment. In FIG. 1, the photographing target information generating device includes a photographing device 10, an angular distance measuring device 12, a coordinate measuring device 14, and a control device 16.

撮影装置10は、CCDカメラその他の適宜なカメラにより構成され、撮影対象を撮影して、撮影対象の画像情報を生成する。なお、撮影装置10には、暗視カメラや動画を撮影するビデオカメラを含んでもよい。   The imaging device 10 is configured by a CCD camera or other appropriate camera, and shoots a shooting target to generate image information of the shooting target. Note that the photographing apparatus 10 may include a night vision camera or a video camera that shoots a moving image.

角度距離計測器12は、撮影装置10の撮影位置と撮影対象との距離、撮影装置10の撮影方向の方位角及び仰俯角を計測する。撮影位置と撮影対象との距離(例えばメートル単位の値)は、例えば従来公知のレーザー距離計等を使用して計測する。また、撮影方向は、撮影装置10を構成するカメラのレンズの光軸方向であり、カメラレンズの光軸と、角度距離計測器12を構成するレーザー距離計等の光軸が略平行となるよう、例えば数百m以上の遠方にある撮影対象を撮影装置10と同時に角度距離計測器12が標的するように角度距離計測器12の光軸方向を予め調整し、上記撮影方向の方位角及び仰俯角を角度距離計測器12で計測する。この場合、撮影方向の方位角は、例えば従来公知の磁気センサにより地磁気の水平方向成分を検出することにより計測することができる。また、撮影方向の仰俯角は、従来公知の加速度センサ等を使用して計測する。なお、方位角の計測に磁気センサを用いる場合、センサの置き場所によっては設置場所周辺の磁界の歪の影響を受ける可能性がある。この場合は、磁気センサ設置場所周辺に磁界の歪が無い条件下と磁界の歪がある条件下で、同じ目標物を同じ地点から計測し、計測された方位角の差を求め、その差を方位角の補正値とすることができる。また、磁気センサの代わりに、撮影装置10を搭載した航空機等の移動体に固定された軸に対する撮影装置10の回転角度により、上記方位角を計測する構成でもよい。角度距離計測器12による上記距離及び角度の計測は、撮影装置10のシャッターと同期あるいは非同期で行われる。シャッターと非同期で計測する場合は、撮影装置10のシャッターが動作する時刻tにおける距離、方位角及び仰俯角の値は、時刻tの直前の時刻t1及び直後の時刻t2における計測値を用いて、次の補間式により補間して求める。   The angle distance measuring device 12 measures the distance between the photographing position of the photographing apparatus 10 and the photographing target, the azimuth angle and the elevation angle in the photographing direction of the photographing apparatus 10. The distance (for example, a value in meters) between the photographing position and the photographing object is measured using, for example, a conventionally known laser distance meter. The photographing direction is the optical axis direction of the lens of the camera constituting the photographing apparatus 10 so that the optical axis of the camera lens and the optical axis of the laser distance meter constituting the angular distance measuring device 12 are substantially parallel. For example, the optical axis direction of the angle distance measuring device 12 is adjusted in advance so that the object to be photographed at a distance of several hundred meters or more is simultaneously targeted by the angle distance measuring device 12 at the same time as the imaging device 10, and The depression angle is measured by the angle distance measuring device 12. In this case, the azimuth angle in the photographing direction can be measured, for example, by detecting the horizontal component of geomagnetism using a conventionally known magnetic sensor. Further, the elevation angle in the photographing direction is measured using a conventionally known acceleration sensor or the like. When a magnetic sensor is used for azimuth measurement, there is a possibility of being affected by the distortion of the magnetic field around the installation location depending on the location of the sensor. In this case, the same target is measured from the same point under the conditions where there is no magnetic field distortion and the magnetic field distortion around the magnetic sensor installation location, and the difference between the measured azimuths is obtained. An azimuth angle correction value can be used. Moreover, the structure which measures the said azimuth | direction angle with the rotation angle of the imaging device 10 with respect to the axis | shaft fixed to moving bodies, such as an aircraft carrying the imaging device 10, instead of a magnetic sensor may be sufficient. The measurement of the distance and angle by the angle distance measuring device 12 is performed synchronously or asynchronously with the shutter of the photographing apparatus 10. When measuring asynchronously with the shutter, the distance, azimuth angle and elevation angle at time t when the shutter of the photographing apparatus 10 operates are measured using the measured values at time t1 immediately before time t and time t2 immediately after time t. Obtained by interpolation using the following interpolation formula.

距離、方位角、仰俯角の補間式
Vt = V1 + (V2−V1)・(t−t1)/(t2−t1)

ここで、Vtは時間tにおける距離、方位角、仰俯角の何れかの値、V1は時間t1における上記各値、V2は時間t2における上記各値である。
Interpolation formula of distance, azimuth, and elevation angle Vt = V1 + (V2-V1). (T-t1) / (t2-t1)

Here, Vt is one of the distance, azimuth, and elevation angle at time t, V1 is the above values at time t1, and V2 is the above values at time t2.

なお、上記補間処理は、後述する角度距離情報取得部39にて行う。また、動画撮影において、撮影間隔(フレーム周期)に同期して距離、方位角、仰俯角を計測することが難しい場合には、フレーム周期とは異なる所定時間間隔毎に上記計測を行う構成としてもよい。   The interpolation processing is performed by an angular distance information acquisition unit 39 described later. Also, when it is difficult to measure the distance, azimuth angle, and elevation angle in synchronization with the shooting interval (frame cycle) in moving image shooting, the above measurement may be performed at predetermined time intervals different from the frame cycle. Good.

また、撮影対象の画像は、GPS情報取得部38が取得した撮影位置の座標値、及び角度距離情報取得部39が取得した撮影装置10の撮影位置と撮影対象との距離、撮影装置10の撮影方向の方位角及び仰俯角に基づき、対象座標演算部40により求めた撮影対象の座標値に従って、撮影方向に直交するように3次元地図上に表示することにより、撮影状況を詳細に把握することができるので、更に撮影装置10の撮影方向の計測において、方位角、仰俯角とは別に、取得する画像情報の法線周りの回転角を計測する構成とし、上記回転角を撮影対象の画像を表示する際の回転角として利用してもよい。   The image to be imaged includes the coordinate value of the imaging position acquired by the GPS information acquisition unit 38, the distance between the imaging position of the imaging device 10 acquired by the angle distance information acquisition unit 39 and the imaging target, and the imaging of the imaging device 10. Based on the azimuth angle and elevation angle of the direction, according to the coordinate value of the shooting target obtained by the target coordinate calculation unit 40, the shooting situation is grasped in detail by displaying it on the three-dimensional map so as to be orthogonal to the shooting direction. Therefore, in the measurement of the photographing direction of the photographing apparatus 10, the rotation angle around the normal line of the acquired image information is measured separately from the azimuth angle and the elevation angle, and the rotation angle is determined based on the image to be photographed. You may utilize as a rotation angle at the time of displaying.

座標計測装置14は、GPS(全地球測位システム)受信機を含んで構成され、撮影装置10の撮影位置の座標値(例えば、経度、緯度、標高)を計測する。なお、撮影対象の画像を平面(2次元)地図上に表示する場合には、撮影対象の標高の算出に必要な撮影位置のz座標の取得は必ずしも必要ではない。上記座標値の計測は、撮影装置10のシャッターと同期して行われる。上記座標値の計測を撮影装置10のシャッターと非同期で行う場合は、撮影装置10のシャッターが動作する時刻(t)における撮影装置10の撮影位置の座標値Ptは、時点tの直前(t1)及び直後(t2)の時刻に計測した撮影装置10の撮影位置のそれぞれの座標値P1とP2より、次の補間式より補間して求める。   The coordinate measuring device 14 includes a GPS (Global Positioning System) receiver, and measures coordinate values (for example, longitude, latitude, and altitude) of the shooting position of the shooting device 10. Note that when displaying an image to be imaged on a plane (two-dimensional) map, it is not always necessary to acquire the z-coordinate of the image capturing position necessary for calculating the altitude of the imaged object. The measurement of the coordinate value is performed in synchronization with the shutter of the photographing apparatus 10. When the measurement of the coordinate value is performed asynchronously with the shutter of the imaging device 10, the coordinate value Pt of the imaging position of the imaging device 10 at the time (t) when the shutter of the imaging device 10 operates is immediately before the time t (t1). Then, the coordinate values P1 and P2 of the photographing position of the photographing apparatus 10 measured at the time immediately after (t2) are obtained by interpolation using the following interpolation formula.

座標値の補間式
Pt = P1 + (P2 ― P1)・(t−t1)/(t2−t1)

ここで、Ptは時刻tにおける座標値(Xt,Yt,Zt)、P1は時刻t1における座標値(Xt1,Yt1,Zt1)、P2は時刻t2における座標値(Xt2,Yt2,Zt2)である。
Interpolation formula of coordinate values Pt = P1 + (P2-P1). (T-t1) / (t2-t1)

Here, Pt is a coordinate value (Xt, Yt, Zt) at time t, P1 is a coordinate value (Xt1, Yt1, Zt1) at time t1, and P2 is a coordinate value (Xt2, Yt2, Zt2) at time t2.

なお、上記補間処理は、後述するGPS情報取得部38にて行う。また、動画撮影において、撮影間隔(フレーム周期)に同期して座標値を計測することが難しい場合には、フレーム周期とは異なる所定時間間隔毎に上記計測を行う構成としてもよい。   The interpolation process is performed by a GPS information acquisition unit 38 to be described later. In addition, in moving image shooting, when it is difficult to measure coordinate values in synchronization with the shooting interval (frame cycle), the measurement may be performed at predetermined time intervals different from the frame cycle.

なお、GPSにより座標値を計測する場合には、GPS受信機が複数のGPS衛星から信号を受信する。この場合、GPS受信機が信号を受信するGPS衛星の数は最低4個必要であり、受信するGPS衛星の数が増えると計測される座標値の精度(正確性)が向上する。撮影対象の座標値は撮影位置の座標値を基に算出するため、撮影位置の座標値の正確性は撮影対象の座標値の正確性に影響を与える。そこで、後述する判定部42では、GPS受信機が信号を受信できたGPS衛星の数を撮影対象の座標値の正確性を判定する条件の一つとしている。   When measuring coordinate values by GPS, the GPS receiver receives signals from a plurality of GPS satellites. In this case, the number of GPS satellites from which the GPS receiver receives signals is at least four, and the accuracy (accuracy) of the coordinate values measured increases as the number of GPS satellites received increases. Since the coordinate value of the shooting target is calculated based on the coordinate value of the shooting position, the accuracy of the coordinate value of the shooting position affects the accuracy of the coordinate value of the shooting target. Therefore, in the determination unit 42 described later, the number of GPS satellites from which the GPS receiver has received a signal is set as one of the conditions for determining the accuracy of the coordinate value of the imaging target.

制御装置16は、適宜なコンピュータにより構成され、上記座標計測装置14が計測または計測値を補間して求めた撮影位置の座標値、上記角度距離計測器12が計測した撮影位置と撮影対象との距離、上記撮影装置10の撮影方向(上記方位角及び仰俯角)に基づき、撮影対象の座標値を求める。撮影対象の座標値は、後述するように、対象座標演算部40において、撮影位置の座標値に、撮影位置と撮影対象との距離を座標軸上での差分に換算した値を加えて求める。この場合、上記距離の正確性は、撮影対象の位置の正確性に影響を与える。また、上記距離から座標軸上での差分への換算に用いる方位角、仰俯角の正確性は、撮影対象の位置の正確性に影響を与える。そこで、後述する判定部42では、距離、方位角、仰俯角の正確性を、撮影対象の座標値の正確性を判定する条件の一つとしている。また、制御装置16は、撮影対象に関する情報を表示するが、この場合、上記求めた座標値の正確性、上記撮影対象に対する利用者の関心度等に基づき、予め定めた表示決定基準により表示態様を決定する。なお、撮影対象に関する情報は、制御装置16を構成するコンピュータの表示画面に表示してもよいし、制御装置16が出力する表示態様の決定情報に基づいて他の表示装置に表示させる構成でもよい。   The control device 16 is constituted by an appropriate computer, and the coordinate value of the photographing position obtained by the coordinate measuring device 14 by measuring or interpolating the measurement value, the photographing position measured by the angular distance measuring device 12 and the photographing object. Based on the distance and the photographing direction of the photographing apparatus 10 (the azimuth angle and the elevation angle), the coordinate value of the photographing target is obtained. As will be described later, the coordinate value of the shooting target is obtained by adding the value obtained by converting the distance between the shooting position and the shooting target into the difference on the coordinate axis to the coordinate value of the shooting position in the target coordinate calculation unit 40. In this case, the accuracy of the distance affects the accuracy of the position of the photographing target. Further, the accuracy of the azimuth angle and elevation angle used for conversion from the distance to the difference on the coordinate axis affects the accuracy of the position of the object to be imaged. Therefore, in the determination unit 42 described later, the accuracy of the distance, the azimuth angle, and the elevation angle is set as one of the conditions for determining the accuracy of the coordinate value of the imaging target. Further, the control device 16 displays information related to the photographing target. In this case, the display mode is displayed according to a predetermined display determination criterion based on the accuracy of the obtained coordinate value, the degree of interest of the user with respect to the photographing target, and the like. To decide. It should be noted that the information regarding the imaging target may be displayed on a display screen of a computer constituting the control device 16 or may be configured to be displayed on another display device based on display mode determination information output by the control device 16. .

図2には、図1に示された制御装置16を構成するコンピュータのハードウェア構成の例が示される。図2において、制御装置16は、中央処理装置(例えばマイクロプロセッサ等のCPUを使用することができる)18、ランダムアクセスメモリ(RAM)20、読み出し専用メモリ(ROM)22、入力装置24、表示装置26、通信装置28及び記憶装置30を含んで構成されており、これらの構成要素は、バス32により互いに接続されている。また、入力装置24、表示装置26、通信装置28及び記憶装置30は、それぞれ入出力インターフェース34を介してバス32に接続されている。   FIG. 2 shows an example of a hardware configuration of a computer constituting the control device 16 shown in FIG. In FIG. 2, the control device 16 includes a central processing unit (for example, a CPU such as a microprocessor can be used) 18, a random access memory (RAM) 20, a read-only memory (ROM) 22, an input device 24, a display device. 26, a communication device 28, and a storage device 30, and these components are connected to each other by a bus 32. In addition, the input device 24, the display device 26, the communication device 28, and the storage device 30 are each connected to the bus 32 via the input / output interface 34.

CPU18は、RAM20またはROM22に格納されている制御プログラムに基づいて、後述する各部の動作を制御する。RAM20は主としてCPU18の作業領域として機能し、ROM22にはBIOS等の制御プログラムその他のCPU18が使用するデータが格納されている。   The CPU 18 controls the operation of each unit to be described later based on a control program stored in the RAM 20 or the ROM 22. The RAM 20 mainly functions as a work area for the CPU 18, and the ROM 22 stores a control program such as BIOS and other data used by the CPU 18.

また、入力装置24は、キーボード、ポインティングデバイス等により構成され、使用者が動作指示等を入力するために使用する。   The input device 24 includes a keyboard, a pointing device, and the like, and is used by a user to input operation instructions and the like.

また、表示装置26は、液晶ディスプレイ等により構成され、地図情報、撮影装置10が撮影した画像情報等を表示する。なお、表示装置26は、他のコンピュータ等に設けてもよい。   The display device 26 is configured by a liquid crystal display or the like, and displays map information, image information captured by the image capturing device 10, and the like. The display device 26 may be provided in another computer or the like.

また、通信装置28は、USB(ユニバーサルシリアルバス)ポート、ネットワークポートその他の適宜なインターフェースにより構成され、CPU18がネットワーク等の通信手段を介して外部の装置とデータをやり取りするために使用する。また、撮影装置10、角度距離計測器12、座標計測装置14から画像情報及び距離と角度の計測値も、通信装置28を介して取得する。   The communication device 28 includes a USB (Universal Serial Bus) port, a network port, and other appropriate interfaces, and is used by the CPU 18 to exchange data with an external device via communication means such as a network. Further, image information and measured values of distance and angle are also acquired from the imaging device 10, the angle distance measuring device 12, and the coordinate measuring device 14 via the communication device 28.

また、記憶装置30は、ハードディスク等の磁気記憶装置であり、後述する処理に必要となる種々のデータを記憶する。なお、記憶装置30としては、ハードディスクの代わりに、デジタル・バーサタイル・ディスク(DVD)、コンパクトディスク(CD)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、電気的消去および書換可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ等を使用してもよい。   The storage device 30 is a magnetic storage device such as a hard disk, and stores various data necessary for processing to be described later. The storage device 30 can be a digital versatile disk (DVD), a compact disk (CD), a magneto-optical disk (MO), a flexible disk (FD), a magnetic tape, an electrical erasure, and an erasable and rewritable instead of a hard disk. A read-only memory (EEPROM), flash memory or the like may be used.

図3には、実施形態にかかる制御装置16の機能ブロック図が示される。図3において、制御装置16は、画像情報取得部36、GPS情報取得部38、角度距離情報取得部39、対象座標演算部40、判定部42、対象情報生成部44及び出力部46を含んで構成されており、これらの機能は、例えばCPU18とCPU18の処理動作を制御するプログラムとにより実現される。   FIG. 3 is a functional block diagram of the control device 16 according to the embodiment. In FIG. 3, the control device 16 includes an image information acquisition unit 36, a GPS information acquisition unit 38, an angular distance information acquisition unit 39, a target coordinate calculation unit 40, a determination unit 42, a target information generation unit 44, and an output unit 46. These functions are realized by, for example, the CPU 18 and a program for controlling the processing operation of the CPU 18.

画像情報取得部36は、撮影装置10が撮影した撮影対象の画像情報を取得する。取得した画像情報には適宜な識別情報を付して対象情報生成部44に出力する。この識別情報としては、例えば角度距離計測器12及び座標計測装置14の計測タイミングである撮影装置10のシャッターの動作時刻とすることができる。この場合、画像情報取得部36が撮影装置10のシャッターを動作させるトリガー信号を発生させ、このトリガー信号の発生時刻を識別情報とする。このときには、シャッターを動作させるトリガー信号を角度距離計測器12及び座標計測装置14に同時に出力して各計測を行わせてもよいし、角度距離計測器12及び座標計測装置14に撮影装置10を動作させるトリガー信号とは別に、これと同期を取らずに他のトリガー信号を出力して各計測を行わせる構成としてもよい。なお、画像情報取得部36が取得する画像情報には、静止画の他、動画が含まれていてもよい。   The image information acquisition unit 36 acquires image information of an imaging target captured by the imaging device 10. Appropriate identification information is attached to the acquired image information and output to the target information generating unit 44. As this identification information, it can be set as the operation time of the shutter of the imaging device 10 which is the measurement timing of the angular distance measuring device 12 and the coordinate measuring device 14, for example. In this case, the image information acquisition unit 36 generates a trigger signal for operating the shutter of the photographing apparatus 10, and uses the generation time of the trigger signal as identification information. At this time, a trigger signal for operating the shutter may be simultaneously output to the angular distance measuring device 12 and the coordinate measuring device 14 to perform each measurement, or the angle measuring device 12 and the coordinate measuring device 14 may be connected to the photographing device 10. In addition to the trigger signal to be operated, another measurement may be performed by outputting another trigger signal without synchronizing with the trigger signal. Note that the image information acquired by the image information acquisition unit 36 may include a moving image in addition to a still image.

GPS情報取得部38は、座標計測装置14が撮影装置10のシャッターに同期あるいは非同期で計測した撮影装置10の撮影位置の座標値を取得する。シャッターに非同期で計測した場合には、前述の通り補間により座標値を計算する。当該座標値には、撮影装置10のシャッターの動作時刻等の識別情報を付し、画像情報取得部36が取得した画像情報との対応関係を判定できる構成としておく。また、時刻情報を識別情報とするために、座標計測装置14で得られた時刻で制御装置16の時計を初期化し、同期が取れるようにしておく。なお、GPS情報取得部38が座標値を取得できない場合には、ジャイロ、加速度計等を使用した公知の方法により座標値を補正してもよい。   The GPS information acquisition unit 38 acquires the coordinate value of the imaging position of the imaging device 10 measured by the coordinate measuring device 14 synchronously or asynchronously with the shutter of the imaging device 10. When measurement is performed asynchronously with the shutter, the coordinate value is calculated by interpolation as described above. Identification information such as the operation time of the shutter of the photographing apparatus 10 is attached to the coordinate value, and a correspondence relationship with the image information acquired by the image information acquisition unit 36 can be determined. Further, in order to use the time information as identification information, the clock of the control device 16 is initialized with the time obtained by the coordinate measuring device 14 so as to be synchronized. In addition, when the GPS information acquisition part 38 cannot acquire a coordinate value, you may correct | amend a coordinate value by the well-known method using a gyro, an accelerometer, etc.

角度距離情報取得部39は、角度距離計測装置12が撮影装置10のシャッターに同期あるいは非同期で計測した撮影装置10の撮影位置と撮影対象との距離及び撮影装置の撮影方向の方位角、仰俯角を取得する。シャッターに非同期で計測した場合には、前述の通り補間により距離、方位角、仰俯角の各値を計算する。当該各値には、撮影装置10のシャッターの動作時刻等の識別情報を付し、画像情報取得部36が取得した画像情報との対応関係を判定できる構成としておく。   The angular distance information acquisition unit 39 is configured to measure the distance between the photographing position of the photographing apparatus 10 and the photographing target measured by the angular distance measuring apparatus 12 synchronously or asynchronously with the shutter of the photographing apparatus 10 and the azimuth angle and elevation angle of the photographing direction of the photographing apparatus. To get. When measured asynchronously with the shutter, the distance, azimuth, and elevation angles are calculated by interpolation as described above. Each value is attached with identification information such as the operation time of the shutter of the photographing apparatus 10 so that the correspondence with the image information acquired by the image information acquisition unit 36 can be determined.

対象座標演算部40は、GPS情報取得部38が取得した撮影位置の座標値、及び角度距離情報取得部39が取得した撮影装置10の撮影位置と撮影対象との距離、撮影装置10の撮影方向の方位角及び仰俯角に基づき、撮影対象の座標値を演算する。この演算には、上記識別情報にて対応関係があると判別された座標値、距離、方位角及び仰俯角が使用される。演算した座標値には、上述した撮影装置10のシャッターの動作時刻等の識別情報を付して出力する。上記演算手順の例は後述する。また、後段で説明する撮影対象の捕捉回数または計測回数についても、対象座標演算部40が算出する。   The target coordinate calculation unit 40 includes the coordinate value of the shooting position acquired by the GPS information acquisition unit 38, the distance between the shooting position of the shooting device 10 acquired by the angle distance information acquisition unit 39 and the shooting target, and the shooting direction of the shooting device 10. Based on the azimuth angle and elevation angle, the coordinate value of the object to be imaged is calculated. For this calculation, coordinate values, distances, azimuth angles, and elevation angles determined to have a correspondence relationship based on the identification information are used. The calculated coordinate value is output with identification information such as the operation time of the shutter of the photographing apparatus 10 described above. An example of the calculation procedure will be described later. In addition, the target coordinate calculation unit 40 also calculates the number of times of capturing or measuring the shooting target described later.

なお、角度距離計測器12の代わりに角度計測器を使用して撮影装置10の撮影方向を計測し、対象座標演算部40が、予め準備した3次元モデル(例えば、地形の3次元形状モデル、星座などの天球モデル)と座標計測装置14が計測した撮影装置10の撮影位置とに基づいて上記撮影方向と3次元モデルとの交点を求め、撮影対象の座標値を演算する構成としてもよい。   Note that the angle measuring device is used in place of the angle distance measuring device 12 to measure the shooting direction of the shooting device 10, and the target coordinate calculation unit 40 prepares a three-dimensional model (for example, a three-dimensional shape model of terrain, A constellation model such as a constellation) and the photographing position of the photographing device 10 measured by the coordinate measuring device 14 may be used to obtain an intersection between the photographing direction and the three-dimensional model and calculate the coordinate value of the photographing target.

判定部42は、予め定めた判定基準に従い、上記対象座標演算部40が演算した座標値の正確性を判定する。この判定方法については後述する。   The determination unit 42 determines the accuracy of the coordinate value calculated by the target coordinate calculation unit 40 according to a predetermined determination criterion. This determination method will be described later.

対象情報生成部44は、撮影対象に関する情報を生成する。撮影対象に関する情報には、対象座標演算部40が演算して求めた撮影対象の座標値、撮影装置10が撮影した撮影対象の画像情報、撮影対象の座標値から特定される場所に関する記述情報(例えば、都道府県市区町村名、地番等が挙げられる)、撮影対象の種類・内容に関する記述情報等が含まれる。なお、記述情報は表示画面に表示するだけでなく、音声情報として出力することも可能である。また、撮影対象の過去における上記各情報を利用者に提供する構成としてもよい。なお、上記座標値及び画像情報は、上記識別情報に基づいて関連付けられる。撮影対象の座標値から特定される場所及び種類・内容に関する記述情報は、撮影対象の座標値と利用者が設定した情報種別に該当する情報を検索条件として、予め用意したデータベース(DB)から検索することにより生成する。また、対象情報生成部44は、判定部42が判定した座標値の正確性と、利用者の関心度と、に基づき、予め定めた表示決定基準により撮影対象に関する情報の表示態様を決定する。   The target information generation unit 44 generates information related to the shooting target. The information related to the shooting target includes the coordinate value of the shooting target calculated by the target coordinate calculation unit 40, the image information of the shooting target shot by the shooting device 10, and the description information about the location specified from the coordinate value of the shooting target ( For example, the name of the prefecture, city, town and village, lot number, etc.), description information about the type and content of the object to be photographed, and the like are included. The description information can be output not only on the display screen but also as voice information. Moreover, it is good also as a structure which provides each said information in the past of imaging | photography object to a user. The coordinate value and the image information are associated based on the identification information. Descriptive information about the location, type, and content specified from the coordinate values of the shooting target is searched from a database (DB) prepared in advance using information corresponding to the coordinate value of the shooting target and the information type set by the user as a search condition. To generate. Further, the target information generation unit 44 determines a display mode of information related to the imaging target based on a predetermined display determination criterion based on the accuracy of the coordinate value determined by the determination unit 42 and the interest level of the user.

出力部46は、対象情報生成部44が生成した撮影対象に関する情報を出力する。出力先が表示装置26の場合、対象情報生成部44が決定した表示態様に基づいて、表示装置26に撮影対象に関する情報を表示させる。また、制御装置16とは異なる装置に出力してもよい。この場合には、上記撮影対象に関する情報を表示態様に関する情報とともに、有線通信または無線通信等で送信する構成、適宜な記憶媒体に出力する構成等が可能である。記憶媒体としては、例えばデジタル・バーサタイル・ディスク(DVD)、コンパクトディスク(CD−ROM、CD−R、CD−RW)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去および書換可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)等が挙げられる。   The output unit 46 outputs information related to the imaging target generated by the target information generation unit 44. When the output destination is the display device 26, based on the display mode determined by the target information generating unit 44, the display device 26 is caused to display information related to the imaging target. Further, it may be output to a device different from the control device 16. In this case, a configuration in which the information related to the photographing target is transmitted together with information related to the display mode by wired communication or wireless communication, a configuration in which the information is output to an appropriate storage medium, and the like are possible. Examples of storage media include digital versatile disc (DVD), compact disc (CD-ROM, CD-R, CD-RW), magneto-optical disc (MO), flexible disc (FD), magnetic tape, hard disk, and readout. Examples include dedicated memory (ROM), electrically erasable and rewritable read only memory (EEPROM), flash memory, random access memory (RAM), and the like.

図4(a),(b)には、図3に示された対象座標演算部40の演算処理の説明図が示される。図4(b)では、撮影位置Aが空中に浮かんで描かれているが、これはヘリコプターや航空機等の機上から撮影したことを示している。なお、本実施形態では、撮影位置に限定は無い。   FIGS. 4A and 4B are explanatory diagrams of the calculation process of the target coordinate calculation unit 40 shown in FIG. In FIG. 4B, the shooting position A is drawn floating in the air, which indicates that the image was taken from a helicopter or an aircraft. In the present embodiment, the shooting position is not limited.

図4(a)は(x、y)座標で規定される平面図であり、撮影位置Aから真北Nに対して角度αの方位にある点Pに位置する撮影対象を撮影している状態が示されている。また、撮影位置Aすなわち撮影装置10の位置から点Pの位置までの水平距離をdで示している。なお、図4(a)では、x方向及びy方向をそれぞれ矢印で示している。   FIG. 4A is a plan view defined by the (x, y) coordinates, and is a state in which an imaging target located at a point P at an angle α with respect to true north N from the imaging position A is being imaged. It is shown. Further, the horizontal distance from the photographing position A, that is, the position of the photographing apparatus 10 to the position of the point P is indicated by d. In FIG. 4A, the x direction and the y direction are indicated by arrows.

図4(b)は(x、z)座標で規定される側面図であり、高さhの撮影位置Aから下方の地表面B上の点Pに位置する撮影対象を撮影している状態が示されている。この場合、撮影方向(仰俯角方向)は、角度θの俯角となっているが、撮影位置Aによっては仰角となる場合もある。また、撮影位置Aと点Pとの距離をDで示している。なお、図4(b)では、x方向及びz方向をそれぞれ矢印で示している。   FIG. 4B is a side view defined by the (x, z) coordinates, and a state in which a photographing target located at a point P on the ground surface B below the photographing position A at the height h is photographed. It is shown. In this case, the shooting direction (elevation angle direction) is a depression angle of the angle θ, but depending on the shooting position A, there may be an elevation angle. The distance between the shooting position A and the point P is indicated by D. In FIG. 4B, the x direction and the z direction are indicated by arrows, respectively.

上記方位角α、仰俯角θ及び距離Dには、角度距離計測器12により計測した値を用いる。なお、角度距離計測器12が計測した方位角αが磁北からの角度である場合には、真北からの角度に補正した値を用いる。これらの値は対象座標演算部40が取得し、これらの値とGPS情報取得部38が取得した撮影位置Aの座標値とを使用して点Pの座標値を演算する。図4(a)、(b)の場合の演算式は以下の通りである。なお、ここでは磁北から反時計回りの方位角α、及び水平から下方の仰俯角をそれぞれ正としているが、撮影位置と撮影対象の位置関係によって、α、θの正負の記号を適切に与えるのは、もちろんのことである。   As the azimuth angle α, the elevation angle θ, and the distance D, values measured by the angular distance measuring device 12 are used. When the azimuth angle α measured by the angular distance measuring device 12 is an angle from magnetic north, a value corrected to an angle from true north is used. These values are acquired by the target coordinate calculation unit 40, and the coordinate value of the point P is calculated using these values and the coordinate value of the shooting position A acquired by the GPS information acquisition unit 38. The arithmetic expressions in the cases of FIGS. 4A and 4B are as follows. Here, the counter-clockwise azimuth α from the magnetic north and the elevation angle from the horizontal to the bottom are positive, but depending on the positional relationship between the shooting position and the shooting target, the positive and negative signs of α and θ are given appropriately. Of course.

点Pの座標値を(Xp,Yp,Zp)とし、撮影位置Aの座標値を(Xc,Yc,Zc)とすると、
Xp=Xc−d・sinα
Yp=Yc+d・cosα … (1)
Zp=Zc−hとなる。
ただし、d=D・cosθ及びh=D・sinθである。
If the coordinate value of the point P is (Xp, Yp, Zp) and the coordinate value of the shooting position A is (Xc, Yc, Zc),
Xp = Xc−d · sin α
Yp = Yc + d · cos α (1)
Zp = Zc−h.
However, d = D · cos θ and h = D · sin θ.

なお、撮影位置Aの座標値が経度、緯度、標高で取得されている場合は、下記式(2)により点Pの座標値を求める。
Xp=Xc−d・sinα/Kx
Yp=Yc+d・cosα/Ky … (2)
Zp=Zc−h
ここで、Kxは緯度Ycにおける経度1度当たりの距離であり、Kyは緯度1度当たりの距離である。
In addition, when the coordinate value of the imaging position A is acquired by longitude, latitude, and altitude, the coordinate value of the point P is obtained by the following equation (2).
Xp = Xc−d · sin α / Kx
Yp = Yc + d · cos α / Ky (2)
Zp = Zc-h
Here, Kx is the distance per degree of longitude at latitude Yc, and Ky is the distance per degree of latitude.

対象情報生成部44は、以上のようにして求めた点Pの座標値と点Pに位置する撮影対象の画像情報とを、上記識別情報に基づいて関連付ける。この場合、例えば地図情報上の上記座標値(Xp,Yp,Zp)で表される点(画素)を含む所定の大きさの領域(例えば、円形領域または矩形領域)を設定し、この領域に撮影装置10が撮影した点Pに位置する撮影対象の画像情報を関連付ける。この結果、例えば表示装置26上に表示された地図上で、上記領域を入力装置24のポインティングデバイスによりクリックすることにより、関連付けられた画像情報を表示する構成とすることができる。その際には、当該画像情報を、上記関連付けられた座標値(Xp,Yp,Zp)の近傍に表示するのが好適である。また、上記画像情報を表示させておき、これをクリックすることにより地図上の関連付けられた領域(点Pの位置)を、点滅あるいは色変更等により表示する構成とすることもできる。さらに、複数の上記画像情報を表す文字列(例えば地名)等の一覧表を作成しておき、この一覧表を表示装置26上に表示しつつ当該文字列をクリックすることにより、対応する画像情報と画像情報に関連付けられた地図上の領域の一方または両方を表示する構成としてもよい。なお、本実施例では3次元地図上に表示する場合を例に説明しているが、2次元地図上に表示する場合には必ずしもZp座標を求める必要はない。   The target information generation unit 44 associates the coordinate value of the point P obtained as described above with the image information of the photographing target located at the point P based on the identification information. In this case, for example, a region having a predetermined size (for example, a circular region or a rectangular region) including a point (pixel) represented by the coordinate values (Xp, Yp, Zp) on the map information is set, and the region is set in this region. The image information of the photographing target located at the point P photographed by the photographing apparatus 10 is associated. As a result, for example, on the map displayed on the display device 26, the associated image information can be displayed by clicking the region with the pointing device of the input device 24. In that case, it is preferable to display the image information in the vicinity of the associated coordinate values (Xp, Yp, Zp). Alternatively, the image information may be displayed and the associated region (the position of the point P) on the map may be displayed by blinking or changing the color by clicking the image information. Further, a list of character strings (for example, place names) representing a plurality of the image information is created, and the corresponding image information is displayed by clicking the character strings while displaying the list on the display device 26. And one or both of the areas on the map associated with the image information may be displayed. In the present embodiment, the case of displaying on a three-dimensional map has been described as an example. However, when displaying on a two-dimensional map, it is not always necessary to obtain the Zp coordinates.

以上に述べた図4(a),(b)の実施例では、角度距離計測器12により撮影装置10の撮影方向(方位角及び仰俯角)及び撮影位置Aと点Pとの距離Dを計測しているが、角度距離計測器12の代わりに、距離Dの計測を行わず、撮影方向の方位角及び仰俯角のみを計測する角度計測器を使用して点Pの座標値を求める構成としてもよい。この場合、図4(b)における地表面Bの経度、緯度、標高の各データを含む3次元モデルを予め準備しておく。対象座標演算部40は、座標計測装置14が計測した撮影装置10の撮影位置から、上記角度計測器が方位角及び仰俯角の値を計測して求めた撮影装置10の撮影方向に直線を伸ばし、当該直線と地表面Bとの交点の座標値(経度、緯度、標高)を演算して点Pの座標値とする。また、撮影位置Aの座標値と点Pの座標値とから撮影位置Aと点Pとの距離Dを算出することができる。なお、3次元モデルが球面のモデル(例えば、星座などの位置を表す天空モデル)の場合は、対象座標演算部40は、座標計測装置14が計測した撮影装置10の撮影位置から、上記角度計測器が計測した方位角及び仰俯角の値から求めた撮影装置10の撮影方向に直線を伸ばし、当該直線と球面モデルとの交点の座標値(経度、緯度)を演算して点Pの座標値とする。   4A and 4B described above, the angle distance measuring device 12 measures the photographing direction (azimuth angle and elevation angle) of the photographing apparatus 10 and the distance D between the photographing position A and the point P. However, instead of the angular distance measuring device 12, the coordinate value of the point P is obtained using an angle measuring device that does not measure the distance D but measures only the azimuth angle and the elevation angle in the photographing direction. Also good. In this case, a three-dimensional model including data on longitude, latitude, and altitude of the ground surface B in FIG. 4B is prepared in advance. The target coordinate calculation unit 40 extends a straight line from the photographing position of the photographing device 10 measured by the coordinate measuring device 14 in the photographing direction of the photographing device 10 obtained by the angle measuring device measuring the values of the azimuth angle and the elevation angle. The coordinate value (longitude, latitude, altitude) of the intersection between the straight line and the ground surface B is calculated as the coordinate value of the point P. Further, the distance D between the shooting position A and the point P can be calculated from the coordinate value of the shooting position A and the coordinate value of the point P. When the three-dimensional model is a spherical model (for example, a sky model representing a position such as a constellation), the target coordinate calculation unit 40 measures the angle from the photographing position of the photographing apparatus 10 measured by the coordinate measuring apparatus 14. A straight line is extended in the photographing direction of the photographing apparatus 10 obtained from the values of the azimuth and elevation angles measured by the instrument, and the coordinate value (longitude, latitude) of the intersection of the straight line and the spherical model is calculated to obtain the coordinate value of the point P And

図5(a),(b),(c)には、対象情報生成部44が点Pに位置する撮影対象に関する情報(以後、ガイド情報という)の表示態様の決定に使用する表示決定基準の例が示される。図5(a),(b),(c)において、縦軸は、撮影位置Aと点Pとの距離Dであり、横軸は、撮影装置10及び角度距離計測器12が点Pに位置する撮影対象を捕捉していた捕捉時間または計測回数である。なお、捕捉時間または計測回数は、対象座標演算部40で算出する。具体的な算出方法については、後述する。これらの縦軸及び横軸で表される値により、点Pに位置する撮影対象に対する利用者の関心度が判定され、この関心度に応じてガイド情報の表示態様が定められている。なお、上記説明では利用者の関心度を捕捉時間や計測回数で判定しているが、これらに限られるものではなく、例えば対象座標演算部40が算出した各画像撮影タイミングにおける撮影対象の座標値の移動量を求め、移動量が所定値以下の状態が一定期間続いた場合に利用者の関心度が高いと判定することも可能である。   5A, 5B, and 5C, display determination criteria used by the target information generation unit 44 to determine the display mode of information related to the imaging target located at the point P (hereinafter referred to as guide information). An example is shown. 5A, 5 </ b> B, and 5 </ b> C, the vertical axis represents the distance D between the photographing position A and the point P, and the horizontal axis represents the position of the photographing apparatus 10 and the angular distance measuring device 12 at the point P. This is the capture time or the number of times of capturing the subject to be photographed. Note that the capture time or the number of measurements is calculated by the target coordinate calculation unit 40. A specific calculation method will be described later. The degree of interest of the user with respect to the imaging target located at the point P is determined by the values represented by these vertical and horizontal axes, and the display mode of the guide information is determined according to the degree of interest. In the above description, the degree of interest of the user is determined by the capture time and the number of times of measurement. However, the present invention is not limited to these. For example, the coordinate value of the shooting target at each image shooting timing calculated by the target coordinate calculation unit 40 It is also possible to determine the degree of interest of the user when the movement amount is equal to or less than a predetermined value for a certain period.

また、図5(a),(b),(c)は、この順に対象座標演算部40が演算した撮影対象の座標値の正確性が低くなっている。撮影対象の座標値の正確性は、撮影位置の座標値の正確性、点Pの座標値を求めるための距離D、方位角α、仰俯角θの計測結果の正確性、移動体の移動速度(撮影装置10と座標計測装置14、角度距離計測器12とを非同期で動作させる場合、移動体の移動速度が速いほど撮影対象の座標値の正確性が低下する)や計測時刻の間隔(撮影装置10と座標計測装置14、角度距離計測器12とを非同期で動作させる場合、間隔が長いほど撮影対象の座標値の正確性が低下する)等から、例えば下記式(3)により求める。得られた値を予め定めた判定基準(閾値等)に従って判定部42が評価し、区分する。撮影位置の座標値の正確性については、例えば座標計測装置14を構成するGPS受信機が信号を受信できたGPS衛星の数等が挙げられる。具体的には、信号を受信できたGPS衛星の数が4つ以下の場合を正確性低、5つから6つの場合を正確性中、7つ以上の場合を正確性高とする。また、GPS衛星の数が正確性中または高の数に達していても、撮影位置Aと点Pとの距離Dを計測する角度距離計測器12のレーザー距離計の計測タイミングが撮影装置10の画像撮影タイミング(シャッタータイミング)と一致しないために距離計測値が得られず、前後の距離計測値から補間して点Pの位置を決定している場合、あるいは角度距離計測器12により点Pに対する方位角または仰俯角に関する計測値が取得できず、前後の角度計測値から補間して点Pの位置を決定している場合等にも、上記座標値の正確性を低と判定するのが好適である。   Further, in FIGS. 5A, 5B, and 5C, the accuracy of the coordinate values of the photographing target calculated by the target coordinate calculation unit 40 in this order is low. The accuracy of the coordinate value of the object to be imaged is the accuracy of the coordinate value of the imaging position, the distance D for obtaining the coordinate value of the point P, the accuracy of the measurement result of the azimuth angle α and the elevation angle θ, and the moving speed of the moving object (When the imaging device 10, the coordinate measuring device 14, and the angular distance measuring device 12 are operated asynchronously, the faster the moving speed of the moving body, the lower the accuracy of the coordinate value of the imaging target) and the measurement time interval (imaging) When the apparatus 10, the coordinate measuring device 14, and the angular distance measuring device 12 are operated asynchronously, the accuracy of the coordinate value of the subject to be photographed decreases as the interval increases. The determination unit 42 evaluates and classifies the obtained value according to a predetermined determination criterion (threshold value or the like). As for the accuracy of the coordinate value of the photographing position, for example, the number of GPS satellites that can be received by the GPS receiver that constitutes the coordinate measuring device 14 is cited. Specifically, the accuracy is low when the number of GPS satellites that can receive signals is 4 or less, while the accuracy is 5 to 6 cases, and the accuracy is 7 or more cases. In addition, even when the number of GPS satellites has reached the accuracy or high number, the measurement timing of the laser distance meter of the angular distance measuring device 12 that measures the distance D between the imaging position A and the point P is the same as that of the imaging device 10. The distance measurement value cannot be obtained because it does not coincide with the image capturing timing (shutter timing), and the position of the point P is determined by interpolation from the preceding and following distance measurement values, or by the angle distance measuring device 12 with respect to the point P It is preferable to determine that the accuracy of the coordinate value is low even when the measurement value regarding the azimuth angle or the elevation angle cannot be obtained and the position of the point P is determined by interpolation from the previous and next angle measurement values. It is.

また、距離D,方位角α、仰俯角θの各値の正確性は、撮影装置10と角度距離計測器12との同期が取れている場合は正確性高とし、非同期の場合は正確性中または正確性低とする。非同期の場合に正確性中とするか正確性低とするかの判定は、例えば、前述した距離、方位角、仰俯角の補間式における(t2−t1:角度距離計測器の性能に依存する計測間隔あるいは計測周期に依存する時間)が所定の閾値以内(例えば5秒)、かつ(t−t1)が所定の閾値以内(例えば1秒)の場合を正確性中とし、(t−t1)の時間が上記閾値を越える場合を正確性低とすることが考えられる。   In addition, the accuracy of each value of the distance D, the azimuth angle α, and the elevation angle θ is high when the photographing apparatus 10 and the angular distance measuring device 12 are synchronized, and is accurate when the imaging device 10 is asynchronous. Or the accuracy is low. The determination of whether accuracy is low or low in the case of non-synchronization is, for example, (t2-t1: measurement depending on the performance of the angle distance measuring instrument in the above-described interpolation formula of distance, azimuth angle, and elevation angle) (T-t1) is determined to be within accuracy when the interval or time depending on the measurement cycle is within a predetermined threshold (for example, 5 seconds) and (t-t1) is within the predetermined threshold (for example, 1 second). It can be considered that the accuracy is low when the time exceeds the above threshold.

座標値の正確性=f1×(撮影位置の座標値の正確性)+f2×(距離Dの正確性)+ f3×(方位角αの正確性)+f4×(仰俯角θの正確性)+f5(調整項) …(3)
ただし、f1〜f5:重みづけファクター
Accuracy of coordinate value = f1 × (accuracy of coordinate value of imaging position) + f2 × (accuracy of distance D) + f3 × (accuracy of azimuth α) + f4 × (accuracy of elevation angle θ) + f5 ( Adjustment term) ... (3)
Where f1 to f5: weighting factors

上記の評価式(3)における各項において、例えば正確性高を3点、正確性中を2点、正確性低を1点とすることにより、座標値の正確性を数値化することができる。また、重みづけファクターの値は、撮影対象の座標値の正確性に対する各項の影響度により決定される値であり、各計測値の誤差の大きさの程度に応じて適宜決定する。   In each term in the evaluation formula (3), the accuracy of the coordinate value can be quantified by setting, for example, 3 points for high accuracy, 2 points for accuracy, and 1 point for low accuracy. . Further, the value of the weighting factor is a value determined by the degree of influence of each term on the accuracy of the coordinate value of the object to be imaged, and is appropriately determined according to the degree of error of each measurement value.

対象情報生成部44は、上記判定部42の判定結果に基づき、座標値の正確性が高の場合には図5(a)の表示決定基準を使用し、正確性が中の場合には図5(b)の表示決定基準を使用し、正確性が低の場合には図5(c)の表示決定基準を使用する。   The target information generation unit 44 uses the display determination criterion of FIG. 5A when the accuracy of the coordinate value is high based on the determination result of the determination unit 42, and displays the figure when the accuracy is medium. The display determination criterion of 5 (b) is used, and when the accuracy is low, the display determination criterion of FIG. 5 (c) is used.

図5(a)では、縦軸が撮影位置Aと点Pとの距離Dであり、点Pに位置する撮影対象(関心地物)に対する利用者の関心度が高いほど、この距離Dが小さくなる(撮影対象に近づいて撮影する)との判断により表示決定基準が作成されている。また、横軸は、撮影装置10及び角度距離計測器12による点Pに位置する撮影対象の捕捉時間または座標値の計測回数であり、撮影対象に対する利用者の関心度が高いほど、捕捉時間が長くなり、または計測回数が多くなるとの判断により表示決定基準が作成されている。なお、横軸は、捕捉時間と所定の基準時間との比や差分として表してもよい。   In FIG. 5A, the vertical axis represents the distance D between the shooting position A and the point P, and the distance D decreases as the degree of interest of the user with respect to the shooting target (feature of interest) located at the point P increases. The display determination standard is created based on the determination that the image is to be taken (approaching the subject to be photographed). Further, the horizontal axis represents the capturing time or the number of measurement of the coordinate value of the photographing object located at the point P by the photographing device 10 and the angular distance measuring device 12, and the capturing time becomes higher as the user's interest in the photographing object is higher. A display determination criterion is created based on the determination that the length becomes longer or the number of measurement times increases. The horizontal axis may be expressed as a ratio or difference between the capture time and a predetermined reference time.

図5(a)に例示された表示決定基準は、上記縦軸及び横軸の値に応じて4つの領域I,II,III,IVに区分されている。これらの各区分は、領域I,II,III,IVの順に利用者の関心度が高くなっており、これらの各々にガイド情報の表示態様が対応づけられている。ここで、ガイド情報としては、上述したように、点Pの座標値、点Pに位置する撮影対象の画像情報、点Pの位置に関連する記述情報、点Pに位置する撮影対象の種類・内容に関する記述情報等が含まれ、更に点Pの位置における過去の情報(履歴情報)を含めてもよい。また、ガイド情報は、上記4つの領域I,II,III,IVに対応して、表示内容の詳細度が異なる4つのレベルに分類されている。この分類は、例えば概略情報、空間識別情報、撮影対象識別情報、撮影対象説明情報に分類される。   The display determination criterion illustrated in FIG. 5A is divided into four regions I, II, III, and IV according to the values on the vertical and horizontal axes. In each of these sections, the degree of interest of the user increases in the order of regions I, II, III, and IV, and the display mode of the guide information is associated with each of these categories. Here, as described above, as the guide information, the coordinate value of the point P, the image information of the shooting target located at the point P, the description information related to the position of the point P, the type of shooting target located at the point P, Descriptive information about the contents is included, and past information (history information) at the position of the point P may be further included. Further, the guide information is classified into four levels having different levels of detail of display contents corresponding to the four regions I, II, III, and IV. This classification is classified into, for example, outline information, space identification information, shooting target identification information, and shooting target description information.

概略情報は、撮影装置10が撮影した点Pの位置に関する概略の情報であり、例えば撮影位置から見た点Pの存在している方角、あるいは点Pの存在する概略の位置で与える。この場合、例えば撮影位置から点Pまでの方角を矢印により示すことができる。また、点Pの概略の座標値を用いて点Pの位置を地図上に示してもよい。この場合、概略の位置であることが分かる記号(例えば、色を薄くした円形、矩形等の図形)等を用いるのが好適である。また、点Pの位置とともに、撮影装置10の撮影位置を表示してもよい。さらに、概略情報を文字列により記述する場合(記述情報)は、点Pに関する概略の情報で、撮影装置10の撮影方向がどのような方向を向いているのかなどで与えることができる。例えば、○○地点の東南方向、緯度○○経度△△から見た東の空、あるいは東京都南部(点Pが位置する地点の広域名)等を例示できる。   The outline information is outline information related to the position of the point P photographed by the photographing apparatus 10, and is given, for example, in the direction where the point P exists from the photographing position or the approximate position where the point P exists. In this case, for example, the direction from the shooting position to the point P can be indicated by an arrow. Further, the position of the point P may be indicated on the map using the approximate coordinate value of the point P. In this case, it is preferable to use a symbol indicating that the position is approximate (for example, a circle, rectangle, or the like with a light color). Further, the photographing position of the photographing apparatus 10 may be displayed together with the position of the point P. Further, when the outline information is described by a character string (description information), the outline information about the point P can be given by the direction in which the photographing direction of the photographing apparatus 10 is directed. For example, the southeast direction of the XX point, the eastern sky seen from the latitude XX longitude ΔΔ, or the southern part of Tokyo (the wide area name of the point where the point P is located) can be exemplified.

また、空間識別情報は、撮影装置10が撮影した点Pの座標値から特定される場所に関する情報であり、例えば対象座標演算部40が演算した座標値に基づき、点Pの位置を図形等で与える。また、撮影位置から点Pまでの方角を矢印により示す場合に、距離Dの値に応じて矢印などの線図形の表現(大きさ、太さ、色など)を変えることができる。また、点Pの位置とともに、撮影装置10の撮影位置を表示してもよい。さらに、記述情報としては、住所等の点Pの座標値から特定される場所に関する文字列またはコード情報で与えることができる。例えば、東京都目黒区東山1丁目、多摩川丸子橋付近、富士山東側斜面、多摩川河口より5km付近、山手通り青葉台一丁目交差点付近等の、概略情報より詳細な内容の情報とする。   The space identification information is information relating to a location specified from the coordinate value of the point P photographed by the photographing apparatus 10. For example, the position of the point P is represented by a graphic or the like based on the coordinate value computed by the target coordinate computation unit 40. give. Further, when the direction from the shooting position to the point P is indicated by an arrow, the representation (size, thickness, color, etc.) of the line figure such as an arrow can be changed according to the value of the distance D. Further, the photographing position of the photographing apparatus 10 may be displayed together with the position of the point P. Furthermore, as description information, it can give with the character string or code information regarding the place specified from the coordinate value of the points P, such as an address. For example, it is information with more detailed contents than general information such as Higashiyama 1-chome, Meguro-ku, Tokyo, near Tamagawa Maruko Bridge, eastern slope of Mt.

また、撮影対象識別情報は、名称、ID(識別番号)等の、点Pの座標値から関心地物を特定し、他の地物から区別するための情報であり、例えば対象座標演算部40が演算した座標値に基づき、点Pの位置を図形等で与える。また、点Pの位置とともに、撮影装置10の撮影位置を表示してもよい。さらに、記述情報は、関心地物の種類を識別する文字列あるいはコード情報で与えることができる。この記述情報の種類は、利用者の関心分野や用途等によって異ならせるのが好適である。すなわち、利用者が予め指定した情報種別に応じて、対応する記述情報を提供する。例えば、情報種別として建築物を指定した場合には○○ビル(ビル名)、○○町郵便局、○○店、○○銀行等に関する情報が、施設等の管理主体(A社施設情報、道路施設等)を指定した場合には○○火力発電所、国道B号線C交差点、国道C号線○○橋等に関する情報が、空間識別情報よりも詳細に提供される。更に、情報種別として地理的な範囲を指定することも可能である。例えば、情報種別として都道府県を指定した場合と市区町村を指定した場合でDBの検索条件を変えることにより、市区町村を指定した場合により詳細(小規模)な建築物に関する記述情報を提供することができる。   Further, the imaging target identification information is information for identifying the feature of interest from the coordinate value of the point P such as name, ID (identification number) and the like, and distinguishing it from other features. For example, the target coordinate calculation unit 40 The position of the point P is given by a figure or the like based on the coordinate value calculated by. Further, the photographing position of the photographing apparatus 10 may be displayed together with the position of the point P. Further, the description information can be given as a character string or code information for identifying the type of the feature of interest. The type of description information is preferably different depending on the user's field of interest, application, and the like. That is, corresponding description information is provided according to the information type designated in advance by the user. For example, when a building is specified as the information type, information on XX building (building name), XX town post office, XX store, XX bank, etc. When a road facility or the like is designated, information on the XX thermal power plant, the national highway B line C intersection, the national highway C line XX bridge, etc. is provided in more detail than the spatial identification information. Further, it is possible to specify a geographical range as the information type. For example, by specifying the municipality as the information type, providing detailed (small) building description information by specifying the municipality by changing the DB search conditions when specifying the municipality can do.

また、撮影対象説明情報は、関心地物の内容を説明する属性情報であり、例えば対象座標演算部40が演算した座標値に基づき、点Pの位置を図形等で与える。また、点Pの位置とともに、撮影装置10の撮影位置を表示してもよい。さらに、記述情報としては、関心地物の内容を説明する文字列、数値、画像、映像(動画)、台帳情報などで与えることができる。例えば、関心地物として建物が特定された場合に、その記述情報として建物名や店舗名、物品のリスト、物品の画像、物品の説明情報等の、撮影対象識別情報より詳細な内容の情報とする。   Further, the shooting target explanation information is attribute information that explains the content of the feature of interest, and gives the position of the point P as a figure or the like based on the coordinate value calculated by the target coordinate calculation unit 40, for example. Further, the photographing position of the photographing apparatus 10 may be displayed together with the position of the point P. Furthermore, the description information can be given as a character string, a numerical value, an image, a video (moving image), ledger information, or the like that explains the content of the feature of interest. For example, when a building is specified as a feature of interest, the description information includes building details, store names, article lists, article images, article description information, and other detailed information. To do.

座標値に関連付けられた画像、映像については、点Pの座標値に基づき、点Pを中心とする所定の大きさの円形や矩形等の検索対象領域を設定し、検索対象領域内に位置する座標値を有する画像(DBに蓄積されている過去に撮影された画像、映像)を適宜検索する。座標値との直接の関連付けが無く撮影時刻だけが関連付けられた画像、映像については、撮影対象の位置の撮影時刻との対応関係を記述したテーブルを用いて、点Pの座標値に対応づける。すなわち、点Pを中心とする所定の大きさの円形や矩形等の検索対象領域を設定して、当該対照テーブルをまず検索して、抽出されたレコードより撮影時刻を求め、その撮影時刻を用いて画像、映像を検索し、得られた点P周辺の撮影画像または映像を撮影対象説明情報として提供することができる。   For an image or video associated with the coordinate value, a search target area such as a circle or rectangle having a predetermined size around the point P is set based on the coordinate value of the point P, and is located within the search target area. Images having coordinate values (images and videos taken in the past stored in the DB) are appropriately searched. For an image or video that is not directly associated with a coordinate value and is associated only with a photographing time, the image and video are associated with the coordinate value of the point P using a table that describes the correspondence relationship between the photographing position and the photographing time. That is, a search target area such as a circle or a rectangle having a predetermined size centered on the point P is set, the corresponding table is first searched, the shooting time is obtained from the extracted record, and the shooting time is used. Thus, it is possible to search for images and videos, and to provide the captured image or video around the obtained point P as shooting target explanation information.

なお、点Pに位置する撮影対象の座標値の正確性に応じて検索対象領域や検索対象時間の大きさや長さを変更する(例えば正確性が低いほど検索領域を大きく、また検索時間を長くする)のが好適である。   Note that the size and length of the search target area and the search target time are changed according to the accuracy of the coordinate value of the imaging target located at the point P (for example, the lower the accuracy, the larger the search area and the longer the search time). Is preferred).

図5(a)の領域Iでは、最も利用者の関心度が低いので、対象情報生成部44は、ガイド情報の表示態様として、表示しない、または上記概略情報のみの表示に決定する。また、領域IIでは、利用者の関心度が領域Iよりも高いと判断され、ガイド情報の表示態様として、上記空間識別情報の表示に決定する。また、領域IIIでは、利用者の関心度が領域IIよりも高いと判断され、ガイド情報の表示態様として、上記撮影対象識別情報の表示に決定する。さらに、領域IVでは、利用者の関心度が領域IIIよりも高いと判断され、ガイド情報の表示態様として、上記撮影対象説明情報の表示に決定する。   In the area I of FIG. 5A, since the user's degree of interest is the lowest, the target information generation unit 44 decides not to display or to display only the outline information as the display mode of the guide information. In area II, it is determined that the degree of interest of the user is higher than in area I, and the display mode of the guide information is determined to be the display of the space identification information. In area III, it is determined that the user's degree of interest is higher than that in area II, and the display mode of the guide information is determined to be the display of the imaging target identification information. Further, in the area IV, it is determined that the degree of interest of the user is higher than that in the area III, and the display information display mode is determined as the guide information display mode.

図5(b)は、点Pに位置する撮影対象の座標値の正確性が中の場合に使用される。図5(b)では、図5(a)で説明した領域I,II,IIIにより表示態様が決定される。ただし、領域IVを表示決定基準に含めてもよい。   FIG. 5B is used when the accuracy of the coordinate value of the photographing object located at the point P is medium. In FIG. 5B, the display mode is determined by the regions I, II, and III described in FIG. However, the region IV may be included in the display determination criterion.

図5(c)は、点Pに位置する撮影対象の座標値の正確性が低の場合に使用される。図5(c)では、図5(a)で説明した領域I,IIにより表示態様が決定される。ただし、領域IIIやIVを表示決定基準に含めてもよい。   FIG. 5C is used when the accuracy of the coordinate value of the photographing target located at the point P is low. In FIG. 5C, the display mode is determined by the areas I and II described in FIG. However, the regions III and IV may be included in the display determination criteria.

なお、領域I,II,III,IVの形状は、図5(a),(b),(c)の例に限定されず、撮影対象の種類、性質、利用者の利用目的等に応じて適宜決定することができる。   Note that the shapes of the regions I, II, III, and IV are not limited to the examples in FIGS. 5A, 5B, and 5C, but depend on the type, nature, purpose of use of the user, and the like. It can be determined as appropriate.

図6(a),(b)には、点Pに位置する撮影対象のガイド情報の表示態様の例が示される。図6(a)が点Pに位置する撮影対象に関連する画像情報であり、図6(b)が点Pの位置を示す地図情報である。   FIGS. 6A and 6B show examples of display modes of the guide information of the photographing target located at the point P. FIG. FIG. 6A shows image information related to the photographing target located at the point P, and FIG. 6B shows map information indicating the position of the point P.

図6(a)では、点Pに位置する撮影対象に関連する画像情報(静止画または動画)とともに、領域αに記述情報が表示される。また、図6(b)では、地図情報上の領域βに記述情報が表示される。また、図6(b)では、地図情報上に、点Pの位置を表す図形P1,P2及び撮影位置を表す図形Cが表示されている。本実施形態では、図形P1,P2及び図形Cはいずれも円形図形であるが、これらの円形の図形を重畳表示することにより、航空機等の撮影装置10を搭載した移動体の移動に伴ってそれぞれ点Pの位置及び撮影位置が変化することを表現している。また、図形P1及びP2は、判定部42が判定した点Pの座標値の正確性に基づき、色の濃さが変更されている。例えば、上記正確性が高または中である場合に、図形P1のように色を濃く表示し、正確性が低である場合に、図形P2のように色を薄く表示すること等が可能である。ただし、色の濃淡の表示はこれには限定されず、また、使用する色の種類を変更してもよい。更に、円の大きさや形状自体を変更してもよい。   In FIG. 6A, descriptive information is displayed in the region α together with image information (still image or moving image) related to the imaging target located at the point P. In FIG. 6B, the description information is displayed in the area β on the map information. Further, in FIG. 6B, graphics P1 and P2 representing the position of the point P and a graphic C representing the shooting position are displayed on the map information. In the present embodiment, the figures P1, P2 and the figure C are all circular figures. However, by superimposing these circular figures, the figures P1 and P2 and the figure C are respectively accompanied with the movement of the moving body equipped with the photographing apparatus 10 such as an aircraft. This represents that the position of the point P and the shooting position change. The graphics P1 and P2 have different color densities based on the accuracy of the coordinate value of the point P determined by the determination unit 42. For example, when the accuracy is high or medium, it is possible to display a dark color like the graphic P1, and when the accuracy is low, it is possible to display a light color like the graphic P2. . However, the display of color shading is not limited to this, and the type of color to be used may be changed. Further, the size and shape of the circle itself may be changed.

図7には、実施形態にかかる撮影対象情報生成装置の動作例のフローが示される。図7は、面的な広がりを持ったもの(山間部における土砂崩れ等の被災箇所、水害被災地域)を対象として撮影・距離計測する例である。図7において、撮影開始の指示が入力されると、画像情報取得部36が、撮影装置10が撮影した点Pに位置する撮影対象の画像情報を取得する(S101)。   FIG. 7 shows a flow of an operation example of the photographing target information generating apparatus according to the embodiment. FIG. 7 shows an example of photographing and distance measurement for a wide area (a disaster spot such as a landslide in a mountainous area, a flood damage area). In FIG. 7, when an instruction to start shooting is input, the image information acquisition unit 36 acquires image information of a shooting target located at a point P shot by the shooting apparatus 10 (S101).

次に、対象座標演算部40が、角度距離計測器12が計測した撮影装置10の撮影位置と点Pとの距離、撮影装置10の撮影方向の方位角及び仰俯角、並びにGPS情報取得部38が取得した撮影位置の座標値に基づき、点Pの座標値を演算する(S102)。   Next, the target coordinate calculation unit 40 measures the distance between the shooting position of the imaging device 10 and the point P measured by the angular distance measuring device 12, the azimuth and elevation angles of the imaging direction of the imaging device 10, and the GPS information acquisition unit 38. The coordinate value of the point P is calculated based on the acquired coordinate value of the photographing position (S102).

判定部42は、GPS衛星の数等の予め定めた判定基準に従い、上記対象座標演算部40が演算した座標値の正確性を判定する(S103)。本実施形態では、座標値の正確性が高(S104)、中(S105)及び低(S106)の何れかに判定される。   The determination unit 42 determines the accuracy of the coordinate value calculated by the target coordinate calculation unit 40 in accordance with a predetermined determination standard such as the number of GPS satellites (S103). In the present embodiment, the accuracy of the coordinate value is determined as one of high (S104), medium (S105), and low (S106).

次に、対象座標演算部40は、点Pの座標値に基づき、点Pの位置の周辺にバッファー領域を設定する(S107)。このバッファー領域は、地図上において点Pの周囲に円形または矩形等の領域として設定する。また、座標値の正確性に応じてバッファー領域の大きさを変更する(例えば正確性が低いほどバッファー領域を大きくする)のが好適である。   Next, the target coordinate calculation unit 40 sets a buffer area around the position of the point P based on the coordinate value of the point P (S107). This buffer area is set as a circular or rectangular area around the point P on the map. Further, it is preferable to change the size of the buffer area in accordance with the accuracy of the coordinate value (for example, the buffer area is increased as the accuracy is lower).

また、対象座標演算部40は、角度距離計測器12から最後に撮影装置10の撮影位置と点Pとの距離D及び撮影装置10の撮影方向の方位角及び仰俯角を取得した時刻t1から、バッファー時間Δt遡った時刻t2を設定する(S108)。   In addition, the target coordinate calculation unit 40 finally obtains the distance D between the photographing position of the photographing apparatus 10 and the point P and the azimuth angle and the elevation angle in the photographing direction of the photographing apparatus 10 from the angle distance measuring device 12 from the time t1. A time t2 that is set back by the buffer time Δt is set (S108).

その後、対象座標演算部40は、上記バッファー領域内で、上記バッファー時間Δtの間に角度距離計測器12による距離Dの計測回数または撮影装置10の撮影方向の方位角及び仰俯角の計測回数をカウントする(S109)。   Thereafter, the target coordinate calculation unit 40 calculates the number of measurements of the distance D by the angle distance measuring device 12 or the number of measurements of the azimuth angle and the elevation angle of the photographing apparatus 10 during the buffer time Δt in the buffer area. Count (S109).

対象情報生成部44は、図5(a),(b),(c)に示された表示決定基準を使用して、撮影装置10の撮影位置と点Pとの距離DとS109で求めたカウント数(計測回数)とに基づき、ガイド情報の表示態様を決定する(S110)。記述情報の種類は、利用者の関心分野や用途等によって異ならせるのが好適である。すなわち、利用者が予め指定した情報種別に応じて、該当の情報種別に対応する記述情報を提供する。なお、このガイド情報に含まれる点Pの座標値は、上記計測回数が複数である場合に、それらに基づいて演算された座標値の平均値としてもよい。   The target information generation unit 44 uses the display determination criteria shown in FIGS. 5A, 5 </ b> B, and 5 </ b> C to obtain the distance D between the shooting position of the shooting apparatus 10 and the point P in S <b> 109. The display mode of the guide information is determined based on the count number (measurement count) (S110). The type of description information is preferably different depending on the user's field of interest and application. That is, description information corresponding to the corresponding information type is provided according to the information type designated in advance by the user. Note that the coordinate value of the point P included in the guide information may be an average value of coordinate values calculated based on a plurality of measurement times.

出力部46は、S110で決定された表示態様に基づき、ガイド情報を出力する(S111)。   The output unit 46 outputs guide information based on the display mode determined in S110 (S111).

なお、上記実施例では最初に計測した点Pの位置周辺にバッファー領域を設定し、当該領域内での計測回数をカウントすることにより利用者の関心度を判断しているが、本実施例に限定されるものではない。例えば、予め撮影対象を含む領域の地図データを所定サイズのメッシュに分割し、当該メッシュ内での計測回数をカウントすることにより、利用者の関心度を判定してもよい。前者の場合には、最初に計測した点Pの周辺に円形や矩形等で設定された領域として利用者の関心領域を地図上に表示することになるが、後者の場合には、各計測点Pが存在するメッシュの連なりにより定義される任意の形状の領域を関心度の高い領域として表示することができる。また、メッシュ内の計測回数に応じて、各メッシュを関心度に応じて色分け等を行い、表示することも可能である。   In the above embodiment, the buffer area is set around the position of the point P measured first, and the user's degree of interest is determined by counting the number of times of measurement in the area. It is not limited. For example, the interest level of the user may be determined by dividing map data of a region including the imaging target in advance into a mesh of a predetermined size and counting the number of times of measurement within the mesh. In the former case, the user's region of interest is displayed on the map as an area set in a circle or rectangle around the first measured point P. In the latter case, each measurement point is displayed. A region having an arbitrary shape defined by a series of meshes where P is present can be displayed as a region of high interest. Further, according to the number of times of measurement in the mesh, it is possible to display each mesh by color-coding according to the degree of interest.

また、図8には、実施形態にかかる撮影対象情報生成装置の他の動作例のフローが示される。図8は、建築物等の形状をもった関心地物を特定するように撮影・距離計測する例である。図8において、S201からS206までのステップは、図7のS101からS106のステップと同じであるので、その説明は省略する。   FIG. 8 shows a flow of another operation example of the photographing target information generating apparatus according to the embodiment. FIG. 8 is an example of photographing and distance measurement so as to identify a feature of interest having a shape such as a building. In FIG. 8, the steps from S201 to S206 are the same as the steps from S101 to S106 in FIG.

S201からS206までのステップの実行後、画像情報取得部36は、利用者が入力装置24から入力した指定情報等に基づいて、利用者が関心を寄せる撮影対象を点Pの座標値から識別し、当該点Pに位置する撮影対象の識別情報(ID)Nを設定する(S207)。   After executing the steps from S201 to S206, the image information acquisition unit 36 identifies, from the coordinate value of the point P, the imaging target that the user is interested in based on the designation information and the like input from the input device 24 by the user. Then, identification information (ID) N of the photographing object located at the point P is set (S207).

次に、画像情報取得部36は、点Pに位置するIDがNの撮影対象を撮影した最後の時刻から時間を遡り、撮影装置10により当該IDがNの撮影対象を続けて撮影していた時間を捕捉時間として取得する(S208)。   Next, the image information acquisition unit 36 went back in time from the last time when the imaging object whose ID is N located at the point P was captured, and the imaging apparatus 10 continued to capture the imaging object whose ID was N. Time is acquired as a capture time (S208).

対象情報生成部44は、図5(a),(b),(c)に示された表示決定基準を使用して、撮影装置10の撮影位置と点Pとの距離DとS208で取得した捕捉時間とに基づき、ガイド情報の表示態様を決定する(S209)。記述情報の種類は、利用者の関心分野や用途等によって異ならせるのが好適である。すなわち、利用者が予め指定した情報種別に応じて、該当の情報種別に対応する記述情報を提供する。なお、このガイド情報に含まれる点Pの座標値は、上記捕捉時間中に複数演算された場合に、演算された座標値の平均値としてもよい。   The target information generation unit 44 uses the display determination criteria shown in FIGS. 5A, 5 </ b> B, and 5 </ b> C to obtain the distance D between the shooting position of the shooting device 10 and the point P and S <b> 208. Based on the capture time, the display mode of the guide information is determined (S209). The type of description information is preferably different depending on the user's field of interest and application. That is, description information corresponding to the corresponding information type is provided according to the information type designated in advance by the user. In addition, the coordinate value of the point P included in this guide information is good also as an average value of the calculated coordinate value, when multiple calculations are carried out during the said acquisition time.

出力部46は、S209で決定された表示態様に基づき、ガイド情報を出力する(S210)。   The output unit 46 outputs guide information based on the display mode determined in S209 (S210).

上述した、図7、図8の各ステップを実行するためのプログラムは、記録媒体に格納することも可能であり、また、そのプログラムを通信手段によって提供しても良い。その場合、例えば、上記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明または「データ信号」の発明として捉えても良い。   The above-described program for executing the steps of FIGS. 7 and 8 can be stored in a recording medium, and the program may be provided by communication means. In that case, for example, the above-described program may be regarded as an invention of a “computer-readable recording medium recording a program” or an invention of a “data signal”.

10 撮影装置、12 角度距離計測器、14 座標計測装置、16 制御装置、18 CPU、20 RAM、22 ROM、24 入力装置、26 表示装置、28 通信装置、30 記憶装置、32 バス、34 入出力インターフェース、36 画像情報取得部、38 GPS情報取得部、39 角度距離情報取得部、40 対象座標演算部、42 判定部、44 対象情報生成部、46 出力部。   DESCRIPTION OF SYMBOLS 10 Image | photographing device, 12 Angular distance measuring device, 14 Coordinate measuring device, 16 Control device, 18 CPU, 20 RAM, 22 ROM, 24 Input device, 26 Display device, 28 Communication device, 30 Storage device, 32 Bus, 34 Input / output Interface, 36 Image information acquisition unit, 38 GPS information acquisition unit, 39 Angular distance information acquisition unit, 40 Target coordinate calculation unit, 42 Determination unit, 44 Target information generation unit, 46 Output unit

Claims (7)

任意の撮影位置から任意の撮影方向にある撮影対象を撮影する撮影手段と、
前記撮影位置の座標値、前記撮影位置と前記撮影対象との距離、前記撮影手段の撮影方向に基づき、前記撮影対象の座標値を演算する撮影対象座標演算手段と、
前記撮影手段が撮影した撮影対象の画像及び前記撮影対象座標演算手段が演算した撮影対象の座標値を含む撮影対象に関する情報を生成する撮影対象情報生成手段と、
予め定めた判定基準に従い、前記撮影対象座標演算手段が演算した座標値の正確性を判定する判定手段と、
を備え、前記撮影対象情報生成手段は、前記判定手段が判定した撮影対象の座標値の正確性と、利用者の関心度と、に基づき、予め定めた表示決定基準により表示態様を決定することを特徴とする撮影対象情報生成装置。
Photographing means for photographing a subject in an arbitrary photographing direction from an arbitrary photographing position;
A shooting target coordinate calculation means for calculating a coordinate value of the shooting target based on a coordinate value of the shooting position, a distance between the shooting position and the shooting target, and a shooting direction of the shooting means;
Shooting object information generating means for generating information relating to a shooting target including an image of the shooting target imaged by the shooting means and a coordinate value of the shooting target calculated by the shooting target coordinate calculating means;
In accordance with a predetermined determination criterion, a determination unit that determines the accuracy of the coordinate value calculated by the shooting target coordinate calculation unit;
And the photographing object information generating means determines a display mode according to a predetermined display determination criterion based on the accuracy of the coordinate value of the photographing object determined by the determining means and the degree of interest of the user. A photographing object information generating device characterized by the above.
請求項1に記載の撮影対象情報生成装置において、前記判定手段は、少なくとも、前記撮影位置の座標値の正確性、前記撮影位置と撮影対象との距離の正確性、前記撮影手段の撮影方向の正確性のうちの1つにより撮影対象の座標値の正確性を判定することを特徴とする撮影対象情報生成装置。   2. The photographing object information generating apparatus according to claim 1, wherein the determination means includes at least the accuracy of the coordinate value of the photographing position, the accuracy of the distance between the photographing position and the photographing object, and the photographing direction of the photographing means. An imaging target information generating apparatus, wherein accuracy of a coordinate value of an imaging target is determined by one of accuracy. 請求項1または請求項2に記載の撮影対象情報生成装置において、前記撮影対象情報生成手段は、前記撮影手段による前記撮影対象の捕捉時間または前記撮影位置と前記撮影対象との距離の測定回数に基づいて前記利用者の関心度を判定することを特徴とする撮影対象情報生成装置。   3. The photographing target information generating device according to claim 1 or 2, wherein the photographing target information generating unit is configured to determine a capturing time of the photographing target by the photographing unit or a measurement count of a distance between the photographing position and the photographing target. An imaging object information generating apparatus, wherein the interest level of the user is determined based on the information. 請求項1から請求項3のいずれか一項に記載の撮影対象情報生成装置において、前記撮影対象に関する情報には、地図上において前記撮影対象の位置を表す図形が含まれ、前記撮影対象情報生成手段は、前記判定手段の判定結果に基づいて、前記撮影対象の位置を表す図形を変更することを特徴とする撮影対象情報生成装置。   The imaging object information generation device according to any one of claims 1 to 3, wherein the information about the imaging object includes a graphic representing a position of the imaging object on a map, and the imaging object information generation The means changes the graphic representing the position of the photographing target based on the determination result of the determining means. 請求項1から請求項3のいずれか一項に記載の撮影対象情報生成装置において、前記撮影対象に関する情報には、前記撮影対象の位置を表す文字列が含まれ、前記文字列は、その表す情報の詳細度により複数準備されており、前記撮影対象情報生成手段は、前記判定手段の判定結果に基づいて、前記複数準備されている文字列の中から表示する文字列を選択することを特徴とする撮影対象情報生成装置。   4. The photographing target information generating device according to claim 1, wherein the information related to the photographing target includes a character string representing a position of the photographing target, and the character string represents the character string. Plural preparations are made according to the level of detail of the information, and the photographing target information generation unit selects a character string to be displayed from the plurality of prepared character strings based on a determination result of the determination unit. An imaging target information generation device. 請求項1から請求項3のいずれか一項に記載の前記撮影対象情報生成装置は、さらに過去に撮影された画像が蓄積された画像データベースを有しており、
前記撮影対象情報生成手段は、前記撮影対象の座標値に基づいて前記画像データベースから撮影対象画像を抽出することを特徴とする撮影対象情報生成装置。
The photographing object information generating device according to any one of claims 1 to 3 further includes an image database in which images photographed in the past are accumulated,
The photographic target information generating device extracts a photographic target image from the image database based on the coordinate value of the photographic target.
コンピュータを、
撮影手段により任意の撮影位置から任意の撮影方向にある撮影対象を撮影した画像情報を取得する画像情報取得手段、
前記撮影位置の座標値、前記撮影位置と前記撮影対象との距離、前記撮影手段の撮影方向に基づき、前記撮影対象の座標値を演算する撮影対象座標演算手段、
前記撮影手段が撮影した撮影対象の画像及び前記撮影対象座標演算手段が演算した撮影対象の座標値を含む撮影対象に関する情報を生成する撮影対象情報生成手段、
予め定めた判定基準に従い、前記撮影対象座標演算手段が演算した座標値の正確性を判定する判定手段、
として機能させ、前記撮影対象情報生成手段は、前記判定手段が判定した撮影対象の座標値の正確性と、利用者の関心度と、に基づき、予め定めた表示決定基準により表示態様を決定することを特徴とする撮影対象情報生成プログラム。
Computer
Image information acquisition means for acquiring image information obtained by photographing a photographing object in an arbitrary photographing direction from an arbitrary photographing position by the photographing means;
A shooting target coordinate calculation means for calculating a coordinate value of the shooting target based on a coordinate value of the shooting position, a distance between the shooting position and the shooting target, and a shooting direction of the shooting means;
Shooting target information generating means for generating information relating to a shooting target including an image of the shooting target shot by the shooting means and coordinate values of the shooting target calculated by the shooting target coordinate calculation means;
In accordance with a predetermined determination criterion, a determination unit that determines the accuracy of the coordinate value calculated by the photographing target coordinate calculation unit,
The photographing target information generating unit determines a display mode according to a predetermined display determination criterion based on the accuracy of the coordinate value of the photographing target determined by the determination unit and the degree of interest of the user. An imaging object information generation program characterized by that.
JP2009287722A 2009-12-18 2009-12-18 Imaging object information generation apparatus and imaging object information generation program Active JP5297366B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009287722A JP5297366B2 (en) 2009-12-18 2009-12-18 Imaging object information generation apparatus and imaging object information generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009287722A JP5297366B2 (en) 2009-12-18 2009-12-18 Imaging object information generation apparatus and imaging object information generation program

Publications (2)

Publication Number Publication Date
JP2011130255A true JP2011130255A (en) 2011-06-30
JP5297366B2 JP5297366B2 (en) 2013-09-25

Family

ID=44292332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009287722A Active JP5297366B2 (en) 2009-12-18 2009-12-18 Imaging object information generation apparatus and imaging object information generation program

Country Status (1)

Country Link
JP (1) JP5297366B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013205165A (en) * 2012-03-28 2013-10-07 Pasuko:Kk Portable photographing device and photographing program
CN114018280A (en) * 2021-11-12 2022-02-08 深圳市乐福衡器有限公司 Motion trail measuring method and system based on azimuth angle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008149537A1 (en) * 2007-05-31 2008-12-11 Panasonic Corporation Image capturing device, additional information providing server, and additional information filtering system
JP2009100110A (en) * 2007-10-15 2009-05-07 Canon Inc Imaging apparatus, method of controlling imaging apparatus and control program of imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008149537A1 (en) * 2007-05-31 2008-12-11 Panasonic Corporation Image capturing device, additional information providing server, and additional information filtering system
JP2009100110A (en) * 2007-10-15 2009-05-07 Canon Inc Imaging apparatus, method of controlling imaging apparatus and control program of imaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013205165A (en) * 2012-03-28 2013-10-07 Pasuko:Kk Portable photographing device and photographing program
CN114018280A (en) * 2021-11-12 2022-02-08 深圳市乐福衡器有限公司 Motion trail measuring method and system based on azimuth angle

Also Published As

Publication number Publication date
JP5297366B2 (en) 2013-09-25

Similar Documents

Publication Publication Date Title
CN102575933B (en) System that generates map image integration database and program that generates map image integration database
Sermet et al. Crowdsourced approaches for stage measurements at ungauged locations using smartphones
CN105579811B (en) Method for the drawing of external mix photo
CN110617821B (en) Positioning method, positioning device and storage medium
US7526718B2 (en) Apparatus and method for recording “path-enhanced” multimedia
US9025033B2 (en) Surveillance camera and method for calibrating the survelliance camera using a calibration tool
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
JP2007219231A (en) Aerial image processing device and aerial image processing method
KR101011813B1 (en) Installaion for displaying overlap line of adjoined digital aerial photograph
EP4246088A1 (en) Surveying system, surveying method, and surveying program
JP2007107962A (en) Measuring system of measuring object and separated measuring system under transmission line
CN112859130B (en) High-precision electronic map position matching method for field navigation patrol
JP2005091298A (en) Global coordinate acquisition device using image processing
RU2571300C2 (en) Method for remote determination of absolute azimuth of target point
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
CN115439469A (en) Unmanned aerial vehicle-based building defect detection method and device and electronic equipment
KR101220234B1 (en) Automatic scale modification and aerial/satellite image numerical mapping system using altimeter and method thereof
JP5297366B2 (en) Imaging object information generation apparatus and imaging object information generation program
KR102393300B1 (en) Object map generation system and method therefor
CN115731304A (en) Road data generation method, device and equipment
JP2005056186A (en) Traffic condition observation system
JP5634925B2 (en) Maintenance information display device, maintenance information display method, and program
JP2011090047A (en) Movement locus chart creating device and computer program
JP2010107224A (en) Position determining apparatus and apparatus for detecting changed building
CN110617800A (en) Emergency remote sensing monitoring method, system and storage medium based on civil aircraft

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130301

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130614

R150 Certificate of patent or registration of utility model

Ref document number: 5297366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250