JP6723018B2 - Object recording device and object recording program - Google Patents

Object recording device and object recording program Download PDF

Info

Publication number
JP6723018B2
JP6723018B2 JP2016018176A JP2016018176A JP6723018B2 JP 6723018 B2 JP6723018 B2 JP 6723018B2 JP 2016018176 A JP2016018176 A JP 2016018176A JP 2016018176 A JP2016018176 A JP 2016018176A JP 6723018 B2 JP6723018 B2 JP 6723018B2
Authority
JP
Japan
Prior art keywords
vector
related information
shooting
virtual
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016018176A
Other languages
Japanese (ja)
Other versions
JP2017139569A (en
Inventor
西村 修
修 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2016018176A priority Critical patent/JP6723018B2/en
Publication of JP2017139569A publication Critical patent/JP2017139569A/en
Application granted granted Critical
Publication of JP6723018B2 publication Critical patent/JP6723018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、対象物記録装置及び対象物記録プログラムに関する。 The present invention relates to an object recording device and an object recording program.

従来から、道路や河川等の管理を行うために、画像データ、撮影時刻や撮影地等の属性データ、地図データ等を管理サーバーに蓄積し、あるいはこれらのデータを表示するシステムが提案されている。 Conventionally, in order to manage roads and rivers, a system has been proposed in which image data, attribute data such as shooting time and shooting location, map data, etc. are stored in a management server or displayed. ..

例えば、下記特許文献1には、モバイルデバイスにおいて、目標物に対する前記モバイルデバイスの方位を、前記モバイルデバイスによってサポートされる少なくとも1つのセンサから受信した1つまたは複数の信号に少なくとも部分的に基づいて検出するステップと、前記方位にある間に前記モバイルデバイスのカメラビュー内にキャプチャされたビデオ画像を表示するステップと、前記方位と前記カメラビュー内で少なくとも部分的に覆い隠されている前記目標物との間の差に少なくとも部分的に基づいて、前記表示されたビデオ画像に1つまたは複数の視覚的インジケータをオーバーレイするステップと、を含む方法が開示されている。 For example, U.S. Pat. No. 6,037,049 discloses a mobile device in which the orientation of the mobile device relative to a target is based at least in part on one or more signals received from at least one sensor supported by the mobile device. Detecting, displaying a video image captured in a camera view of the mobile device while in the orientation, and the target at least partially obscured in the orientation and the camera view. Overlaying one or more visual indicators on the displayed video image based at least in part on the difference between and.

また、下記特許文献2には、目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する情報取得手段と、この情報取得手段により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラにより得られる撮影画像上における上記目標物の位置を算出する演算手段と、この演算手段により算出された上記撮影画像中の目標物の位置を表す情報を表示する表示手段と、上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する判断手段とを具備し、上記表示手段は、この判断手段により上記カメラの撮影画角内に上記目標物が収まっていないと判断された場合、上記目標物のある方向を示す情報を表示することを特徴とする目標位置探索装置が開示されている。 Further, in Patent Document 2 below, information acquisition means for acquiring position information of a target object, shooting position information, shooting direction information, and shooting angle of view information of a camera, and a target object obtained by this information acquisition means. Calculating means for calculating the position of the target object on the photographed image obtained by the camera based on the position information of the camera, the photographing position information of the camera, the photographing direction information and the photographing angle of view information, and the calculating means. A display unit for displaying information indicating the calculated position of the target object in the photographed image; and a judgment unit for judging whether or not the target object is within the photographing angle of view of the camera, The display unit displays the information indicating the direction in which the target is located when the determination unit determines that the target is not within the photographing angle of view of the camera. Is disclosed.

特表2014−505250公報Special table 2014-505250 gazette 特許第3729161号公報Japanese Patent No. 3729161

しかし、上記従来の技術においては、道路や河川等の対象物(被写体)の画像を表示画面に表示するものであるが、対象物(被写体)画像に対象物の説明その他の関連情報(視覚的インジケータ、目標物のある方向を示す情報等)を関連づけ、当該画像に重畳して表示する場合、その関連情報は座標情報を有しておらず、当該画像のみに表示できるだけであった。従って、当該対象物を別方向から撮影した別の画像には、上記関連情報を重畳して表示することはできなかった。 However, in the above-mentioned conventional technique, although an image of an object (subject) such as a road or a river is displayed on the display screen, a description of the object (subject) and other related information (visual In the case of associating an indicator, information indicating a certain direction of a target object, etc., and superimposing and displaying the image on the image, the related information does not have coordinate information and can be displayed only on the image. Therefore, the related information cannot be superimposed and displayed on another image of the target taken from another direction.

本発明は、撮影及び表示する対象物の関連情報に、当該関連情報を特定するための情報を付加して記録し、表示できる対象物記録装置及び対象物記録プログラムを提供することを目的とする。 An object of the present invention is to provide an object recording device and an object recording program capable of adding and recording information for identifying the related information to the related information of the object to be photographed and displayed. ..

上記目的を達成するために、本発明の一実施形態は、対象物記録装置であって、撮影または再生により表示中の対象物の撮影位置を決定する撮影位置決定手段と、撮影または再生により表示中の対象物の前記撮影位置からの方向を検出する方向検出手段と、前記撮影位置を始点とし、前記方向を向くベクトルの長さを予め定めた基準に基づいて決定し、対象物ベクトルとして生成するベクトル生成手段と、前記対象物の関連情報を設定する関連情報設定手段と、前記関連情報を前記対象物ベクトルと関連付けて記憶する関連情報記憶手段と、を備えることを特徴とする。 In order to achieve the above object, one embodiment of the present invention is a target object recording apparatus, which is a shooting position determining unit that determines a shooting position of a target object that is being displayed by shooting or playing back, and displays by shooting or playing back. Direction detecting means for detecting a direction of the inside object from the photographing position, and determining a length of a vector pointing in the direction from the photographing position as a starting point based on a predetermined reference and generating the object vector And a related information setting means for setting related information of the target object, and a related information storage means for storing the related information in association with the target object vector.

上記対象物記録装置は、座標軸を有し、対象物の撮影位置を始点とし対象物の方向を向く対象物ベクトルの終点が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段と、前記撮影位置と撮影に使用するカメラの撮影方位、傾き及び画角とに基づいて、前記仮想3次元空間における表示範囲を特定する表示範囲特定手段と、前記仮想3次元空間における表示範囲に終点が含まれる前記対象物ベクトルに関連付けられた前記関連情報を特定する関連情報特定手段と、前記特定された関連情報を前記表示中の画像に重畳して表示する表示手段と、をさらに備えるのが好適である。 The object recording apparatus has a coordinate axis, and sets a virtual three-dimensional space in which a starting point is a photographing position of the object and an end point of an object vector facing the object is associated with coordinates on the coordinate axis. Dimensional space setting means, display range specifying means for specifying a display range in the virtual three-dimensional space based on the shooting position and the shooting azimuth, tilt and angle of view of the camera used for shooting, and the virtual three-dimensional space. Related information specifying means for specifying the related information associated with the target object vector whose end point is included in the display range, and display means for displaying the specified related information by superimposing it on the image being displayed. It is preferable to further include

また、上記ベクトル生成手段は、前記方向の俯角が予め定めた基準角度以上の場合に、前記始点から対象物ベクトルの方向に引いた直線と予め設定された地平面の方程式とから演算した交点の座標に基づいて前記対象物ベクトルの長さを決定するのが好適である。 Further, the vector generation means, when the depression angle in the direction is equal to or more than a predetermined reference angle, the intersection point calculated from the straight line drawn from the starting point in the direction of the object vector and the equation of the preset horizon It is preferable to determine the length of the object vector based on the coordinates.

また、上記ベクトル生成手段は、前記方向の俯角が予め定めた基準角度より小さい場合に、前記カメラの設置位置の高さに基づいて前記対象物ベクトルの長さを決定してもよい。 The vector generating means may determine the length of the object vector based on the height of the installation position of the camera when the depression angle in the direction is smaller than a predetermined reference angle.

また、上記対象物記録装置は、上記対象物ベクトルの長さを、別の方向から撮影または再生した画像上で前記ベクトル生成手段が生成した同一の対象物に対する新たな対象物ベクトルに基づいて補正するベクトル補正手段をさらに備えてもよい。 Further, the object recording device corrects the length of the object vector based on a new object vector for the same object generated by the vector generating means on an image captured or reproduced from another direction. You may further provide the vector correction means to do.

また、上記対象物記録装置は、上記表示手段が、前記仮想3次元空間における前記対象物ベクトルの終点の座標を前記関連情報の座標として、当該座標の予め設定された地平面への投影点を表示し、入力手段を介して前記投影点の位置を変更したときに、前記関連情報に関連付けられた前記対象物ベクトルの長さ及び/または方向を補正するベクトル補正手段をさらに備えてもよい。 Further, in the object recording apparatus, the display means sets the coordinates of the end point of the object vector in the virtual three-dimensional space as the coordinates of the related information and displays the projection point of the coordinates on a preset horizon. It may further include vector correction means for displaying and changing the length and/or direction of the object vector associated with the relevant information when the position of the projection point is changed via the input means.

上記対象物記録装置は、撮影機能及び撮影した画像の表示機能を有するタブレット型端末上で構成されているのが好適である。 It is preferable that the target object recording device is configured on a tablet terminal having a photographing function and a display function of a photographed image.

本発明の他の実施形態は、対象物記録プログラムであって、コンピュータを、撮影または再生により表示中の対象物の撮影位置を決定する撮影位置決定手段、撮影または再生により表示中の対象物の前記撮影位置からの方向を検出する方向検出手段、前記撮影位置を始点とし、前記方向を向くベクトルの長さを予め定めた基準に基づいて決定し、対象物ベクトルとして生成するベクトル生成手段、前記対象物の関連情報を設定する関連情報設定手段、前記関連情報を前記対象物ベクトルと関連付けて記憶する関連情報記憶手段、として機能させることを特徴とする。 Another embodiment of the present invention is an object recording program, wherein a computer is used to determine a shooting position of a target object being displayed by shooting or reproducing, a shooting position determining unit, and a target object being displayed by shooting or playing. Direction detecting means for detecting a direction from the photographing position, vector generating means for determining the length of a vector pointing in the direction based on a predetermined reference, starting from the photographing position, and generating as an object vector, It is characterized by functioning as related information setting means for setting related information of an object, and related information storage means for storing the related information in association with the object vector.

また、上記対象物記録プログラムは、コンピュータを、座標軸を有し、対象物の撮影位置を始点とし対象物の方向を向く対象物ベクトルの終点が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段、前記撮影位置と撮影に使用するカメラの撮影方位、傾き及び画角とに基づいて、前記仮想3次元空間における表示範囲を特定する表示範囲特定手段、前記仮想3次元空間における表示範囲に終点が含まれる前記対象物ベクトルに関連付けられた前記関連情報を特定する関連情報特定手段、前記特定された関連情報を前記表示中の画像に重畳して表示する表示手段、としてさらに機能させることを特徴とする。 Further, the object recording program has a computer, which has a coordinate axis, and a virtual three-dimensional space in which an end point of an object vector having a coordinate of a photographing position of the object as a starting point and facing the direction of the object is associated with coordinates on the coordinate axis. Virtual three-dimensional space setting means, a display range specifying means for specifying a display range in the virtual three-dimensional space based on the shooting position and the shooting direction, tilt and angle of view of the camera used for shooting, and the virtual Related information specifying means for specifying the related information associated with the object vector whose end point is included in the display range in the three-dimensional space, and display means for displaying the specified related information by superimposing it on the image being displayed. , And further function as.

本発明によれば、撮影及び表示する対象物の関連情報に、当該関連情報を特定するための情報を付加して記録し、当該対象物を別方向から撮影した別の画像にも重畳して表示できる。 According to the present invention, the information for identifying the relevant information is added to the relevant information of the object to be photographed and displayed and recorded, and the information is also superimposed on another image obtained by photographing the object from another direction. Can be displayed.

実施形態にかかる対象物記録装置の例の説明図である。It is explanatory drawing of the example of the target recording device concerning embodiment. 実施形態にかかる対象物記録装置の機能ブロック図である。It is a functional block diagram of the object recording device concerning an embodiment. 実施形態にかかる方向検出部が検出する対象物の撮影位置からの方向の説明図である。FIG. 3 is an explanatory diagram of a direction from a shooting position of an object detected by a direction detection unit according to the embodiment. 仮想3次元空間の説明図である。It is explanatory drawing of a virtual three-dimensional space. 実施形態にかかる第1の補正及び第2の補正の説明図である。It is explanatory drawing of the 1st correction and 2nd correction concerning embodiment. 実施形態にかかる対象物記録装置の使用例の説明図である。It is explanatory drawing of the usage example of the target recording device concerning embodiment. 実施形態にかかる対象物記録装置の動作例のフロー図である。It is a flowchart of an operation example of the object recording device according to the embodiment. 実施形態にかかる対象物記録装置の他の動作例のフロー図である。FIG. 8 is a flowchart of another operation example of the object recording device according to the embodiment.

以下、本発明を実施するための形態(以下、実施形態という)を、図面に従って説明する。 Hereinafter, modes for carrying out the present invention (hereinafter, referred to as embodiments) will be described with reference to the drawings.

図1(a)、(b)には、実施形態にかかる対象物記録装置の説明図が示される。図1(a)において、撮影機能及び撮影した画像の再生表示機能を有するタブレット端末等の撮影・表示端末10は、表側に画像を表示する表示画面12が、裏側に撮影対象(対象物)を撮影するためのカメラ14(図1(b)参照)が設けられている。 1(a) and 1(b) are explanatory views of the object recording apparatus according to the embodiment. In FIG. 1A, a photographing/display terminal 10 such as a tablet terminal having a photographing function and a reproduction/display function of a photographed image has a display screen 12 for displaying an image on the front side and a photographing target (object) on the back side. A camera 14 (see FIG. 1B) for shooting is provided.

上記カメラ14は、ステレオカメラとする必要はなく、動画撮影のできるものであれば、単一のカメラ(撮影装置)により構成することができる。なお、カメラ14は、CCD、CMOS等を使用した撮像素子で構成することができる。 The camera 14 does not have to be a stereo camera, and can be configured with a single camera (imaging device) as long as it can capture a moving image. The camera 14 can be composed of an image pickup device using a CCD, a CMOS or the like.

撮影・表示端末10は、上記カメラ14により矢印A方向を撮影し、道路、河川、建造物その他の対象物(撮影対象)を含む画像を撮影しつつ表示画面12に当該画像を表示する。あるいは、過去に撮影した対象物を含む画像を記憶しておき、これを表示画面12に再生表示することもできる。なお、過去に撮影した画像のデータは、外部のサーバー等に格納しておき、撮影・表示端末10がインターネット回線その他の適宜な通信回線を介して取得し、再生表示する構成としてもよい。本実施形態にかかる撮影・表示端末10では、撮影・表示端末10で撮影中の対象物を含む画像を表示している際に、あるいは過去に撮影した画像を再生表示している際に、対象物に関連する関連情報を設定し、対象物を含む画像に重畳する処理を実行する。関連情報の設定方法及び表示例は後述する。 The photographing/display terminal 10 photographs the direction of the arrow A with the camera 14 and displays the image on the display screen 12 while photographing an image including a road, a river, a building and other objects (imaging objects). Alternatively, it is possible to store an image including an object photographed in the past and reproduce and display it on the display screen 12. The data of images taken in the past may be stored in an external server or the like, and the shooting/display terminal 10 may acquire the data via the Internet line or another appropriate communication line and reproduce and display the data. The shooting/display terminal 10 according to the present exemplary embodiment displays a target when displaying an image including an object being shot by the shooting/display terminal 10 or when playing back and displaying an image shot in the past. A process of setting related information related to an object and superimposing it on an image including an object is executed. A method of setting related information and a display example will be described later.

なお、撮影・表示端末10は、タブレット端末に限定されるものではなく、撮影機能、撮影した画像の表示機能、インターネット回線や電話回線等を使用して外部のサーバーと通信する機能、撮影方位を検出する機能、ジャイロ等を使用して自分の傾きを検出する機能及びGPS等を使用して自分の位置を特定する機能等を有するものであれば撮影・表示端末10として使用できる。 Note that the shooting/display terminal 10 is not limited to a tablet terminal, and a shooting function, a display function of a shot image, a function of communicating with an external server using an internet line or a telephone line, and a shooting direction. As long as it has a function of detecting, a function of detecting one's own inclination using a gyro, a function of specifying one's position using GPS, etc., it can be used as the photographing/display terminal 10.

さらに、車両搭載型レーザー計測装置であるMMS(道路現況レーザー計測(Mobile Mapping System:モービル・マッピング・システム))を撮影装置(カメラ14)として使用し、取得した単写真あるいは全周囲画像をコンピュータ等の適宜な画面(表示画面12)上に表示する構成としてもよい。 Furthermore, MMS (Mobile Mapping System (Mobile Mapping System)), which is a vehicle-mounted laser measuring device, is used as a photographing device (camera 14), and the acquired single photograph or the entire circumference image is used by a computer or the like. May be configured to be displayed on an appropriate screen (display screen 12).

また、上記関連情報としては、例えば過去における道路や周辺設備の修理箇所、破損状況、道路や河川の識別符号(国道の番号、河川コード等)、道路や河川に設定されたキロポストの位置、道路周囲の建物の名称や、当該建物に入居している施設、都道府県名、市区町村名、地番等が挙げられるが、これらに限定されるものではない。道路、河川、建造物その他の対象物に関連する情報であればどのような情報であっても関連情報として設定することができる。 The related information includes, for example, past repair points of roads and peripheral equipment, damage status, identification codes of roads and rivers (national road numbers, river codes, etc.), positions of kiloposts set on roads and rivers, roads. Examples include, but are not limited to, names of surrounding buildings, facilities occupying the buildings, prefectures, municipalities, lot numbers, and the like. Any information related to roads, rivers, buildings and other objects can be set as related information.

関連情報を設定する際には、当該関連情報の表示位置を特定するために、当該関連情報が関連する対象物の位置を表す対象物ベクトルを設定しておく。対象物ベクトルの設定方法については後述する。 When setting the related information, in order to specify the display position of the related information, an object vector representing the position of the object related to the related information is set. The method of setting the object vector will be described later.

図2には、実施形態にかかる対象物記録装置の例の機能ブロック図が示される。図2において、対象物情報表示装置は、撮影位置決定部16、方向検出部18、ベクトル生成部20、関連情報設定部22、仮想3次元空間設定部24、表示範囲特定部26、関連情報特定部28、表示制御部30、ベクトル補正部32、通信部34、記憶部36及びCPU38を含んで構成されている。この対象物記録装置は、CPU38、ROM、RAM、不揮発性メモリ、I/O、通信インターフェース等を備え、装置全体の制御及び各種演算を行うコンピュータとして構成されており、上記各機能は、例えばCPU38とCPU38の処理動作を制御するプログラムとにより実現される。 FIG. 2 shows a functional block diagram of an example of the object recording apparatus according to the embodiment. In FIG. 2, the object information display device includes a photographing position determination unit 16, a direction detection unit 18, a vector generation unit 20, a related information setting unit 22, a virtual three-dimensional space setting unit 24, a display range specifying unit 26, and related information specification. It is configured to include a unit 28, a display control unit 30, a vector correction unit 32, a communication unit 34, a storage unit 36, and a CPU 38. The object recording device includes a CPU 38, a ROM, a RAM, a non-volatile memory, an I/O, a communication interface, and the like, and is configured as a computer that controls the entire device and performs various calculations. And a program that controls the processing operation of the CPU 38.

撮影位置決定部16は、撮影中に(撮影と同時に)または再生により表示中の撮影対象(対象物)の撮影位置を決定する。すなわち、撮影・表示端末10のカメラ14で対象物を撮影しているときの撮影位置(カメラ14の位置)の座標を決定する。撮影位置を決定する対象物は、表示画面12に表示された画像中において、使用者が適宜な入力手段(マウス等のポインティングデバイス、キーボード、タッチパネル等)により指定した画像の要素(道路、建物その他の建造物、山や木等の自然物等、画像として表示される全ての要素)である。撮影位置決定部16は、例えば撮影中にGPS受信機により取得した位置情報、あるいは再生中の画像データに含まれる上記GPS受信機により取得した位置情報により撮影位置の座標を特定する構成とすることができる。なお、GPS受信機にはIMU(慣性計測装置)を組み合わせても良い。撮影位置の座標としては、例えば緯度、経度、標高等の3次元座標が挙げられるが、これには限定されない。特定した撮影位置の座標は、記憶部36に記憶させる。 The shooting position determination unit 16 determines the shooting position of the shooting target (target object) being displayed (at the same time as shooting) or by being played back. That is, the coordinates of the shooting position (the position of the camera 14) when the camera 14 of the shooting/display terminal 10 is shooting an object are determined. The object that determines the shooting position is an element of the image (road, building, etc.) designated by the user with an appropriate input means (pointing device such as mouse, keyboard, touch panel, etc.) in the image displayed on the display screen 12. Are all elements displayed as images, such as buildings, natural objects such as mountains and trees). The shooting position determination unit 16 is configured to specify the coordinates of the shooting position based on, for example, the position information acquired by the GPS receiver during shooting or the position information acquired by the GPS receiver included in the image data being reproduced. You can An IMU (inertial measurement device) may be combined with the GPS receiver. Examples of the coordinates of the photographing position include, but are not limited to, three-dimensional coordinates such as latitude, longitude, and altitude. The coordinates of the specified shooting position are stored in the storage unit 36.

方向検出部18は、撮影方位検出部18a及び傾き検出部18bを備え、撮影中にまたは再生により表示中の対象物の上記撮影位置からの方向を検出する。 The direction detection unit 18 includes a shooting direction detection unit 18a and a tilt detection unit 18b, and detects the direction from the shooting position of the target object being displayed during shooting or playback.

撮影方位検出部18aは、撮影・表示端末10のカメラ14で撮影対象を撮影しているときの撮影方位(カメラ14の光軸の方位)を検出する。撮影方位の検出は、例えば磁気センサにより行うことができる。すなわち、撮影方位検出部18aが磁気センサからの出力を受け取り、磁気センサの取り付け方向、カメラ14の光軸方向等に基づき撮影方位を演算する。演算した撮影方位は記憶部36に記憶させる。 The shooting direction detection unit 18a detects a shooting direction (direction of the optical axis of the camera 14) when the camera 14 of the shooting/display terminal 10 is shooting a shooting target. The shooting direction can be detected by, for example, a magnetic sensor. That is, the shooting direction detection unit 18a receives the output from the magnetic sensor and calculates the shooting direction based on the mounting direction of the magnetic sensor, the optical axis direction of the camera 14, and the like. The calculated shooting direction is stored in the storage unit 36.

傾き検出部18bは、撮影・表示端末10のカメラ14で撮影対象を撮影しているときのカメラ14(撮影画面)の傾き、すなわちカメラ14の光軸周りの回転(ローリング)及び光軸と直交する左右軸(ローリングが無い場合に撮影方向を前方としたときの左右に伸びる水平の軸であり、ローリングがあるときにはその角度分傾く軸)周りの回転(ピッチング)の角度を検出する。なお、ローリング及びピッチングを、図1(a)に示す。カメラ14の傾きは、例えば加速度センサからの出力を傾き検出部18bが受け取り、演算することにより求める。傾き検出部18bが演算したカメラ14の傾きは記憶部36に記憶させる。 The tilt detecting unit 18b tilts the camera 14 (shooting screen) while the camera 14 of the shooting/display terminal 10 is shooting a shooting target, that is, the camera 14 rotates about an optical axis (rolls) and is orthogonal to the optical axis. The angle of rotation (pitching) around the horizontal axis (horizontal axis extending to the left and right when the shooting direction is the front when there is no rolling and tilting by that angle when there is rolling) is detected. Note that rolling and pitching are shown in FIG. The tilt of the camera 14 is obtained by, for example, the tilt detector 18b receiving an output from the acceleration sensor and calculating the tilt. The storage unit 36 stores the tilt of the camera 14 calculated by the tilt detection unit 18b.

方向検出部18は、適宜な入力手段(マウス等のポインティングデバイス、キーボード、タッチパネル等)により使用者が指定した、表示画面12上で表示中の対象物の撮影位置からの方向を、記憶部36から読み出した上記カメラ14の撮影方位、傾き及び画角に基づいて検出する。方向検出部18が検出した上記方向は記憶部36に記憶させる。なお、画角は、カメラ14で撮影される光景の範囲を角度で表したものであり、水平画角、垂直画角、対角線画角がカメラ14に固有の値として予めわかっているので、例えば記憶部36に記憶させておき、方向検出部18が記憶部36から読み出して使用する。 The direction detection unit 18 stores the direction from the photographing position of the target object displayed on the display screen 12, which is designated by the user by an appropriate input unit (pointing device such as mouse, keyboard, touch panel, etc.), in the storage unit 36. It is detected based on the shooting direction, the tilt, and the angle of view of the camera 14 read from the. The above-mentioned direction detected by the direction detection unit 18 is stored in the storage unit 36. Note that the angle of view represents the range of the scene photographed by the camera 14 in terms of angles, and the horizontal angle of view, the vertical angle of view, and the diagonal angle of view are known in advance as values unique to the camera 14. It is stored in the storage unit 36, and the direction detection unit 18 reads out from the storage unit 36 and uses it.

ここで、撮影位置からの方向が検出される対象物の位置は、対象物の画像に含まれる画素または画素領域(連続する画素の集合により形成される領域)とすることができ、方向検出部18は、上記撮影位置から上記画素または画素領域の方向を検出する。上記画素または画素領域は、使用者が画面上で上記入力手段により行う対象物の指定の際に入力手段により入力した指定情報としての画素または画素領域である。この指定情報は、例えばタッチパネルまたはポインティングデバイスで指示された、対象物の画像に含まれる画素または画素領域とすることができる。また、キーボードにより上記画素または画素領域を指示する構成としてもよい。 Here, the position of the target object whose direction from the shooting position is detected can be a pixel or a pixel region (a region formed by a set of continuous pixels) included in the image of the target object. Reference numeral 18 detects the direction of the pixel or pixel area from the shooting position. The pixel or pixel region is a pixel or pixel region as designation information input by the input unit when the user designates an object on the screen by the input unit. The designation information can be, for example, a pixel or a pixel area included in the image of the object, which is designated by a touch panel or a pointing device. Further, a configuration may be used in which the above-mentioned pixel or pixel area is designated by a keyboard.

入力された指定情報は、方向検出部18が受け付け、入力手段により指示された画素または画素領域が表示画面12上のいずれの画素または画素領域であるかを判定する。なお、指定情報が画素領域である場合には、予め画素領域を構成する画素の数、画素の連続方法、上記方向を検出する際の中心となる画素等について予め設定し、方向検出部18はこの設定に基づいて方向検出処理を実行する。上記方向を検出する際の中心となる画素とは、撮影位置から当該中心となる画素までの方向が方向検出部18により検出される方向となる画素である。 The direction specifying unit 18 receives the input designation information, and determines which pixel or pixel region on the display screen 12 the pixel or pixel region designated by the input means is. When the designation information is the pixel area, the direction detection unit 18 sets in advance the number of pixels forming the pixel area, the pixel continuation method, the central pixel for detecting the direction, and the like. The direction detection process is executed based on this setting. The pixel serving as the center for detecting the direction is a pixel in which the direction from the shooting position to the center pixel is the direction detected by the direction detecting unit 18.

図3(a)、(b)には、方向検出部18が検出する対象物の撮影位置からの方向の説明図が示される。図3(a)が上記方向のXY平面への投影図であり、図3(b)が上記方向を向く直線と平行であり、XY平面に直交する平面Wへの投影図である。なお、XYZは座標軸を表しているが、座標軸はこれには限定されず、任意の座標軸を使用することができる。 3(a) and 3(b) are explanatory views of the direction from the photographing position of the object detected by the direction detection unit 18. 3A is a projection view on the XY plane in the above direction, and FIG. 3B is a projection view on a plane W parallel to a straight line facing the above direction and orthogonal to the XY plane. Although XYZ represents coordinate axes, the coordinate axes are not limited to this, and arbitrary coordinate axes can be used.

図3(a)において、撮影位置決定部16が決定した対象物Pの撮影位置(カメラ14の位置)がCで示される。また、カメラ14の撮影範囲(のXY平面への投影)の角度がαで示される。図3(a)に示される、撮影位置Cから対象物Pへの方向は、XY平面に投影された方向すなわち方位にあたる。また、図3(b)において、撮影位置Cから対象物Pへの方向は仰角または俯角にあたる。 In FIG. 3A, the shooting position of the object P (position of the camera 14) determined by the shooting position determination unit 16 is indicated by C. Further, the angle of (the projection on the XY plane of) the photographing range of the camera 14 is indicated by α. The direction from the shooting position C to the object P shown in FIG. 3A corresponds to the direction projected on the XY plane, that is, the azimuth. Further, in FIG. 3B, the direction from the photographing position C to the object P corresponds to the elevation angle or the depression angle.

カメラ14で撮影し、表示画面12に表示された画像中の各点(画素)は、上記図3(a)、(b)に示される方位及び仰俯角(仰角または俯角)の組み合わせとしての方向と1対1に対応する。方向検出部18は、上記使用者が指定した対象物中の画素または画素領域について、方位については撮影方位検出部18aが検出した撮影方位と傾き検出部18bが検出したカメラ14のローリング及びピッチングとカメラ14の画角とから公知の方法により演算することができる。また、仰俯角についても、傾き検出部18bが検出したカメラ14のローリング及びピッチングとカメラ14の画角とから公知の方法により演算することができる。 Each point (pixel) in the image captured by the camera 14 and displayed on the display screen 12 has a direction as a combination of the azimuth and elevation/depression angle (elevation angle or depression angle) shown in FIGS. 3(a) and 3(b). And one-to-one correspondence. The direction detecting unit 18 detects, with respect to the pixel or pixel region in the target object designated by the user, the shooting direction detected by the shooting direction detecting unit 18a and the rolling and pitching of the camera 14 detected by the tilt detecting unit 18b. It can be calculated from the angle of view of the camera 14 by a known method. The elevation/depression angle can also be calculated by a known method from the rolling and pitching of the camera 14 detected by the tilt detection unit 18b and the angle of view of the camera 14.

ベクトル生成部20は、撮影位置決定部16が決定した撮影位置を始点とし、上記使用者が指定した対象物について方向検出部18が検出した方向を向くベクトルの長さを予め定めた基準に基づいて決定し、対象物ベクトルとして生成する。ここで、予め定めた基準は以下の通りである。まず、上記方向の俯角が予め定めた基準角度以上の場合には、上記始点から対象物ベクトルの方向に引いた直線と予め設定された地平面の方程式とから演算した交点の座標に基づいて対象物ベクトルの長さを決定する。すなわち、上記始点と上記交点との間の距離を上記対象物ベクトルの長さとする。また、上記交点が対象物ベクトルの終点となる。予め定めた基準角度は経験値から設定できるが、例えば20〜40度とすることができ、30度とするのが好適である。また、ベクトル生成部20は、生成した対象物ベクトルを記憶部36に記憶させる。 The vector generation unit 20 uses the shooting position determined by the shooting position determination unit 16 as a starting point, and the length of the vector pointing in the direction detected by the direction detection unit 18 for the object specified by the user is based on a predetermined reference. Determined as a target object vector. Here, the predetermined criteria are as follows. First, when the depression angle in the above direction is equal to or greater than the predetermined reference angle, the target is calculated based on the coordinates of the intersection calculated from the straight line drawn from the starting point in the direction of the object vector and the preset equation of the ground plane. Determine the length of the object vector. That is, the distance between the starting point and the intersection is set as the length of the object vector. In addition, the intersection point becomes the end point of the object vector. The predetermined reference angle can be set from an empirical value, but can be, for example, 20 to 40 degrees, and is preferably 30 degrees. The vector generation unit 20 also stores the generated object vector in the storage unit 36.

また、上記方向の俯角が上記予め定めた基準角度より小さい場合(水平及び仰角の場合を含む)には、上記カメラ14の設置位置の高さに基づいて対象物ベクトルの長さを決定する。この場合、例えばカメラ14の設置位置の高さの2倍の長さを対象物ベクトルの長さとすることができるが、これには限定されない。例えば、カメラ14の種類(使用者が手で持って撮影するタブレット端末、車両搭載型のMMS等)毎に設置位置の高さに乗算する係数を設定できる構成としてもよい。この場合には、対象物ベクトルの始点から上記決定された長さの点が対象物ベクトルの終点となる。 If the depression angle in the direction is smaller than the predetermined reference angle (including the case of horizontal and elevation angles), the length of the object vector is determined based on the height of the installation position of the camera 14. In this case, the length of the object vector can be set to, for example, twice the height of the installation position of the camera 14, but the length is not limited to this. For example, a configuration may be set in which the coefficient by which the height of the installation position is multiplied can be set for each type of the camera 14 (a tablet terminal that the user holds by hand for shooting, a vehicle-mounted MMS, etc.). In this case, a point having the length determined above from the starting point of the object vector becomes the ending point of the object vector.

関連情報設定部22は、上記対象物の関連情報を設定する。関連情報の内容は上述した通りである。関連情報設定部22は、使用者が画面上で適宜な入力手段(マウス等のポインティングデバイス、キーボード、タッチパネル等)により行う対象物の指定を受け付け、指定された対象物についての関連情報を入力するための入力画面を表示する構成とすることができる。例えば、使用者が上記入力手段から対象物を指定するための指定情報を入力すると、関連情報設定部22が当該指定情報を受け付ける。指定情報は、例えばタッチパネルまたはポインティングデバイスで指示された、対象物の画像に含まれる画素または画素領域とすることができる。また、キーボードにより上記画素または画素領域を指示する構成としてもよい。関連情報設定部22は、指定情報である画素または画素領域に関連付けて入力画面を設定し、表示制御部30が表示画面に表示する。使用者が当該入力画面に対象物に関する関連情報の内容を入力すると、関連情報設定部22が関連情報を受け付け、記憶部36に記憶させる。関連情報設定部22は、このような関連情報を表示するための図形(以後、タグという場合がある)も設定する。このタグには、関連情報の内容を表示するための文字、図形等が含まれているのが好適である。 The related information setting unit 22 sets the related information of the object. The content of the related information is as described above. The related information setting unit 22 accepts the designation of the target object performed by the user with an appropriate input means (pointing device such as a mouse, keyboard, touch panel, etc.) on the screen, and inputs the related information about the designated target object. Can be configured to display an input screen for. For example, when the user inputs designation information for designating an object from the input means, the related information setting unit 22 receives the designation information. The designation information can be, for example, a pixel or a pixel area included in the image of the object, which is designated by a touch panel or a pointing device. Further, a configuration may be used in which the above-mentioned pixel or pixel area is designated by a keyboard. The related information setting unit 22 sets the input screen in association with the pixel or the pixel area that is the designated information, and the display control unit 30 displays the input screen on the display screen. When the user inputs the content of the related information regarding the object on the input screen, the related information setting unit 22 receives the related information and stores it in the storage unit 36. The related information setting unit 22 also sets a graphic (hereinafter sometimes referred to as a tag) for displaying such related information. It is preferable that this tag includes characters, figures, etc. for displaying the content of the related information.

なお、上記対象物の指定処理は、方向検出部18の場合と同様の処理であるので、方向検出部18による方向検出処理と、関連情報設定部22による関連情報設定処理とを同時に、あるいは連続して実行してもよい。 Since the object specifying process is the same as the case of the direction detecting unit 18, the direction detecting process by the direction detecting unit 18 and the related information setting process by the related information setting unit 22 are performed simultaneously or continuously. You may execute it.

次に、関連情報設定部22は、上記指定された対象物についてベクトル生成部20が生成した対象物ベクトルを記憶部36から読み出し、対応する対象物の関連情報に関連付けて記憶部36に記憶させる。この場合の関連情報設定部22及び記憶部36が、対象物ベクトルと関連付けられた関連情報を記憶する関連情報記憶部として機能する。 Next, the related information setting unit 22 reads the target object vector generated by the vector generation unit 20 for the specified target object from the storage unit 36, and stores the target object vector in the storage unit 36 in association with the related information of the corresponding target object. .. In this case, the related information setting unit 22 and the storage unit 36 function as a related information storage unit that stores the related information associated with the object vector.

なお、関連情報設定部22が設定した対象物の関連情報は、対象物の近傍、例えば対象物ベクトルの終点が上記タグの図形に含まれるような位置に表示するのが好適である。 It is preferable that the related information of the target object set by the related information setting unit 22 is displayed in the vicinity of the target object, for example, at a position where the end point of the target object vector is included in the figure of the tag.

仮想3次元空間設定部24は、上記対象物ベクトルを含んだ仮想3次元空間を設定する。ここで、仮想3次元空間は、現実の空間の座標(例えば緯度、経度、標高)に対応する座標を表す座標軸を有する仮想的な、すなわちコンピュータ上に設定される空間である。また、仮想3次元空間設定部24は、上記対象物ベクトルを、対象物ベクトルが属性として有する座標情報に基づいて仮想3次元空間中の座標に関連付ける。なお、対象物ベクトルが属性として有する座標情報は、例えば対象物ベクトルの終点の座標または始点及び終点の座標とすることができる。また、仮想3次元空間中の座標軸と撮影位置決定部16が決定する撮影位置の座標を表す座標軸とを同じもの(例えば、緯度、経度、標高に統一する等)としてもよいし、異なる座標軸をそれぞれ設定し、必要に応じて座標を変換してもよい。仮想3次元空間の座標軸、仮想3次元空間中の座標に関連付けられた対象物ベクトル等の仮想3次元空間に関する情報は、仮想3次元空間設定部24が記憶部36に記憶させる。 The virtual three-dimensional space setting unit 24 sets a virtual three-dimensional space including the target object vector. Here, the virtual three-dimensional space is a virtual space, that is, a space set on a computer, having coordinate axes representing coordinates corresponding to the coordinates (for example, latitude, longitude, and altitude) of the real space. Further, the virtual three-dimensional space setting unit 24 associates the target object vector with the coordinates in the virtual three-dimensional space based on the coordinate information that the target object vector has as an attribute. The coordinate information that the object vector has as an attribute can be, for example, the coordinates of the end point of the object vector or the coordinates of the start point and the end point. Further, the coordinate axes in the virtual three-dimensional space and the coordinate axes representing the coordinates of the shooting position determined by the shooting position determination unit 16 may be the same (for example, unified in latitude, longitude, or altitude), or different coordinate axes may be used. Each may be set and the coordinates may be converted as necessary. The virtual three-dimensional space setting unit 24 stores the information about the virtual three-dimensional space such as the coordinate axis of the virtual three-dimensional space and the object vector associated with the coordinates in the virtual three-dimensional space in the storage unit 36.

図4には、仮想3次元空間の説明図が示される。図4において、コンピュータ上に設定された仮想3次元空間には、座標軸α1、α2、α3が規定されている。この座標軸は任意に設定することができ、上述したように、例えば(X、Y、Z)座標(数学座標系)、(緯度、経度、標高)座標(地球座標系)等でもよい。 FIG. 4 shows an explanatory diagram of the virtual three-dimensional space. In FIG. 4, coordinate axes α1, α2, and α3 are defined in the virtual three-dimensional space set on the computer. This coordinate axis can be set arbitrarily, and as described above, for example, may be (X, Y, Z) coordinates (mathematical coordinate system), (latitude, longitude, elevation) coordinates (earth coordinate system), or the like.

仮想3次元空間には、属性として座標情報(例えば、終点の座標または始点及び終点の座標)を有する対象物ベクトルVpが、上記座標情報に基づき仮想3次元空間中の座標軸α1、α2、α3が表す座標に関連付けられている。ここで、「座標軸が表す座標に関連付けられている」とは、対象物ベクトルVpが、上記座標軸α1、α2、α3に基づいて、対象物ベクトルVpの座標情報に対応する位置に配置されていることをいう。なお、対象物ベクトルVpに関連付けられた関連情報も仮想3次元空間に含ませる構成となっている。図4の例では、関連情報が「タグ」と表示されており、各対象物ベクトルVpの終点を含む位置に配置されている。 In the virtual three-dimensional space, an object vector Vp having coordinate information (for example, coordinates of an end point or coordinates of a start point and an end point) as attributes, and coordinate axes α1, α2, α3 in the virtual three-dimensional space based on the coordinate information. It is associated with the coordinates it represents. Here, “associated with the coordinate represented by the coordinate axis” means that the object vector Vp is arranged at a position corresponding to the coordinate information of the object vector Vp based on the coordinate axes α1, α2, and α3. Say that. The related information associated with the target object vector Vp is also included in the virtual three-dimensional space. In the example of FIG. 4, the related information is displayed as “tag” and is arranged at a position including the end point of each object vector Vp.

表示範囲特定部26は、上記撮影位置決定部16が決定した撮影位置と上記撮影方位検出部18aが検出した撮影方位と傾き検出部18bが検出した撮影に使用するカメラ14の傾きと撮影に使用するカメラ14の画角とに基づいて、上記仮想3次元空間における表示範囲を特定する。上記撮影位置、撮影方位、カメラ14の傾き及び画角は、表示範囲特定部26が記憶部36から読み出して使用する。表示範囲特定部26は、公知のコンピュータグラフィックスの処理として仮想3次元空間を透視投影するスクリーン(図4参照)を設定する際に、上記撮影位置、撮影方位、撮影に使用するカメラ14の傾き及びカメラ14の画角に基づいてスクリーンの大きさ及び方向(スクリーンの法線が向く方向)を決定する。表示範囲は、上記スクリーンに仮想3次元空間が透視投影される範囲となる。この場合の表示範囲は、上記撮影位置から見た場合の表示範囲である。上記撮影位置の座標には、上述した緯度、経度等の平面座標と標高が含まれる。標高は、撮影位置決定部16が決定した標高値としてもよいし、検出値の誤差が大きい等の事情がある場合には、予め設定した標高値を使用してもよい。特定した表示範囲すなわち上記スクリーンの大きさと方向は記憶部36に記憶させるとともに、表示範囲特定部26が表示制御部30により表示画面12に表示させる。 The display range specifying unit 26 is used for the tilt of the camera 14 used for shooting and the shooting position determined by the shooting position determination unit 16, the shooting direction detected by the shooting direction detection unit 18a, and the tilt detected by the tilt detection unit 18b. The display range in the virtual three-dimensional space is specified based on the angle of view of the camera 14. The above-mentioned shooting position, shooting direction, tilt and angle of view of the camera 14 are read from the storage unit 36 and used by the display range specifying unit 26. The display range specifying unit 26 sets the shooting position, shooting direction, and tilt of the camera 14 used for shooting when setting a screen (see FIG. 4) for perspective projection of a virtual three-dimensional space as a known computer graphics process. And the size and direction of the screen (direction in which the normal line of the screen faces) are determined based on the angle of view of the camera 14. The display range is a range in which the virtual three-dimensional space is perspectively projected on the screen. The display range in this case is the display range when viewed from the shooting position. The coordinates of the photographing position include plane coordinates such as latitude and longitude and the altitude described above. The altitude may be the altitude value determined by the photographing position determination unit 16, or may be a preset altitude value if there is a large error in the detected value. The specified display range, that is, the size and direction of the screen is stored in the storage unit 36, and the display range specifying unit 26 displays the display screen 12 on the display screen 12.

なお、カメラ14で取得された画像も、上記撮影位置、撮影方位、カメラ14の傾き及び画角に基づいて特定することができるので、上記仮想3次元空間に関連付けられた対象物ベクトル等を、表示範囲特定部26が特定した表示範囲を介して重畳し、表示することができる。このような重畳表示処理は、表示制御部30が行う。 Since the image acquired by the camera 14 can also be specified based on the shooting position, the shooting direction, the tilt and the angle of view of the camera 14, the object vector and the like associated with the virtual three-dimensional space are It is possible to superimpose and display via the display range specified by the display range specifying unit 26. The display control unit 30 performs such superimposed display processing.

図4において、上記表示範囲は、撮影位置(例えば緯度、経度、標高により定まるカメラ14の視点、図4の例では(x、y、z)で表されている)、撮影方位、撮影に使用するカメラ14の傾き及びカメラ14の画角から表示範囲特定部26が特定する。図4の例では表示範囲が矩形領域として示されている。この表示範囲は、上述したように、仮想3次元空間を透視投影するスクリーンとして設定され、上記撮影位置、撮影方位、撮影に使用するカメラ14の傾き及びカメラ14の画角に基づいてスクリーンの大きさ及び方向が決定される。 In FIG. 4, the display range is used for shooting position (for example, the viewpoint of the camera 14 determined by latitude, longitude, and altitude, represented by (x, y, z) in the example of FIG. 4), shooting direction, and shooting. The display range specifying unit 26 specifies the tilt of the camera 14 and the angle of view of the camera 14. In the example of FIG. 4, the display range is shown as a rectangular area. As described above, this display range is set as a screen for perspective projection of the virtual three-dimensional space, and the size of the screen is determined based on the shooting position, the shooting direction, the tilt of the camera 14 used for shooting, and the angle of view of the camera 14. Size and direction are determined.

関連情報特定部28は、上記表示範囲特定部26が特定した仮想3次元空間における表示範囲に終点が含まれる対象物ベクトルに関連付けられた上記関連情報を特定する。この処理は、例えば上記スクリーンに終点が透視投影される対象物ベクトル、すなわち終点の座標としてスクリーンに透視投影される仮想3次元空間の範囲(表示範囲)に含まれる緯度、経度等の平面座標及び高さ(標高)を有する対象物ベクトルを撮影範囲中の対象物ベクトルとして特定することにより行う。対象物ベクトルを特定することにより、この対象物ベクトルに関連づけられた関連情報も関連情報特定部28が特定することができる。なお、予め生成していた対象物ベクトルは、例えば通信部34により外部のサーバーと通信し、当該サーバーから取得する構成とすることができる。この場合、撮影対象の撮影中に、撮影位置決定部16が決定する撮影位置の座標をサーバーに送信し、送信した座標を含む一定範囲(上記撮影範囲よりも広い一定範囲)に含まれる座標を終点の座標として有する対象物ベクトルをサーバーから返信させる構成とすることができる。サーバーから返信された対象物ベクトルは、記憶部36に記憶させておく。また、対象物ベクトルは、サーバーから撮影中に受け取るのではなく、撮影範囲の候補となる領域に含まれる終点の座標を有する対象物ベクトルを予め記憶部36に記憶させておいてもよい。 The related information specifying unit 28 specifies the related information associated with the object vector whose end point is included in the display range in the virtual three-dimensional space specified by the display range specifying unit 26. This processing is performed by, for example, an object vector whose end point is perspectively projected on the screen, that is, plane coordinates such as latitude and longitude included in a range (display range) of the virtual three-dimensional space perspectively projected on the screen as coordinates of the end point, and This is performed by specifying an object vector having a height (elevation) as an object vector in the shooting range. By specifying the target object vector, the related information specifying unit 28 can also specify the related information associated with the target object vector. The target object vector generated in advance may be configured to communicate with an external server by the communication unit 34 and be acquired from the server. In this case, during the shooting of the shooting target, the coordinates of the shooting position determined by the shooting position determination unit 16 are transmitted to the server, and the coordinates included in the fixed range (the fixed range wider than the shooting range) including the transmitted coordinates are set. The object vector having the coordinates of the end point can be returned from the server. The object vector returned from the server is stored in the storage unit 36. Further, the object vector may not be received from the server during shooting, but the object vector having the coordinates of the end point included in the area that is the candidate of the shooting range may be stored in the storage unit 36 in advance.

図4において、関連情報特定部28は、上記表示範囲を示すスクリーンに透視投影される仮想3次元空間の範囲に終点の座標(緯度、経度等の平面座標及び/または高さ(標高))が含まれる対象物ベクトルを特定する。次に、関連情報特定部28が、上記特定された対象物ベクトルに関連づけられた関連情報を記憶部36から読み出して表示制御部30により表示画面12にタグとして表示させる。図4の例では、表示範囲に終点の座標が含まれる対象物ベクトルに関連づけられたタグI、IIが表示画面12に表示され、表示範囲に終点の座標が含まれない対象物ベクトルに関連づけられたタグIIIは表示されない。 In FIG. 4, the related information specifying unit 28 determines that the coordinates of the end point (plane coordinates such as latitude and longitude and/or height (elevation)) are in the range of the virtual three-dimensional space perspectively projected on the screen indicating the display range. Identify the included object vector. Next, the related information specifying unit 28 reads out the related information related to the specified target object vector from the storage unit 36 and causes the display control unit 30 to display the related information on the display screen 12 as a tag. In the example of FIG. 4, the tags I and II associated with the object vector whose display range includes the coordinates of the end point are displayed on the display screen 12, and are associated with the object vector whose display range does not include the coordinates of the end point. Tag III is not displayed.

表示制御部30は、撮影・表示端末10のカメラ14が撮影中または再生中の画像を表示画面12に表示するとともに、当該画像に上記関連情報特定部28が特定した対象物ベクトルに関連づけられた関連情報を記憶部36から読み出して重畳し、表示画面12に表示する。この場合、対象物ベクトルの終点に関連情報の画像の一部が重なる(上記点が関連情報の画像内に含まれる)ように関連情報を表示するのが好適である。また、対象物ベクトルは、表示してもよいし、表示しなくてもよい。使用者が入力する指示に基づいて表示、非表示を切り替える構成が好適である。 The display control unit 30 displays the image being captured or reproduced by the camera 14 of the photographing/display terminal 10 on the display screen 12 and is associated with the image to the object vector specified by the related information specifying unit 28. The related information is read from the storage unit 36, superimposed, and displayed on the display screen 12. In this case, it is preferable to display the related information such that a part of the image of the related information overlaps with the end point of the object vector (the point is included in the image of the related information). In addition, the object vector may or may not be displayed. It is preferable that the display be switched between display and non-display based on an instruction input by the user.

以上に述べた表示範囲特定部26、関連情報特定部28及び表示制御部30の動作により、ある撮影位置C1で撮影した対象物を、他の撮影位置C2から撮影した場合、上記ある撮影位置C1で撮影した画像において設定した対象物の関連情報を、仮想3次元空間を介して、上記他の撮影位置C2から撮影した画像中の対象物に重畳して表示することができる。これは、表示範囲特定部26が特定した、上記ある撮影位置C1及び他の撮影位置C2から見た場合の表示範囲中に同じ対象物が存在し、仮想3次元空間に関連づけられた対象物ベクトルを介して同じ関連情報が特定され、表示されるからである。 By the operations of the display range specifying unit 26, the related information specifying unit 28, and the display control unit 30 described above, when an object photographed at a certain photographing position C1 is photographed from another photographing position C2, the certain photographing position C1 It is possible to display the related information of the target object set in the image captured in step 1 on the target object in the image captured from the other capturing position C2 via the virtual three-dimensional space. This is because the same target exists in the display range when viewed from the certain shooting position C1 and the other shooting position C2 specified by the display range specifying unit 26, and the target vector associated with the virtual three-dimensional space. This is because the same related information is specified and displayed via.

ベクトル補正部32は、上記対象物ベクトルの長さを、別の方向から撮影または再生した画像上で上記ベクトル生成部20が生成した同一の対象物に対する新たな対象物ベクトルに基づいて補正する。この補正処理を以後第1の補正という。 The vector correction unit 32 corrects the length of the target object vector based on a new target object vector for the same target object generated by the vector generation unit 20 on an image captured or reproduced from another direction. This correction process is hereinafter referred to as the first correction.

また、ベクトル補正部32は、上記表示制御部30が表示画面12に、上記仮想3次元空間における対象物ベクトルの終点の座標を関連情報の座標として、この座標の予め仮想3次元空間に設定された地平面への投影点を表示している状態で、入力手段を介して上記投影点の位置を変更したときに、上記関連情報に関連付けられた対象物ベクトルの長さ及び/または方向を補正する。この補正処理を以後第2の補正という。 In the vector correction unit 32, the display control unit 30 sets the coordinates of the end point of the object vector in the virtual three-dimensional space as the coordinates of the related information on the display screen 12 in advance in the virtual three-dimensional space of these coordinates. When the position of the projection point is changed via the input means while displaying the projection point on the horizontal plane, the length and/or direction of the object vector associated with the related information is corrected. To do. This correction process is hereinafter referred to as the second correction.

図5(a)、(b)には、上記第1の補正及び第2の補正の説明図が示される。図5(a)が第1の補正の例であり、図5(b)が第2の補正の例である。 5(a) and 5(b) are explanatory diagrams of the first correction and the second correction. FIG. 5A is an example of the first correction, and FIG. 5B is an example of the second correction.

図5(a)には、例えば道路R上のある点Iからカメラ14で対象物Pを撮影し、その画像を表示画面12に表示しているときに、使用者が指定した対象物Pについてベクトル生成部20が生成した点Iを始点とする長さL1の対象物ベクトルVp1が示されている。次に、上記点Iとは異なる点IIからカメラ14で同じ対象物Pを撮影し、その画像を表示画面12に表示しているときに、上記対象物について使用者が指定したときに、ベクトル生成部20が上記点IIを始点とする長さL2の対象物ベクトルVp2を生成する。この場合、同一の対象物Pに対する2つの対象物ベクトルVp1、Vp2の長さL1、L2及び方向が正確に設定されていれば、対象物ベクトルVp1、Vp2の終点E1、E2が対象物Pの位置で一致する筈である。しかし、上記長さまたは方向に誤差があると、図5(a)に示されるように、対象物ベクトルVp1、Vp2の終点E1、E2にずれが生じる。そこで、ベクトル補正部32は、時間的に後から生成した対象物ベクトルVp2を含む面F(例えば、上記道路に直交する面が挙げられるが、これには限定されない)を設定し、この面Fと時間的に先に設定した対象物ベクトルVp1との交点Cを求め、対象物ベクトルVp1の始点とこの交点Cとの長さを対象物ベクトルVp1の新たな長さLcとなるように対象物ベクトルVp1を補正する(第1の補正)。なお、時間的に先に設定した対象物ベクトルVp1を含む面を設定し、この面と時間的に後から生成した対象物ベクトルVp2との交点を求め、対象物ベクトルVp2の始点とこの交点との長さを対象物ベクトルVp2の新たな長さとなるように対象物ベクトルVp2を補正してもよい。 FIG. 5A shows an object P designated by the user when the object 14 is photographed by the camera 14 from a certain point I on the road R and the image is displayed on the display screen 12, for example. An object vector Vp1 of length L1 starting from the point I generated by the vector generation unit 20 is shown. Next, when the same object P is photographed by the camera 14 from the point II different from the point I and the image is displayed on the display screen 12, when the user specifies the object, the vector The generation unit 20 generates the object vector Vp2 having the length L2 starting from the point II. In this case, if the lengths L1 and L2 and the directions of the two object vectors Vp1 and Vp2 for the same object P are set correctly, the end points E1 and E2 of the object vectors Vp1 and Vp2 are the object P. It should match in position. However, if there is an error in the length or the direction, as shown in FIG. 5A, the end points E1 and E2 of the object vectors Vp1 and Vp2 are displaced. Therefore, the vector correction unit 32 sets a surface F including the object vector Vp2 generated later in time (for example, a surface orthogonal to the road is mentioned, but is not limited thereto), and the surface F is set. And an intersection point C between the object vector Vp1 and the object vector Vp1 set earlier in time are obtained, and the length of the starting point of the object vector Vp1 and this intersection point C becomes the new length Lc of the object vector Vp1. The vector Vp1 is corrected (first correction). In addition, a plane including the object vector Vp1 set earlier in time is set, an intersection of this plane and the object vector Vp2 generated later in time is obtained, and the start point of the object vector Vp2 and this intersection The object vector Vp2 may be corrected so that the length becomes a new length of the object vector Vp2.

図5(b)には、例えば道路R上のある点Iからカメラ14で対象物Pを撮影し、その画像を表示画面12に表示しているときに、使用者が指定した対象物Pについてベクトル生成部20が生成した点Iを始点とする長さL1の対象物ベクトルVp1が示されている。また、関連情報設定部22が設定した対象物の関連情報Rpが表示画面12に表示されている。このとき、ベクトル補正部32は、表示制御部30に、対象物ベクトルVp1の終点の座標の予め仮想3次元空間に設定された地平面への投影点を上記関連情報Rpの位置の投影点S1として表示させる。図5(b)の例では、投影点S1が道路Rからはみ出しており、図示しない対象物の関連情報の位置として不適切であると使用者が判断したものとする。この場合、使用者が適宜な入力手段(マウス等のポインティングデバイス、キーボード、タッチパネル等)を介して上記投影点S1の位置を道路R上に移動したときに、移動後の投影点S2に対応する長さ(L2)に対象物ベクトルの長さを補正(第2の補正)して、補正後の対象物ベクトルVp2とする。ここで、「投影点S2に対応する長さ」とは、対象物ベクトルVp1上の点であって、その点の地平面への投影点が移動後の投影点S2に一致する点と対象物ベクトルVp1の始点との長さをいう。 FIG. 5B shows an object P designated by the user when the object P is photographed by the camera 14 from a certain point I on the road R and the image is displayed on the display screen 12, for example. An object vector Vp1 of length L1 starting from the point I generated by the vector generation unit 20 is shown. Further, the related information Rp of the object set by the related information setting unit 22 is displayed on the display screen 12. At this time, the vector correction unit 32 instructs the display control unit 30 to project the projection point of the coordinates of the end point of the object vector Vp1 onto the ground plane previously set in the virtual three-dimensional space at the projection point S1 at the position of the related information Rp. To be displayed. In the example of FIG. 5B, it is assumed that the projection point S1 is out of the road R and the user determines that it is inappropriate as the position of the related information of the target object (not shown). In this case, when the user moves the position of the projection point S1 on the road R through an appropriate input means (a pointing device such as a mouse, a keyboard, a touch panel, etc.), it corresponds to the projection point S2 after the movement. The length of the object vector is corrected to the length (L2) (second correction) to obtain the corrected object vector Vp2. Here, the "length corresponding to the projection point S2" is a point on the object vector Vp1, and the point at which the projection point on the horizon coincides with the projection point S2 after the movement and the object. It is the length of the starting point of the vector Vp1.

なお、第2の補正としては、図5(b)の例に示される、対象物ベクトルの長さを短くする補正のみではなく、長さを長くする補正も含む。さらに、長さの変更に限らず、投影点の移動により、対象物ベクトルの方向を変更する補正であってもよい。 Note that the second correction includes not only the correction for shortening the length of the target object vector shown in the example of FIG. 5B, but also the correction for increasing the length. Further, the correction is not limited to the change of the length, and may be the correction of changing the direction of the object vector by moving the projection point.

以上の第1の補正及び第2の補正の結果、長さ及び/または方向が変更された対象物ベクトルの情報は、ベクトル補正部32が記憶部36に記憶させる。 As a result of the first correction and the second correction described above, the vector correction unit 32 stores the information of the object vector whose length and/or direction has been changed in the storage unit 36.

通信部34は、適宜なインターフェースにより構成され、無線または有線の通信回線を介してCPU38が外部のサーバー等とデータ(撮影対象の関連情報等)をやり取りするために使用する。 The communication unit 34 is configured by an appropriate interface, and is used by the CPU 38 for exchanging data (relevant information of an object to be photographed) with an external server or the like via a wireless or wired communication line.

記憶部36は、ハードディスク装置、ソリッドステートドライブ(SSD)等の不揮発性メモリで構成され、上記各種情報等、及びCPU38の動作プログラム等の、対象物記録装置が行う各処理に必要な情報を記憶させる。なお、記憶部36としては、デジタル・バーサタイル・ディスク(DVD)、コンパクトディスク(CD)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、電気的消去および書き換え可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ等を使用してもよい。また、記憶部36には、主としてCPU38の作業領域として機能するランダムアクセスメモリ(RAM)、及びBIOS等の制御プログラムその他のCPU38が使用するデータが格納される読み出し専用メモリ(ROM)を含めるのが好適である。 The storage unit 36 is composed of a hard disk device, a non-volatile memory such as a solid state drive (SSD), etc., and stores the above-mentioned various information and the information necessary for each processing performed by the object recording device, such as the operation program of the CPU 38. Let The storage unit 36 includes a digital versatile disc (DVD), a compact disc (CD), a magneto-optical disc (MO), a flexible disc (FD), a magnetic tape, an electrically erasable and rewritable read-only memory ( EEPROM), flash memory, etc. may be used. The storage unit 36 also includes a random access memory (RAM) that mainly functions as a work area of the CPU 38, and a read-only memory (ROM) that stores control programs such as BIOS and other data used by the CPU 38. It is suitable.

なお、記憶部36の機能は、外部のサーバーに設定してもよい。 The function of the storage unit 36 may be set in an external server.

図6(a)、(b)には、実施形態にかかる対象物記録装置の使用例の説明図が示される。図6(a)、(b)に示された例では、車両100に搭載したレーザー計測装置であるMMS102(の撮影装置)がカメラ14に相当し、コンピュータ等の適宜な再生装置104が表示画面12に相当する。また、撮影位置はGPSにより取得し、撮影方位及びカメラの傾きはIMUで取得する構成となっている。 6(a) and 6(b) are explanatory views of a usage example of the object recording apparatus according to the embodiment. In the example shown in FIGS. 6A and 6B, the MMS 102 (imaging device) that is the laser measuring device mounted on the vehicle 100 corresponds to the camera 14, and an appropriate reproducing device 104 such as a computer displays a display screen. Equivalent to 12. Further, the photographing position is acquired by GPS, and the photographing direction and the tilt of the camera are acquired by IMU.

図6(a)において、車両100が道路Rを走行中にMMS102により道路及び道路周辺の単写真画像を撮影する。このとき、対象物(本例では、街路灯)Pも撮影する。図6(a)では、道路R上の3点の撮影位置I、II、IIIで対象物Pを撮影している。なお、図6(a)の例では、撮影位置I、II、IIIの間の距離が離れているように記載されているが、動画撮影のように、短い時間または距離の間隔で連続的に撮影する構成とすることも可能である。 In FIG. 6A, while the vehicle 100 is traveling on the road R, the MMS 102 takes a single-photograph image of the road and the road periphery. At this time, the object (a street light in this example) P is also photographed. In FIG. 6A, the object P is photographed at three photographing positions I, II, and III on the road R. Note that, in the example of FIG. 6A, the distances between the shooting positions I, II, and III are described as being far apart, but as in the case of moving image shooting, the shooting positions I, II, and III are continuously spaced at a short time or distance. It is also possible to adopt a configuration for photographing.

図6(b)では、図6(a)で取得した画像を、コンピュータ等の適宜な再生装置104の表示画面に再生表示している。図中のI、II、IIIは、上記対象物Pを撮影した道路R上の3点(撮影位置)を示している。 In FIG. 6B, the image acquired in FIG. 6A is reproduced and displayed on the display screen of an appropriate reproducing device 104 such as a computer. I, II, and III in the drawing indicate three points (imaging positions) on the road R where the object P is imaged.

図6(b)において、画像の再生表示中に、使用者が適宜な入力手段から対象物Pを指定すると、ベクトル生成部20が対象物Pについて対象物ベクトルを生成する。図6(b)では、撮影位置Iで設定された対象物ベクトルをVp1で表し、撮影位置IIで設定された対象物ベクトルをVp2で表している。なお、対象物ベクトルVp2には、対象物Pについて関連情報設定部22が設定した関連情報Rpが関連付けられており、表示画面12に表示されている。この場合、Vp1、Vp2等の対象物ベクトルは表示画面12に表示されていない。 In FIG. 6B, when the user specifies the object P from an appropriate input means during image reproduction and display, the vector generation unit 20 generates the object vector for the object P. In FIG. 6B, the target object vector set at the shooting position I is represented by Vp1, and the target object vector set at the shooting position II is represented by Vp2. The target vector Vp2 is associated with the related information Rp set by the related information setting unit 22 for the object P and displayed on the display screen 12. In this case, the object vectors such as Vp1 and Vp2 are not displayed on the display screen 12.

ここで、例えば、撮影位置IIIの画像を再生表示する際には、撮影位置IIで設定された対象物ベクトルVp2に関連付けられた関連情報Rpが表示される。この処理は、表示範囲特定部26が撮影位置IIIからの仮想3次元空間における表示範囲を特定し、関連情報特定部28がこの表示範囲に対象物ベクトルVp2の仮想3次元空間における終点の座標が存在するか否かを判定し、存在する場合に、対象物ベクトルVp2に関連付けられた関連情報Rpを表示制御部30が記憶部36から読み出して再生表示中の画像に重畳し、表示画面12に表示することにより行う。 Here, for example, when the image at the shooting position III is reproduced and displayed, the related information Rp associated with the object vector Vp2 set at the shooting position II is displayed. In this processing, the display range specifying unit 26 specifies the display range in the virtual three-dimensional space from the photographing position III, and the related information specifying unit 28 sets the coordinates of the end point of the object vector Vp2 in the virtual three-dimensional space in this display range. It is determined whether or not it exists, and if it exists, the display control unit 30 reads out the related information Rp associated with the object vector Vp2 from the storage unit 36, superimposes it on the image being reproduced and displayed, and displays it on the display screen 12. This is done by displaying.

なお、撮影位置Iにおいても、上記撮影位置IIIの場合と同様の処理により関連情報Rpを表示することができる。 Note that the related information Rp can also be displayed at the shooting position I by the same processing as in the case of the shooting position III.

また、上記対象物ベクトルVp2の長さは、例えば対象物ベクトルVp1により長さを補正(第1の補正)することもできる。この処理は、ベクトル補正部32が、対象物ベクトルVp1を含み、道路Rと直行する面を設定し、この面と対象物ベクトルVp2との交点を求め、対象物ベクトルVp2の始点(撮影位置II)とこの交点との長さを対象物ベクトルVp2の新たな長さとなるように対象物ベクトルVp2を補正することにより行う。この補正により、対象物ベクトルVp2の長さ、すなわち終点の座標が変更されるので、これに関連付けられた関連情報Rpの表示画面12上における表示位置も変更される。表示位置の変更処理は、表示制御部30が行う。 Further, the length of the object vector Vp2 can be corrected (first correction) by the object vector Vp1, for example. In this process, the vector correction unit 32 sets a surface that includes the target object vector Vp1 and is orthogonal to the road R, obtains the intersection of this surface and the target object vector Vp2, and determines the start point of the target object vector Vp2 (imaging position II. ) And this intersection point are corrected by correcting the object vector Vp2 so that the object vector Vp2 has a new length. By this correction, the length of the object vector Vp2, that is, the coordinates of the end point is changed, so the display position of the related information Rp associated with this on the display screen 12 is also changed. The display control unit 30 performs the display position changing process.

なお、図6(b)の例では、対象物ベクトルVp1により対象物ベクトルVp2の長さを補正したが、対象物ベクトルVp2により対象物ベクトルVp1の長さを補正してもよい。この場合には、関連情報Rpを対象物ベクトルVp1に関連付けておく。 In the example of FIG. 6B, the length of the target object vector Vp2 is corrected by the target object vector Vp1, but the length of the target object vector Vp1 may be corrected by the target object vector Vp2. In this case, the related information Rp is associated with the object vector Vp1.

また、図6(b)の例では第1の補正の例が示されているが、上述した第2の補正を実行することもできる。 Further, although the example of the first correction is shown in the example of FIG. 6B, the above-described second correction can be executed.

さらに、図6(b)の例では、撮影位置IIIを始点とする対象物ベクトルVp3も示されている。この対象物ベクトルVp3は、道路R上の破損箇所Bを対象物とする対象物ベクトルである。この対象物ベクトルVp3には、使用者の入力する指示に基づき、関連情報設定部22が関連情報を設定し、関連付けすることができる。 Further, in the example of FIG. 6B, the object vector Vp3 having the shooting position III as the starting point is also shown. The target object vector Vp3 is a target object vector whose target is the damaged portion B on the road R. Based on the instruction input by the user, the related information setting unit 22 can set and relate the related information to the object vector Vp3.

また、図6(a)の例では、MMS102により道路及び道路周辺の単写真画像を撮影した例が示されているが、全周囲画像としてもよい。また、タブレット端末等を使用し、撮影と再生表示を同時に実施しながら上記各処理を実行してもよい。 Further, in the example of FIG. 6A, an example in which a single photograph image of the road and the road periphery is taken by the MMS 102 is shown, but it may be an all-surrounding image. Alternatively, the above-described processing may be performed using a tablet terminal or the like while performing shooting and playback display at the same time.

図7には、実施形態にかかる対象物記録装置の動作例のフローが示される。図7において、撮影位置決定部16は、撮影と同時に表示中の、または再生により表示中の対象物(使用者が指定したもの)の撮影位置を決定する(S1)。 FIG. 7 shows a flow of an operation example of the object recording apparatus according to the embodiment. In FIG. 7, the shooting position determination unit 16 determines the shooting position of the target object (specified by the user) that is being displayed at the same time as shooting, or is being displayed by reproduction (S1).

次に、方向検出部18は、撮影と同時に表示中、または再生により表示中であって上記使用者が指定した対象物(対象物の画像に含まれる画素または画素領域)について、上記撮影位置からの方向を検出する(S2)。 Next, the direction detection unit 18 displays the object (pixels or pixel areas included in the image of the object) which is being displayed at the same time as the shooting or is being displayed by the reproduction and which is designated by the user from the shooting position. The direction of is detected (S2).

ベクトル生成部20は、撮影位置決定部16が決定した撮影位置を始点とし、上記使用者が指定した対象物について方向検出部18が検出した方向を向くベクトルの長さを、上述した予め定めた基準に基づいて決定し、対象物ベクトルとして生成する(S3)。 The vector generation unit 20 uses the shooting position determined by the shooting position determination unit 16 as a starting point, and sets the length of the vector pointing in the direction detected by the direction detection unit 18 with respect to the target object designated by the user as described above. It is determined based on the standard and is generated as an object vector (S3).

次に、関連情報設定部22は、上記対象物の関連情報を設定する(S4)。この処理は、上述したように、使用者が上記入力手段から指定した対象物(対象物の画像に含まれる画素または画素領域)に関連付けて設定された入力画面を表示制御部30が表示画面に表示し、使用者が当該入力画面に入力した対象物に関する関連情報の内容を関連情報設定部22が受け付けることにより実行する。関連情報設定部22が受け付けた関連情報は、記憶部36に記憶させる(S5)。 Next, the related information setting unit 22 sets the related information of the object (S4). In this process, as described above, the display control unit 30 displays the input screen set in association with the target object (pixels or pixel regions included in the image of the target object) specified by the user from the input unit. This is executed by the related information setting unit 22 receiving and displaying the content of the related information regarding the object displayed and input by the user on the input screen. The related information received by the related information setting unit 22 is stored in the storage unit 36 (S5).

図8には、実施形態にかかる対象物記録装置の他の動作例のフローが示される。図8において、まず仮想3次元空間設定部24が、上記対象物ベクトルを含んだ仮想3次元空間を設定する(S11)。 FIG. 8 shows a flow of another operation example of the object recording apparatus according to the embodiment. In FIG. 8, first, the virtual three-dimensional space setting unit 24 sets a virtual three-dimensional space including the target object vector (S11).

次に、表示範囲特定部26が、撮影位置、撮影方位、カメラ14の傾き及びカメラの画角に基づいて上記仮想3次元空間における表示範囲を特定する(S12)。 Next, the display range specifying unit 26 specifies the display range in the virtual three-dimensional space based on the shooting position, the shooting direction, the tilt of the camera 14, and the angle of view of the camera (S12).

関連情報特定部28は、上記表示範囲特定部26が特定した仮想3次元空間における表示範囲に終点が含まれる対象物ベクトルに関連付けられた上記関連情報を特定し(S13)、表示制御部30が、撮影・表示端末10のカメラ14が撮影中または再生中の画像を表示画面12に表示するとともに、当該画像に上記関連情報特定部28が特定した対象物ベクトルに関連づけられた関連情報を記憶部36から読み出して重畳し、表示画面12に表示する(S14)。 The related information specifying unit 28 specifies the related information related to the object vector whose end point is included in the display range in the virtual three-dimensional space specified by the display range specifying unit 26 (S13), and the display control unit 30 , The image being photographed or reproduced by the camera 14 of the photographing/display terminal 10 is displayed on the display screen 12, and the relevant information associated with the object vector specified by the relevant information specifying unit 28 is stored in the storage unit. It is read from 36, superposed, and displayed on the display screen 12 (S14).

上述した、図7、図8の各ステップを実行するためのプログラムは、記録媒体に格納することも可能であり、また、そのプログラムを通信手段によって提供しても良い。その場合、例えば、上記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明または「データ信号」の発明として捉えても良い。 The above-described program for executing the steps of FIGS. 7 and 8 can be stored in a recording medium, or the program may be provided by communication means. In that case, for example, the program described above may be regarded as an invention of a “computer-readable recording medium recording a program” or an invention of a “data signal”.

10 撮影・表示端末、12 表示画面、14 カメラ、16 撮影位置決定部、18 方向検出部、20 ベクトル生成部、22 関連情報設定部、24 仮想3次元空間設定部、26 表示範囲特定部、28 関連情報特定部、30 表示制御部、32 ベクトル補正部、34 通信部、36 記憶部、38 CPU、100 車両、102 MMS、104 再生装置。 10 shooting/display terminal, 12 display screen, 14 camera, 16 shooting position determination unit, 18 direction detection unit, 20 vector generation unit, 22 related information setting unit, 24 virtual three-dimensional space setting unit, 26 display range specifying unit, 28 Related information specifying unit, 30 display control unit, 32 vector correction unit, 34 communication unit, 36 storage unit, 38 CPU, 100 vehicle, 102 MMS, 104 playback device.

Claims (7)

撮影または再生により表示中の対象物の撮影位置を決定する撮影位置決定手段と、
撮影または再生により表示中の対象物の前記撮影位置からの方向を検出する方向検出手段と、
前記撮影位置を始点とし、前記方向を向くベクトルの長さを予め定めた基準に基づいて決定し、対象物ベクトルとして生成するベクトル生成手段と、
前記対象物の関連情報を設定する関連情報設定手段と、
前記関連情報を前記対象物ベクトルと関連付けて記憶する関連情報記憶手段と、
座標軸を有し、前記撮影位置を始点とし前記方向を向く対象物ベクトルの終点が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段と、
前記撮影位置と撮影に使用するカメラの撮影方位、傾き及び画角とに基づいて、前記仮想3次元空間における表示範囲を特定する表示範囲特定手段と、
前記仮想3次元空間における表示範囲に終点が含まれる前記対象物ベクトルに関連付けられた前記関連情報を特定する関連情報特定手段と、
前記特定された関連情報を前記表示中の画像に重畳して表示する表示手段と、
を備え
前記ベクトル生成手段は、前記方向の俯角が予め定めた基準角度以上の場合に、前記始点から対象物ベクトルの方向に引いた直線と予め設定された地平面の方程式とから演算した交点の座標に基づいて前記対象物ベクトルの長さを決定する、対象物記録装置。
Photographing position determining means for determining the photographing position of the object being displayed by photographing or reproducing,
Direction detecting means for detecting the direction of the object being displayed from the photographing position by photographing or reproducing,
A vector generation unit that determines the length of a vector pointing in the direction based on a predetermined reference, starting from the shooting position, and generates the target vector.
Related information setting means for setting related information of the object,
Related information storage means for storing the related information in association with the object vector,
A virtual three-dimensional space setting unit that has a coordinate axis and sets a virtual three-dimensional space in which the end point of the object vector starting from the photographing position and pointing in the direction is associated with the coordinate on the coordinate axis.
Display range specifying means for specifying a display range in the virtual three-dimensional space based on the shooting position and the shooting direction, tilt, and angle of view of the camera used for shooting;
Related information specifying means for specifying the related information associated with the object vector whose end point is included in the display range in the virtual three-dimensional space;
Display means for displaying the specified related information by superimposing it on the image being displayed,
Equipped with
The vector generation means, when the depression angle in the direction is equal to or greater than a predetermined reference angle, the coordinates of the intersection calculated from the straight line drawn from the starting point in the direction of the object vector and the preset equation of the ground plane are set. An object recording device that determines the length of the object vector based on the above .
前記ベクトル生成手段は、前記方向の俯角が予め定めた基準角度より小さい場合に、前記カメラの設置位置の高さに基づいて前記対象物ベクトルの長さを決定する、請求項1に記載の対象物記録装置。 The object according to claim 1, wherein the vector generation unit determines the length of the object vector based on the height of the installation position of the camera when the depression angle in the direction is smaller than a predetermined reference angle. Object recording device. 前記対象物ベクトルの長さを、別の方向から撮影または再生した画像上で前記ベクトル生成手段が生成した同一の対象物に対する新たな対象物ベクトルに基づいて補正するベクトル補正手段をさらに備える、請求項1または2に記載の対象物記録装置。 Further comprising a vector correction means for correcting the length of the object vector based on a new object vector for the same object generated by the vector generation means on an image photographed or reproduced from another direction. Item 1. The object recording apparatus according to Item 1 or 2 . 撮影または再生により表示中の対象物の撮影位置を決定する撮影位置決定手段と、
撮影または再生により表示中の対象物の前記撮影位置からの方向を検出する方向検出手段と、
前記撮影位置を始点とし、前記方向を向くベクトルの長さを予め定めた基準に基づいて決定し、対象物ベクトルとして生成するベクトル生成手段と、
前記対象物の関連情報を設定する関連情報設定手段と、
前記関連情報を前記対象物ベクトルと関連付けて記憶する関連情報記憶手段と、
座標軸を有し、前記撮影位置を始点とし前記方向を向く対象物ベクトルの終点が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段と、
前記撮影位置と撮影に使用するカメラの撮影方位、傾き及び画角とに基づいて、前記仮想3次元空間における表示範囲を特定する表示範囲特定手段と、
前記仮想3次元空間における表示範囲に終点が含まれる前記対象物ベクトルに関連付けられた前記関連情報を特定する関連情報特定手段と、
前記特定された関連情報を前記表示中の画像に重畳して表示する表示手段と、
前記表示手段が、前記仮想3次元空間における前記対象物ベクトルの終点の座標を前記関連情報の座標として、当該座標の予め設定された地平面への投影点を表示し、入力手段を介して前記投影点の位置を変更したときに、前記関連情報に関連付けられた前記対象物ベクトルの長さ及び/または方向を補正するベクトル補正手段と、
を備える対象物記録装置。
Photographing position determining means for determining the photographing position of the object being displayed by photographing or reproducing,
Direction detecting means for detecting the direction of the object being displayed from the photographing position by photographing or reproducing,
A vector generation unit that determines the length of a vector pointing in the direction based on a predetermined reference, starting from the shooting position, and generates the target vector.
Related information setting means for setting related information of the object,
Related information storage means for storing the related information in association with the object vector,
A virtual three-dimensional space setting unit that has a coordinate axis and sets a virtual three-dimensional space in which the end point of the object vector starting from the photographing position and pointing in the direction is associated with the coordinate on the coordinate axis.
Display range specifying means for specifying a display range in the virtual three-dimensional space based on the shooting position and the shooting direction, tilt, and angle of view of the camera used for shooting;
Related information specifying means for specifying the related information associated with the object vector whose end point is included in the display range in the virtual three-dimensional space;
Display means for displaying the specified related information by superimposing it on the image being displayed,
The display means displays the projection point of the coordinates on the preset horizon, using the coordinates of the end point of the object vector in the virtual three-dimensional space as the coordinates of the related information, and the above-mentioned via the input means. Vector correction means for correcting the length and/or direction of the object vector associated with the related information when the position of the projection point is changed ,
Bei El, the object recording apparatus.
撮影機能及び撮影した画像の表示機能を有するタブレット型端末上で構成されている、請求項1からのいずれか一項に記載の対象物記録装置。 The object recording apparatus according to any one of claims 1 to 4 , which is configured on a tablet terminal having a photographing function and a display function of a photographed image. コンピュータを、
撮影または再生により表示中の対象物の撮影位置を決定する撮影位置決定手段、
撮影または再生により表示中の対象物の前記撮影位置からの方向を検出する方向検出手段、
前記撮影位置を始点とし、前記方向を向くベクトルの長さを予め定めた基準に基づいて決定し、対象物ベクトルとして生成するベクトル生成手段、
前記対象物の関連情報を設定する関連情報設定手段、
前記関連情報を前記対象物ベクトルと関連付けて記憶する関連情報記憶手段、
座標軸を有し、前記撮影位置を始点とし前記方向を向く対象物ベクトルの終点が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段、
前記撮影位置と撮影に使用するカメラの撮影方位、傾き及び画角とに基づいて、前記仮想3次元空間における表示範囲を特定する表示範囲特定手段、
前記仮想3次元空間における表示範囲に終点が含まれる前記対象物ベクトルに関連付けられた前記関連情報を特定する関連情報特定手段、
前記特定された関連情報を前記表示中の画像に重畳して表示する表示手段、
として機能させ
前記ベクトル生成手段は、前記方向の俯角が予め定めた基準角度以上の場合に、前記始点から対象物ベクトルの方向に引いた直線と予め設定された地平面の方程式とから演算した交点の座標に基づいて前記対象物ベクトルの長さを決定する機能を有する、対象物記録プログラム。
Computer,
Photographing position determining means for determining the photographing position of the object being displayed by photographing or reproducing,
Direction detecting means for detecting the direction of the object being displayed from the photographing position by photographing or reproducing,
A vector generation unit that determines the length of a vector pointing in the direction based on a predetermined reference by using the shooting position as a starting point and generates the target vector.
Related information setting means for setting related information of the object,
Related information storage means for storing the related information in association with the object vector,
A virtual three-dimensional space setting means having a coordinate axis and setting a virtual three-dimensional space in which the end point of the object vector starting from the photographing position and pointing in the direction is associated with the coordinate on the coordinate axis;
Display range specifying means for specifying a display range in the virtual three-dimensional space based on the shooting position and the shooting direction, tilt, and angle of view of the camera used for shooting.
Related information specifying means for specifying the related information associated with the object vector whose end point is included in the display range in the virtual three-dimensional space,
Display means for displaying the specified related information by superimposing it on the image being displayed,
To function as,
The vector generation means, when the depression angle in the direction is equal to or greater than a predetermined reference angle, the coordinates of the intersection calculated from the straight line drawn from the starting point in the direction of the object vector and the preset equation of the ground plane are set. An object recording program having a function of determining the length of the object vector based on the above .
コンピュータを、
撮影または再生により表示中の対象物の撮影位置を決定する撮影位置決定手段、
撮影または再生により表示中の対象物の前記撮影位置からの方向を検出する方向検出手段、
前記撮影位置を始点とし、前記方向を向くベクトルの長さを予め定めた基準に基づいて決定し、対象物ベクトルとして生成するベクトル生成手段、
前記対象物の関連情報を設定する関連情報設定手段、
前記関連情報を前記対象物ベクトルと関連付けて記憶する関連情報記憶手段、
座標軸を有し、対象物の撮影位置を始点とし対象物の方向を向く対象物ベクトルの終点が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段、
前記撮影位置と撮影に使用するカメラの撮影方位、傾き及び画角とに基づいて、前記仮想3次元空間における表示範囲を特定する表示範囲特定手段、
前記仮想3次元空間における表示範囲に終点が含まれる前記対象物ベクトルに関連付けられた前記関連情報を特定する関連情報特定手段、
前記特定された関連情報を前記表示中の画像に重畳して表示する表示手段、
前記表示手段が、前記仮想3次元空間における前記対象物ベクトルの終点の座標を前記関連情報の座標として、当該座標の予め設定された地平面への投影点を表示し、入力手段を介して前記投影点の位置を変更したときに、前記関連情報に関連付けられた前記対象物ベクトルの長さ及び/または方向を補正するベクトル補正手段、
として機能させる、対象物記録プログラム。
Computer,
Photographing position determining means for determining the photographing position of the object being displayed by photographing or reproducing,
Direction detecting means for detecting the direction of the object being displayed from the photographing position by photographing or reproducing,
A vector generation unit that determines the length of a vector pointing in the direction based on a predetermined reference by using the shooting position as a starting point and generates the target vector.
Related information setting means for setting related information of the object,
Related information storage means for storing the related information in association with the object vector,
A virtual three-dimensional space setting means having a coordinate axis and setting a virtual three-dimensional space in which an end point of an object vector having a shooting position of the object as a starting point and facing the direction of the object is associated with the coordinates on the coordinate axis;
Display range specifying means for specifying a display range in the virtual three-dimensional space based on the shooting position and the shooting direction, tilt, and angle of view of the camera used for shooting.
Related information specifying means for specifying the related information associated with the object vector whose end point is included in the display range in the virtual three-dimensional space,
Display means for displaying the specified related information by superimposing it on the image being displayed,
The display means displays the projection point of the coordinates on the preset horizon, using the coordinates of the end point of the object vector in the virtual three-dimensional space as the coordinates of the related information, and the above-mentioned via the input means. Vector correction means for correcting the length and/or direction of the object vector associated with the relevant information when the position of the projection point is changed,
And then to function, the pair Zobutsu recording program.
JP2016018176A 2016-02-02 2016-02-02 Object recording device and object recording program Active JP6723018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016018176A JP6723018B2 (en) 2016-02-02 2016-02-02 Object recording device and object recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016018176A JP6723018B2 (en) 2016-02-02 2016-02-02 Object recording device and object recording program

Publications (2)

Publication Number Publication Date
JP2017139569A JP2017139569A (en) 2017-08-10
JP6723018B2 true JP6723018B2 (en) 2020-07-15

Family

ID=59566473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016018176A Active JP6723018B2 (en) 2016-02-02 2016-02-02 Object recording device and object recording program

Country Status (1)

Country Link
JP (1) JP6723018B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5799521B2 (en) * 2011-02-15 2015-10-28 ソニー株式会社 Information processing apparatus, authoring method, and program
JP5709261B2 (en) * 2011-08-10 2015-04-30 Kddi株式会社 Information terminal, information providing system, and information providing method
JP6265027B2 (en) * 2014-04-22 2018-01-24 富士通株式会社 Display device, position specifying program, and position specifying method

Also Published As

Publication number Publication date
JP2017139569A (en) 2017-08-10

Similar Documents

Publication Publication Date Title
US8103126B2 (en) Information presentation apparatus, information presentation method, imaging apparatus, and computer program
US10140723B2 (en) Information processing apparatus and method
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
CN110716646A (en) Augmented reality data presentation method, device, equipment and storage medium
CN102338639B (en) Information processing device and information processing method
CN106461391A (en) Surveying system
JP7311502B2 (en) Slope stability visualization
JP2006059136A (en) Viewer apparatus and its program
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
KR101259598B1 (en) Apparatus and Method for Providing Road View
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
JP6110780B2 (en) Additional information display system
JP5214355B2 (en) Vehicle traveling locus observation system, vehicle traveling locus observation method, and program thereof
JP5448739B2 (en) Image reproducing apparatus, imaging apparatus, and image reproducing method
JP5262232B2 (en) Image orientation display method and apparatus, and photograph
JP5256464B2 (en) Image top feature measurement method, display method, and measurement apparatus
JP6723018B2 (en) Object recording device and object recording program
JP2016219980A (en) Target information display device
CA2704656C (en) Apparatus and method for modeling building
JPH1013720A (en) Information service device
KR20150096127A (en) Method and apparatus for calculating location of points captured in image
JP4319476B2 (en) Surveying system
JP3467186B2 (en) Identification number generation device, camera, scale, and image display device
JP4253562B2 (en) Undulation expression apparatus and method for relaying golf

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200623

R150 Certificate of patent or registration of utility model

Ref document number: 6723018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250