JP2010128799A - Composite media synthesizing apparatus, composite media display system, composite media synthesizing method, and composite media synthesizing program - Google Patents

Composite media synthesizing apparatus, composite media display system, composite media synthesizing method, and composite media synthesizing program Download PDF

Info

Publication number
JP2010128799A
JP2010128799A JP2008302860A JP2008302860A JP2010128799A JP 2010128799 A JP2010128799 A JP 2010128799A JP 2008302860 A JP2008302860 A JP 2008302860A JP 2008302860 A JP2008302860 A JP 2008302860A JP 2010128799 A JP2010128799 A JP 2010128799A
Authority
JP
Japan
Prior art keywords
video
data
unit
map
composite media
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008302860A
Other languages
Japanese (ja)
Inventor
Satoshi Hisanaga
聡 久永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008302860A priority Critical patent/JP2010128799A/en
Publication of JP2010128799A publication Critical patent/JP2010128799A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To create a useful three-dimensional map of a region including places whose three-dimensional shapes are difficult to calculate. <P>SOLUTION: A three-dimensional map creation part 123 of a composite media combining apparatus 120 constructs the three-dimensional map of the periphery of a measurement device using any of data to be output by a camera, a laser scanner, and stereo-camera mounted on a mobile measurement device. A media combining part 125 extracts the video of any region other than a region in which any three-dimensional map cannot be created by a three-dimensional map creation part 123 (region that is captured by a camera or a stereo-camera with low image precision, a region where a laser beam of the laser scanner cannot be received) from video data to be output by the camera, and combines the extracted video with the three-dimensional map created by the three-dimensional map creation part 123. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複合メディア合成装置及び複合メディア表示システム及び複合メディア合成方法及び複合メディア合成プログラムに関するものである。本発明は、特に、カメラを搭載した移動可能な計測装置から取得した3次元データと映像データとを合成する複合メディア合成装置と、合成された複合メディアを表示する複合メディア表示装置に関するものである。   The present invention relates to a composite media composition device, a composite media display system, a composite media composition method, and a composite media composition program. In particular, the present invention relates to a composite media composition device that synthesizes three-dimensional data acquired from a movable measuring device equipped with a camera and video data, and a composite media display device that displays the composite media. .

従来、町並みの3次元データを構築する技術がある。例えば、特許文献1においては、車両にレーザ計測装置を設置して走行することにより、町並みの3次元データを構築する。車両の自己位置をGPS(Global・Positioning・System)により取得し、自己位置からレーザ計測装置が取得した距離にある物体の形状を計測して3次元モデルとして記録する。   Conventionally, there is a technique for constructing three-dimensional data of a townscape. For example, in Patent Document 1, street-level three-dimensional data is constructed by installing a laser measurement device on a vehicle and traveling. The self-position of the vehicle is acquired by GPS (Global Positioning System), and the shape of the object at the distance acquired by the laser measurement device from the self-position is measured and recorded as a three-dimensional model.

従来、走行する装置が、装置に搭載したカメラが取得する映像と、レーザ計測器が取得する距離から自己位置を推測する技術がある。例えば、特許文献2においては、カメラが取得した映像の中から基準点を決定し、走行装置から基準点までの距離をレーザ計測器で計ることにより、基準点までの距離を基に自己位置を推測している。   Conventionally, there is a technique in which a traveling device estimates its own position from an image acquired by a camera mounted on the device and a distance acquired by a laser measuring instrument. For example, in Patent Document 2, the reference point is determined from the image acquired by the camera, and the distance from the traveling device to the reference point is measured by a laser measuring instrument, so that the self-position is determined based on the distance to the reference point. I guess.

従来、位置に応じた映像を表示する技術がある。例えば、特許文献3においては、予め記録してある道路ネットワークデータを基にして、道路分岐点へ向かう方向を予め撮影した画像や、道路分岐点から特定の方向へ曲がった方向を予め撮影した画像を提供して表示する。   Conventionally, there is a technique for displaying an image according to a position. For example, in Patent Document 3, based on pre-recorded road network data, an image in which a direction toward a road branch point is captured in advance, or an image in which a direction bent from a road branch point in a specific direction is captured in advance. Provide and display.

従来、エピポーラ幾何を用いて2次元映像に映っている物体の3次元形状を計算する方法がある(例えば、非特許文献1参照)。
特開2002−31528号公報 特開2006−31642号公報 特開2005−3752号公報 徐剛、辻三郎共著、「3次元ビジョン」、共立出版、1998年4月
Conventionally, there is a method of calculating the three-dimensional shape of an object shown in a two-dimensional image using epipolar geometry (see, for example, Non-Patent Document 1).
JP 2002-31528 A JP 2006-31642 A JP 2005-3752 A Co-authored by Xugang and Saburo Saburo, “3D Vision”, Kyoritsu Shuppan, April 1998

従来の町並みの3次元データを構築する技術では、自己位置をGPSにより取得しているので、GPSを受信できない屋内やビルの谷間では3次元モデルを構築することができないという課題があった。   In the conventional technology for constructing three-dimensional data of a townscape, there is a problem that a three-dimensional model cannot be constructed indoors or in a valley of buildings where GPS cannot be received because the self-position is acquired by GPS.

従来の自己位置推定技術では、レーザ計測装置をターゲットへ向けて距離を計測するので、上下左右のターゲット方向へ計測装置を向ける駆動装置が必要であり、警備用途等で第三者に気づかれにくいように装置を小型化することができないという課題があった。   In the conventional self-position estimation technology, since the laser measuring device is directed toward the target and the distance is measured, a driving device that directs the measuring device toward the target direction of the top, bottom, left, and right is necessary, and it is difficult for third parties to notice it for security purposes. As described above, there is a problem that the apparatus cannot be reduced in size.

従来の位置に応じた映像表示技術では、位置情報に基づいて映像を選択して表示するので、正確な位置がわからない場所においては、適切な映像を表示できないという課題があった。また、映像以外に景観を再現した3次元モデルがあっても、映像と同時に使うことができないという課題があった。   In the conventional video display technology according to the position, since the video is selected and displayed based on the position information, there is a problem that an appropriate video cannot be displayed in a place where the exact position is not known. In addition, there is a problem that even if there is a 3D model that reproduces the landscape other than the video, it cannot be used simultaneously with the video.

従来の方法では、2次元映像に映っている物体の3次元形状を計算する際に、物体の周辺環境(明るさ、広さ、高さ等)によっては3次元形状を計算できない場合があるという課題があった。   According to the conventional method, when calculating the three-dimensional shape of an object shown in a two-dimensional image, the three-dimensional shape may not be calculated depending on the surrounding environment (brightness, width, height, etc.) of the object. There was a problem.

本発明は、例えば、3次元形状を計算することが困難な箇所がある領域の3次元地図として、有用なものを作成することを目的とする。また、本発明は、例えば、以下の少なくとも1つの特徴をもつ、複合メディア合成装置及び複合メディア表示装置を備えるシステムを提供することを目的とする。
(1)屋内やビルの谷間において走行する計測装置が、外部の測位システム(測位するために、計測装置以外に設置するシステム。例えば、GPS衛星、無線LAN(Local・Area・Network)等)を必要とせずに走行位置を取得する。
(2)走行する計測装置に計測機器の方向を変化させる機械を搭載しない。
(3)走行する計測装置から収集した情報が映像であっても、3次元データであっても、空間的に連続して表示できる。
An object of this invention is to create a useful thing as a three-dimensional map of the area | region with the location where it is difficult to calculate a three-dimensional shape, for example. Another object of the present invention is to provide a system including a composite media composition device and a composite media display device having at least one of the following features, for example.
(1) A measurement device that travels indoors or in a valley of a building has an external positioning system (a system installed in addition to the measurement device for positioning. For example, a GPS satellite, a wireless LAN (Local Area Network), etc.) Get travel position without need.
(2) A machine that changes the direction of the measuring device is not mounted on the traveling measuring device.
(3) Even if the information collected from the traveling measuring device is an image or three-dimensional data, it can be displayed spatially continuously.

本発明の一の態様に係る複合メディア合成装置は、
周辺領域の形状を観測するセンサと周辺領域の映像を撮影するカメラとを具備する移動可能な計測装置から、前記計測装置の移動中に前記センサにより観測された形状のデータを取得する形状データ取得部と、
前記形状データ取得部が取得したデータから、前記センサにより形状が観測された領域の3次元地図を作成する3次元地図作成部と、
前記計測装置から、前記計測装置の移動中に前記カメラにより撮影された映像のデータを取得する映像データ取得部と、
前記映像データ取得部が取得したデータから、前記3次元地図作成部が3次元地図を作成した領域以外の領域の映像を抽出し、抽出した映像と前記3次元地図作成部が作成した3次元地図とを合成するメディア合成部とを備えることを特徴とする。
A composite media composition device according to an aspect of the present invention includes:
Shape data acquisition for acquiring shape data observed by the sensor during movement of the measuring device from a movable measuring device having a sensor for observing the shape of the peripheral region and a camera for capturing images of the peripheral region And
A three-dimensional map creating unit that creates a three-dimensional map of the region where the shape is observed by the sensor from the data obtained by the shape data obtaining unit;
A video data acquisition unit that acquires data of video captured by the camera during movement of the measurement device from the measurement device;
From the data acquired by the video data acquisition unit, the video of the region other than the region where the 3D map creation unit created the 3D map is extracted, and the extracted video and the 3D map created by the 3D map creation unit are extracted. And a media composition unit for synthesizing the above.

本発明の一の態様によれば、複合メディア合成装置において、3次元地図作成部が、計測装置の移動中にセンサにより観測された形状のデータから、前記センサにより形状が観測された領域の3次元地図を作成し、メディア合成部が、前記計測装置の移動中にカメラにより撮影された映像のデータから、前記3次元地図作成部が3次元地図を作成した領域以外の領域の映像を抽出し、抽出した映像と前記3次元地図作成部が作成した3次元地図とを合成することにより、例えば、3次元形状を計算することが困難な箇所がある領域の3次元地図として、有用なものを作成することが可能となる。   According to one aspect of the present invention, in the composite media composition device, the three-dimensional map creation unit 3 of the region where the shape is observed by the sensor from the data of the shape observed by the sensor during the movement of the measurement device. A three-dimensional map is created, and the media composition unit extracts video of a region other than the region where the three-dimensional map creation unit has created the three-dimensional map from the data of the video captured by the camera while the measuring device is moving. By combining the extracted video and the 3D map created by the 3D map creation unit, for example, a useful 3D map of a region where it is difficult to calculate a 3D shape is obtained. It becomes possible to create.

以下、本発明の実施の形態について、図を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

実施の形態1.
図1は、本実施の形態に係る複合メディア表示システム100の構成及び動作概略を示す図である。
Embodiment 1 FIG.
FIG. 1 is a diagram showing an outline and configuration of a composite media display system 100 according to the present embodiment.

図1において、複合メディア表示システム100は、計測装置110、複合メディア合成装置120、複合メディア表示装置130を備える。   In FIG. 1, the composite media display system 100 includes a measurement device 110, a composite media composition device 120, and a composite media display device 130.

操作員は、遠隔地から計測装置110を移動させる。計測装置110は、後述するように、カメラを搭載している(他にセンサを搭載していてもよい)。計測装置110は、例えば1秒(単位時間の一例)に1回又は1メートル(単位距離の一例)進むごとに1回、複合メディア合成装置120へカメラから取得した映像データを送る(もしあれば、センサから取得したレーザデータ等も送る)。   The operator moves the measuring device 110 from a remote place. As will be described later, the measuring device 110 has a camera (other sensors may be mounted). The measuring device 110 sends the video data acquired from the camera to the composite media composition device 120 once every 1 second (an example of unit time) or once every 1 meter (an example of unit distance), for example (if any) Laser data obtained from the sensor is also sent).

複合メディア合成装置120は、計測装置110が取得した映像データから(もしあれば、レーザデータ等から、あるいは、映像データ及びレーザデータ等から)、周辺の3次元地図(3次元モデル)を構築して3次元データとして記録する。3次元データは、構造物(例えば、床、壁、天井、柱)や設置物(例えば、机、箱、棚)等の物体の形状を立体的に表現した電子データである。具体例として、VRML(Virtual・Reality・Markup・Language)がある。四角い壁の場合、4隅の4頂点の位置を3次元座標で表現する。3次元座標は、地面をX−Y平面、高さをZ方向として、スケールは例えば1ミリメートルを1.0としたものである。複合メディア合成装置120は、計測装置110が取得した映像データから、周辺の3次元地図を構築できない場合は、映像を記録する。また、このとき、複合メディア合成装置120は、映像からカメラの移動経路を推定して記録する。複合メディア合成装置120は、前回、計測装置110の位置(移動開始地点等を基準点とした相対的な位置でよい)を算出した時点以降に、計測装置110が移動した距離と向きを計算して記録する。複合メディア合成装置120は、3次元データと映像データを合成する。ここで、「3次元データと映像データを合成する」とは、例えば、3次元データと映像データを連続して再生可能な1つのメディアデータ(例えば、1つのファイル)にまとめること、あるいは、3次元データと映像データとともに、後述するリンクデータを記録媒体に記録することをいう。   The composite media composition device 120 constructs a peripheral three-dimensional map (three-dimensional model) from the video data acquired by the measurement device 110 (from laser data, if any, or from video data and laser data, etc.). Recorded as three-dimensional data. The three-dimensional data is electronic data that three-dimensionally represents the shape of an object such as a structure (for example, a floor, a wall, a ceiling, or a pillar) or an installation (for example, a desk, a box, or a shelf). Specific examples include VRML (Virtual, Reality, Markup, Language). In the case of a square wall, the positions of the four vertices at the four corners are expressed in three-dimensional coordinates. The three-dimensional coordinates are such that the ground is the XY plane, the height is the Z direction, and the scale is, for example, 1.0 for 1 millimeter. The composite media composition device 120 records a video when a surrounding 3D map cannot be constructed from the video data acquired by the measurement device 110. At this time, the composite media composition device 120 estimates and records the moving path of the camera from the video. The composite media composition device 120 calculates the distance and direction that the measurement device 110 has moved since the previous time when the position of the measurement device 110 (which may be a relative position with respect to the movement start point or the like) is calculated. Record. The composite media composition device 120 synthesizes the three-dimensional data and the video data. Here, “combining 3D data and video data” means, for example, combining 3D data and video data into one media data (for example, one file) that can be reproduced continuously, or 3 This refers to recording link data (to be described later) on a recording medium together with the dimension data and video data.

複合メディア表示装置130は、操作員が指定した任意位置の3次元地図を表示する。操作員の指定した位置に対応する3次元データがなく、映像データだけである場合は、その位置の映像を表示する。例えば、複合メディア表示装置130は、ある地点Aが指定されたときに、地点Aの3次元データが存在しなければ、地点Aの映像を表示する。また、複合メディア表示装置130は、3次元地図を表示中に、3次元データの存在しない部分について取得した映像データがある場合は、3次元地図に映像を合成して表示する。例えば、複合メディア表示装置130は、地点Aの3次元地図にデータが欠落している部分がある場合には、地点Aの3次元地図を表示するとともに、当該部分に、その場所の映像を表示する。また、複合メディア表示装置130は、映像を表示中に、撮影した映像の存在しない部分について構築した3次元データがある場合は、3次元地図を合成して表示する。例えば、複合メディア表示装置130は、地点Aの映像に何も映っていない部分がある場合には、地点Aの映像を表示するとともに、当該部分に、その場所の3次元地図を表示する。   The composite media display device 130 displays a three-dimensional map at an arbitrary position designated by the operator. If there is no three-dimensional data corresponding to the position designated by the operator but only video data, the video at that position is displayed. For example, when a certain point A is designated, the composite media display device 130 displays an image of the point A if there is no 3D data for the point A. In addition, when the 3D map is displayed, the composite media display device 130 synthesizes and displays the video on the 3D map when there is video data acquired for a portion where the 3D data does not exist. For example, if there is a portion where data is missing in the three-dimensional map of the point A, the composite media display device 130 displays the three-dimensional map of the point A and displays the video of the place in the portion. To do. In addition, when the video is displayed, the composite media display device 130 synthesizes and displays a 3D map if there is 3D data constructed for a portion where the captured video does not exist. For example, when there is a portion where nothing is reflected in the video at the point A, the composite media display device 130 displays the video at the point A and also displays a three-dimensional map of the place in the portion.

3次元データは、前述したように、3次元地図のデータである。映像データは、動画又は例えば1秒間隔の連続写真のデータである。映像データは、例えば複数の電子ファイルに分けて記録される。リンクデータは、映像データと3次元データの関連付けを示すデータである。例えば、ある場所の3次元地図の一部に映像を繋げて表示する場合、リンクデータでは、3次元地図のどの部分に映像のどの部分を繋げて表示するか等を定義したリンク情報が記録される。リンクデータでは、3次元地図から映像へ切り替わる場所か、映像から3次元地図へ切り替わる場所かの違いも併せて記録される。また、リンクデータでは、映像データの電子ファイル名、フレーム番号、タイムスタンプ(撮影開始時刻からの経過時間でもよい)、映像データに対応する計測装置110の位置等を示す属性情報も記録される。   As described above, the three-dimensional data is three-dimensional map data. The video data is data of a moving image or continuous photos at intervals of 1 second, for example. The video data is recorded by being divided into a plurality of electronic files, for example. Link data is data indicating the association between video data and three-dimensional data. For example, when video is connected to a part of a 3D map at a certain location, link data that defines which part of the video is connected to which part of the 3D map is recorded in the link data. The In the link data, the difference between the location where the 3D map is switched to the video and the location where the video is switched to the 3D map is also recorded. In the link data, attribute information indicating the electronic file name of the video data, the frame number, the time stamp (may be an elapsed time from the shooting start time), the position of the measuring device 110 corresponding to the video data, and the like is also recorded.

図2に映像から3次元地図へ切り替わる場所のリンク情報の例を示す。また、図3に3次元地図から映像へ切り替わる場所のリンク情報の例を示す。   FIG. 2 shows an example of link information of a place where a video is switched to a three-dimensional map. FIG. 3 shows an example of link information of a place where the 3D map is switched to the video.

リンク情報の一例として、枠形状のベクトルがある。映像フレーム中の出入り口の扉、ゲート等の枠の形をベクトルで示し、リンクデータに記録することができる。この場合、リンクデータでは、枠形状のベクトルが、映像データの各フレームに対応付けて記録される。また、リンクデータでは、映像データ内の枠形状のベクトルに対応した3次元データ(3次元地図)内の枠の位置も記録される。さらに、リンクデータでは、3次元データにおける枠の位置に対応した映像フレームの撮影位置の座標と撮影方向の方向ベクトルが記録される。   An example of link information is a frame-shaped vector. The shape of the door, gate, etc. frame in the video frame can be indicated by a vector and recorded in the link data. In this case, in the link data, a frame-shaped vector is recorded in association with each frame of the video data. In the link data, the position of the frame in the three-dimensional data (three-dimensional map) corresponding to the frame shape vector in the video data is also recorded. Further, in the link data, the coordinates of the shooting position of the video frame corresponding to the position of the frame in the three-dimensional data and the direction vector of the shooting direction are recorded.

以上より、リンクデータの一例としては、映像データの電子ファイル名、フレーム番号(又は映像データのタイムスタンプ)、画像(フレーム)中の枠形状のベクトル、関連する3次元地図内の枠形状のベクトル、3次元地図内の映像撮影位置座標、映像撮影方向ベクトル等を関連付けしたものが考えられる。   As described above, as an example of link data, an electronic file name of video data, a frame number (or a time stamp of video data), a frame shape vector in an image (frame), and a frame shape vector in a related three-dimensional map It is conceivable to associate video shooting position coordinates, video shooting direction vectors, and the like in a three-dimensional map.

図4、図5、図6は、計測装置110の構成例を示す図である。   4, 5, and 6 are diagrams illustrating a configuration example of the measurement device 110.

図4の例では、計測装置110は、台車111を具備し、移動することができる。また、計測装置110は、周辺領域の映像を撮影するカメラ112(単眼カメラ)を具備する。カメラ112は、台車111に搭載される。カメラ112は、周辺領域の形状を観測するセンサの一例である。台車111には、計算機201も搭載される。計算機201は、カメラ112により撮影された映像のデータを遠隔地へ送信するために、通信装置を搭載している。通信装置は例えば無線LAN通信を行う装置である。   In the example of FIG. 4, the measuring device 110 includes a carriage 111 and can move. In addition, the measurement apparatus 110 includes a camera 112 (monocular camera) that captures an image of the peripheral area. The camera 112 is mounted on the carriage 111. The camera 112 is an example of a sensor that observes the shape of the peripheral area. A computer 201 is also mounted on the carriage 111. The computer 201 is equipped with a communication device in order to transmit video data photographed by the camera 112 to a remote place. The communication device is a device that performs wireless LAN communication, for example.

図5の例では、計測装置110は、カメラ112のほかに、周辺領域の3次元座標を計測するレーザスキャナ113を具備する。レーザスキャナ113も、周辺領域の形状を観測するセンサの一例である。レーザスキャナ113により計測された3次元座標のデータも、計算機201に搭載された通信装置によって遠隔地へ送信される。   In the example of FIG. 5, the measurement device 110 includes a laser scanner 113 that measures the three-dimensional coordinates of the peripheral region in addition to the camera 112. The laser scanner 113 is also an example of a sensor that observes the shape of the peripheral region. Data of three-dimensional coordinates measured by the laser scanner 113 is also transmitted to a remote place by a communication device mounted on the computer 201.

図6の例では、計測装置110は、カメラ112の代わりに、ステレオカメラ114を具備する。ステレオカメラ114も、周辺領域の形状を観測するセンサの一例である。ステレオカメラ114により撮影された映像のデータも、計算機201に搭載された通信装置によって遠隔地へ送信される。   In the example of FIG. 6, the measurement device 110 includes a stereo camera 114 instead of the camera 112. The stereo camera 114 is also an example of a sensor that observes the shape of the peripheral area. Video data captured by the stereo camera 114 is also transmitted to a remote location by a communication device mounted on the computer 201.

図7、図8は、複合メディア合成装置120及び複合メディア表示装置130の構成例を示す図である。   7 and 8 are diagrams showing examples of configurations of the composite media composition device 120 and the composite media display device 130. FIG.

以下では、複合メディア合成装置120と複合メディア表示装置130はいずれも計算機上のソフトウェアであるとして説明するが、ソフトウェアとハードウェアの組み合わせ等であってもよい。   In the following description, it is assumed that both the composite media composition device 120 and the composite media display device 130 are software on a computer, but a combination of software and hardware may be used.

図7のように、複合メディア合成装置120が、計測装置110上の計算機201にある場合、複合メディア合成装置120が出力する3次元データ、映像データ、リンクデータは、遠隔地にある計算機202へ無線LAN等のネットワークを介して送信されて記録媒体に蓄積される。そして、計算機202で記録媒体に蓄積された3次元データ、映像データ、リンクデータは、計算機202にある複合メディア表示装置130によって利用される。   As shown in FIG. 7, when the composite media composition device 120 is in the computer 201 on the measuring device 110, the three-dimensional data, video data, and link data output from the composite media composition device 120 are sent to the computer 202 at a remote location. It is transmitted via a network such as a wireless LAN and stored in a recording medium. The three-dimensional data, video data, and link data stored in the recording medium by the computer 202 are used by the composite media display device 130 in the computer 202.

図8のように、複合メディア合成装置120と複合メディア表示装置130が、計測装置110から離れた遠隔地にある計算機202上にある場合は、計測装置110上の計算機201と遠隔地上の計算機202の間で、カメラ112、レーザスキャナ113、ステレオカメラ114の取得データや、遠隔地の計算機202から計測装置110への動作指示信号が無線LANを介して送受信される。複合メディア合成装置120がカメラ112、レーザスキャナ113、ステレオカメラ114の取得データから作成する3次元データ、映像データ、リンクデータは、計算機202で記録媒体に蓄積され、複合メディア表示装置130によって利用される。   As shown in FIG. 8, when the composite media composition device 120 and the composite media display device 130 are on a computer 202 at a remote location away from the measurement device 110, the computer 201 on the measurement device 110 and the computer 202 on the remote ground are located. The acquired data of the camera 112, the laser scanner 113, and the stereo camera 114 and the operation instruction signal from the remote computer 202 to the measuring device 110 are transmitted and received via the wireless LAN. Three-dimensional data, video data, and link data created by the composite media composition device 120 from data acquired by the camera 112, laser scanner 113, and stereo camera 114 are stored in a recording medium by the computer 202 and used by the composite media display device 130. The

図9は、操作員が、遠隔地にある計算機202から計測装置110の動作を指示するための動作指示装置203の機能を示す図である。   FIG. 9 is a diagram illustrating a function of the operation instruction device 203 for the operator to instruct the operation of the measurement device 110 from the computer 202 at a remote place.

以下では、動作指示装置203は計算機上のソフトウェアであるとして説明するが、ソフトウェアとハードウェアの組み合わせ等であってもよい。   In the following description, the operation instruction device 203 is assumed to be software on a computer, but may be a combination of software and hardware.

図9に示すように、遠隔地にある計算機202にある動作指示装置203は、走行する計測装置110への走行指示を行う。具体的には、動作指示装置203は、計算機202上の走行指示画面204に、左折、前進、右折、後退ボタンを配置する。そして、動作指示装置203は、例えば操作員がいずれかのボタンを1秒押し、放すと、1秒間ボタンの記述の動作をしろという指示を、無線LANを介して計測装置110上の計算機201へ送る。この指示に応じて、計測装置110は駆動動作を行う。具体的には、計測装置110上の計算機201が、指示された時間の間、台車111の左右の駆動輪を回転させる。前進は2輪を順方向へ回転させて行う。後退は2輪を逆方向へ回転させて行う。左折は左駆動輪よりも右駆動輪の回転速度を上げて行う。右折は右駆動輪よりも左駆動輪の回転速度を上げて行う。回転加速度は加速・減速とも一定とし、一定速度に達すると、計測装置110上の計算機201は駆動輪を定常速度で回転させるものとする。計測装置110上の計算機では、両車輪を動作させた時刻から、駆動前の位置から駆動後の位置までの移動距離と移動方向をデータとして得る。なお、車輪にロータリエンコーダを設置してもよい。この場合、ロータリエンコーダが、車輪の回転角度を検出するので、回転角度から駆動前の位置から駆動後の位置までの移動距離と移動方向をデータとして得ることができる。   As shown in FIG. 9, the operation instruction device 203 in the computer 202 at a remote location issues a traveling instruction to the traveling measuring device 110. Specifically, the operation instruction device 203 arranges left turn, forward, right turn, and reverse buttons on the travel instruction screen 204 on the computer 202. Then, for example, when the operator presses and releases one of the buttons for one second, the operation instruction device 203 gives an instruction to perform the operation described in the button for one second to the computer 201 on the measurement device 110 via the wireless LAN. send. In response to this instruction, the measurement device 110 performs a driving operation. Specifically, the computer 201 on the measuring device 110 rotates the left and right drive wheels of the carriage 111 during the instructed time. The forward movement is performed by rotating the two wheels in the forward direction. Reverse is done by rotating the two wheels in the opposite direction. The left turn is performed by increasing the rotation speed of the right drive wheel rather than the left drive wheel. Turn right by increasing the rotational speed of the left drive wheel rather than the right drive wheel. It is assumed that the rotational acceleration is constant for both acceleration and deceleration, and when reaching a constant speed, the computer 201 on the measuring device 110 rotates the driving wheel at a steady speed. The computer on the measuring device 110 obtains as data the moving distance and moving direction from the position before driving to the position after driving from the time when both wheels are operated. In addition, you may install a rotary encoder in a wheel. In this case, since the rotary encoder detects the rotation angle of the wheel, the movement distance and movement direction from the position before driving to the position after driving can be obtained as data from the rotation angle.

図10は、複合メディア合成装置120の構成を示すブロック図である。   FIG. 10 is a block diagram showing the configuration of the composite media composition device 120.

図10において、複合メディア合成装置120は、形状データ取得部121、映像データ取得部122、3次元地図作成部123、移動量推定部124、メディア合成部125を備える。   In FIG. 10, the composite media composition device 120 includes a shape data acquisition unit 121, a video data acquisition unit 122, a three-dimensional map creation unit 123, a movement amount estimation unit 124, and a media composition unit 125.

形状データ取得部121は、計測装置110から、計測装置110の移動中にセンサにより観測された周辺領域の形状のデータを取得する(同時に、センサの方向や特性等を示すデータを取得してもよい)。計測装置110が図5の例のように構成されている(カメラ112及びレーザスキャナ113を具備する)場合、形状データ取得部121は、計測装置110から、計測装置110の移動中にレーザスキャナ113により計測された3次元座標のデータを取得する。計測装置110が1単位時間又は1単位距離移動したときのデータを1回のデータとすると、形状データ取得部121は、計測装置110から1回のデータをリアルタイムに取得してもよいし、複数回のデータをまとめて定期的に又は任意のタイミングで取得してもよい。ここで、計測装置110が移動を開始したときにセンサにより観測された形状のデータを初期データと呼ぶことにする(センサの方向や特性等を示すデータが取得されている場合には、そのデータも含む)。また、その後、計測装置110が単位時間又は単位距離移動する度にセンサにより観測される形状のデータを当該移動区間(計測装置110が単位時間又は単位距離移動した区間)の更新データと呼ぶことにする(センサの方向や特性等を示すデータが取得されている場合には、そのデータも含む)。   The shape data acquisition unit 121 acquires, from the measurement device 110, data on the shape of the surrounding area observed by the sensor during the movement of the measurement device 110 (at the same time, the data indicating the sensor direction, characteristics, etc. may be acquired). Good). When the measurement apparatus 110 is configured as in the example of FIG. 5 (including the camera 112 and the laser scanner 113), the shape data acquisition unit 121 moves from the measurement apparatus 110 to the laser scanner 113 while the measurement apparatus 110 is moving. The data of the three-dimensional coordinate measured by is acquired. Assuming that the data when the measuring device 110 moves for one unit time or one unit distance is one data, the shape data acquisition unit 121 may acquire one data from the measuring device 110 in real time, The data of the times may be acquired periodically or at an arbitrary timing. Here, the data of the shape observed by the sensor when the measuring device 110 starts to move is referred to as initial data (if data indicating the direction, characteristics, etc. of the sensor is acquired, the data Also included). Thereafter, the data of the shape observed by the sensor every time the measuring device 110 moves by unit time or unit distance is referred to as update data of the moving section (the section in which the measuring device 110 has moved by unit time or unit distance). (When data indicating the direction, characteristics, etc. of the sensor is acquired, the data is also included).

映像データ取得部122は、計測装置110から、計測装置110の移動中にカメラ112(又はステレオカメラ114)により撮影された映像のデータを取得する。計測装置110が1単位時間又は1単位距離移動したときのデータを1回のデータとすると、映像データ取得部122は、計測装置110から1回のデータをリアルタイムに取得してもよいし、複数回のデータをまとめて定期的に又は任意のタイミングで取得してもよい。ここで、計測装置110が単位時間又は単位距離移動する度にカメラ112により撮影される映像のデータを当該移動区間(計測装置110が単位時間又は単位距離移動した区間)の映像データとする。なお、計測装置110が図4(又は図6)の例のように構成されている(カメラ112とは別個のセンサを具備していない)場合、カメラ112がセンサを兼ねることになる。この場合、映像データ取得部122は形状データ取得部121を兼ねることになるため、最初の移動区間の映像データは前述した初期データとなる。そして、2番目以降の各移動区間の映像データは各移動区間の更新データとなる。   The video data acquisition unit 122 acquires, from the measurement device 110, video data captured by the camera 112 (or the stereo camera 114) while the measurement device 110 is moving. Assuming that the data when the measuring device 110 moves one unit time or one unit distance is one data, the video data acquisition unit 122 may acquire one data from the measuring device 110 in real time, The data of the times may be acquired periodically or at an arbitrary timing. Here, video data captured by the camera 112 each time the measuring device 110 moves by unit time or unit distance is taken as video data of the movement section (section in which the measuring device 110 has moved unit time or unit distance). In addition, when the measuring apparatus 110 is configured as in the example of FIG. 4 (or FIG. 6) (no sensor separate from the camera 112), the camera 112 also serves as a sensor. In this case, since the video data acquisition unit 122 also serves as the shape data acquisition unit 121, the video data in the first movement section is the initial data described above. Then, the video data of each movement section after the second becomes update data of each movement section.

3次元地図作成部123は、計測装置110に搭載されたカメラ112、レーザスキャナ113、ステレオカメラ114の出力するデータの少なくともいずれかを用いて計測装置110の周辺領域の3次元地図を構築する。具体的には、3次元地図作成部123は、形状データ取得部121(あるいは映像データ取得部122)が取得した初期データから3次元地図を作成する。その後、3次元地図作成部123は、形状データ取得部121が1つの移動区間の更新データを取得する度に、当該移動区間の更新データで3次元地図を更新する。つまり、3次元地図作成部123は、新たな更新データから3次元地図を構築し、既に構築済みの3次元地図と、新たに構築した3次元地図を合成する。   The three-dimensional map creating unit 123 constructs a three-dimensional map of the peripheral area of the measuring device 110 using at least one of data output from the camera 112, the laser scanner 113, and the stereo camera 114 mounted on the measuring device 110. Specifically, the 3D map creation unit 123 creates a 3D map from the initial data acquired by the shape data acquisition unit 121 (or the video data acquisition unit 122). Thereafter, each time the shape data acquisition unit 121 acquires update data of one movement section, the three-dimensional map creation unit 123 updates the three-dimensional map with the update data of the movement section. That is, the 3D map creation unit 123 constructs a 3D map from the new update data, and synthesizes the already constructed 3D map and the newly constructed 3D map.

移動量推定部124は、計測装置110が単位時間又は単位距離移動する度に、当該移動区間における移動量を推定する。移動量推定部124は、形状データ取得部121が取得したデータ(例えば、3次元座標のデータ)から、各移動区間における移動量を推定してもよいし、映像データ取得部122が取得したデータから、各移動区間における移動量を推定してもよい。後者の場合、移動量推定部124は、カメラ112(又はステレオカメラ114)が取得した映像を基にカメラ112の移動方向、向きの変位、移動距離を推定することにより、計測装置110の移動量を推定する。   The movement amount estimation unit 124 estimates the movement amount in the movement section every time the measuring apparatus 110 moves by unit time or unit distance. The movement amount estimation unit 124 may estimate the movement amount in each movement section from the data (for example, three-dimensional coordinate data) acquired by the shape data acquisition unit 121, or the data acquired by the video data acquisition unit 122. From this, the movement amount in each movement section may be estimated. In the latter case, the movement amount estimation unit 124 estimates the movement direction, orientation displacement, and movement distance of the camera 112 based on the video acquired by the camera 112 (or the stereo camera 114), thereby moving the movement amount of the measurement device 110. Is estimated.

メディア合成部125は、映像データ取得部122が取得したデータから、3次元地図作成部123が3次元地図を作成した領域以外の領域の映像を抽出し、抽出した映像と3次元地図作成部123が作成した3次元地図とを合成する。3次元地図作成部123が3次元地図を作成した領域以外の領域とは、主に、3次元地図作成部123が3次元地図を作成できない領域のことである。3次元地図作成部123が3次元地図を作成できない領域としては、例えば、カメラ112(又はステレオカメラ114)で撮影しても映像の精度が悪くなる領域(暗い領域等)、レーザスキャナ113のレーザが到達する範囲外の領域(広い領域、高い領域等)といったものが挙げられる。このような領域が存在する場合、形状データ取得部121(あるいは映像データ取得部122)が取得した1つ以上の移動区間の更新データで3次元地図作成部123が3次元地図を更新できないことになる。そのため、メディア合成部125は、移動量推定部124が推定した当該移動区間における移動量に基づいて、映像データ取得部122が取得した当該移動区間の映像データから、当該領域(3次元地図作成部123が作成した3次元地図が存在しない領域)の映像を抽出し、抽出した映像と3次元地図作成部123が作成した3次元地図とを合成する。即ち、メディア合成部125は、3次元地図(3次元データ)と映像(映像データ)とリンク情報(リンクデータ)とを記録媒体に記録する。メディア合成部125は、リンク情報を記録する際には、前述したように、枠形状のベクトル等を算出することで、3次元地図のどの部分と映像のどの部分とを繋げて表示するか定義する必要がある。そのため、メディア合成部125は、映像データ取得部122が取得した映像データから、例えば奥行きのある開口(出入り口の扉、ゲート等の枠)が映っている部分を検出し、検出した部分の映像を、3次元地図作成部123が作成した3次元地図が存在しない領域の映像として抽出する。そして、メディア合成部125は、抽出した映像を、既に作成された3次元地図に関連付ける。   The media composition unit 125 extracts the video of the region other than the region where the 3D map creation unit 123 created the 3D map from the data acquired by the video data acquisition unit 122, and the extracted video and the 3D map creation unit 123. Is combined with the 3D map created by The region other than the region where the 3D map creation unit 123 created the 3D map is mainly a region where the 3D map creation unit 123 cannot create the 3D map. Examples of the area where the 3D map creation unit 123 cannot create a 3D map include, for example, an area where the video accuracy is poor (such as a dark area) even when the camera 112 (or the stereo camera 114) captures the image, and the laser of the laser scanner 113. And the like that are out of the range to reach (a wide region, a high region, etc.). When such a region exists, the 3D map creation unit 123 cannot update the 3D map with the update data of one or more moving sections acquired by the shape data acquisition unit 121 (or the video data acquisition unit 122). Become. Therefore, the media composition unit 125 determines the region (three-dimensional map creation unit) from the video data of the movement section acquired by the video data acquisition unit 122 based on the movement amount in the movement section estimated by the movement amount estimation unit 124. The image of the area where the 3D map created by 123 does not exist is extracted, and the extracted video and the 3D map created by the 3D map creation unit 123 are combined. That is, the media composition unit 125 records a 3D map (3D data), video (video data), and link information (link data) on a recording medium. As described above, when recording the link information, the media composition unit 125 calculates which part of the 3D map and which part of the video are to be displayed by calculating a frame shape vector or the like. There is a need to. Therefore, the media composition unit 125 detects, for example, a portion in which a deep opening (a frame such as an entrance door or a gate) is shown from the video data acquired by the video data acquisition unit 122, and displays the video of the detected portion. It is extracted as an image of an area where the 3D map created by the 3D map creation unit 123 does not exist. Then, the media composition unit 125 associates the extracted video with the already created three-dimensional map.

図11は、複合メディア表示装置130の構成を示すブロック図である。   FIG. 11 is a block diagram showing a configuration of the composite media display device 130.

図11において、複合メディア表示装置130は、仮想位置決定部131、3次元データ表示部132、3次元上映像合成表示部133、映像データ表示部134、映像上3次元合成表示部135を備える。   In FIG. 11, the composite media display device 130 includes a virtual position determination unit 131, a three-dimensional data display unit 132, a three-dimensional upper video composite display unit 133, a video data display unit 134, and a video three-dimensional composite display unit 135.

仮想位置決定部131は、画面へ表示する地図の視点位置を決定する。そして、仮想位置決定部131は、3次元地図を表示する範囲か、映像を表示する範囲かを判断する。   The virtual position determination unit 131 determines the viewpoint position of the map displayed on the screen. Then, the virtual position determination unit 131 determines whether it is a range for displaying a three-dimensional map or a range for displaying an image.

3次元データ表示部132は、3次元データを視点位置に合わせて表示する。   The three-dimensional data display unit 132 displays the three-dimensional data according to the viewpoint position.

3次元上映像合成表示部133は、3次元地図上に映像を合成して表示する。   The three-dimensional upper video composition display unit 133 synthesizes and displays the video on the three-dimensional map.

映像データ表示部134は、映像を再生する。   The video data display unit 134 plays back video.

映像上3次元合成表示部135は、映像上に3次元地図を合成して表示する。   The on-video three-dimensional composition display unit 135 synthesizes and displays a three-dimensional map on the video.

図12は、計算機201,202のハードウェア構成の一例を示す図である。   FIG. 12 is a diagram illustrating an example of a hardware configuration of the computers 201 and 202.

図12において、計算機201,202は、LCD901(Liquid・Crystal・Display)、キーボード902(K/B)、マウス903、FDD904(Flexible・Disk・Drive)、CDD905(Compact・Disc・Drive)、プリンタ906といったハードウェアデバイスを備えている。これらのハードウェアデバイスはケーブルや信号線で接続されている。LCD901の代わりに、CRT(Cathode・Ray・Tube)、あるいは、その他の表示装置が用いられてもよい。マウス903の代わりに、タッチパネル、タッチパッド、トラックボール、ペンタブレット、あるいは、その他のポインティングデバイスが用いられてもよい。   In FIG. 12, computers 201 and 202 include an LCD 901 (Liquid / Crystal / Display), a keyboard 902 (K / B), a mouse 903, an FDD 904 (Flexible / Disk / Drive), a CDD 905 (Compact / Disk / Drive), and a printer 906. Hardware devices. These hardware devices are connected by cables and signal lines. Instead of the LCD 901, a CRT (Cathode / Ray / Tube) or other display device may be used. Instead of the mouse 903, a touch panel, a touch pad, a trackball, a pen tablet, or other pointing devices may be used.

計算機201,202は、プログラムを実行するCPU911(Central・Processing・Unit)を備えている。CPU911は、処理装置の一例である。CPU911は、バス912を介してROM913(Read・Only・Memory)、RAM914(Random・Access・Memory)、通信ボード915、LCD901、キーボード902、マウス903、FDD904、CDD905、プリンタ906、HDD920(Hard・Disk・Drive)と接続され、これらのハードウェアデバイスを制御する。HDD920の代わりに、フラッシュメモリ、光ディスク装置、メモリカードリーダライタ又はその他の記憶媒体が用いられてもよい。   The computers 201 and 202 include a CPU 911 (Central Processing Unit) that executes a program. The CPU 911 is an example of a processing device. The CPU 911 includes a ROM 913 (Read / Only / Memory), a RAM 914 (Random / Access / Memory), a communication board 915, an LCD 901, a keyboard 902, a mouse 903, an FDD 904, a CDD 905, a printer 906, and an HDD 920 (Hard / Disk) via a bus 912. Connected with Drive) to control these hardware devices. Instead of the HDD 920, a flash memory, an optical disk device, a memory card reader / writer, or other storage medium may be used.

RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、HDD920は、不揮発性メモリの一例である。これらは、記憶装置の一例である。通信ボード915、キーボード902、マウス903、FDD904、CDD905は、入力装置の一例である。また、通信ボード915、LCD901、プリンタ906は、出力装置の一例である。   The RAM 914 is an example of a volatile memory. The ROM 913, the FDD 904, the CDD 905, and the HDD 920 are examples of nonvolatile memories. These are examples of the storage device. The communication board 915, the keyboard 902, the mouse 903, the FDD 904, and the CDD 905 are examples of input devices. The communication board 915, the LCD 901, and the printer 906 are examples of output devices.

通信ボード915は、LAN等に接続されている。通信ボード915は、LANに限らず、IP−VPN(Internet・Protocol・Virtual・Private・Network)、広域LAN、ATM(Asynchronous・Transfer・Mode)ネットワークといったWAN(Wide・Area・Network)、あるいは、インターネットに接続されていても構わない。LAN、WAN、インターネットは、ネットワークの一例である。   The communication board 915 is connected to a LAN or the like. The communication board 915 is not limited to a LAN, but is an IP-VPN (Internet, Protocol, Private, Network), a wide area LAN, an ATM (Asynchronous / Transfer / Mode) network, or a WAN (Wide / Area / Network) It does not matter if it is connected to. LAN, WAN, and the Internet are examples of networks.

HDD920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。プログラム群923には、本実施の形態の説明において「〜部」として説明する機能を実行するプログラムが含まれている。プログラムは、CPU911により読み出され実行される。ファイル群924には、本実施の形態の説明において、「〜データ」、「〜情報」、「〜ID(識別子)」、「〜フラグ」、「〜結果」として説明するデータや情報や信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」や「〜テーブル」の各項目として含まれている。「〜ファイル」や「〜データベース」や「〜テーブル」は、RAM914やHDD920等の記憶媒体に記憶される。RAM914やHDD920等の記憶媒体に記憶されたデータや情報や信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出、検索、参照、比較、演算、計算、制御、出力、印刷、表示といったCPU911の処理(動作)に用いられる。抽出、検索、参照、比較、演算、計算、制御、出力、印刷、表示といったCPU911の処理中、データや情報や信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。   The HDD 920 stores an operating system 921 (OS), a window system 922, a program group 923, and a file group 924. The programs in the program group 923 are executed by the CPU 911, the operating system 921, and the window system 922. The program group 923 includes programs that execute the functions described as “˜units” in the description of the present embodiment. The program is read and executed by the CPU 911. The file group 924 includes data, information, and signal values described as “˜data”, “˜information”, “˜ID (identifier)”, “˜flag”, and “˜result” in the description of this embodiment. And variable values and parameters are included as items of “˜file”, “˜database”, and “˜table”. The “˜file”, “˜database”, and “˜table” are stored in a storage medium such as the RAM 914 or the HDD 920. Data, information, signal values, variable values, and parameters stored in a storage medium such as the RAM 914 and the HDD 920 are read out to the main memory and the cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. It is used for processing (operation) of the CPU 911 such as calculation, control, output, printing and display. During the processing of the CPU 911 such as extraction, search, reference, comparison, calculation, calculation, control, output, printing, and display, data, information, signal values, variable values, and parameters are temporarily stored in the main memory, cache memory, and buffer memory. Remembered.

本実施の形態の説明において用いるブロック図やフローチャートの矢印の部分は主としてデータや信号の入出力を示す。データや信号は、RAM914等のメモリ、FDD904のフレキシブルディスク(FD)、CDD905のコンパクトディスク(CD)、HDD920の磁気ディスク、光ディスク、DVD(Digital・Versatile・Disc)、あるいは、その他の記録媒体に記録される。また、データや信号は、バス912、信号線、ケーブル、あるいは、その他の伝送媒体により伝送される。   The arrows in the block diagrams and flowcharts used in the description of this embodiment mainly indicate input / output of data and signals. Data and signals are recorded in memory such as RAM 914, FDD904 flexible disk (FD), CDD905 compact disk (CD), HDD920 magnetic disk, optical disk, DVD (Digital Versatile Disc), or other recording media Is done. Data and signals are transmitted by a bus 912, a signal line, a cable, or other transmission media.

本実施の形態の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜工程」、「〜手順」、「〜処理」であってもよい。即ち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。あるいは、「〜部」として説明するものは、ソフトウェアのみ、あるいは、素子、デバイス、基板、配線といったハードウェアのみで実現されていても構わない。あるいは、「〜部」として説明するものは、ソフトウェアとハードウェアとの組み合わせ、あるいは、ソフトウェアとハードウェアとファームウェアとの組み合わせで実現されていても構わない。ファームウェアとソフトウェアは、プログラムとして、フレキシブルディスク、コンパクトディスク、磁気ディスク、光ディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。即ち、プログラムは、本実施の形態の説明で述べる「〜部」としてコンピュータを機能させるものである。あるいは、プログラムは、本実施の形態の説明で述べる「〜部」の手順や方法をコンピュータに実行させるものである。   In the description of the present embodiment, what is described as “to part” may be “to circuit”, “to device”, “to device”, and “to step”, “to process”, “to”. ~ Procedure "," ~ process ". That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, what is described as “˜unit” may be realized only by software, or only by hardware such as an element, a device, a board, and wiring. Alternatively, what is described as “to part” may be realized by a combination of software and hardware, or a combination of software, hardware and firmware. Firmware and software are stored as programs in a recording medium such as a flexible disk, a compact disk, a magnetic disk, an optical disk, and a DVD. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as “to part” described in the description of the present embodiment. Or a program makes a computer perform the procedure and method of "-part" described by description of this Embodiment.

図13は、複合メディア合成装置120の動作を示すフローチャートである。   FIG. 13 is a flowchart showing the operation of the composite media composition device 120.

図13において、ステップS101(移動後位置データ取得処理)では、計測装置110の計算機201が計測した駆動前の位置から駆動後の位置までの移動距離と移動方向が複合メディア合成装置120の3次元地図作成部123へ伝達される。計測装置110の計算機201からは、他にも、レーザスキャナ113の取得したデータが複合メディア合成装置120の形状データ取得部121へ、カメラ112、ステレオカメラ114の取得したデータが複合メディア合成装置120の映像データ取得部122へ伝達される。伝達の間隔は、操作員の移動操作の終わったタイミングである。あるいは、操作員の移動操作と無関係に、一定時間ごとに計測装置110の計算機201から、3次元地図作成部123へ移動距離と移動方向を伝達してもよい。3次元地図作成部123では、連続して得られた位置データを繋ぎ合わせる(前回、計測装置110の位置を算出した後に、計測装置110の移動した方向、向きの変化、距離を算出する)ことにより、計測装置110が最初に動き出した地点を原点とした、現在地の座標、方向を位置データとして求める。座標は、例えば、最初の計測装置110の方向をY軸、この方向に向かって右手をX軸として、座標値1.0が1ミリメートルとなるX−Y座標で表現する。   In FIG. 13, in step S101 (post-movement position data acquisition process), the moving distance and moving direction from the pre-driving position to the post-driving position measured by the computer 201 of the measuring apparatus 110 are three-dimensional. This is transmitted to the map creation unit 123. In addition, from the computer 201 of the measuring device 110, data acquired by the laser scanner 113 is sent to the shape data acquisition unit 121 of the composite media composition device 120, and data acquired by the camera 112 and the stereo camera 114 is received by the composite media composition device 120. To the video data acquisition unit 122. The transmission interval is the timing when the operator's movement operation is finished. Alternatively, the moving distance and the moving direction may be transmitted from the computer 201 of the measuring device 110 to the three-dimensional map creating unit 123 at regular intervals regardless of the operator's moving operation. In the 3D map creation unit 123, the position data obtained continuously are connected (after calculating the position of the measuring device 110 last time, the direction, direction change, and distance of the measuring device 110 are calculated). Thus, the coordinates and direction of the current location with the origin at the point where the measurement device 110 first moves are obtained as position data. The coordinates are expressed by, for example, XY coordinates where the coordinate value 1.0 is 1 millimeter with the direction of the first measuring device 110 as the Y axis and the right hand toward the direction as the X axis.

ステップS101において、計測装置110の計算機201から3次元地図作成部123への入力値は、計測装置110の計算機201が計測した駆動前の位置から駆動後の位置までの移動距離と移動方向であるが、車輪の回転速度を制御したり、車輪の回転角度を得たりする装置が計測装置110に搭載されない場合は、以下のようにする。   In step S101, the input values from the computer 201 of the measuring device 110 to the three-dimensional map creating unit 123 are the moving distance and moving direction from the position before driving to the position after driving measured by the computer 201 of the measuring device 110. However, when a device for controlling the rotational speed of the wheel or obtaining the rotational angle of the wheel is not mounted on the measuring device 110, the following is performed.

計測装置110の計算機から、カメラ112(又はステレオカメラ114)の映像を複合メディア合成装置120の移動量推定部124へ送り、ここで計算した移動距離及び移動方向を3次元地図作成部123への入力値とする。   The video of the camera 112 (or stereo camera 114) is sent from the computer of the measuring device 110 to the movement amount estimation unit 124 of the composite media composition device 120, and the movement distance and movement direction calculated here are sent to the three-dimensional map creation unit 123. As an input value.

ステップS102(周辺3次元データ構築処理)において、3次元地図作成部123は、計測装置110の位置データを得た時点での周辺の3次元データを構築する。図5の例のように計測装置110にレーザスキャナ113を搭載してある場合は、図14(a)のように、壁や物体のある平面上の位置をレーザにより計測した点列として取得できるので、この点列を予め設定してある天井の高さの面として3次元データ化する。この面を覆う大きさの天井及び床の面を構築してもよい。また、カメラ112により撮影された映像(写真)から壁や物体のある平面のテクスチャを抽出して3次元データに貼り付けてもよい。図6の例のように計測装置110にステレオカメラ114を用いた場合、図14(b)のように、画像中の特徴点の3次元座標を得られるので、この座標により構成される面を求める。図4の例のように計測装置110にカメラ112(単眼カメラ)が搭載されている場合は、位置データを得た最低でも2地点の位置座標と、それぞれの地点で得られた映像を基にステレオカメラの原理によりステレオカメラ114同様の点群を計測する。3次元地図作成部123は、このようにして得た3次元データを3次元地図として記録する。   In step S102 (peripheral three-dimensional data construction processing), the three-dimensional map creation unit 123 constructs the peripheral three-dimensional data at the time when the position data of the measuring device 110 is obtained. When the laser scanner 113 is mounted on the measuring device 110 as in the example of FIG. 5, the position on the plane where the wall or object is present can be acquired as a point sequence measured by the laser as shown in FIG. Therefore, this point sequence is converted into three-dimensional data as a preset ceiling height surface. A ceiling and floor surface with a size covering this surface may be constructed. Further, a texture of a plane with a wall or an object may be extracted from a video (photograph) taken by the camera 112 and pasted on the three-dimensional data. When the stereo camera 114 is used for the measuring apparatus 110 as in the example of FIG. 6, the three-dimensional coordinates of the feature points in the image can be obtained as shown in FIG. Ask. When the camera 112 (monocular camera) is mounted on the measuring device 110 as in the example of FIG. 4, the position data obtained at least from two points and the video obtained at each point are used. A point cloud similar to the stereo camera 114 is measured by the principle of the stereo camera. The three-dimensional map creation unit 123 records the three-dimensional data thus obtained as a three-dimensional map.

3次元地図作成部123において、レーザスキャナ113の計測可能距離を超えて3次元データを構築できない場合がある。また、カメラ112やステレオカメラ114によっても照明の状態等により、計測が困難な場合がある。そのため、3次元地図作成部123において、3次元データの構築可否によって、ステップS103〜S106が選択的に実行される。   The 3D map creation unit 123 may not be able to construct 3D data beyond the measurable distance of the laser scanner 113. In addition, the camera 112 and the stereo camera 114 may be difficult to measure depending on the lighting conditions. Therefore, steps S103 to S106 are selectively executed in the 3D map creation unit 123 depending on whether or not 3D data can be constructed.

直前に3次元データを構築できていて、今回も3次元データを構築できている場合、ステップS103(3次元データ合成処理)が実行される。   If 3D data has been constructed immediately before and 3D data has also been constructed this time, Step S103 (3D data synthesis processing) is executed.

直前に3次元データを構築できていて、今回は3次元データを構築できなかった場合は、ステップS104とステップS105(3次元映像連結処理)が実行される。   If the 3D data has been constructed immediately before and the 3D data has not been constructed this time, Step S104 and Step S105 (3D video connection processing) are executed.

直前に3次元データを構築できず、今回は3次元データを構築できている場合、ステップS103とステップS106(映像3次元連結処理)が実行される。   If 3D data cannot be constructed immediately before, and 3D data can be constructed this time, Step S103 and Step S106 (video 3D connection processing) are executed.

直前に3次元データを構築できず、今回も3次元データを構築できなかった場合は、ステップS104(移動量推定処理)が実行される。   If the 3D data cannot be constructed immediately before and the 3D data cannot be constructed this time, step S104 (movement amount estimation process) is executed.

以下、ステップS103(3次元データ合成処理)について説明する。   Hereinafter, step S103 (three-dimensional data composition processing) will be described.

ステップS103において、3次元地図作成部123は、3次元データを構築した時点の計測装置110の存在する座標及び方向に合わせて構築した面を平行移動、回転する。3次元地図作成部123が構築した3次元データと既に記録済みの3次元地図とで重複する面がある場合は、重複部分の片方の面を削ってなくしてもよい。また、3次元地図作成部123は、3次元データに、取得した時点の計測装置110の位置と方向を属性として記録する。   In step S103, the three-dimensional map creation unit 123 translates and rotates the surface constructed in accordance with the coordinates and direction in which the measurement device 110 exists when the three-dimensional data is constructed. When there is an overlapping surface between the 3D data constructed by the 3D map creation unit 123 and the already recorded 3D map, one surface of the overlapping portion may not be cut. In addition, the three-dimensional map creation unit 123 records the position and direction of the measurement device 110 at the time of acquisition as attributes in the three-dimensional data.

以下、ステップS104(移動量推定処理)について説明する。   Hereinafter, step S104 (movement amount estimation processing) will be described.

ステップS104において、移動量推定部124への入力値は、計測装置110の計算機201から伝送される、カメラ112(又はステレオカメラ114)の映像である。図15に示すように、移動量推定部124は、映像中の移動前の画像(画像1とする)と移動後の画像(画像2とする)を入力値として用いる。移動量推定部124は、画像1と画像2の間で同じ場所と推定される対応点を抽出し、対応点がそれぞれどの程度移動したかを求める。そのために、一般的にLucas−Kanade手法といわれている手法を用いることができる。移動量推定部124は、2枚の写真の複数の対応点の画面上の位置変化から、カメラ112の移動方向を求める。そのために、非特許文献1に記されている手法を用いることができる。移動量推定部124は、エピポーラ方程式からエピポーラ線を複数求め、交点であるエピポール点を求める。画像1上のエピポール点は、画像1を撮影したカメラ112の位置からこの点の方向に画像2を撮影した時点のカメラ112の位置があることを示す。次に、移動量推定部124は、カメラ112の移動距離を求める。天井と床の高さ方向の座標の差異は天井の高さと同じなので、移動量推定部124は、画像1と画像2から各特徴点の座標を求め、天井と床面の間の距離が予めわかっている高さと同じになるような、画像1と画像2の撮影点の差を求める。天井と床面は上の方にある点と下の方にある点で分ける。距離と同時に方向の差異も求まる。エピポール点から、画像1の撮影地点から画像2の撮影地点の方向がわかるので、この方向と併せて、移動量推定部124は、車輪の回転数を用いて距離を求めてもよい。移動量推定部124は、求めたカメラ112の位置、方向を映像データの対応フレームに対する属性情報として記録する。   In step S104, the input value to the movement amount estimation unit 124 is an image of the camera 112 (or the stereo camera 114) transmitted from the computer 201 of the measurement apparatus 110. As illustrated in FIG. 15, the movement amount estimation unit 124 uses an image before moving (referred to as image 1) and an image after moving (referred to as image 2) in the video as input values. The movement amount estimation unit 124 extracts corresponding points estimated to be the same place between the image 1 and the image 2, and obtains how much the corresponding points have moved. For this purpose, a method generally called the Lucas-Kanade method can be used. The movement amount estimation unit 124 obtains the moving direction of the camera 112 from the change in position on the screen of a plurality of corresponding points of two photos. Therefore, the method described in Non-Patent Document 1 can be used. The movement amount estimation unit 124 obtains a plurality of epipolar lines from the epipolar equation, and obtains an epipole point that is an intersection. The epipole point on the image 1 indicates that the position of the camera 112 at the time when the image 2 is captured in the direction of this point from the position of the camera 112 that captured the image 1. Next, the movement amount estimation unit 124 calculates the movement distance of the camera 112. Since the difference in the coordinate in the height direction between the ceiling and the floor is the same as the height of the ceiling, the movement amount estimation unit 124 obtains the coordinates of each feature point from the images 1 and 2, and the distance between the ceiling and the floor is determined in advance. The difference between the shooting points of image 1 and image 2 that is the same as the known height is obtained. The ceiling and floor are divided into points at the top and points at the bottom. The difference in direction as well as the distance is obtained. Since the direction from the shooting point of image 1 to the shooting point of image 2 is known from the epipole point, the movement amount estimation unit 124 may obtain the distance using the rotation speed of the wheel together with this direction. The movement amount estimation unit 124 records the obtained position and direction of the camera 112 as attribute information for the corresponding frame of the video data.

なお、ステップS104において、移動量推定部124は、過去に計算した移動量の補正をしてもよい。図16に示すように、3次元地図が既に構築済みであり、点A、B、C、Dの位置でそれぞれ矢印の光軸方向にカメラ112が撮影した映像を取得したとする。このとき、矢印は移動ベクトルとなる。ここで、枠1の地点が点Aと一致したとする。点Dから撮影した映像に後述するステップS105の動作により、枠が発見されたとする。このとき、発見した枠と既存の枠2は接近していて、図16のX軸方向にΔxの差異であり、y軸方向にΔyであったとする。ΔxとΔyがそれぞれ、予め設定した閾値以下の場合、発見した枠は枠2であると判定する。次に、AのX軸方向のベクトル成分をxaとし、同様に、xb、xc、xdを抽出する。xaにΔx×xa/(xa+xb+xc+xd)を加算する。同様に、xbにΔx×xb/(xa+xb+xc+xd)を加算し、xc、xdに同様の加算をする。Y軸方向に対してもAのY軸方向のベクトル成分をyaとし、yaからΔy×ya/(ya+yb+yc+yd)を引く。このように移動ベクトルを調整し、図16の補正後の図のように、映像地図部分の撮影位置が、3次元地図の枠と一致するように修正する。   In step S104, the movement amount estimation unit 124 may correct the movement amount calculated in the past. As shown in FIG. 16, it is assumed that a three-dimensional map has already been constructed, and images captured by the camera 112 in the optical axis directions indicated by arrows at the positions of points A, B, C, and D are acquired. At this time, the arrow becomes a movement vector. Here, it is assumed that the point of the frame 1 coincides with the point A. It is assumed that a frame is found in the video imaged from the point D by the operation in step S105 described later. At this time, it is assumed that the found frame and the existing frame 2 are close to each other, that is, a difference of Δx in the X-axis direction of FIG. 16 and Δy in the y-axis direction. If Δx and Δy are each equal to or less than a preset threshold value, it is determined that the found frame is frame 2. Next, let Xa be the vector component in the X-axis direction of A, and similarly extract xb, xc, and xd. Δx × xa / (xa + xb + xc + xd) is added to xa. Similarly, Δx × xb / (xa + xb + xc + xd) is added to xb, and the same addition is performed to xc and xd. A vector component in the Y-axis direction of A is also set to ya with respect to the Y-axis direction, and Δy × ya / (ya + yb + yc + yd) is subtracted from ya. The movement vector is adjusted in this way, and the shooting position of the video map portion is corrected so as to coincide with the frame of the three-dimensional map as shown in the corrected diagram of FIG.

以下、ステップS105(3次元映像連結処理)について説明する。   Hereinafter, step S105 (3D video connection processing) will be described.

ステップS105において、メディア合成部125は、既に取得済みの3次元データに、計測装置110に搭載したカメラ112の映像を関連付ける。そのために、メディア合成部125は、例えば図3に示したリンク情報を記録する。   In step S105, the media composition unit 125 associates the video of the camera 112 mounted on the measurement apparatus 110 with the already acquired three-dimensional data. For this purpose, the media composition unit 125 records the link information shown in FIG. 3, for example.

例えば、計測装置110が移動する度に、3次元地図作成部123が3次元データを構築しようとするものとする。図3の左上のような廊下形状の分岐点から図中の空いた部分(奥行きのある開口)の奥の形状が計測できなかったとする。このとき、メディア合成部125は、3次元データから映像へ切り替える部分であると判断する。メディア合成部125は、計測できた間口部分の枠(図中太線)を3次元データから映像への切り替え枠とする。メディア合成部125は、映像の撮影位置、方向、画角から判断して、この枠に対応する映像中の枠を映像中の枠とする。メディア合成部125は、3次元データ内の枠(枠形状のベクトル)、映像中の枠(枠形状のベクトル)、カメラの位置と方向を、映像データとフレームを特定する情報と併せてリンクデータとして記録する。   For example, it is assumed that the 3D map creation unit 123 tries to construct 3D data each time the measuring device 110 moves. It is assumed that the shape at the back of the vacant part (the opening having a depth) in the figure cannot be measured from the corridor-shaped branch point as shown in the upper left of FIG. At this time, the media composition unit 125 determines that it is a part for switching from 3D data to video. The media composition unit 125 uses the frame (bold line in the figure) of the frontage that can be measured as a switching frame from 3D data to video. The media composition unit 125 determines from the shooting position, direction, and angle of view of the video, and sets the frame in the video corresponding to this frame as the frame in the video. The media composing unit 125 links the frame (frame shape vector) in the three-dimensional data, the frame in the video (frame shape vector), the position and direction of the camera, together with information specifying the video data and the frame. Record as.

ここで、3次元データ内の枠(枠形状のベクトル)、映像中の枠(枠形状のベクトル)の特定方法について、詳しく説明する。   Here, a method for specifying a frame (frame shape vector) in three-dimensional data and a frame (frame shape vector) in an image will be described in detail.

3次元データ内の枠(枠形状のベクトル)は、例えばレーザスキャンデータ(レーザスキャナ113により計測されるデータ)から検出する。   A frame (frame shape vector) in the three-dimensional data is detected from, for example, laser scan data (data measured by the laser scanner 113).

図17に計測装置110の台車111が、3次元地図を構築可能な領域から構築困難な領域へ移動する場合における枠検出の方式について示す。   FIG. 17 shows a frame detection method when the carriage 111 of the measuring apparatus 110 moves from an area where a 3D map can be constructed to an area where construction is difficult.

図17中、地点Aにおいて、レーザスキャンデータから3次元地図を構築可能である。次に、左折した地点Bにおいて取得したレーザスキャンデータに含まれる直線は、地点Aにて既に3次元地図を構築済みであるので、再構築はしない。地点Cにおいて、直線を検出するが、左右に壁が検出できない部分を、映像を用いて景観を表現する範囲とする。同時に、地点Cから既構築の3次元地図と至近の直線端点を枠として識別する。この端点部分に高さを与えた壁の端部分が3次元データ内の枠(枠形状のベクトル)である。   In FIG. 17, a 3D map can be constructed from the laser scan data at a point A. Next, since the straight line included in the laser scan data acquired at the point B where the turn is left has already been constructed at the point A, it is not reconstructed. At point C, a straight line is detected, but the part where the walls cannot be detected on the left and right is set as a range in which the landscape is expressed using video. At the same time, the 3D map already constructed from the point C and the nearest straight line end point are identified as a frame. The end portion of the wall which gives a height to this end point portion is a frame (frame shape vector) in the three-dimensional data.

図18にレーザスキャンデータから、映像中の枠(枠形状のベクトル)の領域を求める方式を示す。   FIG. 18 shows a method for obtaining a frame (frame shape vector) region in an image from laser scan data.

画像の取得条件として、カメラ112を水平に設置してあり、天井の高さhr、カメラ112の高さhc、焦点距離fは既知であるとする。カメラ112の位置を原点とした水平面上に、光軸を基準方向とした極座標系を設置し、門(枠)の両端が天井及び床と設置する点の座標を求める。図18中のθa、θbは観測値であり、θr、θfは式θr=arctan((hr−hc)/ra)、θf=arctan(hc/ra)から求まる。   As an image acquisition condition, the camera 112 is installed horizontally, and the ceiling height hr, the camera h height hc, and the focal length f are known. A polar coordinate system with the optical axis as the reference direction is set on the horizontal plane with the position of the camera 112 as the origin, and the coordinates of the points where both ends of the gate (frame) are set with the ceiling and floor are obtained. In FIG. 18, θa and θb are observed values, and θr and θf are obtained from the equations θr = arctan ((hr−hc) / ra) and θf = arctan (hc / ra).

図19に画像平面上のx軸、y軸を示す。   FIG. 19 shows the x-axis and y-axis on the image plane.

門の4隅の座標は、θa、θb、θr、θfから求まる。式xr=ftan(θr)は画像平面上の天井のx軸距離を示す。式xf=ftan(θf)は画像平面上の床のx軸距離を示す。式ya=ftan(θa)は壁aのy軸距離を示す。撮像素子サイズと取得画素数から、画像平面上の座標を求める。壁bについても同様の計算で求まる。   The coordinates of the four corners of the gate are obtained from θa, θb, θr, and θf. The expression xr = ftan (θr) indicates the x-axis distance of the ceiling on the image plane. The expression xf = f tan (θf) indicates the x-axis distance of the floor on the image plane. The expression ya = ftan (θa) represents the y-axis distance of the wall a. The coordinates on the image plane are obtained from the image sensor size and the number of acquired pixels. The wall b can be obtained by the same calculation.

以下、ステップS106(映像3次元連結処理)について説明する。   Hereinafter, step S106 (video three-dimensional connection process) will be described.

ステップS106において、メディア合成部125は、既に取得済みの映像データに、新たに3次元地図作成部123が構築した3次元データを関連付ける。そのために、メディア合成部125は、例えば図2に示したリンク情報を記録する。   In step S106, the media composition unit 125 associates the three-dimensional data newly constructed by the three-dimensional map creation unit 123 with the already acquired video data. For this purpose, the media composition unit 125 records the link information shown in FIG. 2, for example.

直前に3次元地図作成部123が3次元データを構築できず、今回は3次元地図作成部123が3次元データを構築できている場合、メディア合成部125は、3次元データを、計測時のカメラ112の位置、方向に合わせて表示したときに、3次元データが計測できた範囲の枠(枠形状のベクトル)をリンクデータとして記録する。メディア合成部125は、さらに、カメラ112の位置と方向を、映像データとフレームを特定する情報と併せてリンクデータとして記録する。   If the 3D map creation unit 123 cannot build 3D data immediately before this time, and the 3D map creation unit 123 can build 3D data this time, the media composition unit 125 converts the 3D data at the time of measurement. When displayed according to the position and direction of the camera 112, a frame (frame shape vector) in a range in which three-dimensional data can be measured is recorded as link data. The media composition unit 125 further records the position and direction of the camera 112 as link data together with information specifying the video data and the frame.

図20は、複合メディア表示装置130の動作を示すフローチャートである。図21は、複合メディア表示装置130の画面表示例を示す図である。   FIG. 20 is a flowchart showing the operation of the composite media display device 130. FIG. 21 is a diagram illustrating a screen display example of the composite media display device 130.

図21において、移動ボタン301は、図9に示すボタンと同じであり、計測装置110を操縦するためのものである。現在景観表示302は、計測装置110に搭載しているカメラ112(又はステレオカメラ114)の映像をそのまま表示する。地図303は、3次元データを真上から表示したものである。地図303上には、現在位置における進行方向である現在位置方向304と、仮想位置における位置方向である仮想位置方向305が表示される。仮想景観表示306は、操作員の操作により、任意位置、方向の3次元データや映像データを表示する画面である。仮想移動ボタン307は、現在の位置、方向と異なる任意位置、方向の視点を指定するものである。3Dボタン308は3次元データ表示を要求し、映像ボタン309は映像表示を要求するものである。   In FIG. 21, the movement button 301 is the same as the button shown in FIG. 9, and is for operating the measuring device 110. The current landscape display 302 displays the image of the camera 112 (or the stereo camera 114) mounted on the measuring device 110 as it is. A map 303 displays three-dimensional data from directly above. On the map 303, a current position direction 304 that is a traveling direction at the current position and a virtual position direction 305 that is a position direction at the virtual position are displayed. The virtual landscape display 306 is a screen that displays three-dimensional data and video data at an arbitrary position and direction by an operation of an operator. The virtual movement button 307 is used to specify an arbitrary position and direction viewpoint different from the current position and direction. The 3D button 308 requests 3D data display, and the video button 309 requests video display.

図20において、ステップS201(仮想位置決定処理)では、仮想位置決定部131は、計測装置110が移動している間は、複合メディア合成装置120における移動後位置データ取得処理(図13のステップS101)の出力値の位置を仮想位置とする。ただし、計測装置110が移動していない時点においては、操作員が押す仮想移動ボタン307に対応して視点の位置、方向を前進、右旋回、左旋回、後退の方向に変化させる。仮想位置決定部131は、決定した仮想視点位置、方向を映像データ表示部134と3次元データ表示部132へ送る。   20, in step S201 (virtual position determination processing), the virtual position determination unit 131 performs post-movement position data acquisition processing (step S101 in FIG. 13) in the composite media composition device 120 while the measurement apparatus 110 is moving. ) Is the virtual position. However, when the measuring device 110 is not moving, the position and direction of the viewpoint are changed to forward, right turn, left turn, and reverse directions corresponding to the virtual movement button 307 pressed by the operator. The virtual position determination unit 131 sends the determined virtual viewpoint position and direction to the video data display unit 134 and the three-dimensional data display unit 132.

ステップS202(3次元データ表示処理)において、3次元データ表示部132は、仮想視点位置から予め決めた範囲以内に3次元データがあれば、これを表示する。   In step S202 (three-dimensional data display process), the three-dimensional data display unit 132 displays any three-dimensional data within a predetermined range from the virtual viewpoint position.

ステップS203(3次元上映像合成表示処理)において、ステップS202で表示される3次元データとリンクデータにて関連付けられた映像データがあれば、3次元上映像合成表示部133は、その映像を3次元地図上に合成して表示する。   In step S203 (three-dimensional upper image composition display processing), if there is image data associated with the three-dimensional data displayed in step S202 by link data, the three-dimensional upper image composition display unit 133 displays the image as three. Combine and display on a 3D map.

ここで、図22に3次元地図上の映像表示例を示す。廊下の3次元モデルの先にリンクの四角いベクトルが示されている。四角いベクトルは、映像の枠としてもリンクに設定されている。3次元上映像合成表示部133は、これらが重なるように配置し、3次元データの廊下の中の視点を再現する。このとき、同じ枠の映像を撮影した位置により、異なるフレームの映像が存在するとする。この場合、3次元上映像合成表示部133は、仮想位置の移動に合わせて、撮影位置が最も仮想位置に近い映像のフレームが3次元データの枠内に映るように映像データを変更する。最後に、仮想位置の移動により、視野内に3次元データが入らなくなった場合は、3次元上映像合成表示部133は、3次元データの表示をやめ映像データのみを表示する。   Here, FIG. 22 shows a video display example on a three-dimensional map. A square vector of links is shown at the end of the three-dimensional model of the corridor. The square vector is also set as a link as a video frame. The three-dimensional upper video composition display unit 133 is arranged so that they overlap, and reproduces the viewpoint in the hallway of the three-dimensional data. At this time, it is assumed that there are different frames of video depending on the position where the video of the same frame is captured. In this case, in accordance with the movement of the virtual position, the three-dimensional upper video composition display unit 133 changes the video data so that the frame of the video whose shooting position is closest to the virtual position is displayed in the frame of the three-dimensional data. Finally, when the three-dimensional data does not enter the field of view due to the movement of the virtual position, the three-dimensional upper video composition display unit 133 stops displaying the three-dimensional data and displays only the video data.

ステップS204(映像データ表示処理)において、映像データ表示部134は、仮想視点位置から予め決めた範囲以内に3次元データがなければ、映像データを表示する。映像データ表示部134は、仮想視点の操作が前進であれば映像データを再生し、後退であれば映像データを逆方向に再生する。映像データ表示部134は、前後の再生に連動して、映像データのフレームに対応した位置情報(属性情報)に基づき、地図上の仮想視点の位置と方向を変化させる。つまり、映像データ表示部134は、映像データの再生時には、仮想視点のボタン操作に従うのではなく、映像データの属性である位置情報に従う。   In step S204 (video data display processing), the video data display unit 134 displays video data if there is no 3D data within a predetermined range from the virtual viewpoint position. The video data display unit 134 plays the video data if the operation of the virtual viewpoint is forward, and plays the video data in the reverse direction if the operation is backward. The video data display unit 134 changes the position and direction of the virtual viewpoint on the map based on the position information (attribute information) corresponding to the frame of the video data in conjunction with the previous and next playback. That is, the video data display unit 134 does not follow the button operation of the virtual viewpoint when reproducing the video data, but follows the position information that is the attribute of the video data.

ステップS205(映像上3次元合成表示処理)において、ステップS204で映像データの表示中に、映像のフレームにリンク情報があった場合は(ステップS204で表示される映像データとリンクデータにて関連付けられた3次元データがあれば)、図23に示すように、映像上3次元合成表示部135は、映像中の枠部分を透過色で塗りつぶし、映像の後ろにオーバレイして対応する3次元データを表示する。このとき、3次元データは、枠の部分が合うように合成して表示する。   In step S205 (three-dimensional on-video composite display processing), if link information is present in the video frame during the display of the video data in step S204 (the video data displayed in step S204 is associated with the link data. As shown in FIG. 23, the on-video 3D composite display unit 135 fills the frame portion in the video with a transparent color and overlays the back of the video to display the corresponding 3D data. indicate. At this time, the three-dimensional data is combined and displayed so that the frame portions match.

ここで、図24に、仮想視点を移動させた場合の地図303の表示例を示す。複合メディア表示装置130は、点Aから仮想視点の表示を始め、点Bまで進んだ場合、点線部分の周辺は3次元データを構築できず、地図がないが、計測装置110が移動した位置と方向を記録しているので、この間を点線で表示することが可能である。   Here, FIG. 24 shows a display example of the map 303 when the virtual viewpoint is moved. When the composite media display device 130 starts displaying the virtual viewpoint from the point A and proceeds to the point B, the three-dimensional data cannot be constructed around the dotted line portion and there is no map, but the position where the measurement device 110 has moved is Since the direction is recorded, it is possible to display this area with a dotted line.

以上説明したように、本実施の形態によれば、移動量推定処理において、移動量推定部124が、カメラ112から取得した映像から計測装置110の移動量を推定するので、移動量を計測する装置を計測装置110に積んでいない場合でも、映像と地図を関連付けることができる。   As described above, according to the present embodiment, in the movement amount estimation process, the movement amount estimation unit 124 estimates the movement amount of the measurement apparatus 110 from the video acquired from the camera 112, and thus the movement amount is measured. Even when the device is not loaded on the measuring device 110, the video and the map can be associated with each other.

また、3次元映像連結処理において、メディア合成部125が、3次元データが構築できるエリアにおける3次元データと、構築できないエリアの映像データを関連付けることができる。そして、3次元上映像合成表示処理において、3次元上映像合成表示部133が、3次元データ表示部132による3次元データ表示中に、3次元データが取得できなかった空間を連続的に映像を用いて表示することができる。これにより、センシング困難な空間の記録、再生、伝達が可能になる。図25に、3次元地図を表示し、連続して映像に切り替わる例を示す。図25左側は部屋の中を表示する例である。図25右側は廊下から広いロビーへ出る表示例である。   In the 3D video connection process, the media composition unit 125 can associate the 3D data in the area where the 3D data can be constructed with the video data of the area where the 3D data cannot be constructed. Then, in the 3D image synthesis display process, the 3D image synthesis display unit 133 continuously displays images in the space where the 3D data cannot be acquired during the 3D data display by the 3D data display unit 132. Can be used to display. As a result, it is possible to record, reproduce, and transmit a space that is difficult to sense. FIG. 25 shows an example in which a three-dimensional map is displayed and continuously switched to a video. The left side of FIG. 25 is an example of displaying the inside of a room. On the right side of FIG. 25 is an example of display from the corridor to the large lobby.

また、映像3次元連結処理において、メディア合成部125が、映像と3次元データを位置を合わせて関連付けることができる。そして、映像上3次元合成表示処理において、映像上3次元合成表示部135が、映像のある部分から計測した3次元データを連続的に合成して表示することができる。これにより、センシング困難な空間の記録、再生、伝達が可能になる。図26に、映像を表示し、連続して3次元地図に切り替わる例を示す。図26は、ロビーを映像で表示し、前進するにつれ、3次元地図の廊下に切り替わっている。   Further, in the video three-dimensional connection process, the media composition unit 125 can associate the video and the three-dimensional data by matching the positions. Then, in the on-image three-dimensional composition display processing, the on-image three-dimensional composition display unit 135 can continuously synthesize and display the three-dimensional data measured from a certain portion of the image. As a result, it is possible to record, reproduce, and transmit a space that is difficult to sense. FIG. 26 shows an example in which a video is displayed and continuously switched to a three-dimensional map. In FIG. 26, the lobby is displayed as an image, and is switched to the corridor of the three-dimensional map as it moves forward.

実施の形態1に係る複合メディア表示システムの構成及び動作概略を示す図である。1 is a diagram illustrating a configuration and an outline of operation of a composite media display system according to Embodiment 1. FIG. 実施の形態1に係るリンク情報の例を示す図である。6 is a diagram illustrating an example of link information according to Embodiment 1. FIG. 実施の形態1に係るリンク情報の例を示す図である。6 is a diagram illustrating an example of link information according to Embodiment 1. FIG. 実施の形態1に係る計測装置の構成例を示す図である。2 is a diagram illustrating a configuration example of a measurement device according to Embodiment 1. FIG. 実施の形態1に係る計測装置の構成例を示す図である。2 is a diagram illustrating a configuration example of a measurement device according to Embodiment 1. FIG. 実施の形態1に係る計測装置の構成例を示す図である。2 is a diagram illustrating a configuration example of a measurement device according to Embodiment 1. FIG. 実施の形態1に係る複合メディア合成装置及び複合メディア表示装置の構成例を示す図である。2 is a diagram illustrating a configuration example of a composite media composition device and a composite media display device according to Embodiment 1. FIG. 実施の形態1に係る複合メディア合成装置及び複合メディア表示装置の構成例を示す図である。2 is a diagram illustrating a configuration example of a composite media composition device and a composite media display device according to Embodiment 1. FIG. 実施の形態1に係る動作指示装置の機能を示す図である。It is a figure which shows the function of the operation instruction apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る複合メディア合成装置の構成を示すブロック図である。1 is a block diagram showing a configuration of a composite media composition device according to Embodiment 1. FIG. 実施の形態1に係る複合メディア表示装置の構成を示すブロック図である。1 is a block diagram showing a configuration of a composite media display device according to Embodiment 1. FIG. 実施の形態1に係る計算機のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a computer according to Embodiment 1. FIG. 実施の形態1に係る複合メディア合成装置の動作を示すフローチャートである。4 is a flowchart illustrating an operation of the composite media composition device according to the first embodiment. 実施の形態1に係る3次元地図の作成方法の例を示す図である。3 is a diagram illustrating an example of a method for creating a three-dimensional map according to Embodiment 1. FIG. 実施の形態1に係る移動量の推定方法の例を示す図である。6 is a diagram illustrating an example of a movement amount estimation method according to Embodiment 1. FIG. 実施の形態1に係る移動量の推定における補正方法の例を示す図である。6 is a diagram illustrating an example of a correction method in movement amount estimation according to Embodiment 1. FIG. 実施の形態1に係るレーザスキャナにより計測されるデータと枠の抽出方法の例を示す図である。6 is a diagram illustrating an example of data and a frame extraction method measured by the laser scanner according to Embodiment 1. FIG. 実施の形態1に係る枠の計算方法の例を示す図である。6 is a diagram illustrating an example of a frame calculation method according to Embodiment 1. FIG. 実施の形態1に係る画面平面内の枠の例を示す図である。6 is a diagram illustrating an example of a frame in a screen plane according to Embodiment 1. FIG. 実施の形態1に係る複合メディア表示装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the composite media display device according to the first embodiment. 実施の形態1に係る複合メディア表示装置の画面表示例を示す図である。3 is a diagram illustrating a screen display example of the composite media display device according to Embodiment 1. FIG. 実施の形態1に係る3次元地図上の映像表示例を示す図である。6 is a diagram showing an example of video display on a three-dimensional map according to Embodiment 1. FIG. 実施の形態1に係る映像上の3次元地図表示例を示す図である。6 is a diagram showing a 3D map display example on the video according to Embodiment 1. FIG. 実施の形態1に係る仮想視点を移動させた場合の地図表示例を示す図である。It is a figure which shows the example of a map display at the time of moving the virtual viewpoint which concerns on Embodiment 1. FIG. 実施の形態1に係る3次元地図から映像への切り替え例を示す図である。6 is a diagram illustrating an example of switching from a 3D map to a video according to Embodiment 1. FIG. 実施の形態1に係る映像から3次元地図への切り替え例を示す図である。It is a figure which shows the example of a switch from the image | video concerning Embodiment 1 to a three-dimensional map.

符号の説明Explanation of symbols

100 複合メディア表示システム、110 計測装置、111 台車、112 カメラ、113 レーザスキャナ、114 ステレオカメラ、120 複合メディア合成装置、121 形状データ取得部、122 映像データ取得部、123 3次元地図作成部、124 移動量推定部、125 メディア合成部、130 複合メディア表示装置、131 仮想位置決定部、132 3次元データ表示部、133 3次元上映像合成表示部、134 映像データ表示部、135 映像上3次元合成表示部、201,202 計算機、203 動作指示装置、204 走行指示画面、301 移動ボタン、302 現在景観表示、303 地図、304 現在位置方向、305 仮想位置方向、306 仮想景観表示、307 仮想移動ボタン、308 3Dボタン、309 映像ボタン、901 LCD、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 HDD、921 オペレーティングシステム、922 ウィンドウシステム、923 プログラム群、924 ファイル群。   DESCRIPTION OF SYMBOLS 100 Composite media display system, 110 Measuring apparatus, 111 Dolly, 112 Camera, 113 Laser scanner, 114 Stereo camera, 120 Composite media composition apparatus, 121 Shape data acquisition part, 122 Image | video data acquisition part, 123 3D map creation part, 124 Movement amount estimation unit, 125 media composition unit, 130 composite media display device, 131 virtual position determination unit, 132 3D data display unit, 133 3D upper image composition display unit, 134 image data display unit, 135 3D image composition Display unit, 201, 202 computer, 203 operation instruction device, 204 travel instruction screen, 301 movement button, 302 current landscape display, 303 map, 304 current position direction, 305 virtual position direction, 306 virtual landscape display, 307 virtual movement button, 308 3D button 309 Video button, 901 LCD, 902 keyboard, 903 mouse, 904 FDD, 905 CDD, 906 printer, 911 CPU, 912 bus, 913 ROM, 914 RAM, 915 communication board, 920 HDD, 921 operating system, 922 window system , 923 program group, 924 file group.

Claims (11)

周辺領域の形状を観測するセンサと周辺領域の映像を撮影するカメラとを具備する移動可能な計測装置から、前記計測装置の移動中に前記センサにより観測された形状のデータを取得する形状データ取得部と、
前記形状データ取得部が取得したデータから、前記センサにより形状が観測された領域の3次元地図を作成する3次元地図作成部と、
前記計測装置から、前記計測装置の移動中に前記カメラにより撮影された映像のデータを取得する映像データ取得部と、
前記映像データ取得部が取得したデータから、前記3次元地図作成部が3次元地図を作成した領域以外の領域の映像を抽出し、抽出した映像と前記3次元地図作成部が作成した3次元地図とを合成するメディア合成部とを備えることを特徴とする複合メディア合成装置。
Shape data acquisition for acquiring shape data observed by the sensor during movement of the measuring device from a movable measuring device having a sensor for observing the shape of the peripheral region and a camera for capturing images of the peripheral region And
A three-dimensional map creating unit that creates a three-dimensional map of the region where the shape is observed by the sensor from the data obtained by the shape data obtaining unit;
A video data acquisition unit that acquires data of video captured by the camera during movement of the measurement device from the measurement device;
From the data acquired by the video data acquisition unit, the video of the region other than the region where the 3D map creation unit created the 3D map is extracted, and the extracted video and the 3D map created by the 3D map creation unit are extracted. And a media composition unit for synthesizing the media.
前記複合メディア合成装置は、さらに、
前記計測装置が単位時間又は単位距離移動する度に、当該移動区間における移動量を推定する移動量推定部を備え、
前記形状データ取得部は、前記計測装置から、前記計測装置が移動を開始したときに前記センサにより観測された形状のデータを初期データとして取得するとともに、前記計測装置が単位時間又は単位距離移動する度に前記センサにより観測される形状のデータを当該移動区間の更新データとして取得し、
前記3次元地図作成部は、前記形状データ取得部が取得した初期データから3次元地図を作成した後、前記形状データ取得部が1つの移動区間の更新データを取得する度に、当該移動区間の更新データで3次元地図を更新し、
前記映像データ取得部は、前記計測装置から、前記計測装置が単位時間又は単位距離移動する度に前記カメラにより撮影される映像のデータを当該移動区間の映像データとして取得し、
前記メディア合成部は、前記形状データ取得部が取得した1つの移動区間の更新データで前記3次元地図作成部が3次元地図を更新できない場合、前記移動量推定部が推定した当該移動区間における移動量に基づいて、前記映像データ取得部が取得した当該移動区間の映像データから、前記3次元地図作成部が作成した3次元地図が存在しない領域の映像を抽出し、抽出した映像と前記3次元地図作成部が作成した3次元地図とを合成することを特徴とする請求項1に記載の複合メディア合成装置。
The composite media composition device further includes:
A movement amount estimation unit that estimates a movement amount in the movement section every time the measuring device moves for a unit time or a unit distance,
The shape data acquisition unit acquires, as initial data, shape data observed by the sensor when the measurement device starts moving from the measurement device, and the measurement device moves by unit time or unit distance. Each time, the data of the shape observed by the sensor is acquired as update data of the movement section,
The 3D map creation unit creates a 3D map from the initial data obtained by the shape data acquisition unit, and then each time the shape data acquisition unit obtains update data of one movement interval, Update the 3D map with the update data,
The video data acquisition unit acquires, from the measurement device, video data captured by the camera each time the measurement device moves by unit time or unit distance as video data of the movement section,
When the 3D map creation unit cannot update the 3D map with the update data of one movement section acquired by the shape data acquisition unit, the media composition unit moves in the movement section estimated by the movement amount estimation unit. Based on the amount, from the video data of the moving section acquired by the video data acquisition unit, the video of the region where the 3D map created by the 3D map creation unit does not exist is extracted, and the extracted video and the 3D The composite media composition apparatus according to claim 1, wherein the composition is synthesized with the three-dimensional map created by the map creation unit.
前記メディア合成部は、前記映像データ取得部が取得した映像データから、奥行きのある開口が映っている部分を検出し、検出した部分の映像を、前記3次元地図作成部が作成した3次元地図が存在しない領域の映像として抽出することを特徴とする請求項2に記載の複合メディア合成装置。   The media composition unit detects a portion in which a deep opening is reflected from the video data acquired by the video data acquisition unit, and the 3D map created by the 3D map creation unit creates a video of the detected portion. The composite media composition apparatus according to claim 2, wherein the composite media composition apparatus extracts the video as an image of an area where no image exists. 前記移動量推定部は、前記映像データ取得部が取得したデータから、各移動区間における移動量を推定することを特徴とする請求項2又は3に記載の複合メディア合成装置。   4. The composite media composition apparatus according to claim 2, wherein the movement amount estimation unit estimates a movement amount in each movement section from the data acquired by the video data acquisition unit. 前記カメラは、前記センサを兼ねており、
前記映像データ取得部は、前記形状データ取得部を兼ねており、
前記メディア合成部は、前記3次元地図作成部が3次元地図を作成できない領域がある場合、前記映像データ取得部が取得したデータから、当該領域の映像を抽出し、抽出した映像と前記3次元地図作成部が作成した3次元地図とを合成することを特徴とする請求項1から4までのいずれかに記載の複合メディア合成装置。
The camera also serves as the sensor,
The video data acquisition unit also serves as the shape data acquisition unit,
When there is an area where the 3D map creation unit cannot create a 3D map, the media composition unit extracts a video of the area from the data acquired by the video data acquisition unit, and extracts the extracted video and the 3D map. The composite media composition device according to any one of claims 1 to 4, wherein the composite image composition unit synthesizes the three-dimensional map created by the map creation unit.
前記センサは、周辺領域の3次元座標を計測するレーザスキャナであり、
前記メディア合成部は、前記映像データ取得部が取得したデータから、前記レーザスキャナのレーザが到達する範囲外の領域の映像を抽出し、抽出した映像と前記3次元地図作成部が作成した3次元地図とを合成することを特徴とする請求項1から4までのいずれかに記載の複合メディア合成装置。
The sensor is a laser scanner that measures a three-dimensional coordinate of a peripheral region,
The media synthesizing unit extracts a video of an area outside the range reached by the laser of the laser scanner from the data acquired by the video data acquisition unit, and the extracted video and the 3D map created by the 3D map creation unit 5. The composite media composition device according to claim 1, wherein the composite media composition device synthesizes the map.
請求項1から6までのいずれかに記載の複合メディア合成装置と、
前記メディア合成部が映像と3次元地図とを合成したデータを画面表示する複合メディア表示装置とを備えることを特徴とする複合メディア表示システム。
A composite media composition device according to any one of claims 1 to 6,
A composite media display system comprising: a composite media display device that displays on the screen data obtained by combining the video and the three-dimensional map.
複合メディア合成装置の形状データ取得部が、周辺領域の形状を観測するセンサと周辺領域の映像を撮影するカメラとを具備する移動可能な計測装置から、前記計測装置の移動中に前記センサにより観測された形状のデータを取得する第1ステップと、
前記複合メディア合成装置の3次元地図作成部が、前記第1ステップで取得されたデータから、前記センサにより形状が観測された領域の3次元地図を作成する第2ステップと、
前記複合メディア合成装置の映像データ取得部が、前記計測装置から、前記計測装置の移動中に前記カメラにより撮影された映像のデータを取得する第3ステップと、
前記複合メディア合成装置のメディア合成部が、前記第3ステップで取得されたデータから、前記第2ステップで3次元地図が作成された領域以外の領域の映像を抽出し、抽出した映像と前記第2ステップで作成された3次元地図とを合成する第4ステップとを備えることを特徴とする複合メディア合成方法。
The shape data acquisition unit of the composite media synthesizer observes the sensor from a movable measuring device having a sensor for observing the shape of the peripheral region and a camera for capturing images of the peripheral region while the measuring device is moving. A first step of obtaining data of the shaped shape;
A second step in which the three-dimensional map creation unit of the composite media composition device creates a three-dimensional map of the region whose shape is observed by the sensor from the data acquired in the first step;
A third step in which a video data acquisition unit of the composite media synthesizing apparatus acquires, from the measurement apparatus, video data captured by the camera during the movement of the measurement apparatus;
The media composition unit of the composite media composition device extracts a video of an area other than the area where the 3D map is created in the second step from the data acquired in the third step, and extracts the extracted video and the first And a fourth step of synthesizing the three-dimensional map created in two steps.
複合メディア合成装置の映像データ取得部が、周辺領域の映像を撮影するカメラを具備する移動可能な計測装置から、前記計測装置の移動中に前記カメラにより撮影された映像のデータを取得する第1ステップと、
前記複合メディア合成装置の3次元地図作成部が、前記第1ステップで取得されたデータから、前記カメラにより映像が撮影された領域の3次元地図を作成する第2ステップと、
前記複合メディア合成装置のメディア合成部が、前記第2ステップで3次元地図を作成できない領域がある場合、前記第1ステップで取得されたデータから、当該領域の映像を抽出し、抽出した映像と前記第2ステップで作成された3次元地図とを合成する第3ステップとを備えることを特徴とする複合メディア合成方法。
A video data acquisition unit of the composite media composition device acquires, from a movable measurement device including a camera that captures a video of a peripheral area, video data captured by the camera during the movement of the measurement device. Steps,
A second step in which a three-dimensional map creation unit of the composite media composition device creates a three-dimensional map of an area where an image is captured by the camera from the data acquired in the first step;
When there is an area where the media composition unit of the composite media composition apparatus cannot create a 3D map in the second step, the image of the area is extracted from the data acquired in the first step, And a third step of synthesizing the three-dimensional map created in the second step.
周辺領域の形状を観測するセンサと周辺領域の映像を撮影するカメラとを具備する移動可能な計測装置から、前記計測装置の移動中に前記センサにより観測された形状のデータを取得する形状データ取得処理と、
前記形状データ取得処理が取得したデータから、前記センサにより形状が観測された領域の3次元地図を作成する3次元地図作成処理と、
前記計測装置から、前記計測装置の移動中に前記カメラにより撮影された映像のデータを取得する映像データ取得処理と、
前記映像データ取得処理が取得したデータから、前記3次元地図作成処理が3次元地図を作成した領域以外の領域の映像を抽出し、抽出した映像と前記3次元地図作成処理が作成した3次元地図とを合成するメディア合成処理とをコンピュータに実行させることを特徴とする複合メディア合成プログラム。
Shape data acquisition for acquiring shape data observed by the sensor during movement of the measuring device from a movable measuring device having a sensor for observing the shape of the peripheral region and a camera for capturing images of the peripheral region Processing,
A three-dimensional map creation process for creating a three-dimensional map of a region where the shape is observed by the sensor from the data acquired by the shape data acquisition process;
Video data acquisition processing for acquiring data of video captured by the camera during the movement of the measurement device from the measurement device;
From the data acquired by the video data acquisition process, a video of an area other than the area where the 3D map creation process created the 3D map is extracted, and the extracted video and the 3D map created by the 3D map creation process are extracted. A composite media composition program for causing a computer to execute a media composition process for composing data.
周辺領域の映像を撮影するカメラを具備する移動可能な計測装置から、前記計測装置の移動中に前記カメラにより撮影された映像のデータを取得する映像データ取得処理と、
前記映像データ取得処理が取得したデータから、前記カメラにより映像が撮影された領域の3次元地図を作成する3次元地図作成処理と、
前記3次元地図作成処理が3次元地図を作成できない領域がある場合、前記映像データ取得処理が取得したデータから、当該領域の映像を抽出し、抽出した映像と前記3次元地図作成処理が作成した3次元地図とを合成するメディア合成処理とをコンピュータに実行させることを特徴とする複合メディア合成プログラム。
Video data acquisition processing for acquiring data of video captured by the camera during movement of the measurement device, from a movable measurement device equipped with a camera that captures a video of a peripheral region;
A three-dimensional map creation process for creating a three-dimensional map of a region where a video is shot by the camera from the data acquired by the video data acquisition process;
When there is an area where the 3D map creation process cannot create a 3D map, the video of the area is extracted from the data acquired by the video data acquisition process, and the extracted video and the 3D map creation process are created. A composite media composition program for causing a computer to execute media composition processing for compositing with a three-dimensional map.
JP2008302860A 2008-11-27 2008-11-27 Composite media synthesizing apparatus, composite media display system, composite media synthesizing method, and composite media synthesizing program Pending JP2010128799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008302860A JP2010128799A (en) 2008-11-27 2008-11-27 Composite media synthesizing apparatus, composite media display system, composite media synthesizing method, and composite media synthesizing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008302860A JP2010128799A (en) 2008-11-27 2008-11-27 Composite media synthesizing apparatus, composite media display system, composite media synthesizing method, and composite media synthesizing program

Publications (1)

Publication Number Publication Date
JP2010128799A true JP2010128799A (en) 2010-06-10

Family

ID=42329146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008302860A Pending JP2010128799A (en) 2008-11-27 2008-11-27 Composite media synthesizing apparatus, composite media display system, composite media synthesizing method, and composite media synthesizing program

Country Status (1)

Country Link
JP (1) JP2010128799A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186606A (en) * 2011-03-04 2012-09-27 Mitsubishi Electric Corp Image display device
JP2014173990A (en) * 2013-03-08 2014-09-22 Topcon Corp Measuring device
JP2018136299A (en) * 2016-12-30 2018-08-30 ジオスペェィシャル インフォメーション テクノロジー カンパニー リミテッドGeospatial Information Technology Co.,Ltd. Point cloud bundler system generated by stereo matching technique via three-dimensional information
WO2018185972A1 (en) * 2017-04-03 2018-10-11 三菱電機株式会社 Map data generation device and method
WO2019013162A1 (en) * 2017-07-11 2019-01-17 キヤノン株式会社 Information processing device and information processing method
CN113810626A (en) * 2020-06-15 2021-12-17 浙江宇视科技有限公司 Video fusion method, device and equipment based on three-dimensional map and storage medium
JP2022021257A (en) * 2020-07-21 2022-02-02 株式会社Zmp Method and program for correcting map data
JP2022027569A (en) * 2020-07-29 2022-02-10 ネイバーラボス コーポレーション Robot remote control method and system
CN115336247A (en) * 2020-06-10 2022-11-11 Jvc建伍株式会社 Image processing device and image processing system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012186606A (en) * 2011-03-04 2012-09-27 Mitsubishi Electric Corp Image display device
JP2014173990A (en) * 2013-03-08 2014-09-22 Topcon Corp Measuring device
JP2018136299A (en) * 2016-12-30 2018-08-30 ジオスペェィシャル インフォメーション テクノロジー カンパニー リミテッドGeospatial Information Technology Co.,Ltd. Point cloud bundler system generated by stereo matching technique via three-dimensional information
JPWO2018185972A1 (en) * 2017-04-03 2019-07-18 三菱電機株式会社 Map data generation apparatus and method
WO2018185972A1 (en) * 2017-04-03 2018-10-11 三菱電機株式会社 Map data generation device and method
CN110520691A (en) * 2017-04-03 2019-11-29 三菱电机株式会社 Map data generating means and method
CN110869978A (en) * 2017-07-11 2020-03-06 佳能株式会社 Information processing apparatus, information processing method, and computer program
JP2019020778A (en) * 2017-07-11 2019-02-07 キヤノン株式会社 Information processing device and information processing method
WO2019013162A1 (en) * 2017-07-11 2019-01-17 キヤノン株式会社 Information processing device and information processing method
US11348323B2 (en) 2017-07-11 2022-05-31 Canon Kabushiki Kaisha Information processing apparatus for correcting three-dimensional map, information processing method for correcting three-dimensional map, and non-transitory computer-readable storage medium for correcting three-dimensional map
CN110869978B (en) * 2017-07-11 2023-04-11 佳能株式会社 Information processing apparatus, information processing method, and computer program
CN115336247A (en) * 2020-06-10 2022-11-11 Jvc建伍株式会社 Image processing device and image processing system
CN115336247B (en) * 2020-06-10 2024-03-08 Jvc建伍株式会社 Image processing device and image processing system
CN113810626A (en) * 2020-06-15 2021-12-17 浙江宇视科技有限公司 Video fusion method, device and equipment based on three-dimensional map and storage medium
CN113810626B (en) * 2020-06-15 2024-04-05 浙江宇视科技有限公司 Video fusion method, device, equipment and storage medium based on three-dimensional map
JP2022021257A (en) * 2020-07-21 2022-02-02 株式会社Zmp Method and program for correcting map data
JP7265269B2 (en) 2020-07-21 2023-04-26 株式会社Zmp Map data correction method and correction program
JP2022027569A (en) * 2020-07-29 2022-02-10 ネイバーラボス コーポレーション Robot remote control method and system
JP7213924B2 (en) 2020-07-29 2023-01-27 ネイバーラボス コーポレーション Robot remote control method and system

Similar Documents

Publication Publication Date Title
US10893257B2 (en) Multi-dimensional data capture of an environment using plural devices
JP2010128799A (en) Composite media synthesizing apparatus, composite media display system, composite media synthesizing method, and composite media synthesizing program
EP2976748B1 (en) Image-based 3d panorama
US7522186B2 (en) Method and apparatus for providing immersive surveillance
US10157478B2 (en) Enabling use of three-dimensional locations of features with two-dimensional images
KR102197732B1 (en) Method and apparatus for generating 3d map of indoor space
JP6658001B2 (en) Position estimation device, program, position estimation method
JP4115117B2 (en) Information processing apparatus and method
KR101410273B1 (en) Method and apparatus for environment modeling for ar
JP2015001760A (en) Image processing system, image processing apparatus, image processing program, and image processing method
JP2008204304A (en) Vehicle behavior reproduction method and system
WO2019244944A1 (en) Three-dimension reconstruction method and three-dimension reconstruction device
CN103003666A (en) Parallel online-offline reconstruction for three-dimensional space measurement
KR101073432B1 (en) Devices and methods for constructing city management system integrated 3 dimensional space information
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
JP2005208857A (en) Method for generating image
JP3860550B2 (en) Interface method, apparatus, and program
JP2000074669A (en) Method and device for generating 3-dimension map database
US11385856B2 (en) Synchronizing positioning systems and content sharing between multiple devices
US10979687B2 (en) Using super imposition to render a 3D depth map
JP7334460B2 (en) Work support device and work support method
KR100550430B1 (en) Apparatus and method for guiding route of vehicle using three-dimensional information
CN113496503A (en) Point cloud data generation and real-time display method, device, equipment and medium
KR101559586B1 (en) Apparatus and method for guiding information using augmented reality
JP7068584B2 (en) Information integration method, information integration device, and information integration program