JP2009217524A - System for generating and browsing three-dimensional moving image of city view - Google Patents

System for generating and browsing three-dimensional moving image of city view Download PDF

Info

Publication number
JP2009217524A
JP2009217524A JP2008060351A JP2008060351A JP2009217524A JP 2009217524 A JP2009217524 A JP 2009217524A JP 2008060351 A JP2008060351 A JP 2008060351A JP 2008060351 A JP2008060351 A JP 2008060351A JP 2009217524 A JP2009217524 A JP 2009217524A
Authority
JP
Japan
Prior art keywords
image
road
aerial
line
cityscape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008060351A
Other languages
Japanese (ja)
Inventor
Takashi Kodaira
高資 小平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KODAIRA ASSOCIATES KK
Original Assignee
KODAIRA ASSOCIATES KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KODAIRA ASSOCIATES KK filed Critical KODAIRA ASSOCIATES KK
Priority to JP2008060351A priority Critical patent/JP2009217524A/en
Publication of JP2009217524A publication Critical patent/JP2009217524A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system and service for supplying three-dimensional city view moving images using real images. <P>SOLUTION: A three-dimensional moving image amusement system includes: a system for imaging a city with a plurality of digital cameras mounted on an air craft, a vehicle, and the like from the sky and on the ground from many directions with high density; a system for storing the images in a database and searching for an image corresponding to an arbitrary viewpoint path and line of sight direction with respect to a position of an arbitrary city; and a system for generating a smooth three-dimensional continuous moving image by performing morphing the searched image in accordance with a parallax between an actual viewpoint and the photographic image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、市街地を含む地上の景観について3次元動画を生成するシステムにおいて、特に、航空機等において上空から撮影した航空写真、あるいは路上において地上で撮影した写真を利用してするシステムに関し、特に、地上を様々な角度から撮像した写真を利用する3次元都市景観の動画を生成表示するシステムに関するものである。   The present invention relates to a system that generates a three-dimensional video of a landscape on the ground including an urban area, and more particularly, to a system that uses an aerial photograph taken from above in an aircraft or the like, or a photograph taken on the ground on a road. The present invention relates to a system for generating and displaying a moving image of a three-dimensional cityscape that uses photographs taken from various angles on the ground.

従来、都市景観を3次元で動画表示する方式には、レーザプロファイラにより都市の建造物の3次元情報を計測して立体モデルを作成したうえで建造物の壁面画像をレンダリング処理により貼り付け、このようにして得られた3次元都市モデルに対して任意の視点経路とこの視線経路に沿った任意の視線方向の画像を3次元画像処理により生成し、時間的に連続表示することにより3次元動画を得るものである。都市建造物の3次元情報を得る別の方法としては地上の同一地点を異なった方向より撮影した画像を用い、ステレオ画像処理により高さ方向の情報を抽出して3次元都市モデルを生成する方法もある。この他に、必ずしも実際の都市には一対一に対応しないが都市空間3次元モデルを構築して3次元画像処理により動画を生成する方法もある。   Conventionally, 3D animation display of cityscapes is done by measuring the 3D information of urban buildings with a laser profiler and creating a 3D model, and then pasting the wall images of the buildings by rendering processing. An arbitrary viewpoint path and an image in an arbitrary gaze direction along the line-of-sight direction are generated by the 3D image processing for the three-dimensional city model obtained in this way, and are continuously displayed in time to generate a three-dimensional moving image. Is what you get. As another method for obtaining three-dimensional information of a city building, a method of generating a three-dimensional city model by extracting information in the height direction by stereo image processing using images obtained by photographing the same point on the ground from different directions. There is also. In addition to this, there is also a method of creating a moving image by three-dimensional image processing by constructing a three-dimensional city space model that does not necessarily correspond to an actual city on a one-to-one basis.

これらの方法はいずれも都市の立体構造諸元すなわち3次元モデルを生成するために時間とコストを要し、さらに建物等の立体の外壁を実際と同一にするためには、外壁のパターン情報または、画像情報を張り付ける(レンダリング)する必要があった、このレンダリング情報は3次元物体の全ての方向からの情報が不可欠であり、その取得とレンダリングに多大の労力とコストを要するものであった。このように、任意の空中経路と視線から任意の都市部分の景観を3次元動画で表示することは強く望まれていたにもかかわらず、レンダリングの精度を十分現実的にできない、あるいは、情報の更新周期が長くなり、表示する映像の新鮮度、正確さに難点が生じることが多かった。 Both of these methods require time and cost to generate a three-dimensional model of a city, that is, a three-dimensional model. Further, in order to make a solid outer wall of a building or the like identical to the actual one, pattern information on the outer wall or The image information needs to be pasted (rendered), and the information from all directions of the three-dimensional object is indispensable, and the acquisition and the rendering require a great amount of labor and cost. . In this way, although it is strongly desired to display a landscape of an arbitrary urban area as a three-dimensional video from an arbitrary aerial route and line of sight, rendering accuracy cannot be sufficiently realistic, In many cases, the update cycle becomes long, and the freshness and accuracy of the displayed video are difficult.

3次元模擬視界を使用するアミューズメントシステムには、非特許文献1のエースコンバットのように衛星より撮影した地表画像を加工して利用するものもあるが、あくまでもゲームに現実味をもたせることを目的としており実際の3次元景観とは必ずしも一致しない。また、非特許文献2のセカンドライフに見られる都市空間3次元模擬視界は、仮想都市を3次元的に表現するが現実の地図には対応していない。セカンドライフに対して都市空間をより現実的に表現するものとして現実の地図に対応した仮想都市空間の3次元アミューズメントシステムとして非特許文献3のCOCORによるmeet-meがあるが建造物の外壁景観、細部構造については現実とは一致しない。また、本発明になる技術は極めて大量かつ多視点、多視線方向の航空写真を事前に撮影蓄積することにあるが、航空写真を取得する従来技術として、最近はディジタル技術の急速な進歩によりアナログ式航空カメラからディジタル方式の1次元ラインセンサないし2次元撮像素子を用いた航空写真用カメラが実用化されている。さらに汎用デジタルカメラの高性能化により、航空写真分野へも適用可能となってきている。専用ソフトウェアによりディジタルカメラで撮影した斜め写真からオルソ画像を作成するシステムが特許文献1では提案されている。測量目的の航空写真では地上に基準点を予め設定し、該基準点を参照してカメラ位置と姿勢を計算し、地物の座標を求めていたが、航空機にGPS(Global Positioning System)及びIMU(Inertial Measurement Unit)を装備し、撮像時点のカメラの位置と姿勢を測定することできる。(特許文献2)撮像方向が異なる3台のCCDラインセンサで測量用航空写真を撮像する技術が特許文献3で提案されている。 Some amusement systems that use a three-dimensional simulated field of view, such as Ace Combat in Non-Patent Document 1, process and use surface images taken from satellites. However, the purpose is to give the game a realistic experience to the last. This does not necessarily match the 3D landscape. In addition, the urban space three-dimensional simulated view seen in the second life of Non-Patent Document 2 represents a virtual city three-dimensionally but does not correspond to an actual map. Non-Patent Document 3 COCOR meet-me is a 3D amusement system of virtual city space that corresponds to a real map as a more realistic representation of city space for Second Life, The detailed structure does not match the reality. In addition, the technology according to the present invention is to shoot and accumulate a large amount of aerial photographs in a multi-viewpoint and multi-line-of-sight direction in advance. Aerial cameras that use digital one-dimensional line sensors or two-dimensional image sensors have been put into practical use. Furthermore, due to the high performance of general-purpose digital cameras, it can be applied to the aerial photography field. Patent Document 1 proposes a system for creating an ortho image from an oblique photograph taken with a digital camera using dedicated software. In aerial photography for surveying purposes, a reference point was set on the ground in advance, and the camera position and orientation were calculated with reference to the reference point to obtain the coordinates of the feature. However, GPS (Global Positioning System) and IMU Equipped with an (Inertial Measurement Unit), it can measure the position and orientation of the camera at the time of imaging. (Patent Document 2) Patent Document 3 proposes a technique for capturing an aerial photograph for surveying with three CCD line sensors having different imaging directions.

http://www.acecombat.jp/http://www.acecombat.jp/ http://www.secondlife.com/http://www.secondlife.com/ http://www.mmet-me.jp/http://www.mmet-me.jp/ 特開2002-357419号公報。JP 2002-357419 A. 特開2004-245741号公報。JP 2004-245741 A. 特許2807622号公報。Japanese Patent No. 2876222.

しかしながら、非特許文献1の方法は、景観の材料として、高分解能衛星画像を使用してリアリズムを追及した3次元動画アミューズメントシステムであるが、対象は海外の戦場でありまた、画像自体も制作時から更新されないので都市景観3次元動画の実現とは異なるものである。非特許文献2において提案されているシステムでは、人間目線の都市景観3次元動画表示を行っているがすべての表示は計算機上で生成された架空の世界であり現実世界と異なり、現実に則した都市景観を3次元表示する目的とは合致しないものである。非特許文献3の方法は非特許文献2の方法に改善を加えたもので現実の都市の地図に対応して建造物等を構築しているが景観自体としては現実との同一性を追及しておらず、現実とは異なるものである。   However, the method of Non-Patent Document 1 is a three-dimensional video amusement system that pursues realism using high-resolution satellite images as landscape material, but the target is an overseas battlefield, and the image itself is also produced. Since it is not updated from, it is different from the realization of a cityscape 3D animation. In the system proposed in Non-Patent Document 2, the cityscape three-dimensional video display of the human eye is performed, but all the displays are fictitious worlds generated on a computer, which differs from the real world and conforms to the reality It does not match the purpose of displaying the cityscape in three dimensions. The method of Non-Patent Document 3 is an improvement of the method of Non-Patent Document 2 and constructs buildings etc. corresponding to the map of the actual city, but the landscape itself pursues the identity with the reality. It is not a reality.

航空写真の取得に関した特許文献として以下のものがあるが、特許文献2において提案されているシステムでは斜め画像を2枚取得するが、斜め画像1枚だけでは本発明で必要とされる多量かつ多方向の画像を高密度で取得するのは困難である。特許文献3において提案されているシステムは、異なる3方向のCCDラインセンサにより撮像するが、これらの3台のCCDラインセンサは、平行かつ直線的に配置されているので測量用にステレオ画像を取得するには適しているが、本発明の目的のように都市景観の3次元動画を生成するための原画像取得のためには情報量が圧倒的に不足する。 Patent documents relating to the acquisition of aerial photographs include the following, but the system proposed in Patent Document 2 acquires two oblique images, but only one oblique image requires a large amount necessary for the present invention. It is difficult to acquire multi-directional images with high density. The system proposed in Patent Document 3 captures images using CCD line sensors in three different directions, but these three CCD line sensors are arranged in parallel and linearly, and thus acquire a stereo image for surveying. Although it is suitable for the purpose of the present invention, the amount of information is overwhelmingly insufficient for acquiring an original image for generating a three-dimensional moving image of a cityscape as in the object of the present invention.

特許文献1,2で、地上を多方向、大量かつ高密度で撮像するために、カメラを増設することが考えられるが、航空写真用の航空機の床面にある撮影用開口部は寸法と位置が滞空証明の対象として厳しく規定されており、開口部を拡大したり、開口部から機外に突出する形でカメラを増設することはできない。したがって、地上を高密度に多方向から撮像する必要のある実画像による都市景観3次元動画アミューズメントシステムに適した実現手段はこれまで考えられていなかった。 In Patent Documents 1 and 2, it is conceivable to increase the number of cameras in order to capture the ground in multiple directions, in large quantities and at high density. However, the shooting openings on the floor of the aircraft for aerial photography have dimensions and positions. However, it is strictly prescribed as a target for the airspace certification, and it is not possible to enlarge the opening or add a camera that protrudes out of the machine from the opening. Therefore, the realization means suitable for the cityscape three-dimensional animation amusement system by the real image which needs to image the ground from multiple directions with high density has not been considered so far.

本発明は、このような実情に鑑みてなされたものであり、航空機等において空中で高密度のメッシュ点で多方向の画像を広範囲に撮像できるシステムを構築し、これら大量の画像をデータベース化し、都市の任意の位置を任意の視点で任意の方向から見た場合の最も視差の少ない画像を高速に検索するシステムを構築し、さらに指定した視点、視線、都市中の位置に対応して最も視差の少ない画像から連続的になめらかな動画像を生成するモーフィングシステムを構築した。さらに本発明では地上においても人間目線のリアルな動画像を作るために、都市のあらゆる道路上ないし通路上であらゆる方向の画像を高密度に取得する専用の車載等のシステムを構築し、取得した大量の画像をデータベース化し、都市の路上の任意の位置を任意の人間目線で任意の方向から見た場合の最も視差の少ない画像を高速に検索するシステムを構築し、さらに指定した視点、視線、都市中の位置に対応して最も視差の少ない画像から連続的になめらかな動画像を生成するモーフィングシステムを構築した。   The present invention has been made in view of such circumstances, constructing a system capable of capturing a wide range of multi-directional images with high-density mesh points in the air in an aircraft or the like, creating a database of these large amounts of images, Establish a system that quickly searches for the image with the least parallax when viewing any position in the city from any direction, and the most parallax corresponding to the specified viewpoint, line of sight, and position in the city A morphing system that generates continuous and smooth moving images from less images is constructed. Furthermore, in the present invention, in order to create a realistic moving image of the human eye even on the ground, a dedicated vehicle-mounted system that acquires images in all directions at high density on every road or passage in the city was constructed and acquired. Create a database of a large number of images, build a system that quickly searches for images with the least parallax when viewing any position on the streets of the city from any direction with any human eye, and further, the specified viewpoint, line of sight, A morphing system that generates continuous and smooth moving images from images with the least parallax corresponding to the position in the city was constructed.

上記解決課題に鑑みて鋭意研究の結果、本発明者は都市景観3次元動画アミューズメントシステムの実現において最大の障壁となるのは、都市の建物等建造物および構築物の3次元情報を安価かつ頻繁に取得する手段がないこと、さらにこれらの3次元物体の表面に張り付ける画像の取得と貼り付けを安価かつ頻繁に行う手段を欠いていることを認識するに至った。このため、本発明者はこれらの手段を踏まずに任意の経路から任意の視線で都市の任意の部分の3次元動画を得る方法として都市のあらゆる部分の景観をあらゆる方向から事前に撮影しておき、選択された視点経路、視線方向および目標位置に対応して最適な撮影済み画像を選択し、画像を撮影したカメラの位置および光軸方向と、選択された視点と視線の相違をモーフィング処理により補償し、なめらかな動画像を得る方法を着想するに至った。   As a result of diligent research in view of the above problems, the present inventor is the biggest barrier in the realization of a three-dimensional amusement system for cityscapes. The three-dimensional information on buildings and structures such as urban buildings is inexpensive and frequent. We have come to recognize that there is no means to acquire, and that there is a lack of means to acquire and paste images pasted on the surface of these three-dimensional objects at low cost and frequently. For this reason, the present inventor has taken a landscape of any part of the city in advance from any direction as a method for obtaining a three-dimensional video of any part of the city from any route without following these means. In addition, the optimal captured image corresponding to the selected viewpoint path, line-of-sight direction, and target position is selected, and the position and optical axis direction of the camera that captured the image, and the difference between the selected viewpoint and line-of-sight are morphed. And came up with an idea of how to obtain a smooth moving image.

しかしながら、都市のあらゆる部分の景観をあらゆる方向から事前に撮影しておくことはきわめて困難である。経験上本発明者はこの目的を達成するためには立体角で数度ごとにあらゆる方向からの写真を全ての都市地点に対して準備しなければならないことを知っている。この問題を解決するために小型のディジタルカメラを多数用い、配列方法と制御方法に新規性を施した。すなわち、第一に多数の小型ディジタルカメラをディジタルカメラ集合体として形成し、従来から航空測量用航空機の床面に存在する航空測量用カメラの穴に機外に張り出すことなく収納して滞空証明取得上の問題を回避すること、第二に多方向からの写真を効率的に撮影するために、ディジタルカメラ集合体の中心部に直下撮影用のカメラを配し、その周囲に放射状に斜め方向撮影用のディジタルカメラを8ないし25あるいは、スペース的に余裕があればそれ以上配置するのである。 However, it is extremely difficult to take a picture of every part of the city in advance from all directions. Experience has shown that in order to achieve this goal, the inventor must prepare photographs from every direction for every city point every few degrees in solid angles. In order to solve this problem, a lot of small digital cameras were used, and the arrangement method and control method were made novel. That is, first of all, a large number of small digital cameras are formed as a collection of digital cameras, and they are stored in the holes of an aerial surveying camera on the floor of an aerial surveying aircraft without being overhanging. In order to avoid acquisition problems and, secondly, in order to efficiently take pictures from multiple directions, a camera for direct shooting is placed in the center of the digital camera assembly, and the surrounding area is radially inclined There are 8 to 25 digital cameras for photographing, or more if there is enough space.

第三に、地上を各方面から撮影したとしても、画像の分解能が地上を見る俯角によって変化することは好ましくないので、鉛直方向よりなす角を一般にオフナディア角と呼称するが、小さいオフナディア角の斜め写真用ディジタルカメラには短い焦点距離の望遠レンズを用い、大きいオフナディア角の斜め写真用ディジタルカメラには長い焦点距離の望遠レンズを用い、さらにそれらを各々放射状に同心円状に配列することにより航空機の直下からかなり大きなオフナディア角の領域まで、分解能を劣化させることなく広範囲に画像を取得するディジタルカメラ集合体を考案した。 Third, even if the ground is photographed from various directions, it is not preferable that the resolution of the image changes depending on the depression angle at which the ground is viewed. Therefore, an angle formed from the vertical direction is generally called an off-nadir angle, but a small off-nadia angle is used. A long focal length telephoto lens is used for a large off-nadir angle digital camera, and these are arranged radially and concentrically. In this way, we have devised a digital camera assembly that can acquire a wide range of images from just below the aircraft to a considerably large off-nadir angle region without degrading the resolution.

第四に、本発明者は該ディジタルカメラ集合体を効率的に運用し広範な都市空間上空であらゆる地点に対して立体角数度ごとの画像を得るために航空機にGPS装置と慣性航法装置よりなるガイダンスシステムを導入し空中同一高度に緻密なメッシュ状の撮影ポイントを構成したうえで、該撮影ポイントで自動的にディジタルカメラ集合体に撮影司令を発し撮影記録するシステムを構築した。 Fourthly, the present inventor uses the GPS camera and the inertial navigation device in the aircraft in order to efficiently operate the digital camera assembly and obtain an image of every solid angle for every point over a wide city space. In order to construct a precise mesh-like shooting point at the same altitude in the air, a system was established to automatically issue a shooting command to the digital camera assembly at the shooting point.

第五に、大量頻繁に撮影を行う必要性から撮影コストを削減する目的で一般に航空測量が不適当な曇天に雲の下の低高度より撮影することを着想し、曇天の空中モヤによる画像劣化をディジタル画像処理により自動的に補償する方法を発明した。 Fifth, in order to reduce the cost of photography due to the need to shoot a large amount of images, it is generally conceived that images are taken from low altitudes below the clouds in cloudy skies where aerial surveys are inappropriate, and image degradation due to cloudy aerial fog We have invented a method for automatically compensating for image by digital image processing.

さらに、本発明者は数度程度の立体角の撮影済み画像を任意の対象地点に対して動画生成のために高速に検索する必要があることに鑑み、本システムに適した高速画像検索機構を考案した。すなわち、地表を緯度経度あるいはXY 座標により正方形の網目状に区分する。正方形の1辺は十分小さく、たとえば50mから20m程度に設定する。この網目上の正方形の各々に2次元のアドレスを付して管理する。各撮影済みの画像には、地表を撮影した画像範囲内に含まれる該網目状正方形群が存在して、撮影時のカメラ位置と該網目状正方形の中心とを結ぶベクトルが定義できる。これを正規化して原画像ベクトルと定義するが、該原画像ベクトルは指定された地表網目に対する画像を表現するインデクスとして使用できる。   Further, the present inventor needs to search a captured image having a solid angle of about several degrees at a high speed for generating a moving image with respect to an arbitrary target point. Devised. In other words, the surface of the earth is divided into square meshes by latitude and longitude or XY coordinates. One side of the square is sufficiently small, for example, set to about 50 m to 20 m. Each square on the mesh is managed by attaching a two-dimensional address. Each captured image includes the mesh square group included in the image range obtained by capturing the ground surface, and a vector connecting the camera position at the time of capturing and the center of the mesh square can be defined. This is normalized and defined as an original image vector. The original image vector can be used as an index for expressing an image for a designated ground mesh.

すなわち直上を示す天頂ベクトルと該原画像ベクトルのなす角度を量子化して天頂インデックスを定義する、該なす角の量子化の基準は5度以下である。各天頂インデックスには、水平方向成分として360度分の全方位が含まれているので、これを立体角数度単位のセルに小分割し、該原画像ベクトルと天頂ベクトルのなす角、該原画像ベクトルの水平方向成分によりインデクシングする。この3段階のインデクシングにより必要な原画像を高速に検索することができる。3次元動画像に必要な原画像は任意の都市位置に対して立体角で数度ごとに準備されているが、この近傍を視点が通過するので、実際の視点および視線と原画像ベクトルの立体数度以下のずれは、原画像に対するモーフィング処理により滑らかにつなぐのである。 That is, the zenith index is defined by quantizing the angle formed between the zenith vector indicating the position directly above and the original image vector, and the quantization criterion for the angle formed is 5 degrees or less. Since each zenith index includes 360 degrees of azimuth as horizontal components, it is subdivided into cells of solid angle units, and the angle between the original image vector and the zenith vector, the original Index by the horizontal component of the image vector. A necessary original image can be searched at high speed by this three-stage indexing. Although the original image necessary for the three-dimensional moving image is prepared every several degrees with a solid angle with respect to an arbitrary city position, since the viewpoint passes through this neighborhood, the actual viewpoint, the line of sight and the original image vector Deviations of several degrees or less are smoothly connected by morphing processing for the original image.

本発明は都市景観をリアルに動画像で表示することであるので、3次元動画に使用される原画像は地上でも取得されなくてはならない。地上での都市景観3次元動画をリアルに表現するとは、人間の目線で景観を再現することであると本発明者は考察し、あらゆる場所の都市景観を人間目線で事前に撮影し、空中からの景観と類似の方法で3次元動画を生成する方式を考案した。地上における人間目線は人間が道路ないし通路上を移動すること、さらに目の位置が地上1.5−1.8mであるという制約があり、視点の自由度は空中からの景観に比べて相当に小さい。   Since the present invention is to display the cityscape as a moving image in real, the original image used for the three-dimensional moving image must be acquired even on the ground. The present inventor considers that 3D animation of the cityscape on the ground is to reproduce the landscape from the human perspective, and the cityscape of every place is taken in advance by the human perspective. We have devised a method to generate a 3D movie in a manner similar to that of the scenery. The human gaze on the ground is restricted by the fact that humans move on roads or passages, and the position of the eyes is 1.5-1.8 m above the ground, and the degree of freedom of viewpoint is considerably higher than the view from the air. small.

本発明者は航空機搭載と類似の多数のディジタルカメラを搭載したディジタルカメラ集合体を車載用に考案した。すなわち、水平方向に全周8ないし12方向、水平より仰角を付した斜め上方向を全周8ないし12方向にわたって撮影するカメラをディジタルカメラ集合体として構成し、車両の屋根上に設置し、車両をカーナビゲーションシステムにより予め定められた道路上を移動させ、GPSとIMSによる詳細な位置計測結果に基づき数m間隔でディジタルカメラ集合体を構成する全カメラに対して撮影司令を発し、その結果を位置データとともに記録するのである。このようにして路上画像データベースを構築したうえで、都市の任意の場所に対して路上ないし通路上の任意の場所、任意の視線方向からの人間目線での3次元動画を生成する方法を上空からの3次元動画像生成をもとに考案した。該方法は最適な原画像を選択するプロセスと、視点の移動状態と視線方向および都市内の位置によりモーフィングプロセスにより滑らかな動画像を生成するプロセスより構成される。 The inventor of the present invention has devised a digital camera assembly equipped with a large number of digital cameras similar to those mounted on an aircraft for in-vehicle use. That is, a camera that shoots in the horizontal direction in all directions 8 to 12 and the diagonally upward direction with an elevation angle from the horizontal in all directions 8 to 12 is configured as a digital camera assembly, installed on the roof of the vehicle, Is moved on a predetermined road by a car navigation system, and based on the detailed position measurement results by GPS and IMS, a shooting command is issued to all the cameras constituting the digital camera assembly at intervals of several meters, and the result is It is recorded with the position data. In this way, after building a road image database, a method for generating a three-dimensional moving image from the sky with respect to an arbitrary place in the city, an arbitrary place on the road or a passage, and a human eye from an arbitrary line of sight. It was devised based on the generation of 3D video. The method includes a process of selecting an optimal original image and a process of generating a smooth moving image by a morphing process according to the movement state of the viewpoint, the line-of-sight direction, and the position in the city.

しかしながら完全な自由空間に視点を置き自由に視線方向を指定できる空中と異なり、道路ないし通路上では視点の存在し得る場所が通路ないし道路上に限定される。さらに、本発明の方法は都市空間の構造物に関する3次元モデルを生成することなしに3次元動画を生成する方法であるから、路上ないし通路上で撮影した画像を空中写真の場合にTerrainに貼り付けたように、貼り付ける対象を選定しモデル化しなくてはならない。人間目線での都市空間の表現として都市の構造を考慮して、この目的に合致するモデルとして道路ないし通路とそれ以外の市街地の境界線に沿って鉛直に主として平面で構成される厚さゼロの壁を立て、該壁を原画像の投影面とすることとした。 However, unlike in the air where the viewpoint can be freely specified by placing the viewpoint in a completely free space, the place where the viewpoint can exist is limited on the road or road. Furthermore, since the method of the present invention is a method for generating a three-dimensional video without generating a three-dimensional model for a structure in an urban space, an image taken on a road or a passage is pasted on Terrain in the case of an aerial photograph. As noted, the target to be pasted must be selected and modeled. Considering the structure of the city as a representation of the city space from the human perspective, a model that meets this objective is a zero-thickness mainly composed of a plane vertically along the boundary line of the road or passage and other urban areas. A wall was set up and used as a projection surface of the original image.

この道路ないし通路に沿った投影面を数学的に表現することは、空中写真においてDEMを地表のモデルとして用いるのと同等の位置付けとなるが、道路ないし通路はグラフ構造を有しており、グラフ表現によりモデル化する。さらに、画像投影上重要なのは道路ないし通路の境界線上に存在する該壁あるいは投影面である、さらに道路ないし通路は、屈折し、分岐し、交差し、合流し、開始し、終了する。本発明者は、原画像の投影という目的に適した道路ないし通路の数学的表現方法をグラフ表現で考案した。この結果、道路ないし通路上の任意の位置の人間目線からの任意の市街景観を撮影済みの原画像からモーフィングによりリアルに動画で表現することに成功した。 Mathematically expressing the projection plane along this road or passage is equivalent to using DEM as a model of the ground surface in aerial photographs, but the road or passage has a graph structure. Model by expression. Further, what is important in image projection is the wall or projection plane existing on the boundary line of the road or passage. Further, the road or passage is refracted, branched, intersected, merged, started, and ended. The inventor has devised a mathematical expression method of a road or a passage suitable for the purpose of projecting an original image by a graph expression. As a result, we succeeded in expressing an arbitrary cityscape from a human eye at an arbitrary position on a road or a passage as a moving image from a captured original image by morphing.

このように本発明になる都市景観3次元動画アミューズメントシステムでは、空中を任意に飛び回り任意の視線で任意の場所を見られるだけでなく、任意の路上ないし通路から任意の人間目線で市街の3次元動画を得ることができる。このため、グラフィックユーザインターフェイスとしてインターネットを介して、空中を模擬飛行するための模擬コックピットを設け、方位、昇降および速度を自由に操縦し指定できるほか、模擬カメラに切替えてカメラの方位角、ティルト角、ズーム量を自由に変更して3次元動画を表示することもできるようにした。路上ないし通路上においてはグラフィックユーザインターフェイスを介して人間目線で前進後退、及び左折、右折による自由な位置変更ができるほか、視線の向きを変えて自由な方向の視界を3次元動画で表現することができる。さらに、本発明の都市景観3次元動画アミューズメントシステムの特徴は空中から自由に地上に舞い降り、路上ないし通路上を歩行し、また、地上から上空に舞い上がって空中を自由に飛び回れる自由さにある。このため、空中模擬視界から地上の着地点を指定して着地するグラフィックユーザインターフェイスおよび、逆に地上から空中に飛び上がるためのグラフィックユーザインターフェイスを導入してアミューズメント性を高めた。 As described above, in the cityscape three-dimensional video amusement system according to the present invention, it is possible not only to jump freely in the air and see an arbitrary place with an arbitrary line of sight but also to an arbitrary human eye from an arbitrary road or passage. You can get a video. For this reason, a simulated cockpit for simulated flight in the air is provided as a graphical user interface via the Internet, and the azimuth, elevation, and speed can be freely controlled and specified, and the azimuth and tilt angles of the camera can be switched to a simulated camera. The zoom amount can be changed freely to display a three-dimensional video. On the road or on the aisle, you can move forward and backward with a human eye via the graphic user interface, change the position freely by turning left or right, and change the direction of the line of sight to express the field of view in a free direction as a three-dimensional video. Can do. Furthermore, the feature of the cityscape three-dimensional video amusement system of the present invention is that it can freely fly down from the air, walk on the road or on the passage, and soar from the ground to the sky and fly freely in the air. . For this reason, the amusement was improved by introducing a graphic user interface for landing by designating a landing point on the ground from a simulated aerial view, and conversely, a graphic user interface for jumping from the ground to the air.

以上、説明したように、本発明の都市景観3次元動画アミューズメントシステムによれば、コストのかかる都市空間の3次元数値モデルの生成および建造物表面に対するレンダリング処理を行うことなしに、空中で撮影した実画像を用いて都市の任意の場所に対して空中における任意の視点経路と視点方向に対する3次元動画を生成することができる。また、路上ないし通路上で撮影した実画像を用いて都市の任意の路上ないし通路上の地点に対し人間目線で任意の視点経路と視点方向に対する3次元動画を生成することができる。   As described above, according to the cityscape three-dimensional video amusement system of the present invention, the image is taken in the air without generating a costly three-dimensional numerical model of the urban space and rendering the building surface. A real image can be used to generate a three-dimensional moving image for an arbitrary viewpoint route and viewpoint direction in the air for an arbitrary place in the city. In addition, it is possible to generate a three-dimensional moving image with respect to an arbitrary viewpoint route and a viewpoint direction with a human eye at a point on an arbitrary road or passage in a city using an actual image taken on the road or the passage.

以下、添付図面を参照しながら、本発明の都市景観の3次元動画アミューズメントシステムを実施するための最良の形態を詳細に説明する。図1は、本実施形態における都市景観3次元動画アミューズメントシステムの全体構成を概略的に示す図である。該都市景観3次元動画生成アミューズメントシステムは視点が空中にある場合の3次元動画生成を行うための部分と、視点が路上にある場合の3次元動画生成を行うための部分と、双方に共通的なグラフィックユーザインターフェイスシステム180より構成され、ユーザ191にはインターネット190を介してサービスが提供される。   Hereinafter, the best mode for carrying out the three-dimensional moving image amusement system of a cityscape of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a diagram schematically showing an overall configuration of a cityscape three-dimensional video amusement system in the present embodiment. The urban landscape 3D video generation amusement system is common to both the part for generating 3D video when the viewpoint is in the air and the part for generating 3D video when the viewpoint is on the road A graphic user interface system 180 is provided, and services are provided to the user 191 via the Internet 190.

視点が空中にある場合の3次元動画生成を行うための部分は、航空機により空中で航空写真を取得するための空中画像取得システム100と、取得した航空写真を3次元動画生成に使いやすいように加工しデータベース化するための空中画像データベース生成登録システム120と、データベース化された空中画像データベース140と、グラフィックユーザインターフェイスシステム180を通して要求されるユーザ191の要求に基づき3次元動画像を生成する空中3次元動画生成システム160より構成される。 In order to generate a 3D video when the viewpoint is in the air, the aerial image acquisition system 100 for acquiring an aerial photo in the air by an aircraft and the acquired aerial photo to be easy to use for generating a 3D video. An aerial image database generation / registration system 120 for processing and creating a database, an aerial image database 140 created as a database, and an aerial 3 that generates a three-dimensional moving image based on a request from a user 191 requested through a graphic user interface system 180 A three-dimensional video generation system 160 is configured.

視点が路上にある場合の3次元動画生成を行うための部分は、車両等により路上で写真を取得するための路上画像取得システム110と、取得した写真を3次元動画生成に使いやすいように加工しデータベース化するための路上画像データベース生成登録システム130と、データベース化された路上画像データベース150と、グラフィックユーザインターフェイスシステム180を通して要求されるユーザ191の要求に基づき3次元動画像を生成する路上3次元動画生成システム170より構成される。双方に共通的なグラフィックユーザインターフェイスシステム180では、視点が空中にある場合の視界生成と視点が路上にある場合の視界生成をユーザ191の要求に基づき切り替える機能も有している。以下、本発明になる3次元動画生成の基本原理を解説した後、本発明になる該都市景観3次元動画アミューズメントシステムを構成する各システムについて詳述する。 The part for generating 3D video when the viewpoint is on the road is processed to make it easy to use 3D video generation on the road image acquisition system 110 for acquiring a photo on the road with a vehicle etc. A road image database generation / registration system 130 for creating a database, a road image database 150 created as a database, and a three-dimensional road image for generating a three-dimensional moving image based on a request from a user 191 requested through a graphic user interface system 180 The video generation system 170 is configured. The graphic user interface system 180 common to both has a function of switching between the field-of-view generation when the viewpoint is in the air and the field-of-view generation when the viewpoint is on the road based on a request from the user 191. Hereinafter, after explaining the basic principle of 3D animation generation according to the present invention, each system constituting the cityscape 3D animation amusement system according to the present invention will be described in detail.

図2は、都市景観3次元動画アミューズメントシステムにおける空中画像取得の概念を示す図であり、本発明の最大の特徴は、都市景観3次元動画生成において第一に都市の3次元モデルを生成しないことであり、第二に生成した3次元モデルに外壁面パターンないし外壁面写真をレンダリングしないことであって、これら人手とコストが必要な作業を排除する代わりに、都市景観のあらゆる位置について事前にあらゆる方向から画像を取得しておき、これを必要に応じて選択、変形して利用することである。しかしながらこの方法は膨大な画像を事前に撮影する必要があるだけでなく、最適な撮影済み画像を高速に検索する必要があり、近年のディジタルカメラの進歩、各種メモリの大容量低コスト化と処理能力と通信能力の向上によって実現の条件が整ったところに、本発明による新方式の完成によって初めて実現が可能となったのである。 FIG. 2 is a diagram showing the concept of aerial image acquisition in a city landscape 3D video amusement system. The greatest feature of the present invention is that a city 3D model is not generated first in the city landscape 3D video generation. Secondly, it is not to render the outer wall pattern or outer wall photo on the generated 3D model, and instead of eliminating these manual and costly work, every position of the cityscape is An image is acquired from a direction, and this is selected and transformed as necessary. However, this method not only needs to capture a large number of images in advance, but also needs to search for an optimal captured image at high speed. Recent advances in digital cameras, reduction in the capacity and cost of various memories, When the conditions for realization were established by improving the capability and communication capability, the new scheme according to the present invention was first realized.

図2では都市200の上空天球222を充分小さい立体角の範囲i221あるいは立体角の範囲1220のようにおおむね2°から5°前後の角度で立体的に分割して、天球222を覆う地表近くを除くすべての該充分小さい立体角に対して地表のあらゆる場所の画像を準備するための空中画像取得システム100の概念を示している。 In FIG. 2, the sky sphere sphere 222 in the city 200 is three-dimensionally divided at an angle of about 2 ° to about 5 ° like a sufficiently small solid angle range i 221 or a solid angle range 1220, and the surface near the surface of the sphere 222 is covered. The concept of an aerial image acquisition system 100 for preparing images everywhere on the surface of the earth for all the sufficiently small solid angles is shown.

図3は図2の隣接する該充分小さい立体角の範囲i221で撮影された同一地点に対する画像は視差のため見え方が若干異なるが、この若干異なった画像間の視界を線形変換により画像を連続的に変形させて補間し、滑らかな3次元動画を得るためのモーフィング処理の概念を示したものである。建物および視線方向の関係図230で示される建造物を視差が比較的小さい視線方向1240と視線方向2250より見た視界は、視線方向1より見た画像241および視線方向2より見た画像251で示されるが、視線方向1240と視線方向2250のなす角が小さい場合、あるいは対象物が平面的である場合には画像を線形変換によるモーフィング処理によって相互に近似することができる。このモーフィング処理を隣接する視点の実画像の補間処理に使用するのが本発明の特徴である。   FIG. 3 shows a slightly different view of the image of the same spot taken in the adjacent sufficiently small solid angle range i221 of FIG. 2 due to parallax, but the images are continuously displayed by linear conversion of the field of view between the slightly different images. The concept of the morphing process for obtaining a smooth three-dimensional moving image is shown. The field of view of the building shown in the relationship diagram 230 of the building and the line-of-sight direction viewed from the line-of-sight direction 1240 and the line-of-sight direction 2250 having a relatively small parallax is an image 241 viewed from the line-of-sight direction 1 and an image 251 viewed from the line-of-sight direction 2. As shown, when the angle formed by the line-of-sight direction 1240 and the line-of-sight direction 2250 is small, or when the object is planar, the images can be approximated to each other by morphing processing using linear transformation. It is a feature of the present invention that this morphing process is used for an interpolation process of an actual image of an adjacent viewpoint.

図4は本発明になる都市景観3次元動画生成アミューズメントシステムにおける模擬飛行による模擬視界発生の概念を説明した図である。視点経路P(t) 270に沿って視点が時刻tとともに移動し、その間、地表を目標トラジェクトリT(t) 280に沿って視界にとらえる。該目標トラジェクトリT(t) 280は該視点経路P(t) 270上の位置から、時刻t の視線271、時刻t+δt の視線272、時刻t+2δt
の視線273、時刻t+3δt の視線 274、時刻t+4δt の視線275、および時刻t+5δt の視線276によりδtごとにとらえられた地表上の軌跡である。本発明では該視点経路P(t) 270からの該目標トラジェクトリT(t) 280に対する都市景観3次元動画を生成する方法として、時刻tの視線271から時刻t+5δtの視線276に近く視差の少ない空中画像i260および空中画像i+1 261を空中画像データベース143より検索し、時刻t の視線271、時刻t+δt の視線272、および時刻t+2δt
の視線273の間は最も視線が近い空中画像i260を原画像として使用して、時刻t
の視線271、時刻t+δt の視線272、および時刻t+2δt の視線273と空中画像i260の視線の間の視点の相違による視差を空中画像i260に対するモーフィング処理で補正し、時刻t+3δt の視線 274からは空中画像i260よりも空中画像i+1 261の方が視点の相違による視差が少ないと判断して空中画像i+1 261を原画像に切り替え、時刻t+3δt の視線 274、時刻t+4δt
の視線275、時刻t+5δt の視線276と空中画像i+1 261の視線の間の視点の相違による視差を空中画像i+1 261に対するモーフィング処理で補正することにより滑らかな該目標トラジェクトリT(t)
280に沿った都市景観の3次元動画生成を行うのである。
FIG. 4 is a diagram for explaining the concept of generation of a simulated field of view by simulated flight in the cityscape three-dimensional video generation amusement system according to the present invention. The viewpoint moves with time t along the viewpoint path P (t) 270, and during that time, the ground surface is captured in the field of view along the target trajectory T (t) 280. From the position on the viewpoint path P (t) 270, the target trajectory T (t) 280 has a line of sight 271 at a time t 1, a line of sight 272 at a time t + δt, and a time t + 2δt.
The trajectory on the ground surface is captured for each δt by the line of sight 273, the line of sight 274 at time t + 3δt, the line of sight 275 at time t + 4δt, and the line of view 276 at time t + 5δt. In the present invention, as a method of generating a three-dimensional cityscape movie for the target trajectory T (t) 280 from the viewpoint path P (t) 270, the parallax is close from the line of sight 271 at time t to the line of sight 276 at time t + 5δt. A few aerial images i260 and aerial images i + 1 261 are searched from the aerial image database 143, and the line of sight 271 at time t1, the line of sight 272 at time t + δt, and the time t + 2δt
Using the aerial image i260 having the closest line of sight as the original image during
Parallax due to the difference in viewpoint between the line of sight 271 of time t + δt 2, and the line of sight 273 of time t + 2δt and the line of sight of the aerial image i 260 is corrected by the morphing process for the aerial image i 260, From the line of sight 274, it is determined that the aerial image i + 1 261 has less parallax due to a difference in viewpoint than the aerial image i260, and the aerial image i + 1 261 is switched to the original image, and the line of sight 274 at time t + 3δt t + 4δt
The target trajectory T ((s) smoothed by correcting the parallax due to the difference in viewpoint between the line of sight 275 at time t + 5δt and the line of sight of the aerial image i + 1 261 by morphing processing on the aerial image i + 1 261. t)
The 3D animation of the cityscape along 280 is generated.

本発明になる方法は膨大な量の空中画像を必要とするが、その取得方法についての例を示したのが図5である。航空機301に図7に示すような多数のディジタルカメラを収容したディジタルカメラ集合体を搭載し、飛行経路300に沿って一定間隔ごとの撮影ポイント310で地表を撮影する。飛行経路300と撮影ポイント310を網目状に濃密に設定し、複数のディジタルカメラを搭載してディジタルカメラ集合体光軸方向320に示すように同時に多方向の画像を撮影することにより、図2に示す該充分小さい立体角の範囲i221ごとの画像を取得する。   The method according to the present invention requires an enormous amount of aerial images. FIG. 5 shows an example of the acquisition method. A digital camera assembly containing a large number of digital cameras as shown in FIG. 7 is mounted on the aircraft 301, and the ground surface is photographed at photographing points 310 at regular intervals along the flight path 300. The flight path 300 and the shooting points 310 are densely set in a mesh pattern, and a plurality of digital cameras are mounted and multi-directional images are taken simultaneously as shown in the optical axis direction 320 of the digital camera assembly, thereby obtaining FIG. An image is acquired for each sufficiently small solid angle range i221 shown.

図6は空中画像取得システム100の処理フローを記したもので、以下、図15まで、該空中画像取得システム100の詳細な実現方法を説明する。まず、撮影ポイント設定プロセス330で一定距離間隔で網目状に空中画像を撮影できるように、飛行航路と撮像ポイントを設定する。この撮影計画は図11に構成が示される空中画像取得計画ファイル101の形で飛行航路と抗路上の撮影ポイントが定義される。次に撮影プロセス331では、航空機301が空中画像取得計画ファイル101に規定された撮影ポイント310に到達したことを判断して図9に示す空中撮影制御システム393により撮影を行う。撮影されたディジタルカメラ内の画像は空中撮影制御システム393により予め決められたタイミングごとに撮像プロセスで取得した位置および姿勢データから構成されるメタデータとともに空中画像一次ファイル102に蓄積される。   FIG. 6 shows a processing flow of the aerial image acquisition system 100. Hereinafter, a detailed implementation method of the aerial image acquisition system 100 will be described with reference to FIG. First, the flight route and imaging points are set so that the imaging point setting process 330 can capture aerial images in a mesh pattern at regular intervals. In this shooting plan, shooting points on the flight route and the anti-road are defined in the form of an aerial image acquisition plan file 101 whose configuration is shown in FIG. Next, in the shooting process 331, it is determined that the aircraft 301 has reached the shooting point 310 defined in the aerial image acquisition plan file 101, and shooting is performed by the aerial shooting control system 393 shown in FIG. The captured images in the digital camera are stored in the aerial image primary file 102 together with metadata including position and orientation data acquired in the imaging process at predetermined timings by the aerial shooting control system 393.

図7は本発明になる空中画像取得システム100を構成するディジタルカメラ集合体360の構成例を示した図である。地表をあらゆる視点から効率よく高密度に撮影する目的で、直下方向のディジタルカメラ350aの周辺に水平全周方向が放射状に等間隔に分割されるように複数の斜め方向ディジタルカメラ350bから350iまでの8台を光軸が重力方向となす角が同一となるように配置してディジタルカメラ集合体360を形成したものである。とくに航空機に搭載して撮影する場合には、滞空証明を取得する必要があり、航空写真撮影用に航空機床面にあいている穴を変更したり、あるいは該床面穴から機体外にカメラが飛び出す形で利用することは事実上不可能であるため、ディジタルカメラ集合体360をCanon社製のPowerShotなどの小型ディジタルカメラを利用して該ディジタルカメラ集合体が該航空機床面穴内に収まるよう工夫したものである。ディジタルカメラ集合体 360を構成するディジタルカメラ350a〜i以外の支持構造は、撮影方向精度が高いことを要求されるので、軽量かつ剛性の高いものであればどのようなものでもよく、ハニカム構造アルミニウム板あるいは炭素樹脂などで構成することができる。   FIG. 7 is a diagram showing a configuration example of the digital camera assembly 360 constituting the aerial image acquisition system 100 according to the present invention. For the purpose of efficiently and densely photographing the ground surface from all viewpoints, a plurality of oblique digital cameras 350b to 350i are arranged in such a way that the horizontal circumferential direction is radially divided at equal intervals around the digital camera 350a in the direct downward direction. The digital camera assembly 360 is formed by arranging eight cameras so that the angle between the optical axis and the direction of gravity is the same. In particular, when shooting on an aircraft, it is necessary to obtain a flight proof, change the hole on the aircraft floor for aerial photography, or install a camera outside the aircraft from the floor hole. Since it is practically impossible to use it in a pop-up form, the digital camera assembly 360 is designed to fit within the aircraft floor hole using a small digital camera such as Canon PowerShot. It is a thing. The support structure other than the digital cameras 350a to 350i constituting the digital camera assembly 360 is required to have high shooting direction accuracy. Therefore, any support structure that is lightweight and rigid can be used. It can be composed of a plate or carbon resin.

図8は、航空機による空中画像取得システムの航路および撮影ポイントの設定例を示したものである。図8(b)にて撮影ポイント310の設定例を示している。飛行経路300は空中に撮影ポイント310の網目を構成するために等間隔で平行な飛行航路300を図8(b)で点線で結んであるようにUターンしながら往復する形で飛行する。この間、撮影ポイント310で撮影を行う。撮影ポイント310の相互間隔は、飛行航路間撮影間隔372と 飛行方向撮影間隔371により規定される。飛行高度を約800mと設定すると、飛行航路間撮影間隔372および飛行方向撮影間隔371は、図2の充分小さい立体角の範囲 i221内に少なくとも1枚の画像を得るためには約80m以下に設定するのが好ましい。ディジタルカメラ集合体360で撮影した場合、図8(a)のディジタルカメラ350a〜iの撮影範囲375a〜iで示す範囲が撮影される。飛行高度、斜め方向ディジタルカメラ350b〜iの鉛直方向となす角度、およびレンズの焦点距離の設定によって、該ディジタルカメラ350a〜iの撮影範囲375a〜iの各ディジタルカメラが撮影する範囲と相互の重複度は変化する。本発明の目的からは、相互に若干の重複しながら地表をほぼ連続的に覆うように設定することが望ましい。なお、直下方向を撮影するディジタルカメラ350aの飛行経路300に対する向きは、図8(a)では画像フレームの横方向を飛行経路300の進行方向にしているが、画像フレームの縦方向を飛行経路300の進行方向にしてもよい。   FIG. 8 shows an example of setting the route and the shooting point of the aerial image acquisition system using an aircraft. FIG. 8B shows a setting example of the shooting point 310. The flight path 300 flies in a reciprocating manner while making U-turns as shown in FIG. 8B by connecting the flight routes 300 parallel to each other by dotted lines in order to form a network of the photographing points 310 in the air. During this time, shooting is performed at the shooting point 310. The mutual interval between the shooting points 310 is defined by the flight interval shooting interval 372 and the flight direction shooting interval 371. When the flight altitude is set to about 800 m, the flight interval shooting interval 372 and the flight direction shooting interval 371 are set to about 80 m or less in order to obtain at least one image within the sufficiently small solid angle range i221 in FIG. It is preferable to do this. When shooting with the digital camera assembly 360, the range indicated by the shooting ranges 375a-i of the digital cameras 350a-i in FIG. Overlap with the range captured by each digital camera in the imaging range 375a-i of the digital camera 350a-i by setting the flight altitude, the angle formed by the oblique direction digital camera 350b-i, and the focal length of the lens The degree varies. For the purpose of the present invention, it is desirable to set so that the ground surface is covered almost continuously while slightly overlapping each other. Note that the orientation of the digital camera 350a that captures the direct direction with respect to the flight path 300 is set such that the horizontal direction of the image frame is the traveling direction of the flight path 300 in FIG. 8A, but the vertical direction of the image frame is the flight path 300. May be in the direction of travel.

図9は空中画像取得システムの構成例を示した図であり、フライトナビゲーションシステム部385とデータ取得記録システム部390より構成される。フライトナビゲーションシステム部385は図8(b)で規定される撮影ポイント310に航空機301を飛行経路300に沿って誘導するための装置であり、GPS380より航空機位置データが周期的に得られ、航空計装388より航空機姿勢、高度、速度などのアビオニクス情報387が得られる。これらの信号インターフェイスは航空機用バス信号として標準化されているので新規性はない。   FIG. 9 is a diagram showing a configuration example of the aerial image acquisition system, which includes a flight navigation system unit 385 and a data acquisition / recording system unit 390. The flight navigation system unit 385 is a device for guiding the aircraft 301 along the flight path 300 to the imaging point 310 defined in FIG. 8B. The aircraft position data is periodically obtained from the GPS 380, and the air meter Avionics information 387 such as aircraft attitude, altitude and speed can be obtained from the equipment 388. These signal interfaces are not novel because they are standardized as aircraft bus signals.

フライトナビゲーションシステム部385の機能は、図11の空中画像取得計画ファイル101の内容に従い、図10の空中画像取得システムのフライトナビゲーションシステム部の処理フローによって図12の空中画像取得システムのフライトナビゲーションシステム部の表示画面例によってパイロットを誘導するものである。フライトナビゲーションシステム自体は既に公然実施されていて何ら新規性はないものであるが、本発明の目的を実現するために撮影ポイント310に効率的に航空機を誘導する部分が本発明に関わるところである。まず飛行前に都市のどの部分の上空画像を取得するか決定する。地図上で撮影範囲を決定し、飛行プランを策定する。飛行プランは飛行経路300を航空地図上で設定することによって行われる。 The function of the flight navigation system unit 385 is in accordance with the contents of the aerial image acquisition plan file 101 of FIG. 11, and the flight navigation system unit of the aerial image acquisition system of FIG. 12 according to the processing flow of the flight navigation system unit of the aerial image acquisition system of FIG. The pilot is guided by the example of the display screen. The flight navigation system itself has already been publicly implemented and has no novelty. However, in order to realize the object of the present invention, a part that efficiently guides the aircraft to the photographing point 310 is related to the present invention. First, determine which part of the city you want to get the sky image of before the flight. Determine the shooting range on the map and formulate a flight plan. The flight plan is performed by setting the flight path 300 on the aerial map.

撮影ポイント310は本発明の目的を達成するように均一かつ高密度な網目状に地表から同一の高さで設定しなくてはならず、その結果に基づき飛行経路300を平行線で構成されるように設定する。各直線部分に図11の空中画像取得計画ファイル101に示される航路No.を割り振り、各航路ごとに全体として網目を構成するように撮影ポイント310を割付け、各航路の開始座標と終了座標、さらにその間の撮影ポイント数と各撮影ポイント座標を緯度経度および高度で設定する。このようにして図11の空中画像取得計画ファイル101は構築される。該空中画像取得計画ファイル101の構築に関わるグラフィックユーザインターフェイスは地図情報システムとして公然実施されている。 The shooting point 310 must be set at a uniform height from the ground surface at the same height so as to achieve the object of the present invention, and based on the result, the flight path 300 is composed of parallel lines. Set as follows. The route number shown in the aerial image acquisition plan file 101 in FIG. 11 is assigned to each straight line portion, and the shooting points 310 are assigned so as to form a mesh as a whole for each route, and the start coordinates and end coordinates of each route, The number of shooting points and the coordinates of each shooting point are set in latitude and longitude and altitude. In this way, the aerial image acquisition plan file 101 of FIG. 11 is constructed. The graphic user interface related to the construction of the aerial image acquisition plan file 101 is publicly implemented as a map information system.

フライトナビゲーションシステム部385の機能は図10に記載の空中画像取得システムのフライトナビゲーションシステム部の処理フローによって示される。処理ブロック420で空中取得計画ファイル101に登録されている航路No.の中から飛行予定の航路No.についてすべての撮影が終了するまで図12の表示を順次に行う。指定された航路No.には開始座標があるので、処理ブロック421で該航路NO.を開始するために航路開始点の位置、高度、進行方向、速度を指定して図12の内容をモニタ上に表示してガイダンスを行う。撮影を行うには、処理ブロック421で規定された条件を一定の誤差範囲、たとえば位置誤差で10mから30m以下の精度、飛行方向誤差で5°以下の精度で満足しなくてはならず、満足しない場合には再度飛行航路をやり直すことになり、処理ブロック423で処理ブロック421のガイダンスを再度行う。処理ブロック422の条件を満足した場合には処理ブロック420で選択された航路No.の空中画像取得計画ファイル記載の撮影ポイント座標から最終撮影ポイントまで撮影ポイントをひとつずつ順次処理ブロック424および処理ブロック425によりガイダンスする。図12に空中画像取得システムのフライトナビゲーションシステム部の表示画面例を示す。 The function of the flight navigation system unit 385 is shown by the processing flow of the flight navigation system unit of the aerial image acquisition system shown in FIG. 12 are sequentially displayed from the route numbers registered in the aerial acquisition plan file 101 in the processing block 420 until all the shootings for the route numbers scheduled for flight are completed. Since the designated route number has a start coordinate, in order to start the route number in processing block 421, the position, altitude, traveling direction and speed of the route start point are designated and the contents of FIG. To display guidance. In order to take a picture, the conditions specified in the processing block 421 must be satisfied within a certain error range, for example, a position error of 10 m to 30 m or less and a flight direction error of 5 ° or less. If not, the flight route is restarted, and the guidance of the processing block 421 is performed again in the processing block 423. When the conditions of the processing block 422 are satisfied, the processing points 424 and 425 are sequentially processed one by one from the shooting point coordinates described in the aerial image acquisition plan file of the route number selected in the processing block 420 to the final shooting point. Guidance by FIG. 12 shows a display screen example of the flight navigation system unit of the aerial image acquisition system.

航空機301を処理ブロック420で指定された航路No.の開始点に誘導するためには図12の撮影ガイダンス表示437と位置偏差表示446を用いる。航空機位置373の飛行航路300からの偏差を知ることができ、航空機を操縦して偏差の解消を行う。航空機の位置に関するデータはGPS380より得られるほか、航空機計装388よりアビオニクス情報387として高度、進行方位、速度、ピッチ・ヨー・ロールの姿勢データが得られ、図12の表示に使用される。撮影ガイダンス表示437では、航路No.表示439により飛行中の航路が示されるほか、航路内残撮影ポイント数表示438により、航路内で今後撮影しなければならない撮影ポイント数が示される。撮影ガイダンス表示437では、撮影ポイント310を飛行航路300に沿って、撮影ポイントNo.と撮影許容範囲440が表示されるので、パイロットは各撮影ポイントに対して撮影許容範囲440内を航空機が通過するように操縦する。航空機ガイダンス表示437は飛行にしたがって上から下へローリング表示することにより、常に直近の撮影ポイントととるべき飛行経路300と航空機位置373の関係が示される。航空機位置表示373は常時画面左下部となる。なお、図12の方位表示442、姿勢表示443、位置偏差表示446はいずれも現在の航空計装では公然実施されているものである。 In order to guide the aircraft 301 to the starting point of the route number designated in the processing block 420, the photographing guidance display 437 and the position deviation display 446 of FIG. The deviation of the aircraft position 373 from the flight route 300 can be known, and the deviation is eliminated by maneuvering the aircraft. Data on the position of the aircraft is obtained from GPS 380, and altitude, heading direction, speed, and pitch / yaw / roll attitude data is obtained as avionics information 387 from aircraft instrumentation 388, and is used for the display in FIG. In the shooting guidance display 437, the route number 439 indicates the route in flight, and the remaining shooting point number display 438 in the route indicates the number of shooting points that must be taken in the future. In the shooting guidance display 437, the shooting point 310 and the shooting allowable range 440 are displayed along the flight route 300 for the shooting point 310, so that the pilot passes through the shooting allowable range 440 for each shooting point. Maneuver like so. The aircraft guidance display 437 is displayed rolling from top to bottom according to the flight, so that the relationship between the flight path 300 and the aircraft position 373 that should always be taken as the latest photographing point is shown. The aircraft position display 373 is always at the bottom left of the screen. Note that the azimuth display 442, posture display 443, and position deviation display 446 in FIG. 12 are all publicly implemented in the current aircraft instrumentation.

つぎに図9におけるデータ取得記録システム部 390につき詳述する。図9において、航空機301には機体下方に航空写真機設置用の航空機床穴397があり、この穴にディジタルカメラ集合体360を機外に張り出さないように設置する。図9の例では後述する安定プラットフォーム装置395により航空機床穴397に吊下する構造を採用しているが、安定プラットフォーム制御システム 394および安定プラットフォーム装置395は航空機301の姿勢に拘らずディジタルカメラ集合体360を常に地上直下に指向させ、かつ方位を規定方向に固定する機能を有するので、航空機のピッチ・ロールを常時5°以内に操縦で保てるのであれば安定プラットフォーム装置395を省略してもよい。IMU396は慣性計測装置の英語表現の頭文字であり、安定プラットフォーム装置395に乗せることによりディジタルカメラ集合体360の姿勢を計測することができる。ディジタルカメラ集合体360の上面は航空機床398より上に出てもよい。 Next, the data acquisition / recording system unit 390 in FIG. 9 will be described in detail. In FIG. 9, an aircraft 301 has an aircraft floor hole 397 for installing an aerial photographer below the fuselage, and the digital camera assembly 360 is installed in this hole so as not to protrude outside the aircraft. In the example of FIG. 9, a structure that is suspended from the aircraft floor hole 397 by a stable platform device 395 to be described later is adopted. However, the stable platform control system 394 and the stable platform device 395 are digital camera assemblies regardless of the attitude of the aircraft 301. Since the 360 has a function of always directing 360 directly below the ground and fixing the azimuth in a specified direction, the stable platform device 395 may be omitted if the pitch roll of the aircraft can always be kept within 5 ° by maneuvering. The IMU 396 is an acronym for the English expression of the inertial measurement device, and the posture of the digital camera assembly 360 can be measured by placing it on the stable platform device 395. The top surface of the digital camera assembly 360 may protrude above the aircraft floor 398.

データ取得記録システム部 390には航空機301の姿勢を観測するIMU400と、ディジタルカメラ350の制御と撮像データ処理のためのプログラムを含む空中撮影制御システム393と、画像データをふくむ各種データを記憶する大容量ディスク装置で構成される空中画像一次ファイル102と、ディジタルカメラ350に対する撮影指令を出すための撮影ポイントを記憶している空中画像取得計画ファイル101を機内に搭載している。航空機301の位置計測用のGPS380のアンテナを機外に有している。 The data acquisition and recording system unit 390 stores an IMU 400 for observing the attitude of the aircraft 301, an aerial imaging control system 393 including a program for controlling the digital camera 350 and processing imaging data, and a large amount of data including image data. An aerial image primary file 102 composed of a capacity disk device and an aerial image acquisition plan file 101 storing shooting points for issuing shooting commands to the digital camera 350 are installed in the apparatus. A GPS380 antenna for measuring the position of the aircraft 301 is provided outside the aircraft.

図13は図9のデータ取得記録システム部 390の構成機器間の情報の流れを示している。図14は撮影制御システム393の処理フローを説明している。撮影制御システム393はCPUで構成される。撮影制御システム393はIMU396より安定プラットフォーム装置395の姿勢データ450を周期的に取り込む。安定プラットフォーム395が正常に動作している場合には、航空機301の姿勢によらず慣性空間に対して常に一定の姿勢を保っている。航空機301に固定されたIMU400は航空機の姿勢データ451を、GPS380はGPSアンテナの位置データ452を周期的に撮影制御システム393に送り込む。撮影制御システム393の処理は図14に詳説しているが、空中画像取得計画ファイル101の内容と得られたGPSアンテナの位置データ452と航空機の姿勢データ451を処理ブロック460と処理ブロック461で順次照合し、航路No.を特定し、当該航路No.の撮影終了ないし、航路離脱まで、順次処理ブロック462で指定航路の撮影点の直近点を通過中かを判定し、撮影許容範囲440内で撮影ポイントに最近接したタイミングにディジタルカメラ集合体を構成する各ディジタルカメラ350に処理ブロック463で一斉に撮影指令457を送ると同時に図15に示す空中画像一次データファイル内の航空機データ部分472を処理ブロック464で書き込む。 FIG. 13 shows a flow of information between components of the data acquisition / recording system unit 390 of FIG. FIG. 14 illustrates a processing flow of the imaging control system 393. The photographing control system 393 is composed of a CPU. The imaging control system 393 periodically acquires the attitude data 450 of the stable platform device 395 from the IMU 396. When the stable platform 395 is operating normally, it always maintains a constant attitude with respect to the inertial space regardless of the attitude of the aircraft 301. The IMU 400 fixed to the aircraft 301 periodically sends aircraft attitude data 451, and the GPS 380 periodically sends GPS antenna position data 452 to the imaging control system 393. The processing of the imaging control system 393 is described in detail in FIG. 14, but the contents of the aerial image acquisition plan file 101 and the obtained GPS antenna position data 452 and aircraft attitude data 451 are sequentially processed in processing block 460 and processing block 461. The route number is identified, the route number is identified, and from the end of shooting of the route number to the departure of the route, it is sequentially determined in processing block 462 whether it is passing the nearest point of the shooting point of the designated route and within the shooting allowable range 440 At the timing closest to the shooting point, a shooting command 457 is sent simultaneously to the digital cameras 350 constituting the digital camera aggregate in processing block 463, and at the same time, the aircraft data portion 472 in the aerial image primary data file shown in FIG. 15 is processed. Write at block 464.

ディジタルカメラ350は内部に本発明の時点で32GBのメモリを保有できるので撮影した空中画像データ455を少なくともひとつの航路No.が終了するまで保持することができる。航空機301は、ひとつの航路No.を終了し、次の航路No.に入るまでの間、Uターン飛行をするが、この間は撮影を行わないので、ディジタルカメラ350内の空中画像データ455を航空機搭載の大容量ディスク装置で構成される空中画像一次ファイル102に処理ブロック465で転送し、ディジタルカメラ350内部のメモリを空にする。 Since the digital camera 350 can hold a 32 GB memory at the time of the present invention, it can hold the captured aerial image data 455 until at least one route number is completed. Aircraft 301 makes a U-turn flight until it finishes one route number and enters the next route number, but during this time, no image is taken, so aerial image data 455 in digital camera 350 is used as the aircraft. The processing is transferred to the aerial image primary file 102 composed of the mounted large-capacity disk device at processing block 465, and the memory inside the digital camera 350 is emptied.

図15に空中画像一次ファイル102の構成例を記したが、画像ヘッダ部470と画像データ部471は撮影した各画像ごとに用意される。ヘッダー部のカメラIDはディジタルカメラ集合体360を構成する各ディジタルカメラ350a〜iを識別する番号である。画像データIDは相互に画像が識別できるように付す認識番号であり、撮影日時刻は航空機データ部分472と対応する撮影時刻であり、空中画像データベース生成登録処理120において、統合して各ディジタルカメラ350a〜iの光軸方向を算定するのに用いられる。画像データ部分471は特にこの段階では加工を施さない。また、画像ヘッダ部470のカメラパラメタは通常は飛行中固定であるので、同一設定値を書き込む。 FIG. 15 shows a configuration example of the aerial image primary file 102, but an image header portion 470 and an image data portion 471 are prepared for each captured image. The camera ID in the header part is a number that identifies each digital camera 350a-i constituting the digital camera assembly 360. The image data ID is an identification number assigned so that the images can be distinguished from each other. The shooting date / time is the shooting time corresponding to the aircraft data portion 472. In the aerial image database generation / registration processing 120, the digital data 350a is integrated. Used to calculate the optical axis direction of ~ i. The image data portion 471 is not particularly processed at this stage. Further, since the camera parameter of the image header section 470 is normally fixed during flight, the same set value is written.

空中画像データベース生成登録システム120について図16から図26までを用いて詳細に説明する。図16は全体の処理フローを記載しており、処理ブロック480では、空中画像取得システム100で1日の飛行中に蓄積した空中画像一次ファイル102を飛行が終了した後、すべての画像について順次処理する。処理ブロック481では図17の空中画像データベースの画像ヘッダ部490のヘッダーを作成するが図15の空中画像一次ファイル102の画像ヘッダ部470のヘダーをそのまま転記する。処理ブロック482についても通常は空中画像一次ファイル102の画像ヘッダ部470のカメラパラメタをそのまま転記すればよい。   The aerial image database generation / registration system 120 will be described in detail with reference to FIGS. FIG. 16 describes the overall processing flow. In processing block 480, the aerial image primary file 102 accumulated during the day's flight in the aerial image acquisition system 100 is sequentially processed for all images after the flight is completed. To do. In the processing block 481, the header of the image header portion 490 of the aerial image database of FIG. 17 is created, but the header of the image header portion 470 of the aerial image primary file 102 of FIG. For the processing block 482, the camera parameters of the image header portion 470 of the aerial image primary file 102 are usually transferred as they are.

処理ブロック483では、画像ヘッダ部490の撮影パラメタを各画像ごとに計算するがその処理について以下に詳述する。カメラ位置は緯度、経度、高度で規定されるが、通常航空機搭載GPS380による位置測定がDGPSである場合には、飛行高度が低いこともあってそのまま正確な位置が得られるとしてよい。GPS380による位置測定がGPSである場合には誤差をふくむので、着陸後に飛行時刻と同時刻に測定した付近のDGPS局から座標補正データを入手して撮影日時刻にあわせて補正を行う。 In the processing block 483, the shooting parameters of the image header 490 are calculated for each image, and the processing will be described in detail below. The camera position is defined by latitude, longitude, and altitude. However, when the position measurement by the aircraft-mounted GPS 380 is usually DGPS, an accurate position may be obtained as it is because the flight altitude is low. Since the error is included when the position measurement by the GPS 380 is GPS, coordinate correction data is obtained from a nearby DGPS station measured at the same time as the flight time after landing, and the correction is performed according to the shooting date and time.

撮影パラメタの計算は線形代数を使用して行い、以下、図23を参照しながら説明する。北方の水平方向を指す直交座標系での単位ベクトルを
とし基準軸とする。
を基準とした機体のピッチ・ヨー・ロールによる座標変換を
とする。また、空中画像一次ファイル102における航空機データ部分472の位置を直交座標系で
とし、機体内のGPSアンテナ380からディジタルカメラ集合体360への位置偏差をベクトル表現で
とする。さらに基準軸
に対する各カメラ(添字k=a〜iで示す)の光軸、および4隅の方向ベクトルを単位ベクトルで下記と表現する。下記は常数であり、カメラの焦点距離と、ディジタルカメラ集合体360のディジタルカメラ350a〜iの取り付ける向きにより決まる。
撮影中心光軸を画像ベクトル(正規化) Gkc=(Gkcx Gkcy Gkcz)
撮影画像右下端方位ベクトル(正規化) Gk1=(Gk1x Gk1y Gk1z)
撮影画像右下端方位ベクトル(正規化) Gk2=(Gk2x Gk2y Gk2z)
撮影画像右下端方位ベクトル(正規化) Gk3=(Gk3x Gk3y Gk3z)
撮影画像右下端方位ベクトル(正規化) Gk4=(Gk4x Gk4y Gk4z)
と定義すると、撮影位置Sは S=

となり、図17撮影パラメタの撮影位置(緯度,経度,高度)が求まる。正規化画像ベクトル(X,Y,Z)は
kc により求まる。
The calculation of shooting parameters is performed using linear algebra, and will be described below with reference to FIG. Unit vector in Cartesian coordinate system pointing to the horizontal direction in the north
And the reference axis.
Coordinate conversion by pitch, yaw and roll of the aircraft based on
And In addition, the position of the aircraft data portion 472 in the aerial image primary file 102 is represented in an orthogonal coordinate system.
The positional deviation from the GPS antenna 380 in the aircraft to the digital camera assembly 360 is expressed in vector.
And Furthermore, the reference axis
The optical axis of each camera (indicated by the subscript k = a to i) and the direction vectors at the four corners are expressed as unit vectors as follows. The following are constants, which are determined by the focal length of the camera and the mounting direction of the digital cameras 350a to 350i of the digital camera assembly 360.
Image center (normalized) G kc = t (G kcx G kcy G kcz )
Captured image lower right azimuth vector (normalized) G k1 = t (G k1x G k1y G k1z )
Captured image lower right azimuth vector (normalized) G k2 = t (G k2x G k2y G k2z )
Captured image lower right azimuth vector (normalized) G k3 = t (G k3x G k3y G k3z )
Captured image lower right azimuth vector (normalized) G k4 = t (G k4x G k4y G k4z )
, The shooting position S is S =
+
Thus, the shooting position (latitude, longitude, altitude) shown in FIG. 17 is obtained. Normalized image vector (X, Y, Z) is
It is obtained by G kc .

航空機の姿勢
を加味した画像4端の方向の正規化ベクトルは各カメラに対して、それぞれ、
k1,
k2,
k3,
k4 となる。地表のTerrainデータは緯度、経度、標高で地表の格子点に対して与えられているから、その直近の隣接する3点ずつで3角形を構成してその頂点座標をT1,T2,T3とし,Tcを三角形T123 の平面とGkcの交わる座標とすると、xは外積を表し、

0

0

0
であればTcは三角形T123内部にあるといえる。すなわち交わる。
撮影位置S=(x,y,z)からの画像ベクトル(正規化)Gkc がTcで三角形T123と交わるとすると
(数2)
c-S=RGkc
c-T1=a(T2-T1)+b(T3-T1) ここでa,bは任意のスカラ-定数
となる。ここでRは図17の撮影パラメタの画像距離である。画像距離とは撮影位置から撮影光軸がTerrain580に交わるまでの距離をいう。
ここで、
= t(T1x 1y 1z)
= (T2x 2y 2z)
= (T3x 3y 3z)
= (T4x 4y 4z)
とすると、
=
=
+a(
-
)+b(
-

となり、図17の撮影パラメタのTerrain上中心点座標(緯度,経度,標高)が
として求まる。ただし三角形T123の内部にあるかは、外積を計算してチェックする。
Aircraft attitude
The normalized vector in the direction of the edge of the image 4 taking into account for each camera,
G k1,
G k2,
G k3,
Gk4 . Since the Terrain data of the surface is given to the lattice points of the surface by latitude, longitude, and altitude, a triangle is composed of the nearest three adjacent points, and the vertex coordinates are defined as T 1 , T 2 , T 3 and T c is the coordinate where the plane of the triangle T 1 T 2 T 3 and G kc intersect, x represents the outer product,
x
0
x
0
x
0
Then, it can be said that T c is inside the triangle T 1 T 2 T 3 . That is, they intersect.
If the image vector (normalized) G kc from the shooting position S = (x, y, z) intersects the triangle T 1 T 2 T 3 at T c (Equation 2)
T c -S = RG kc
T c −T 1 = a (T 2 −T 1 ) + b (T 3 −T 1 ) where a and b are arbitrary scalar constants. Here, R is the image distance of the shooting parameter in FIG. The image distance is the distance from the shooting position until the shooting optical axis crosses Terrain 580.
here,
= t (T 1x T 1y T 1z )
= t (T 2x T 2y T 2z )
= t (T 3x T 3y T 3z )
= t (T 4x T 4y T 4z )
Then,
=
=
+ a (
-
) + b (
-
)
The center point coordinates (latitude, longitude, elevation) on Terrain of the shooting parameters in FIG.
It is obtained as However, it is checked by calculating an outer product whether it is inside the triangle T 1 T 2 T 3 .

同様にGkcの代わりにGk1,Gk2,Gk3,Gk4に対して計算することにより、Terrain上最近右座標(緯度,経度,標高)、Terrain上最遠右座標(緯度,経度,標高)、Terrain上最遠左座標(緯度,経度,標高)、Terrain上最近左座標(緯度,経度,標高)がそれぞれ求まる。
次に、図17撮影パラメタのフレーム回転角を求める。航空機の姿勢が基準方向であると、各ディジタルカメラのフレームの光軸を通る水平線は地球の水平線と平行であるが、機体のピッチ・ヨー・ロールによる座標変換が
であると地球の水平線から回転角が生じる。
機体の姿勢が基準方向であるときの画面フレームの水平線は下記で与えられる。
機体のピッチ・ヨー・ロールによる座標変換が
であると、画面フレームの水平線は下記で与えられる。
したがって、フレーム回転角は、
となる。ここで ・は内積を表し、
はノルムを表す。
Similarly, by calculating with respect to G k1 , G k2 , G k3 , G k4 instead of G kc, the nearest right coordinate (latitude, longitude, altitude) on Terrain, the farthest right coordinate (latitude, longitude, on Terrain) (Elevation), the farthest left coordinate (latitude, longitude, elevation) on Terrain, and the latest left coordinate (latitude, longitude, elevation) on Terrain.
Next, the frame rotation angle shown in FIG. 17 is determined. If the attitude of the aircraft is the reference direction, the horizontal line passing through the optical axis of each digital camera frame is parallel to the horizontal line of the earth, but coordinate transformation by pitch, yaw and roll of the aircraft is not possible.
If so, a rotation angle is generated from the horizon of the earth.
The horizontal line of the screen frame when the attitude of the aircraft is in the reference direction is given below.
Coordinate transformation by pitch, yaw and roll of the aircraft
Then the horizontal line of the screen frame is given by
Therefore, the frame rotation angle is
It becomes. Where ・ represents inner product,
Represents the norm.

次に処理ブロック484で空中のモヤの影響除去の処理を行う。本発明の空中3次元動画生成システム150では、異なる視点から撮影した原画像を使用して都市のさまざまな方向からの映像を表現する。このため原画像に直射日光による影が存在すると、撮影時刻は原画像ごとに異ならざるを得ないため動画を合成したとき極めて見づらいものとなる。これを避けるため、直射日光のない曇天に雲の下から撮影し空中画像を取得する。このため、空中画像取得計画ファイル101では飛行高度を積雲または層雲が出現する高度より低い700〜800mに設定して撮影を行う。曇天での撮影は航空測量に航空機が使用できない条件下であるので、航空機の余剰時間を安価に利用できるという利点もある。一方、空中の水分が多いため視程が晴天時より短くなる欠点がある。 Next, in the processing block 484, processing for removing the influence of airborne haze is performed. The aerial three-dimensional video generation system 150 of the present invention uses the original images taken from different viewpoints to represent videos from various directions in the city. For this reason, if a shadow due to direct sunlight is present in the original image, the shooting time must be different for each original image, which makes it extremely difficult to see when the moving image is synthesized. In order to avoid this, an aerial image is acquired by shooting from below the cloud on a cloudy sky without direct sunlight. For this reason, in the aerial image acquisition plan file 101, shooting is performed by setting the flight altitude to 700 to 800 m, which is lower than the altitude at which cumulus clouds or stratus clouds appear. Since shooting in cloudy weather is a condition where the aircraft cannot be used for aerial surveying, there is an advantage that the surplus time of the aircraft can be used at low cost. On the other hand, since there is a lot of moisture in the air, there is a drawback that the visibility is shorter than that in fine weather.

水分は微小な水滴として直進光を乱反射、乱屈折させるため、空中の通過距離に応じて影響が発生する。特に斜め航空写真の場合には、オフナディア角が大きい程水分の影響が大きくなる。図18はモヤの影響除去処理における画像と視野の関係を示した図で、撮影画像495の下端は近景部分a496で撮影地表部分499のもっとも直近部分である。撮影画像495の上端部分は遠景部分498であり、撮影地表部分499の最遠部に位置する。近景部分a496から遠景部分498に向けて光が空気中を通過する距離が増える結果、微小水滴による光の散乱が増え、コントラストが減少し白濁する。この結果、図19(a)に示すようにモヤのない場合の画像のヒストグラムが輝度下限値から輝度上限値507まで分布した正規化ヒストグラム500であった場合、近景部分a496では近景部分aヒストグラム 501となり、上限値と下限値の幅が狭くなり中央値も白い方、すなわち輝度の高いほうに偏移する。 Moisture is reflected and diffused in a straight line as minute water droplets, so that influence occurs depending on the passage distance in the air. In particular, in the case of oblique aerial photographs, the influence of moisture increases as the off-nadir angle increases. FIG. 18 is a diagram showing the relationship between the image and the field of view in the defocusing effect removal processing, and the lower end of the photographed image 495 is the foreground part a496 and the nearest part of the photographed surface part 499. The upper end portion of the photographed image 495 is a distant view portion 498 and is located at the farthest portion of the photographing ground surface portion 499. As the distance through which light passes through the air from the foreground portion a496 toward the far view portion 498 increases, the scattering of light by minute water droplets increases, the contrast decreases, and white turbidity occurs. As a result, as shown in FIG. 19A, when the histogram of the image without a haze is the normalized histogram 500 distributed from the lower limit luminance value to the upper luminance limit value 507, the foreground portion a histogram 501 in the foreground portion a496. Thus, the range between the upper limit value and the lower limit value becomes narrower, and the median value shifts to the white side, that is, the higher brightness level.

この傾向は遠景部分ヒストグラム502で最も顕著となり、ヒストグラム上限値504とヒストグラム下限値 503の差である値幅 505が最小となり中央値506が最大となる。図18の撮影画像495で、ヒストグラムをとる範囲を画面横方向は全範囲で縦方向は近景部分a496、近景部分b497のように一定幅の短冊状にして、1ラインずつずらしながら上方に向けてヒストグラムを計算すると、図19(b)のような特性が得られる。モヤの濃度は高度によって濃淡があるが、水平方向には濃度の差がないとしてよいので、値幅フィッティング曲線513は単調減少、中央値フィッティング曲線512は単調増加として近似してよい。これらの曲線はモヤの高度による分布が不明であるので、実測値からフィッティングで求めた上で各行ごとに、フィッティング曲線から求めた値幅と中央値の補正係数で各画素値を補正する。
各画素の輝度の補正は、水平ラインごとに
(数8)

正規化ヒストグラム中央値+(画素輝度―中央値フィッティング値)
*正規化ヒストグラム値幅/値幅フィッティング値
で求められる。以上説明した処理は、図20で処理ブロック520から処理ブロック524で記された処理である。図21は本発明のモヤ影響除去処理の処理結果例を示すものであり、モヤ影響除去前画像530を処理した結果、モヤ影響除去後画像531が得られている。
This tendency is most noticeable in the distant scene portion histogram 502, the value width 505 which is the difference between the histogram upper limit value 504 and the histogram lower limit value 503 is minimized and the median value 506 is maximized. In the photographed image 495 of FIG. 18, the range for which the histogram is taken is the entire range in the horizontal direction of the screen, and the vertical direction is a strip with a constant width such as the foreground portion a496 and the foreground portion b497. When the histogram is calculated, characteristics as shown in FIG. 19B are obtained. Although the density of the haze may vary depending on altitude, it may be assumed that there is no difference in density in the horizontal direction, so the value width fitting curve 513 may be approximated as monotonically decreasing and the median fitting curve 512 may be approximated as monotonically increasing. Since these curves have unknown distribution due to the height of the haze, each pixel value is corrected with a correction coefficient of a value width and a median value obtained from the fitting curve for each row after being obtained by fitting from an actual measurement value.
The luminance correction of each pixel is performed for each horizontal line (Equation 8).

Normalized histogram median + (pixel brightness-median fitting value)
* Obtained by normalized histogram value width / value width fitting value. The processing described above is the processing described from processing block 520 to processing block 524 in FIG. FIG. 21 shows an example of the processing result of the defocusing effect removal processing of the present invention. As a result of processing the pre-moisture removal image 530, a post-blur removal image 531 is obtained.

次に処理ブロック485で処理ブロック481から484で求めた結果を図17に示す空中画像データベース143の該当画像データ部分に格納する。図16の空中画像データベース生成登録システムの処理フローの最後の処理ブロック486で、処理ブロック485で登録した空中画像データを用いた動画生成のために高速に該空中画像データを検索する目的でインデクスを生成する。処理ブロック486の内容は図22の空中画像データベース登録システムの空中画像インデクス生成登録処理フローでさらに詳細に述べられている。以下、図22にしたがって説明する。処理ブロック540の内容を図23の空中画像インデクス機構の構造と用語の定義を参照しながら説明する。撮影位置550で撮影された画像には、図17の空中画像データベース133の撮影パラメタとして撮影位置(緯度,経度,高度)550、正規化画像ベクトルG=(X Y Z) 551、フレーム回転角553、画像距離552,Terrain上中心点座標(緯度,経度,標高)554、Terrain上最近右座標(緯度,経度,標高)555、Terrain上最遠右座標(緯度,経度,標高)556、Terrain上最遠左座標(緯度,経度,標高)557、Terrain上最近左座標(緯度,経度,標高)558が既に格納されており、図23はそれを図示したものである。撮影位置550で撮影した画像は地表画像範囲549を捉えている。地表、Terrain580には緯度経度が定義されるので、1秒ごとにメッシュ化すると東京地方の緯度35°付近では緯度方向で30m、経度方向で25mのセルが構成できる。0.4秒ごとにメッシュ化すれば緯度方向で12m、経度方向で10mのセルが構成できる。65km四方の都市領域を考えると、このセル数は35Mセルに過ぎない。地表画像範囲549に含まれる地表セル559は地表画像範囲549の4端点が緯度経度で判明しているから容易に求めることができる。 Next, the processing block 485 stores the results obtained in the processing blocks 481 to 484 in the corresponding image data portion of the aerial image database 143 shown in FIG. In the final processing block 486 of the processing flow of the aerial image database generation / registration system of FIG. Generate. The contents of the processing block 486 are described in more detail in the aerial image index generation registration processing flow of the aerial image database registration system of FIG. Hereinafter, a description will be given with reference to FIG. The contents of the processing block 540 will be described with reference to the structure and term definition of the aerial image index mechanism in FIG. The image taken at the shooting position 550 includes shooting positions (latitude, longitude, altitude) 550, normalized image vector G = t (XYZ) 551, frame rotation angle 553, as shooting parameters of the aerial image database 133 in FIG. Image distance 552, Terrain center coordinates (latitude, longitude, elevation) 554, Terrain latest right coordinates (latitude, longitude, elevation) 555, Terrain farthest right coordinate (latitude, longitude, elevation) 556, Terrain top The far left coordinate (latitude, longitude, altitude) 557 and the latest left coordinate (latitude, longitude, altitude) 558 on Terrain have already been stored, and FIG. 23 illustrates this. The image photographed at the photographing position 550 captures the ground image range 549. Since the latitude and longitude are defined in the ground surface and Terrain 580, if meshing is performed every second, a cell of 30 m in the latitude direction and 25 m in the longitude direction can be formed near 35 ° latitude in the Tokyo region. If meshed every 0.4 seconds, a cell of 12 m in the latitude direction and 10 m in the longitude direction can be configured. Considering the 65km square city area, this number of cells is only 35M cells. The ground cell 559 included in the ground image range 549 can be easily obtained because the four end points of the ground image range 549 are known from the latitude and longitude.

各地表セルに対して、図2に示す天球222のあらゆる方向に対し、十分小さい立体角の範囲i221で画像を検索できなくてはならない。この目的で図24(a)に示すように天球を地表セル559の中心から鉛直に上を向いている天頂ベクトル570を定義し、以下、該天頂ベクトルを基準に同心円状に天球を輪切りにして天頂インデクスI 572を定義する。天頂インデクスiはi=0,1,2,…と順次定義され、i=0は天頂ベクトルであり、順次iが大きくなるに従い、天頂ベクトルとなす角度が同一幅で増加し、同一同心円状に天頂から水平線まで定義される。天頂インデクス572を通過して地表セル559から立体角セル中心ベクトルが定義される。立体角セル中心ベクトル574は、必ず天頂インデクス572上に一定方位角間隔で定義される。 For each locality cell, it is necessary to be able to search for an image within a sufficiently small solid angle range i221 in all directions of the celestial sphere 222 shown in FIG. For this purpose, as shown in FIG. 24 (a), a zenith vector 570 in which the celestial sphere is directed vertically upward from the center of the ground cell 559 is defined. Hereinafter, the celestial spheres are cut into concentric circles based on the zenith vector. Define Zenith Index I 572. The zenith index i is defined sequentially as i = 0,1,2, ..., i = 0 is the zenith vector, and as i increases sequentially, the angle formed with the zenith vector increases with the same width, and becomes the same concentric circle Defined from zenith to horizon. A solid angle cell center vector is defined from the surface cell 559 through the zenith index 572. The solid angle cell center vector 574 is always defined on the zenith index 572 at a constant azimuth angle interval.

図24(a)で立体角セル573とは図2の十分小さい立体角の範囲I 221に対応するもので、地表セル559からの画像検索の基本単位となる。立体角セル573は立体角セル中心ベクトル574に対してなす角度がたとえば3.5°以下であるベクトルの収まる円錐と定義される。図24は天頂方向から地表セル559を見た図である。立体角セル573は天頂インデクスI 572に対して相互に重複しながら隣接して定義され、天頂インデクスi572の全周をうめる。
天頂ベクトル570と天頂インデクスI 570を通過する立体角セル中心ベクトル574のなす角を天頂離角571といい、天頂インデクスI 572を定義する数値となる。
In FIG. 24A, the solid angle cell 573 corresponds to the sufficiently small solid angle range I 221 in FIG. 2, and is a basic unit for image retrieval from the ground cell 559. The solid angle cell 573 is defined as a cone that accommodates a vector whose angle formed with respect to the solid angle cell center vector 574 is, for example, 3.5 ° or less. FIG. 24 is a view of the surface cell 559 as viewed from the zenith direction. Solid angle cell 573 is defined adjacent to and overlapping each other with respect to zenith index I 572 and fills the entire circumference of zenith index i 572.
The angle formed by the solid angle cell center vector 574 passing through the zenith vector 570 and the zenith index I 570 is called a zenith separation angle 571, and is a numerical value defining the zenith index I 572.

図25は立体角セル573のインデクス構造を示したものである。図25(b)は天頂方向から地表セル中心点575を見下ろした図である。2次元の添字のある立体角セルアドレス(i,j)を定義して、iは天頂インデクスi572を示し、jは天頂インデクスiの同心円上のj番目の方向の立体角セルを表す。立体角セルアドレス(0,0) 584の立体角セル中心ベクトルは天頂ベクトル570であり、これを囲んで、同心円状に天球上で立体角セルアドレス(1,0) 585、立体角セルアドレス(1,1) 586、立体角セルアドレス(1,2) 587が以下、天頂インデクス1の全周を埋めるまで定義される。天頂インデクス1581の外側に天頂インデクス2に沿って、立体角セルアドレス(2,0) 588、立体角セルアドレス(2,1) 589、立体角セルアドレス(2,2) 590が天頂インデクス2の全周を埋めるまで定義される。立体角セル573は相互に重複し、天球を空隙が無いように埋め尽くされる。立体角セルの立体角は3次元動画生成が滑らかに行われるように、設定される。立体角セルアドレス数は天頂インデクスが地表に近づくにつれて多くなる。このようにしてすべての地表セルに対して、該地表セルを撮影した画像を、天球上の方向によって検索できるのである。 FIG. 25 shows the index structure of the solid angle cell 573. FIG. 25B is a view of the ground cell center point 575 looking down from the zenith direction. A solid angle cell address (i, j) with a two-dimensional subscript is defined, i indicates a zenith index i572, and j indicates a solid angle cell in the jth direction on a concentric circle of the zenith index i. Solid angle cell address (0,0) Solid angle cell center vector of 584 is a zenith vector 570, surrounding this, a solid angle cell address (1,0) 585, solid angle cell address ( 1,1) 586 and solid angle cell address (1,2) 587 are defined below until the entire circumference of zenith index 1 is filled. Outside the zenith index 1581, along the zenith index 2, solid angle cell address (2,0) 588, solid angle cell address (2,1) 589, solid angle cell address (2,2) 590 are the zenith index 2 It is defined until the entire circumference is filled. The solid angle cells 573 overlap each other and fill the celestial sphere so that there is no gap. The solid angle of the solid angle cell is set so that three-dimensional moving image generation is performed smoothly. The number of solid angle cell addresses increases as the zenith index approaches the ground surface. In this way, for all the ground cells, an image obtained by photographing the ground cell can be searched by the direction on the celestial sphere.

図26に空中画像インデクススの関連テーブルの構造と相互関連を示す。天頂インデクスと天頂セルアドレスの構造は、地表セルに依存せず同一であり、この構造を天頂インデクスパラメタテーブルZNPRMT597と方位インデクスパラメタテーブルDRPRMT598で定義する。この構造を天頂インデクスパラメタテーブルZNPRMT597は天頂インデクス0から順次、天頂インデクスi572に対する天頂離角571を定義し、さらに天頂インデクスi572に対応する中心ベクトル574が正規化ベクトルであった場合の鉛直方向成分を縦方向成分として格納する。天頂インデクスi 572に含まれる立体角セルの数は天頂から水平線に近づくにつれ増大するので、各天頂インデクスに対応した方位数NDRiとして規定する。方向インデクスパラメタテーブルDRPRMT598は天頂インデックスに対応して定義される方位数NDRiに対応する立体角セルアドレスにつき、その立体角セル中心ベクトルの方位X成分と方位Y成分を規定する。天頂インデックスパラメタテーブルZNPRMT597 記載の縦方向成分とあわせてベクトルノルムが1となるように正規する。 FIG. 26 shows the structure of the aerial image index relation table and its correlation. The structures of the zenith index and the zenith cell address are the same regardless of the ground cell, and this structure is defined by the zenith index parameter table ZNPRMT597 and the azimuth index parameter table DRPRMT598. In this structure, the zenith index parameter table ZNPRMT597 defines the zenith separation angle 571 with respect to the zenith index i572 sequentially from the zenith index 0, and the vertical direction component when the center vector 574 corresponding to the zenith index i572 is a normalized vector. Store as vertical component. Since the number of solid angle cells included in the zenith index i 572 increases as it approaches the horizon from the zenith, it is defined as the azimuth number NDRi corresponding to each zenith index. The direction index parameter table DRPRMT 598 defines the azimuth X component and the azimuth Y component of the solid angle cell center vector for the solid angle cell address corresponding to the azimuth number NDRi defined corresponding to the zenith index. Normalization is performed so that the vector norm becomes 1 together with the vertical component described in the zenith index parameter table ZNPRMT597.

次に、地表セルに対応した画像データインデクステーブルの構造について説明する。図26の地表セル位置インデックステーブルTCINXT 600はすべての地表セル559に対して定義され、地表セルに対応して天頂インデックステーブルアドレスADDRij 603が指定される。ADDRijの添え字は地表上の位置に対応して経度インデックスLONINX 601がi、緯度インデックス LATINX 602がjであることを示している。天頂インデックステーブルアドレスADDRij 603は、地表セルijに対応した天頂インデックステーブルZNINXT 604を示す。天頂インデックステーブルZNINXTには選択された天頂インデクスkに対応して方位インデックステーブルアドレスADDRijk 605が定義され、これに従い方位インデックステーブルDRINXT 606が規定される。ここには天頂インデックスパラメタテーブルZNPRMT 597 で指定される数の方位数があるので方位インデクスがmであれば画像アドレステーブル608のアドレスとしてADDRijkmが指定される。このように選択された画像アドレステーブルとは、地表セルijに対して立体角セルアドレス(k,m)の立体角セルに含まれる画像データ数と画像データアドレスを示しているのである。このように図26に従い、空中画像インデクスと関連テーブルの相互関連を定義すると地表の位置から空中の任意の方向から撮影した画像を検索できるのである。 Next, the structure of the image data index table corresponding to the ground cell will be described. The ground cell position index table TCINXT 600 of FIG. 26 is defined for all the ground cells 559, and the zenith index table address ADDR ij 603 is designated corresponding to the ground cell. The subscript of ADDR ij indicates that the longitude index LONINX 601 is i and the latitude index LATINX 602 is j corresponding to the position on the ground surface. The zenith index table address ADDR ij 603 indicates the zenith index table ZNINXT 604 corresponding to the ground surface cell ij. In the zenith index table ZNINXT, an orientation index table address ADDR ijk 605 is defined corresponding to the selected zenith index k, and the orientation index table DRINXT 606 is defined accordingly. Since there are the number of azimuths specified in the zenith index parameter table ZNPRMT 597, if the azimuth index is m, ADDR ijkm is specified as the address of the image address table 608. The image address table thus selected indicates the number of image data and the image data address included in the solid angle cell of the solid angle cell address (k, m) with respect to the ground cell ij. In this way, if the correlation between the aerial image index and the association table is defined according to FIG. 26, it is possible to retrieve an image taken from an arbitrary direction in the air from the position of the ground surface.

以上の画像データインデクス機構の説明に基づき、図22に示す空中画像データベース登録システムの空中画像インデクス生成登録処理フローの説明を以下に行う。処理ブロック540では図23で示されるような1枚の画像があると、地表画像範囲549に含まれるすべての地表セルを求める。処理ブロック541では処理ブロック540で求めた地表セルすべてについて処理を順次行う。処理ブロック542では地表セル中心座標から撮影位置550を見込むベクトルを求める。処理ブロック543と処理ブロック544ではでは天頂インデックスパラメタテーブルZNPRMT 597 と方位インデックスパラメタテーブルDRPRMT 598の定義から内積演算により該地表セル中心座標から撮影位置550を見込むベクトルをふくむ立体角セルアドレス(k,m)を求める。この情報に基づき処理ブロック545で画像データテーブルADDRijkmの画像データ数を1つ増加して画像データアドレスを追記する。 Based on the above description of the image data index mechanism, an aerial image index generation registration process flow of the aerial image database registration system shown in FIG. 22 will be described below. In processing block 540, if there is one image as shown in FIG. 23, all the ground cells included in the ground image range 549 are obtained. In processing block 541, processing is sequentially performed for all the ground cells obtained in processing block 540. In a processing block 542, a vector for estimating the shooting position 550 is obtained from the center coordinates of the ground cell. In the processing block 543 and the processing block 544, a solid angle cell address (k, m) including a vector for estimating the photographing position 550 from the center coordinate of the ground cell by the inner product operation from the definitions of the zenith index parameter table ZNPRMT 597 and the orientation index parameter table DRPRMT 598. ) Based on this information, the processing block 545 increments the number of image data in the image data table ADDR ijkm by 1, and additionally writes the image data address.

図27に3種類の焦点距離の異なるディジタルカメラによる視野の構成例を示す。本発明の都市景観の3次元動画生成では、俯角が少ない場合の原画像はオフナディア角の大きな画像となるため必然的に航空機より遠方の画像となる。このことは、俯角が少ない場合の動画像を分解能を低下させずに生成させるためにはオフナディア角の大きな場合の画像撮影時に分解能を悪化させない配慮が必要である。このため、図27に示すようにオフナディア角が大きくなるに従い望遠レンズの焦点距離を長くし、分解能を維持すると同時に、3種類のオフナディア角のディジタルカメラを採用してオフナディア角が大きくなるほど焦点距離を長くして地表分解能が均一になるように工夫した例である。図28に直下点撮影用にディジタルカメラ350aを用い、ディジタルカメラ350b〜iまでの8台を放射上に同一の小さいオフナディア角を持たせて配置し、その外側にディジタルカメラ620j〜yまでの16台を放射上に同一の大きいオフナディア角を持たせて配置する。ディジタルカメラの小型高性能化は著しく、既存の航空写真カメラ用航空機床穴398に充分収納することができる。図29に3種類の焦点距離の異なるディジタルカメラによるディジタルカメラ集合体の撮影範囲例を図示する。代表的実施例としてはディジタルカメラ350aを35焦点距離50mm相当で直下指向、ディジタルカメラ350b〜iを焦点距離70mm相当でオフナディア角35°指向、ディジタルカメラ620j〜yを焦点距離105mm相当でオフナディア角60°指向という組み合わせがある。 FIG. 27 shows a configuration example of a visual field by three types of digital cameras having different focal lengths. In the generation of a three-dimensional moving image of a cityscape according to the present invention, the original image when the depression angle is small becomes an image with a large off-nadir angle, so that the image is inevitably far from the aircraft. For this reason, in order to generate a moving image when the depression angle is small without reducing the resolution, it is necessary to consider that the resolution is not deteriorated when the image is captured when the off-nadir angle is large. Therefore, as shown in FIG. 27, as the off-nadir angle increases, the focal length of the telephoto lens is lengthened and the resolution is maintained. At the same time, a digital camera having three types of off-nadir angles is adopted, and the off-nadir angle increases. This is an example in which the focal length is increased to make the ground resolution uniform. In FIG. 28, a digital camera 350a is used for direct-point shooting, and eight digital cameras 350b to i are arranged with the same small off-nadir angle on the radiation, and the digital cameras 620j to y are arranged on the outside. Sixteen units are arranged on the radiation with the same large off-nadir angle. Digital cameras have been significantly improved in size and performance, and can be sufficiently accommodated in the existing aircraft floor hole 398 for aerial camera. FIG. 29 shows an example of the photographing range of a digital camera assembly using three types of digital cameras having different focal lengths. As a typical embodiment, the digital camera 350a is oriented directly below at a focal length of 35 mm equivalent to 50 mm, the digital cameras 350b to i are oriented at an off-nadir angle of 35 ° equivalent to a focal length of 70 mm, and the digital cameras 620j to y are off-nadia equivalent to a focal length of 105mm. There is a combination of 60 ° angle orientation.

図30に航空機搭載用安定プラットフォーム装置395のもっとも単純な構成例を示す。
安定プラットフォーム装置395は航空機床穴397をまたぎ、上部にふさぐ形で設置され、下から固定部635、上下動部636、回転部637より構成される。回転部637は回転テーブル構造をなしており、その上に密着して姿勢検出用のIMU396が設置され、回転部637の下部にはディジタルカメラ集合体360が吊下されて航空機床穴397より機外に張り出すことなくすべての下方視界をすべてのディジタルカメラ350a〜iに収めることができる。該安定プラットフォーム装置395はディジタルカメラ集合体360または621を吊下してディジタルカメラ350a〜iおよびディジタルカメラ620j〜yを用いて同様に撮影することもできる。なお、回転部637とディジタルカメラ集合体360または621の接合方法は剛性を持たせて固定することが必要である。安定プラットフォーム装置395は航空機姿勢の擾乱に対して遺影の姿勢を保持することを目的としているが、対処可能な航空機の姿勢擾乱はピッチ角およびロール角で最大7から10°、ヨー角については最大20°を想定しておけばよい。固定部635は航空機床398に固着される。上下駆動機構A〜D641〜644を介して上下動部636を保持する。上下駆動機構A〜D641〜644は各々独立に上下に動きピッチ角とロール角の擾乱を補正する。上下駆動は油圧機構でも、ウォーム歯車による回転運動の上下運動への変換方式を採用してもよい。上下動部645にはさらにベアリング機構645に保持される形で回転部637が搭載される。回転駆動機構640は上下動部636に固定され、かつ回転部637外延部に接する形で設置される。回転部637と回転駆動機構640との間は回転運動を伝達すればよく、回転部637を回転させて航空機のヨー角に対する擾乱を打ち消す。図31に安定プラットフォーム装置の信号情報フローを示す。安定プラットフォーム制御システム 394はIMU396よりピッチ角、ヨー角、ロール角を周期的に入力し、基準値からの偏差を求めてピッチ角、ロール角の偏差を打ち消すために上下駆動機構A〜D641〜644を制御して上下運動649を行わせる。ヨー角の偏差を打ち消すためには回転機構640を制御して回転運動650を行わせる。
FIG. 30 shows the simplest configuration example of the stable platform device 395 for mounting on an aircraft.
The stable platform device 395 is installed in a shape that covers the aircraft floor hole 397 and covers the upper part, and includes a fixed part 635, a vertical movement part 636, and a rotating part 637 from the bottom. The rotating unit 637 has a rotating table structure, and an IMU 396 for posture detection is installed in close contact with the rotating table 637. A digital camera assembly 360 is suspended below the rotating unit 637 from the aircraft floor hole 397. All downward views can be accommodated in all digital cameras 350a-i without projecting outside. The stable platform device 395 can also shoot a digital camera aggregate 360 or 621 in the same manner using the digital cameras 350a-i and the digital cameras 620j-y. Note that the method of joining the rotating portion 637 and the digital camera assembly 360 or 621 needs to be fixed with rigidity. The stable platform device 395 is intended to maintain the attitude of the shadow against the disturbance of the aircraft attitude, but the aircraft attitude disturbance that can be dealt with is a maximum of 7 to 10 degrees in the pitch angle and the roll angle, and the maximum in the yaw angle. It is sufficient to assume 20 °. The fixing part 635 is fixed to the aircraft floor 398. The vertical movement unit 636 is held via the vertical drive mechanisms A to D641 to 644. The vertical drive mechanisms A to D 641 to 644 move up and down independently to correct the pitch angle and roll angle disturbances. The vertical drive may be a hydraulic mechanism or a conversion method of a rotary motion by a worm gear into a vertical motion. Further, a rotating part 637 is mounted on the vertical movement part 645 so as to be held by the bearing mechanism 645. The rotation drive mechanism 640 is fixed to the vertical movement unit 636 and installed in contact with the outer extension of the rotation unit 637. It is only necessary to transmit a rotational motion between the rotation unit 637 and the rotation drive mechanism 640, and the rotation unit 637 is rotated to cancel the disturbance to the yaw angle of the aircraft. FIG. 31 shows a signal information flow of the stable platform device. The stable platform control system 394 periodically inputs the pitch angle, yaw angle, and roll angle from the IMU 396 to obtain the deviation from the reference value and cancel the deviation of the pitch angle and roll angle from the vertical drive mechanism A to D641 to 644. To control the vertical movement 649. In order to cancel the deviation of the yaw angle, the rotation mechanism 640 is controlled to perform the rotation motion 650.

次に、都市景観3次元動画アミューズメントシステムにおける空中動画生成処理につき図32から図39を用いて説明する。モーフィングによる空中動画像生成の概念と変数の説明を図32で説明し、全体の処理のフローを図33の都市景観3次元動画アミューズメントシステムにおける空中動画生成処理フローに基づき説明する。図32において、視点経路P(t) 270に沿って視点が時刻tとともに移動し、その間、地表を目標トラジェクトリT(t)
280に沿って該視点経路P(t) 270上の位置から時刻t1からt、tまで、視線ベクトルV(t)からV(t)、V(t)でとらえる。本発明では該視点経路P(t) 270からの該目標トラジェクトリT(t) 280に対する都市景観の3次元動画を生成する方法として、時刻t、t、tでは視点P(t)675、視点P(t)676、視点P(t)677の視線に近く視差の少ない空中画像m−1666を空中画像データベース130より検索し、時刻t、t、t の視線ベクトルV(t)681、V(t)682、V(t)683の間は、画像ベクトルGm−1672との視差の相違を空中画像m−1666に対するモーフィング処理で補正し、滑らかな動画像を生成する。時刻t の視線ベクトルV(t)684からは空中画像m−1666よりも空中画像m 667の方が視点の相違による視差が少ないと判断して空中画像m 667を原画像に切り替え、時刻t
の視線ベクトルV(t)684以降次の原画像が選ばれるまで空中画像m 667との視差の相違を空中画像m 667に対するモーフィング処理で補正することにより滑らかな都市景観の3次元動画生成を行うのである。
Next, aerial moving image generation processing in the cityscape three-dimensional moving image amusement system will be described with reference to FIGS. The concept of aerial moving image generation by morphing and description of variables will be described with reference to FIG. 32, and the overall processing flow will be described based on the aerial moving image generation processing flow in the cityscape three-dimensional moving image amusement system of FIG. In FIG. 32, the viewpoint moves along the viewpoint path P (t) 270 along with the time t, and during that time, the ground surface is moved to the target trajectory T (t).
A line of sight vector V (t 1 ) to V (t 4 ), V (t i ) is taken from a position on the viewpoint path P (t) 270 along time 280 from time t 1 to t 4 , t i . In the present invention, as a method of generating a three-dimensional moving image of the city landscape for the target trajectory T (t) 280 from the viewpoint route P (t) 270, the viewpoint P (t 1 ) at times t 1 , t 2 , and t 3. The aerial image m-1666 that is close to the line of sight of 675, the viewpoint P (t 2 ) 676, and the viewpoint P (t 3 ) 677 and has little parallax is searched from the aerial image database 130, and the line-of-sight vectors at times t 1 , t 2 , and t 3 are obtained. Between V (t 1 ) 681, V (t 2 ) 682, and V (t 3 ) 683, the parallax difference from the image vector G m−1 672 is corrected by the morphing process for the aerial image m−1666, and smooth A moving image is generated. From the line-of-sight vector V (t 4 ) 684 at time t 4 , it is determined that the aerial image m 667 has less parallax due to a difference in viewpoint than the aerial image m-1666, and the aerial image m 667 is switched to the original image. t 4
3D animation generation of a smooth cityscape by correcting the difference in parallax from the aerial image m 667 with the morphing process for the aerial image m 667 until the next original image is selected after the line-of-sight vector V (t 4 ) 684 Do it.

以上の処理を処理フローで示したのが図33で、処理ブロック690では、グラフィックユーザインターフェイスシステム180より次の動画フレーム(次コマ)として計算すべき移動方向、移動速度、位置、視線方向ベクトルを取り込む。処理ブロック691では、この値に基づき次コマの視点位置、視線ベクトル、地表上の目標点座標を計算する。処理ブロック692では、次コマの地表インデクス位置が現コマと同一か現コマ、次コマの中心点で判断する。同一でない場合は、最適な原画像を求めなおす必要があり、処理ブロック694へ行く。同一な場合は、処理ブロック693で次コマの視線ベクトルが現コマと同じ立体角セル内か判定する。これは視線の向きが現コマとある程度変化したかを判定するもので、同一立体角セル内でないと判断された場合には処理ブロック694で最適な原画像を求めなおす必要がある。同一立体角セル内であると判断された場合には現コマの原画像を引き続き使用する。 FIG. 33 shows the above processing in a processing flow. In a processing block 690, the moving direction, moving speed, position, and line-of-sight vector to be calculated as the next moving image frame (next frame) from the graphic user interface system 180 are shown. take in. In a processing block 691, the viewpoint position of the next frame, the line-of-sight vector, and the target point coordinates on the ground surface are calculated based on this value. In processing block 692, it is determined whether the ground index position of the next frame is the same as that of the current frame based on the center point of the current frame and the next frame. If they are not identical, it is necessary to re-determine the optimal original image and go to processing block 694. If they are the same, it is determined in processing block 693 whether the line-of-sight vector of the next frame is within the same solid angle cell as the current frame. This determines whether the direction of the line of sight has changed to some extent from the current frame. If it is determined that the line of sight does not fall within the same solid angle cell, it is necessary to re-determine an optimal original image in processing block 694. If it is determined that the cells are in the same solid angle cell, the original image of the current frame is continuously used.

処理ブロック694の処理内容はより詳しく図34の空中動画像生成における原画像検索の処理フローと図35の3次元動画生成処理の原画像選択論理図に示される。処理ブロック700では、次コマの中心に存在する地表セルアドレス(i,j)を求めその中心点と次コマの視点を結ぶ視線ベクトルをつくりこれを正規化する。処理ブロック701から703では、この正規化視線ベクトルから天頂インデクスパラメタテーブルZNPRMT597および方位インデクスパラメタテーブルDRPRMT598を参照して立体角セルアドレス(k,m)を求め、地表セルアドレス(i,j)と併せて画像アドレステーブルのアドレスADDRijkmが求まる。同一地表セルアドレスに対する同一立体角セルアドレスには画像アドレステーブルのはじめのデータで示される原画像候補が存在するので、処理ブロック704と処理ブロック705でその中から視点P(t)からの視野の4隅の点を原画像がすべて撮影しているかを判定する。図35で(a)で視点P(t)の視野の地表上の4端点Ti1715、Ti2716、Ti3717、Ti4718のすべてが原画像撮影位置S710、原画像撮影位置S711、原画像撮影位置S712からの画像に撮影されているかを判定するのが処理ブロック705の判定であり、ベクトル外積演算で容易にできる。図35(b)の例で言えば、原画像撮影位置S710、原画像撮影位置S711からの画像のみが視点P(t)の視野の地表上の4端点Ti1715、Ti2716、Ti3717、Ti4718のすべてを画像に捕らえている。処理ブロック705の条件を満足する原画像をすべて求めた後、処理ブロック706で地表セルアドレス(i,j)に最も近い画像距離の最短の画像を原画像として選択する。画像距離は図17空中画像データベースの撮影パラメタの1データとして計算されており、画像距離が最短の原画像を選択するとは視点と目標の間の視界をさえぎる障害物を排除する処置である。 The processing contents of the processing block 694 are shown in more detail in the processing flow of the original image search in the aerial moving image generation of FIG. 34 and the original image selection logic diagram of the three-dimensional moving image generation processing of FIG. In the processing block 700, a ground cell address (i, j) existing at the center of the next frame is obtained, and a line-of-sight vector connecting the center point and the viewpoint of the next frame is created and normalized. In processing blocks 701 to 703, a solid angle cell address (k, m) is obtained from the normalized line-of-sight vector with reference to the zenith index parameter table ZNPRMT597 and the azimuth index parameter table DRPRMT598, and is combined with the ground cell address (i, j). Thus, the address ADDR ijkm of the image address table is obtained. Since the original image candidate indicated by the first data of the image address table exists at the same solid-angle cell address for the same ground cell address, the visual field from the viewpoint P (t i ) from among the processing block 704 and the processing block 705 It is determined whether the original image has taken all the four corner points. In FIG. 35A, the four end points T i1 715, T i2 716, T i3 717, and T i4 718 on the ground surface of the field of view of the viewpoint P (t i ) are the original image shooting position S A 710 and the original image shooting. position S B 711, a determination of process block 705 to determine whether a picture is taken image from the original image capturing position S C 712, can be easily by a vector product computation. In the example of FIG. 35B, only the images from the original image shooting position S A 710 and the original image shooting position S B 711 are the four end points T i1 715, T on the ground surface of the viewpoint P (t i ). All of i2 716, T i3 717, and T i4 718 are captured in the image. After all the original images satisfying the conditions of the processing block 705 are obtained, the shortest image with the image distance closest to the ground cell address (i, j) is selected as the original image in the processing block 706. The image distance is calculated as one data of the shooting parameter in the aerial image database in FIG. 17, and selecting the original image with the shortest image distance is a procedure for eliminating an obstacle that blocks the view between the viewpoint and the target.

次に図33に戻り、処理ブロック697のモーフィング処理の内容について図36を参照しつつ以下の文章と式で説明する。
原画像mに対して原画像撮影位置
671と画像ベクトル
673(ノルム=1)とTerrain(地表面)が決まると、画像ベクトル
673とDEMの交点
と画像の四隅とTerrainの交点



が決まる。図37に示すように、一般に



は同一平面上にないので、
を通り

の中点
と、

の中点
を通るベクトルと平行なベクトルを
と定義し(

)、
を通り

の中点
と、

の中点
を通るベクトルと平行なベクトルを
と定義する(

)。
を通り

で張られる面をTerrain平面といい
であらわす。
の垂線を
(ノルム=1)とする。
を通り、画像ベクトル
に垂直な平面を
という。
は原画像撮影位置視点
671より撮影した画像(視野)である。
-->
への変換が存在して、これを
という。これは原画像mの撮影行為である。視点
に対して、視点座標
と視線ベクトル
(ノルム=1)とTerrain平面
(共通)が決まると同様に




が決まる。
を通り視線ベクトル
に垂直な平面を
という。平面
とはTerrain面
の中で、視点
による視野で
の一部を構成する。視点
の視野



と視野角
が決まれば一意に決まる。平面
の平面
への写像は

と原画像mの画角
が決まれば一意に決まる。
―>
―>
の対応により

に対応する各画素が、

に対応する画素に対応付けられればモーフィングアルゴリズムは完成する。
Next, returning to FIG. 33, the contents of the morphing process of the processing block 697 will be described with reference to FIG.
Original image shooting position with respect to original image m
671 and image vector
Once 673 (norm = 1) and Terrain (ground surface) are determined, the image vector
The intersection of 673 and DEM
And the intersection of the four corners of the image and Terrain
,
,
,
Is decided. As shown in FIG.
,
,
,
Are not on the same plane,
Through
,
Midpoint
When,
,
Midpoint
A vector parallel to the vector passing through
(
=
),
Through
When
Midpoint
When,
When
Midpoint
A vector parallel to the vector passing through
(
=
).
Through
When
The surface that is stretched by is called the Terrain plane
It expresses.
The perpendicular of
(Norm = 1).
The street, image vector
A plane perpendicular to
That's it.
Is the original image shooting position perspective
It is an image (field of view) taken from 671.
->
There is a conversion to
That's it. This is a photographing action of the original image m. point of view
, Viewpoint coordinates
And gaze vector
(Norm = 1) and Terrain plane
(Common) is determined as well
When
,
,
,
Is decided.
Street gaze vector
A plane perpendicular to
That's it. Plane
What is Terrain surface
In perspective
In the field of view
Part of point of view
Vision
When
Is
When
And viewing angle
If it is decided, it is decided uniquely. Plane
Plane
The mapping to
When
And angle of view of original image m
If it is decided, it is decided uniquely.
― >
― >
By the correspondence of
of
Each pixel corresponding to
of
The morphing algorithm is completed if it is associated with the pixel corresponding to.

一般にTerrain平面
上の任意の点
は、
=a
+b
+
であらわされる。
ここで垂線条件である、
=0 および
=0 を代入すると、
=
が得られる。ここで・はベクトル内積をあらわす。
視界の中心線
とTerrain平面
の交点
は、

=
+c
を満足することからこれに代入して、
(c
+
)=
よりc=
となり、
=
+

で、視点
の画像中心点のTerrain平面
での座標が求められた。

同様に、視点
の視界の4隅の正規化視線ベクトルを



とし、これらとTerrain平面
の交点



のTerrain平面
での座標を求めることができる。さらにこの座標の
面上への変換を求める。
Terrain平面
上の任意の点
は、
=a
+b
+
であらわされ、
垂線条件である、
=0 および
=0 より、4隅の正規化視線ベクトルを



に対して、
=
+c
ただしk=1,4を満足する
(c
+
)=
よりc=
となり、
=
+

で、視点
の画像の4隅の点のTerrain平面
での座標が求められた。この平面
上での座標を平面
上での座標に対応付けることにより原画像である平面
上のどの点を視点
の画面に映せばよいか分かる。
上での視点
の画面の中心および四隅の点の座標




(まとめて
、k=1,2,3,4,cとする)が
上で




(まとめて
、k=1,2,3,4,cとする)に対応する。
面上での画面の水平ラインを
、垂直ラインを
とすると
面上の任意の点
は任意定数a,bに対して
=
=a
+b
+
で表される。画像ベクトル


に垂直だから
=0、
=0 となり、また、

は画像撮影位置
より見て同一線上にあるから
=d(
-
)+
であるので、d(
-
)+
=a
+b
+
となり、
との内積をとって
d=
となるから
=
となる。
=
+
で既に
は求まっているから、これで、視点
の視界の原画面mの画面との対応が完成した。
Terrain plane in general
Any point on
Is
= a
+ b
+
It is expressed.
Here is the normal condition,
= 0 and
Substituting = 0
=
Is obtained. Here, represents a vector dot product.
Center line of sight
And Terrain plane
Intersection of
Is
But
=
+ c
Substituting this for satisfying
(C
+
) =
C =
And
=
+
=
And perspective
Terrain plane at the center of the image
The coordinates at were obtained.

Similarly, the perspective
Normalized gaze vectors at the four corners of the field of view
,
,
,
And these and Terrain plane
Intersection of
,
,
,
Terrain plane
The coordinates at can be obtained. In addition to this coordinate
Find the transformation on the surface.
Terrain plane
Any point on
Is
= a
+ b
+
Represented by
It is a perpendicular condition,
= 0 and
= 0, the normalized gaze vectors at the four corners
,
,
,
Against
=
+ c
However, k = 1,4 is satisfied
(C
+
) =
C =
And
=
+
=
And perspective
Terrain plane at the four corner points of the image
The coordinates at were obtained. This plane
Coordinates on the plane
The plane that is the original image by associating it with the coordinates above
View any point above
You can see if it should be reflected on the screen.
Perspective on
Screen center and four corner point coordinates
,
,
,
,
(collect
, K = 1,2,3,4, c)
Above
,
,
,
,
(collect
, K = 1, 2, 3, 4, c).
The horizontal line of the screen on the screen
The vertical line
If
Any point on the face
For arbitrary constants a and b
=
= a
+ b
+
It is represented by Image vector
Is
,
Because it ’s perpendicular to
= 0,
= 0, and
When
Is the image shooting position
Because it ’s on the same line.
= d (
-
) +
So d (
-
) +
= a
+ b
+
And
D =
Because it becomes
=
It becomes.
=
+
Already in
So now we have a perspective
Correspondence with the screen of the original screen m of the field of view was completed.

次に、
をz軸に移す変換を求める。ここで、
=1
=
として、z軸周りに回転させてyz平面に載せてからy軸周りに回転させてz軸と一致させる。
z軸周りの回転は、
で与えられる。
次に、y軸周りの回転は、
で与えられる。
両方の回転を合成すると、


となる。
平面
の交点
(k=1,2,3,4,C) に対して
をz軸に移す変換を施せば、
(k=1,2,3,4,C)はxy面上の点に変換される。これは、原画像mの画面上の位置に対応する。すなわちモーフィングである。
next,
Find the transformation that moves to the z-axis. here,
= 1
=
Then, it is rotated around the z-axis and placed on the yz plane, and then rotated around the y-axis to coincide with the z-axis.
The rotation around the z axis is
Given in.
Next, the rotation around the y axis is
Given in.
Combining both rotations gives

=
It becomes.
Plane
Intersection of
for (k = 1,2,3,4, C)
To the z axis,
(k = 1,2,3,4, C) is converted to a point on the xy plane. This corresponds to the position on the screen of the original image m. That is morphing.

以上で本発明になる都市景観の3次元動画生成アミューズメントシステムの空中3次元動画生成に関する説明を終了して、都市景観の3次元動画生成アミューズメントシステムの路上3次元動画生成に関する説明に移行する。都市の任意の場所に対して路上ないし通路上の任意の場所、任意の視線方向からの人間目線での3次元動画を生成する。路上3次元動画生成においても空中3次元動画生成と同様に都市空間の構造物に関する3次元モデルを生成することなしに実画像を用いて3次元動画を生成する。路上では自由空間で自由に視線を指定できる空中比べて視点の自由度は小さく、存在場所が通路上の地上1.7m程度に限定される一方、通路はDEMによるTerrainモデルと異なった構造を持っているので通路はグラフ表現によりモデル化する。空中写真の場合にTerrainを画像の投影面としたように、本発明の方式では、事前に撮影した実画像の投影面を設定しなくてはならない。 The description about the aerial 3D video generation of the city landscape 3D video generation amusement system according to the present invention is finished, and the description shifts to the description on the road 3D video generation of the city landscape 3D video generation amusement system. A three-dimensional moving image is generated with a human eye from an arbitrary place on the road or passage and an arbitrary line-of-sight direction for an arbitrary place in the city. In generating a 3D moving image on the road, a 3D moving image is generated using an actual image without generating a 3D model related to a structure in an urban space, as in the case of generating an aerial 3D moving image. On the road, the degree of freedom of the viewpoint is smaller than in the air where you can specify the line of sight freely in free space, and the location is limited to about 1.7 m above the ground on the passage, but the passage has a structure different from the Terrain model by DEM Therefore, the passage is modeled by a graph representation. In the method of the present invention, the projection plane of the actual image taken in advance must be set, such as Terrain as the projection plane of the image in the case of an aerial photograph.

人間目線としての視点および視線の動きうる範囲を検討した結果、通路とそれ以外の市街地の境界線に沿う鉛直な平面を路上で撮影した原画像の主たる投影面とし、通路上での前方視ないし後方視に対しては通路に直交し一定距離はなれた鉛直面を補助的に投影面とする。本発明の方法は、通路上で人間目線の存在しうる任意の点から任意の視線で市街景観を事前に撮影するため、水平方向に全周8ないし16方向、水平より仰角を付した斜め上方向を全周8ないし16方向にわたって撮影するディジタルカメラ集合体を車両の屋根上に設置し、路上画像データベースを構築する。なお、斜め上方は広角レンズを用いることで省略できる。動画像生成は最適な原画像を選択するプロセスと、視点の移動状態と視線方向および都市内の位置によりモーフィングプロセスにより滑らかな動画像を生成するプロセスより構成される。 As a result of examining the viewpoint as a human eye and the range in which the line of sight can move, a vertical plane along the boundary line between the passage and the other urban areas is the main projection plane of the original image taken on the road, and the forward view or on the passage For the rear view, a vertical plane perpendicular to the passage and separated by a certain distance is used as an auxiliary projection plane. Since the method of the present invention captures a cityscape in advance with an arbitrary line of sight from an arbitrary point where a human eye can be present on the passage, it is diagonally above the horizontal direction with 8 to 16 directions in all directions and with an elevation angle from the horizontal. A digital camera assembly that shoots the entire direction from 8 to 16 directions is installed on the roof of the vehicle, and a road image database is constructed. Note that the diagonally upper part can be omitted by using a wide-angle lens. The moving image generation includes a process of selecting an optimal original image and a process of generating a smooth moving image by a morphing process according to the moving state of the viewpoint, the line-of-sight direction, and the position in the city.

以下、図1都市景観3次元動画アミューズメントシステム構成図に従い、順次、路上画像取得システム110、路上画像データベース生成登録システム130、路上画像データベース150および路上3次元動画生成システム170につき詳細に説明する。図40は路上画像取得システムの処理フローを記したもので、以下、図57まで、該路上画像取得システム110の詳細な実現方法を説明する。まず、撮影ポイント設定プロセス741で都市内の道路および通路に沿って一定距離間隔で撮影できるように、移動経路と撮像ポイントないし間隔を設定し、図53に構成が示される路上画像取得計画ファイル111とする。この撮影計画は道路ID No.と道路上の撮影ポイントが定義される。道路の構造に関する記述は道路ID No.を含め厳密に定義する必要があるので後述する。次に撮影プロセス742では、車両803が路上画像取得計画ファイル111に規定された図42に示す撮影ポイント766に到達したことを判断して図51に示す路上撮影制御システム806により撮影を行う。撮影されたディジタルカメラ内の画像は予め決められたタイミングごとに撮像プロセスで取得した位置および姿勢データとともに路上画像一次ファイル112に蓄積される。 Hereinafter, the road image acquisition system 110, the road image database generation / registration system 130, the road image database 150, and the road three-dimensional video generation system 170 will be described in detail according to the block diagram of the city landscape 3D moving image amusement system. FIG. 40 shows a processing flow of the road image acquisition system. Hereinafter, a detailed method of realizing the road image acquisition system 110 will be described with reference to FIG. First, a moving route and imaging points or intervals are set so that the imaging point setting process 741 can capture images at regular intervals along roads and passages in the city, and the road image acquisition plan file 111 shown in FIG. 53 is configured. And In this shooting plan, a road ID number and a shooting point on the road are defined. The description of the road structure will be described later because it must be strictly defined including the road ID number. Next, in the shooting process 742, it is determined that the vehicle 803 has reached the shooting point 766 shown in FIG. 42 defined in the road image acquisition plan file 111, and shooting is performed by the road shooting control system 806 shown in FIG. The captured images in the digital camera are stored in the road image primary file 112 together with the position and orientation data acquired in the imaging process at predetermined timings.

図41は本発明になる路上画像取得システム110を構成するディジタルカメラ集合体755の構成例を示した図である。路上であらゆる視点から効率よく高密度に撮影する目的で、水平方向のディジタルカメラ750a〜hが全周を等間隔になるように放射状に配置されディジタルカメラ750a〜hの斜め上方を撮影する目的でディジタルカメラ750i〜pが配置されディジタルカメラ集合体を形成する。ディジタルカメラ集合体 755を構成するディジタルカメラ750a〜p以外の支持構造は、撮影方向精度が高いことを要求されるので、軽量かつ剛性の高いものであればどのようなものでもよく、ハニカム構造アルミニウム板あるいは炭素樹脂などで構成することができる。   FIG. 41 is a diagram showing a configuration example of the digital camera assembly 755 constituting the road image acquisition system 110 according to the present invention. For the purpose of photographing high density efficiently from various viewpoints on the road, for the purpose of photographing diagonally above the digital cameras 750a-h where the horizontal digital cameras 750a-h are arranged radially at equal intervals around the circumference. Digital cameras 750i-p are arranged to form a digital camera assembly. The support structure other than the digital cameras 750a to 750p constituting the digital camera assembly 755 is required to have high photographing direction accuracy, and any structure that is lightweight and highly rigid may be used. It can be composed of a plate or carbon resin.

図42は、車両による路上画像取得システムの経路および撮影ポイントの設定例を示したものである。図42(b)にて撮影ポイント766の設定例を示している。路上画像取得システム765は路上画像取得計画ファイル111で路上に列状にくまなく構成された撮影ポイント766に従い、道路を移動しながら撮影ポイント766で撮影を行う。撮影ポイント766の相互間隔は撮影された画像が路上3次元動画生成システムでモーフィングによって滑らかな動画になるように選定される。ディジタルカメラ集合体755で撮影した場合、図42(a)のディジタルカメラ750a〜pの撮影範囲760a〜pで示す範囲が撮影される。レンズの焦点距離の設定によって、該ディジタルカメラ750a〜pの撮影範囲760a〜pの各ディジタルカメラが撮影する範囲と相互の重複度は変化する。本発明の目的からは、相互に若干の重複しながら地表をほぼ連続的に覆うように設定することが望ましい。   FIG. 42 shows a setting example of the route and the shooting point of the road image acquisition system by the vehicle. FIG. 42 (b) shows an example of setting the shooting point 766. The road image acquisition system 765 performs shooting at the shooting point 766 while moving along the road according to the shooting points 766 configured in a row on the road in the road image acquisition plan file 111. The mutual interval of the shooting points 766 is selected so that the shot images become smooth moving images by morphing in the road three-dimensional moving image generating system. When the digital camera aggregate 755 is photographed, the range indicated by the photographing ranges 760a-p of the digital cameras 750a-p in FIG. Depending on the setting of the focal length of the lens, the overlap between the digital camera 750a-p and the range captured by each digital camera in the imaging range 760a-p changes. For the purpose of the present invention, it is desirable to set so that the ground surface is covered almost continuously while slightly overlapping each other.

図43は路上画像取得システムの鉛直方向撮影パターンと画像投影面の関係を示したものである。空中3次元動画生成では撮影した画像の投影面をTerrainとしたが、路上3次元動画生成では人間目線を実現対象としておりTerrainを投影面とすることはできない。また撮影する画像も水平方向および仰角つきの情報であるため、路上から撮影した画像の投影面を図43に示すように道路と建物の境界線に鉛直に立つ面とする。道路と建物の境界面は近似的に道路の境界面としてもよい。画像投影面の定義は道路の定義とともに厳密に行いデータベース化する必要があるので後述する。またこの方式は人間目線の通路であれば車両の通行可能性とは関係なくどこでもよく、地下通路あるいは建造物内部でも人間の通路があれば適用可能である。図43ではディジタルカメラ750i〜pの撮影範囲と方向およびディジタルカメラ750a〜hの撮影範囲と方向を例示した。 FIG. 43 shows the relationship between the vertical shooting pattern and the image projection plane of the road image acquisition system. In the aerial three-dimensional video generation, the projection plane of the captured image is Terrain, but in the road three-dimensional video generation, the human eye is a realization target, and Terrain cannot be the projection plane. Further, since the image to be captured is also information with a horizontal direction and an elevation angle, the projection plane of the image captured from the road is a plane that stands perpendicular to the boundary line between the road and the building as shown in FIG. The boundary surface between the road and the building may be approximately the boundary surface of the road. Since the definition of the image projection plane must be strictly performed together with the definition of the road and made into a database, it will be described later. In addition, this method may be applied anywhere as long as it is a human eye passage, regardless of the possibility of passage of the vehicle, and can be applied if there is a human passage even in an underground passage or a building. FIG. 43 illustrates the shooting range and direction of the digital cameras 750i to 750p and the shooting range and direction of the digital cameras 750a to 750h.

本発明の都市景観3次元動画アミューズメントシステムの路上3次元動画生成システムでは、道路ないし通路の境界面を画像の投影面とする関係上、道路のいかなる場所からでも動画像の原画像が検索できなければならず、また登録できなくてはならない。検索には高速性が要求され、また人間目線でのあらゆる方向からの画像を登録・検索できなくてはならない。この目的に沿う道路データベースシステムを図44から図50に説明する。ここでの記述が路上3次元動画生成システムの技術的な基礎となる。   In the road 3D video generation system of the urban landscape 3D video amusement system of the present invention, the original image of the moving image must be searchable from any location on the road because the boundary plane of the road or passage is the projection plane of the image. And must be able to register. The search requires high speed, and it must be possible to register and search images from all directions from the human viewpoint. A road database system for this purpose will be described with reference to FIGS. This description is the technical basis of the road three-dimensional video generation system.

図44にグラフによる道路の記述方法を記載する。あらゆる道路は幅があり、その中心線でグラフを形成して道路表現の基本とする。この道路の中心線を中心線グラフ780といい。端点と辺から構成される。道路の交差点、合流点、分岐点、変針点には必ず端点が存在する。道路は必ず両端が端点である連続した辺と端点の集合として定義され、道路ID No.777が一意に付与される。図45は緯度経度から道路を検索する方法を示したものである。緯度経度で例えば0.1秒単位でメッシュを作ると、東京地方では、経度方向で2.5m、緯度方向で3mのメッシュとなる。このようにメッシュを作ると各メッシュには必ず道路が存在するかしないかのいずれかとなる。このメッシュを地表セル781と呼ぶ。道路が存在する場合には道路ID No.を地表セル781に割り当てることにより緯度経度が判明する任意の地点より道路があれば道路にアクセスできる。このように定義すると1つのメッシュが複数の道路ID No.に関係を持つ場合が発生する。地表セル中心点782から中心線グラフに垂線を下ろし、その足との距離が最短の道路ID Noを該地表セルの道路ID Noと定義する。図45右下に拡大した交差点の図の例では、垂線を中心線グラフ780に2本下ろすことができ、この場合は垂線の足A783aと垂線の足B783bの垂線の短いほうである垂線の足B783bの道路ID No.を選定する。   FIG. 44 describes a road description method using a graph. Every road has a width, and the center line forms a graph to form the basis of road expression. The centerline of this road is called a centerline graph 780. Consists of end points and sides. There are always end points at road intersections, junctions, branch points, and turning points. A road is always defined as a set of continuous edges and endpoints whose endpoints are both ends. 777 is uniquely assigned. FIG. 45 shows a method for searching for a road from latitude and longitude. For example, when the mesh is made in units of 0.1 seconds in latitude and longitude, in the Tokyo region, the mesh becomes 2.5 m in the longitude direction and 3 m in the latitude direction. When meshes are created in this way, each mesh always has a road or not. This mesh is referred to as a surface cell 781. If there is a road, the road ID No. can be assigned to the surface cell 781 to access the road if there is a road from any point where the latitude and longitude are known. If defined in this way, one mesh may be related to a plurality of road ID numbers. A perpendicular line is dropped from the ground cell center point 782 to the center line graph, and the road ID No. having the shortest distance from the foot is defined as the road ID No. of the ground cell. In the example of the intersection enlarged in the lower right of FIG. 45, two perpendicular lines can be dropped on the center line graph 780. In this case, the perpendicular line which is the shorter of the perpendicular line A783a and the perpendicular line B783b. B783b road ID No. Is selected.

図46は道路の構造を記述するための道路データベースの構造を規定している。地表セル道路インデクステーブルCLLRDINXTはメッシュ化された緯度経度のインデックス(i,j)から道路ID No.と、道路ID No.に対応した道路グラフデータを記載した道路グラフデータテーブルの該当グラフ部分を示すための相対レコードアドレスを検索できる。道路グラフアドレステーブルRDGRADRTは道路ID No.に対応して道路グラフデータテーブルRDGDT内での開始アドレスを指定する。これは、道路グラフデータテーブルRDGDTが道路ID No.によって端点と辺のサイズがことなるためである。道路グラフデータテーブルRDGDTは道路の構造をグラフとして記述する。第1レコードは道路ID No.であり、第2レコードは全部の端点数である。道路は開始点から順次、端点座標および次の端点までの辺の属性を記述する形で道路ID No.で指定される道路の範囲が尽きるまで繰り返される。属性には下記の3種類がある。
タイプ1属性 次の端点までの辺に関する属性
a投影面コード 0 辺の両側に投影面がない。
1 辺の進行方向左側だけに投影面がある。
2 辺の進行方向右側だけに投影面がある。
3 辺の進行方向両側に投影面がある。
b幅員 道路の両端の中心線グラフからの距離を示す。
タイプ2属性 端点における道路接続に関する情報
a接続先道路ID No.
b接続先道路ID No.に対応した道路グラフデータテーブルRDGDTにおける接続点の相対レコードアドレス この情報は道路の接続が交叉か分岐か合流かを判別するために使用する。
タイプ3属性 端点における道路終了を示す。
FIG. 46 defines the structure of a road database for describing the structure of the road. The ground cell road index table CLLRDINXT indicates a corresponding graph portion of a road graph data table in which road ID No. and road graph data corresponding to the road ID No. are described from meshed latitude and longitude indexes (i, j). You can search for a relative record address. The road graph address table RDGRADRT designates the start address in the road graph data table RDGDT corresponding to the road ID No. This is because the road graph data table RDGDT has different end points and side sizes depending on the road ID No. The road graph data table RDGDT describes the road structure as a graph. The first record is road ID No., and the second record is the total number of endpoints. The road is sequentially repeated from the start point until the end of the road range specified by the road ID No. in the form of describing the end point coordinates and the attributes of the side to the next end point. There are the following three types of attributes.
Type 1 attribute Attribute a on the side to the next end point a Projection plane code 0 No projection plane on either side of the side.
There is a projection plane only on the left side in the direction of travel of one side.
There is a projection plane only on the right side in the direction of travel of the two sides.
3 There are projection planes on both sides in the direction of travel.
b Width Indicates the distance from the center line graph at both ends of the road.
Type 2 attribute Information on road connection at the end point a Connected road ID No.
b Relative record address of connection point in road graph data table RDGDT corresponding to connection destination road ID No. This information is used to determine whether the road connection is crossing, branching or merging.
Type 3 attribute Indicates the end of the road at the end point.

以下、実際に存在するケースに対応して道路グラフデータテーブルの構築方法を説明する。
図50aでは直交交差点の記述方法を示す。道路ID No.=k 777kと道路ID No.=l(エル) 777lが交差点の中央にある端点k,i+2 792k,i+2と端点l,j+2
793l,j+2で交差している。端点の表記で添え字を2個用いるのは、最初の添え字が道路ID No.を表し、2番目の添え字が同一道路ID No.内における端点の順番を示すためである。なおこの端点は同一の端点を双方の道路で別々に名づけたものである。道路ID No.=k 777kの構造記述を図50a−1道路グラフデータテーブルRDGDTk 795kと図50aに即して説明する。道路ID No.=k 777kは左端の端点k,i 792k,iよりスタートし、次の端点k,i+1 792k,i+1までは両側に投影面を持ち(属性コード=3)、幅員がwである(端点k,i)。端点k,i+1 792k,i+1で交差点に入った結果両側の投影面が無くなり(属性コード=0)、幅員は未定義でブランクとなる(端点k,i+1)。端点k,i+2
792k,i+2で道路ID No.=l(エル) 777lと交叉し(属性コード=l(エル))属性の2は道路ID No.=l(エル) 777lのレコードアドレスが2の端点で交叉していることを示す(端点k,i+2)。端点k,i+3 792k,i+3で交叉点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwとなる(端点k,i+3)。さらに端点k,i+4 792k,i+4以降に続く。道路ID No.=l(エル) 777lの構造記述を図50a−2道路グラフデータテーブルRDGDTl(エル) 795lと図50aに即して説明する。道路ID No.=l 777lは下端の端点l,j 793l,jよりスタートし、次の端点l,j+1 793l,j+1までは両側に投影面を持ち(属性コード=3)、幅員がwlである(端点l,j)。端点l,j+1 793l,j+1で交差点に入った結果両側の投影面が無くなり(属性コード=0)、幅員は未定義でブランクとなる(端点l,j+1)。端点l,j+2 793l,j+2で道路ID No.=k 777kと交差し(属性コード=k),属性の2は道路ID No.=k 777kのレコードアドレスが2の端点で交差していることを示す(端点l,j+2)。端点l,j+3 793l,j+3で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwlとなる(端点l,j+3)。さらに端点l,j+4 793l,j+4以降に続く。
In the following, a method for constructing a road graph data table will be described corresponding to a case that actually exists.
FIG. 50a shows a method for describing an orthogonal intersection. Road ID No. = k 777k and Road ID No. = l (El) 777l is the end point k, i + 2 792k, i + 2 and end point l, j + 2
Crossing at 793l, j + 2. The reason why two subscripts are used in the end point notation is that the first subscript represents the road ID No. and the second subscript represents the order of the end points within the same road ID No. This end point is the same end point named separately on both roads. The structure description of road ID No. = k 777k will be described with reference to FIG. 50a-1 road graph data table RDGDTk 795k and FIG. 50a. Road ID No. = k 777k starts from the left end point k, i 792k, i and has projection planes on both sides up to the next end point k, i + 1 792k, i + 1 (attribute code = 3). There is a w k (end point k, i). As a result of entering the intersection at the end point k, i + 1 792k, i + 1, the projection planes on both sides disappear (attribute code = 0), and the width is undefined and blank (end point k, i + 1). Endpoint k, i + 2
792k, i + 2 crosses road ID No. = l (el) 777l (attribute code = l (el)) attribute 2 is the end point of record ID 2 of road ID No. = l (el) 777l Indicates crossover (end points k, i + 2). As a result of exiting the crossing point at the end points k, i + 3 792k, i + 3, it has projection planes on both sides (attribute code = 3), and the width becomes w k (end points k, i + 3). Furthermore, it continues after the end point k, i + 4 792k, i + 4. The structure description of road ID No. = l (el) 777l will be described with reference to FIG. 50a-2 road graph data table RDGDTl (el) 795l and FIG. 50a. Road ID No. = l 777l starts from the end point l, j 793l, j at the lower end and has projection planes on both sides up to the next end point l, j + 1 793l, j + 1 (attribute code = 3). Is w l (end point l, j). As a result of entering the intersection at the end point l, j + 1 793l, j + 1, the projection planes on both sides disappear (attribute code = 0), and the width is undefined and blank (end point l, j + 1). Intersection with road ID No. = k 777k at end point l, j + 2 793l, j + 2 (attribute code = k), attribute 2 intersects at the end point where the record address of road ID No. = k 777k is 2 (End point l, j + 2). As a result of exiting the intersection at the end point l, j + 3 793l, j + 3, it has projection planes on both sides (attribute code = 3), and the width becomes w l (end point l, j + 3). Furthermore, it continues after the end point l, j + 4 793l, j + 4.

図50bでは3叉路の記述方法を示す。道路ID No.=k 777kから道路ID No.=l(エル) 777lが3叉路の中央にある端点k,i+2 792k,i+2と端点l,j 793l,jで分岐している。道路ID No.=k 777kの構造記述を図50b−1道路グラフデータテーブルRDGDTk 795kと図50bに即して説明する。道路ID No.=k 777kは左端の端点k,i 792k,iよりスタートし、次の端点k,i+1 792k,i+1までは両側に投影面を持ち(属性コード=3)、幅員がwである(端点k,i)。端点k,i+1 792k,i+1で3叉路に入った結果投影面は右側のみとなり(属性コード=2)、幅員がwである(端点k,i+1)。端点k,i+2 792k,i+2で道路ID No.=l(エル) 777lと分岐し(属性コード=l(エル))、属性の0は道路ID No.=l(エル)
777lのレコードアドレスが0の端点すなわち開始点で分岐していることを示す(端点k,i+2)。端点k,i+3
792k,i+3で3叉路を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwとなる(端点k,i+3)。さらに端点k,i+4 792k,i+4以降に続く。道路ID No.=l(エル) 777lの構造記述を図50b−2道路グラフデータテーブルRDGDTl(エル) 795lと図50bに即して説明する。道路ID No.=l 777lは3叉路の端点l,j 793l,jよりスタートし、道路ID
No.=k 777kから分岐し(属性コード=k),属性の2は道路ID No.=k 777kのレコードアドレスが2の端点で分岐していることを示す(端点l,j)、次の端点l,j+1 793l,j+1までは3叉路内で両側に投影面が無く(属性コード=0)、幅員も無定義でブランクである(端点l,j)。端点l,j+1 793l,j+1で3叉路を出た結果両側に投影面が存在するようになり(属性コード=3)、幅員はwとなる(端点l,j+1)。さらに端点l,j+2 793l,j+2以降に続く。
FIG. 50b shows a method for describing a three-way. Road ID No. = k 777k to road ID No. = l (El) 777l branches at the end point k, i + 2 792k, i + 2 and the end point l, j 793l, j at the center of the 3 fork . The structure description of road ID No. = k 777k will be described with reference to FIG. 50b-1 road graph data table RDGDTk 795k and FIG. 50b. Road ID No. = k 777k starts from the left end point k, i 792k, i and has projection planes on both sides up to the next end point k, i + 1 792k, i + 1 (attribute code = 3). There is a w k (end point k, i). As a result of entering the 3-way at the end point k, i + 1 792k, i + 1, the projection plane is only on the right side (attribute code = 2), and the width is w k (end point k, i + 1). At the end point k, i + 2 792k, i + 2, branch with road ID No. = l (el) 777l (attribute code = l (el)), attribute 0 is road ID No. = l (el)
Indicates that the record address of 777l branches at the end point of 0, that is, the start point (end point k, i + 2). Endpoint k, i + 3
792k, i + 3 in 3 results exits the fork path, will have a projection plane on both sides (attribute code = 3) road width is w k (end point k, i + 3). Furthermore, it continues after the end point k, i + 4 792k, i + 4. The structure description of road ID No. = l (el) 777l will be described with reference to FIG. 50b-2 road graph data table RDGDTl (el) 795l and FIG. 50b. Road ID No. = l 777l starts from the end point l, j 793l, j of the 3 fork road ID
Branch from No. = k 777k (attribute code = k), attribute 2 indicates that the record address of road ID No. = k 777k is branched at the end point 2 (end point l, j), There are no projection planes on both sides in the 3 fork to the end point l, j + 1 793l, j + 1 (attribute code = 0), the width is undefined and blank (end point l, j). As a result of exiting the 3 fork at the end point l, j + 1 793l, j + 1, there are projection planes on both sides (attribute code = 3), and the width is w 1 (end point l, j + 1). Furthermore, it continues after the end point l, j + 2 793l, j + 2.

図50cでは分岐路の記述方法を示す。道路ID No.=k 777kから道路ID No.=l(エル) 777lが分岐路の中央にある端点k,i+2 792k,i+2と端点l,j 793l,jで分岐している。道路ID No.=k 777kの構造記述を図50c−1道路グラフデータテーブルRDGDTk 795kと図50cに即して説明する。道路ID No.=k 777kは左端の端点k,i 792k,iよりスタートし、次の端点k,i+1 792k,i+1までは両側に投影面を持ち(属性コード=3)、幅員がwである(端点k,i)。端点k,i+1 792k,i+1で3叉路に入った結果投影面は右側のみとなり(属性コード=2)、幅員がwである(端点k,i+1)。端点k,i+2 792k,i+2で道路ID No.=l(エル) 777lと分岐し(属性コード=l(エル))、属性の0は道路ID No.=l(エル)
777lのレコードアドレスが0の端点すなわち開始点で分岐していることを示す(端点k,i+2)。端点k,i+3
792k,i+3で分岐路を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwとなる(端点k,i+3)。さらに端点k,i+4 792k,i+4以降に続く。道路ID No.=l(エル) 777lの構造記述を図50c−2道路グラフデータテーブルRDGDTl(エル) 795lと図50cに即して説明する。道路ID No.=l 777lは分岐路の端点l,j 793l,jよりスタートし、道路ID
No.=k 777kから分岐し(属性コード=k),属性の2は道路ID No.=k 777kのレコードアドレスが2の端点で分岐していることを示す(端点l,j)、次の端点l,j+1 793l,j+1までは分岐路内で両側に投影面が無く(属性コード=0)、幅員も無定義でブランクである(端点l,j)。端点l,j+1 793l,j+1で左側に投影面が存在するようになり(属性コード=1)、幅員はwとなる(端点l,j+1)。端点l,j+2 793l,j+2で分岐路を抜け出し両側に投影面が存在するようになり(属性コード=3)、幅員はwとなる(端点l,j+2)。さらに端点l,j+3 793l,j+3以降に続く。
FIG. 50c shows a branch path description method. Road ID No. = k 777k to road ID No. = l (El) 777l branches at the end points k, i + 2 792k, i + 2 and the end points l, j 793l, j at the center of the branch road. The structure description of road ID No. = k 777k will be described with reference to FIG. 50c-1 road graph data table RDGDTk 795k and FIG. 50c. Road ID No. = k 777k starts from the left end point k, i 792k, i and has projection planes on both sides up to the next end point k, i + 1 792k, i + 1 (attribute code = 3). There is a w k (end point k, i). As a result of entering the 3-way at the end point k, i + 1 792k, i + 1, the projection plane is only on the right side (attribute code = 2), and the width is w k (end point k, i + 1). At the end point k, i + 2 792k, i + 2, branch with road ID No. = l (el) 777l (attribute code = l (el)), attribute 0 is road ID No. = l (el)
Indicates that the record address of 777l branches at the end point of 0, that is, the start point (end point k, i + 2). Endpoint k, i + 3
792k, i + 3 result leaves the branch passage, the now has a projection plane on both sides (attribute code = 3) road width is w k (end point k, i + 3). Furthermore, it continues after the end point k, i + 4 792k, i + 4. The structure description of road ID No. = l (el) 777l will be described with reference to FIG. 50c-2 road graph data table RDGDTl (el) 795l and FIG. 50c. Road ID No. = l 777l starts from the end point l, j 793l, j of the branch road, and the road ID
Branch from No. = k 777k (attribute code = k), attribute 2 indicates that the record address of road ID No. = k 777k is branched at the end point 2 (end point l, j), There are no projection planes on both sides of the branch path up to the end point l, j + 1 793l, j + 1 (attribute code = 0), the width is undefined, and it is blank (end point l, j). A projection plane exists on the left side at the end point l, j + 1 793l, j + 1 (attribute code = 1), and the width is w 1 (end point l, j + 1). The end point l, j + 2 exits the branch path at 793l, j + 2, and projection surfaces exist on both sides (attribute code = 3), and the width becomes w 1 (end point l, j + 2). Furthermore, it continues after the end point l, j + 3 793l, j + 3.

図50dでは道路変針の記述方法を示す。道路ID No.=k 777kの構造記述を図50d−1道路グラフデータテーブルRDGDTk 795kと図50dに即して説明する。道路ID No.=k 777kは左端の端点k,i 792k,iよりスタートし、次の端点k,i+1 792k,i+1までは両側に投影面を持ち(属性コード=3)、幅員がwである(端点k,i)。端点k,i+1 792k,i+1で向きを変えるが投影面は両側のままで(属性コード=3)、幅員がwである(端点k,i+1)。さらに端点k,i+2 792k,i+2以降に続く。 FIG. 50d shows a method of describing road change. The structure description of road ID No. = k 777k will be described with reference to FIG. 50d-1 road graph data table RDGDTk 795k and FIG. 50d. Road ID No. = k 777k starts from the left end point k, i 792k, i and has projection planes on both sides up to the next end point k, i + 1 792k, i + 1 (attribute code = 3). There is a w k (end point k, i). The direction is changed at the end points k, i + 1 792k, i + 1, but the projection planes are left and right (attribute code = 3), and the width is w k (end points k, i + 1). Furthermore, it continues after the end points k, i + 2 792k, i + 2.

図50eでは非直交交差点の記述方法を示す。道路ID No.=k 777kと道路ID No.=l(エル) 777lが交叉点の中央にある端点k,i+3 792k,i+3と端点l,j+3 793l,j+3で交叉している。道路ID No.=k 777kの構造記述を図50e−1道路グラフデータテーブルRDGDTk 795kと図50eに即して説明する。道路ID No.=k 777kは左端の端点k,i 792k,iよりスタートし、次の端点k,i+1 792k,i+1までは両側に投影面を持ち(属性コード=3)、幅員がwである(端点k,i)。端点k,i+1 792k,i+1で交差点に入った結果投影面が左側のみとなり(属性コード=1)、幅員はwである(端点k,i+1)。端点k,i+2 792k,i+2で両側の投影面が無くなり(属性コード=0)、幅員はブランクとなる(端点k,i+2)。端点k,i+3 792k,i+3で道路ID No.=l(エル) 777lと交差し(属性コード=l(エル))属性の3は道路ID No.=l(エル)
777lのレコードアドレスが3の端点で交差していることを示す(端点k,i+3)。端点k,i+3
792k,i+3で右側に投影面が出現し(属性コード=3)、幅員がwである(端点k,i+4)。端点k,i+5
792k,i+5で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwとなる(端点k,i+5)。さらに端点k,i+6 792k,i+6以降に続く。道路ID No.=l(エル) 777lの構造記述を図50e−2道路グラフデータテーブルRDGDTl(エル) 795lと図50eに即して説明する。道路ID No.=l 777lは左下端の端点l,j 793l,jよりスタートし、次の端点l,j+1 793l,j+1までは両側に投影面を持ち(属性コード=3)、幅員がwlである(端点l,j)。端点l,j+1
793l,j+1で交差点に入った結果左側の投影面が無くなり(属性コード=2)、幅員はwlである。端点l,j+3 793l,j+3で両側の投影面が無くなり(属性コード=0)、幅員は未定義でブランクとなる(端点l,j+3)。端点l,j+3 793l,j+3で道路ID No.=k 777kと交差し(属性コード=k),属性の3は道路ID No.=k 777kのレコードアドレスが3の端点で交差していることを示す(端点l,j+3)。端点l,j+4 793l,j+4で左側に投影面が出現し(属性コード=1)幅員がwとなる(端点l,j+4)。端点l,j+5 793l,j+5で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwlとなる(端点l,j+5)。さらに端点l,j+6 793l,j+6以降に続く。
FIG. 50e shows a method for describing a non-orthogonal intersection. Road ID No. = k 777k and Road ID No. = l (El) 777l crosses at the end point k, i + 3 792k, i + 3 and the end point l, j + 3 793l, j + 3 is doing. The structure description of road ID No. = k 777k will be described with reference to FIG. 50e-1 road graph data table RDGDTk 795k and FIG. 50e. Road ID No. = k 777k starts from the left end point k, i 792k, i and has projection planes on both sides up to the next end point k, i + 1 792k, i + 1 (attribute code = 3). There is a w k (end point k, i). As a result of entering the intersection at the end points k, i + 1 792k, i + 1, the projection plane is only on the left side (attribute code = 1), and the width is w k (end points k, i + 1). At the end points k, i + 2 792k, i + 2, the projection surfaces on both sides disappear (attribute code = 0), and the width is blank (end points k, i + 2). At the end point k, i + 3 792k, i + 3, intersect with road ID No. = l (el) 777l (attribute code = l (el)) attribute 3 is road ID No. = l (el)
Indicates that the record address of 777l intersects at the end point of 3 (end point k, i + 3). Endpoint k, i + 3
792k, the projection plane on the right side in the i + 3 appeared (attribute code = 3), the road width is w k (end point k, i + 4). Endpoint k, i + 5
792k, i + 5 result passes through the intersection, now has a projection plane on both sides (attribute code = 3) road width is w k (end point k, i + 5). Furthermore, it continues after the end point k, i + 6 792k, i + 6. The structure description of road ID No. = l (el) 777l will be described with reference to FIG. 50e-2 road graph data table RDGDTl (el) 795l and FIG. 50e. Road ID No. = l 777l starts from the lower left end point l, j 793l, j, and has projection planes on both sides until the next end point l, j + 1 793l, j + 1 (attribute code = 3) The width is w l (end points l, j). Endpoint l, j + 1
793L, result entered the intersection at j + 1 left projection surface disappears (attribute code = 2), the road width is w l. The projection planes on both sides disappear at the end point l, j + 3 793l, j + 3 (attribute code = 0), and the width is undefined and blank (end point l, j + 3). At the end point l, j + 3 793l, j + 3 intersects with road ID No. = k 777k (attribute code = k), attribute 3 intersects at the end point where the record address of road ID No. = k 777k is 3 (End point l, j + 3). A projection plane appears on the left side at the end point l, j + 4 793l, j + 4 (attribute code = 1), and the width becomes w 1 (end point l, j + 4). As a result of exiting the intersection at the end point l, j + 5 793l, j + 5, it has projection planes on both sides (attribute code = 3), and the width becomes w l (end point l, j + 5). Furthermore, it continues after the end point l, j + 6 793l, j + 6.

図50fでは5叉路の記述方法を示す。道路ID No.=k 777kと道路ID No.=l(エル) 777lが交差点の中央にある端点k,i+3 792k,i+3と端点l,j+2 793l,j+2で交差している。道路ID No.=m 777mが道路ID No.=l(エル) 777lへ端点l,j+3 792l,j+3で合流している。道路ID No.=k 777kの構造記述を図50f−1道路グラフデータテーブルRDGDTk 795kと図50fに即して説明する。道路ID No.=k 777kは左端の端点k,i 792k,iよりスタートし、次の端点k,i+1 792k,i+1までは両側に投影面を持ち(属性コード=3)、幅員がwである(端点k,i)。端点k,i+1 792k,i+1で交差点に入った結果投影面が左側のみとなり(属性コード=1)、幅員はwである(端点k,i+1)。端点k,i+2
792k,i+2で両側の投影面が無くなり(属性コード=0)、幅員はブランクとなる(端点k,i+2)。端点k,i+3
792k,i+3で道路ID No.=l(エル) 777lと交差し(属性コード=l(エル))属性の2は道路ID No.=l(エル) 777lのレコードアドレスが2の端点で交差していることを示す(端点k,i+3)。端点k,i+4 792k,i+4で左側に投影面が出現し(属性コード=1)、幅員がwである(端点k,i+4)。端点k,i+5 792k,i+5で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwとなる(端点k,i+5)。さらに端点k,i+6 792k,i+6以降に続く。道路ID No.=l(エル) 777lの構造記述を図50f−2道路グラフデータテーブルRDGDTl(エル) 795lと図50fに即して説明する。道路ID No.=l 777lは下端の端点l,j 793l,jよりスタートし、次の端点l,j+1 793l,j+1までは両側に投影面を持ち(属性コード=3)、幅員がwlである(端点l,j)。端点l,j+1 793l,j+1で交差点に入った結果両側の投影面が無くなり(属性コード=0)、幅員はブランクとなる。端点l,j+2 793l,j+2で道路ID No.=k 777kと交差し(属性コード=k),属性の3は道路ID No.=k 777kのレコードアドレスが3の端点で交差していることを示す(端点l,j+2)。端点l,j+3 793l,j+3で道路ID No.=m 777mと合流し(属性コード=m),属性のnは道路ID No.=m 777mのレコードアドレスがnの端点で合流していることを示す(端点l,j+3)。端点l,j+4 793l,j+4で右側に投影面が出現し(属性コード=2)幅員がwとなる(端点l,j+4)。端点l,j+5 793l,j+5で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwlとなる(端点l,j+5)。さらに端点l,j+6 793l,j+6以降に続く。道路ID No.=m 777mの構造記述を図50f−3道路グラフデータテーブルRDGDTm 795mと図50fに即して説明する。道路ID No.=m 777mは合流路の端点m,n 793m,nで終了し、道路ID No.=l 777lへ合流し(属性コード=l),属性の3は道路ID No.=l 777lのレコードアドレスが3の端点で合流していることを示す(端点m,n)、前の端点m,n-1 793m,n-1からは分岐路内で両側に投影面が無く(属性コード=0)、幅員も無定義でブランクである(端点m,n-1)。その前の端点m,n-2 793m,n-2からは右側のみに投影面が存在しており(属性コード=2)、幅員はwmとなる(端点m,n-2)。その前の端点m,n-3 793m,n-3からは両側に投影面が存在し(属性コード=3)、幅員はwmである(端点m,n-3)。
FIG. 50f shows a description method of a 5-fork. Road ID No. = k 777k and Road ID No. = l (El) 777l intersects at the end point k, i + 3 792k, i + 3 and the end point l, j + 2 793l, j + 2 at the center of the intersection ing. Road ID No. = m 777m merges with Road ID No. = l (El) 777l at the end points l, j + 3 792l, j + 3. The structure description of road ID No. = k 777k will be described with reference to FIG. 50f-1 road graph data table RDGDTk 795k and FIG. 50f. Road ID No. = k 777k starts from the left end point k, i 792k, i and has projection planes on both sides up to the next end point k, i + 1 792k, i + 1 (attribute code = 3). There is a w k (end point k, i). As a result of entering the intersection at the end points k, i + 1 792k, i + 1, the projection plane is only on the left side (attribute code = 1), and the width is w k (end points k, i + 1). Endpoint k, i + 2
At 792k, i + 2, the projection planes on both sides disappear (attribute code = 0), and the width is blank (end points k, i + 2). Endpoint k, i + 3
792k, i + 3 intersects road ID No. = l (el) 777l (attribute code = l (el)) The attribute 2 is the end point where the record address of road ID No. = l (el) 777l is 2 Indicates that they intersect (end points k, i + 3). A projection plane appears on the left side at the end point k, i + 4 792k, i + 4 (attribute code = 1), and the width is w k (end point k, i + 4). As a result of exiting the intersection at the end points k, i + 5 792k, i + 5, it has projection planes on both sides (attribute code = 3), and the width becomes w k (end points k, i + 5). Furthermore, it continues after the end point k, i + 6 792k, i + 6. The structure description of road ID No. = l (el) 777l will be described with reference to FIG. 50f-2 road graph data table RDGDTl (el) 795l and FIG. 50f. Road ID No. = l 777l starts from the end point l, j 793l, j at the lower end and has projection planes on both sides up to the next end point l, j + 1 793l, j + 1 (attribute code = 3). Is w l (end point l, j). As a result of entering the intersection at the end point l, j + 1 793l, j + 1, the projection planes on both sides disappear (attribute code = 0), and the width is blank. Intersection with road ID No. = k 777k at end point l, j + 2 793l, j + 2 (attribute code = k), attribute 3 intersects at the end point with record address 3 of road ID No. = k 777k (End point l, j + 2). At end point l, j + 3 793l, j + 3, merge with road ID No. = m 777m (attribute code = m), and attribute n joins at the end point where the record address of road ID No. = m 777m is n (End point l, j + 3). A projection plane appears on the right side at the end point l, j + 4 793l, j + 4 (attribute code = 2), and the width becomes w 1 (end point l, j + 4). As a result of exiting the intersection at the end point l, j + 5 793l, j + 5, it has projection planes on both sides (attribute code = 3), and the width becomes w l (end point l, j + 5). Furthermore, it continues after the end point l, j + 6 793l, j + 6. The structure description of road ID No. = m 777m will be described with reference to FIG. 50f-3 road graph data table RDGDTm 795m and FIG. 50f. Road ID No. = m 777m ends at the end point m, n 793m, n of the merge path, merges to road ID No. = l 777l (attribute code = l), attribute 3 is road ID No. = l 777l Indicates that the record addresses of the two are merged at the end point 3 (end point m, n). From the previous end point m, n-1 793m, n-1, there is no projection plane on both sides in the branch path (attribute code = 0), width is undefined and blank (end points m, n-1). A projection plane exists only on the right side from the previous end point m, n-2 793m, n-2 (attribute code = 2), and the width is w m (end point m, n-2). Projection planes exist on both sides from the previous end point m, n-3 793m, n-3 (attribute code = 3), and the width is w m (end point m, n-3).

図51は路上画像取得システムの構成例を示した図であり、カーナビゲーションシステム部801とデータ取得記録システム部800より構成される。カーナビゲーションシステム部803は図42(b)で規定される撮影ポイント766に車両803を移動経路765に沿って誘導するための装置であり、GPS380より車両位置データが周期的に得られる。カーナビゲーションシステム部803の機能は、図53の路上画像取得計画ファイル111の内容に従い、図52の路上画像取得システムのカーナビゲーションシステム部の処理フローによって図54の路上画像取得システムのカーナビゲーションシステム部の表示画面例によって車両を誘導するものである。カーナビゲーションシステム自体は既に公然実施されていて何ら新規性はないものであるが、本発明の目的を実現するために撮影ポイント766に効率的に車両を誘導する部分が本発明に関わるところである。まず走行前に都市のどの部分の道路の路上を取得するか決定する。地図上で撮影範囲を決定し、走行プランを策定する。撮影ポイント766は本発明の目的を達成するように均一かつ高密度に道路ないし通路に沿って設定しなくてはならず、その結果に基づき指定撮影経路825を設定する。各道路に図53の路上画像取得計画ファイルに示される道路ID No.を割り振り撮影ポイント766を割付け、各道路ID No.の開始座標と終了座標、さらにその間の撮影ポイント数と各撮影ポイント座標を緯度経度で設定する。このようにして図53の路上画像取得計画ファイルは構築される。該路上画像取得計画ファイルの構築に関わるグラフィックユーザインターフェイスは地図情報システムとして公然実施されている。   FIG. 51 is a diagram illustrating a configuration example of a road image acquisition system, which includes a car navigation system unit 801 and a data acquisition / recording system unit 800. The car navigation system unit 803 is a device for guiding the vehicle 803 to the photographing point 766 defined in FIG. 42B along the movement path 765, and vehicle position data is periodically obtained from the GPS 380. The function of the car navigation system unit 803 is based on the contents of the road image acquisition plan file 111 of FIG. 53, and the car navigation system unit of the road image acquisition system of FIG. 54 according to the processing flow of the car navigation system unit of the road image acquisition system of FIG. The vehicle is guided by the example of the display screen. The car navigation system itself has already been publicly implemented and has no novelty. However, in order to realize the object of the present invention, the part that efficiently guides the vehicle to the photographing point 766 is related to the present invention. First, determine which part of the city road you want to get before driving. Determine the shooting range on the map and formulate a driving plan. The shooting points 766 must be set uniformly and densely along the road or passage so as to achieve the object of the present invention, and the designated shooting route 825 is set based on the result. The road ID No. shown in the road image acquisition plan file in FIG. 53 is assigned to each road, and a shooting point 766 is assigned. The start coordinates and end coordinates of each road ID No., and the number of shooting points and the shooting point coordinates between them are assigned. Set by latitude and longitude. In this way, the road image acquisition plan file of FIG. 53 is constructed. The graphic user interface related to the construction of the road image acquisition plan file is publicly implemented as a map information system.

カーナビゲーションシステム部801の機能は図52に記載の路上画像取得システムのカーナビゲーションシステム部の処理フローによって示される。
処理ブロック810で路上取得計画ファイルに登録されている道路ID No.の中から撮影予定の道路ID No.についてすべての撮影が終了するまで図54の表示を順次に行う。指定された道路ID No.には開始座標があるので、処理ブロック811で該道路ID No.を開始するために走行開始点の位置、進行方向、速度を指定して図54の内容をモニタ上に表示してガイダンスを行う。撮影を行うには、処理ブロック811で規定された条件を一定の誤差範囲、たとえば位置誤差で1mから5m以下の精度で満足しなくてはならず、満足しない場合には再度走行をやり直す。処理ブロック810で選択された道路ID No.の路上画像取得計画ファイル記載の撮影ポイント座標から最終撮影ポイントまで撮影ポイントをひとつずつ順次処理ブロック812および処理ブロック813によりガイダンスする。
The function of the car navigation system unit 801 is shown by the processing flow of the car navigation system unit of the road image acquisition system shown in FIG.
54 is displayed in sequence until all shooting is completed for the road ID No. scheduled to be shot from among the road ID Nos. Registered in the road acquisition plan file in processing block 810. Since the designated road ID No. has a start coordinate, in order to start the road ID No. in the processing block 811, the position, traveling direction and speed of the travel start point are designated, and the contents of FIG. 54 are displayed on the monitor. To display guidance. In order to take a picture, the condition specified in the processing block 811 must be satisfied with a certain error range, for example, a position error with an accuracy of 1 m to 5 m or less. The processing points 812 and 813 sequentially guide the shooting points from the shooting point coordinates described in the road image acquisition plan file of the road ID No. selected in the processing block 810 to the final shooting point one by one.

データ取得記録システム部 800には車両803の姿勢を観測するIMU400と、ディジタルカメラ750の制御と撮像データ処理のためのプログラムを含む路上撮影制御システム806と、画像データをふくむ各種データを記憶する大容量ディスク装置で構成される路上画像一次ファイル112と、ディジタルカメラ750に対する撮影指令を出すための撮影ポイントを記憶している路上画像取得計画ファイル121を搭載している。車両803の位置計測用のGPS380のアンテナを機外に有している。 The data acquisition and recording system unit 800 stores an IMU 400 for observing the attitude of the vehicle 803, a road imaging control system 806 including a program for controlling the digital camera 750 and processing imaging data, and a large amount of data including image data. A road image primary file 112 composed of a capacity disk device and a road image acquisition plan file 121 storing shooting points for issuing shooting commands to the digital camera 750 are mounted. A GPS 380 antenna for measuring the position of the vehicle 803 is provided outside the apparatus.

図55は図51のデータ取得記録システム部800の構成機器間の情報の流れを示している。図56は路上撮影制御システム806の処理フローを説明している。路上撮影制御システム806はCPUで構成される。路上撮影制御システム806はIMU396より安定プラットフォーム装置395の姿勢データ450を周期的に取り込む。安定プラットフォーム395が正常に動作している場合には、車両803の姿勢によらず慣性空間に対して常に一定の姿勢を保っている。車両803に固定されたIMU400は車両の姿勢データ828を、GPS380はGPSアンテナの位置データ830を周期的に路上撮影制御システム806に送り込む。路上撮影制御システム808の処理は図56に詳説しているが、路上画像取得計画ファイル111の内容と得られたGPSアンテナの位置データ380と車両の姿勢データ828を処理ブロック834と処理ブロック835で順次照合し、道路ID No.を特定し、当該道路ID No.の撮影終了ないし、経路離脱まで、順次処理ブロック836で指定道路ID No.の撮影点の直近点を通過中かを判定し、撮影許容範囲内で撮影ポイントに最近接したタイミングにディジタルカメラ集合体を構成する各ディジタルカメラ750に処理ブロック837で一斉に撮影指令457を送ると同時に図57に示す路上画像一次ファイル内の車両データ部分840を処理ブロック838で書き込む。ディジタルカメラ750は内部に本発明の時点で32GBのメモリを保有できるので撮影した路上画像データ827を少なくともひとつの道路ID No.が終了するまで保持することができる。車両803は、ひとつの道路ID No.を終了し、次の道路ID No.に入るまでの間にディジタルカメラ750内の路上画像データ827を車載の大容量ディスク装置で構成される路上画像一次ファイル112に処理ブロック839で転送し、ディジタルカメラ750内部のメモリを空にする。 FIG. 55 shows a flow of information between components of the data acquisition / recording system unit 800 of FIG. FIG. 56 illustrates a processing flow of the road imaging control system 806. The on-street imaging control system 806 is composed of a CPU. The on-road imaging control system 806 periodically captures attitude data 450 of the stable platform device 395 from the IMU 396. When the stable platform 395 is operating normally, a constant posture is always maintained with respect to the inertial space regardless of the posture of the vehicle 803. The IMU 400 fixed to the vehicle 803 periodically sends vehicle attitude data 828, and the GPS 380 periodically sends GPS antenna position data 830 to the road imaging control system 806. The processing of the road imaging control system 808 is described in detail in FIG. 56, but the contents of the road image acquisition plan file 111 and the obtained GPS antenna position data 380 and vehicle attitude data 828 are processed in processing blocks 834 and 835. Sequentially collate, identify the road ID No., determine whether the road ID No. is passing through the nearest point of the designated road ID No. in the sequential processing block 836 until the end of the shooting of the road ID or the route departure At the timing closest to the shooting point within the shooting allowable range, the shooting command 457 is simultaneously sent to each digital camera 750 constituting the digital camera assembly at processing block 837, and at the same time, the vehicle data in the road image primary file shown in FIG. Part 840 is written at process block 838. Since the digital camera 750 can hold a 32 GB memory at the time of the present invention, it can hold the captured road image data 827 until at least one road ID number is completed. The vehicle 803 finishes one road ID No. and until it enters the next road ID No., the road image data 827 in the digital camera 750 is a road image primary file composed of an on-vehicle large-capacity disk device. Processing block 839 transfers the data to 112, and the internal memory of the digital camera 750 is emptied.

図57に路上画像一次ファイル112の構成例を記したが、画像ヘッダ部470と画像データ部471は撮影した各画像ごとに用意される。ヘッダ部のカメラIDはディジタルカメラ集合体755を構成する各ディジタルカメラ750a〜p識別する番号である。画像データIDは相互に画像が識別できるように付す認識番号であり、撮影日時刻は車両データ部分840と対応する撮影時刻であり、路上画像データベース生成登録処理130において、統合して各ディジタルカメラ750a〜iの光軸方向を算定するのに用いられる。画像データ部分471は加工を施さない。また、画像ヘッダ部470のカメラパラメタは通常は走行中固定であるので、同一設定値を書き込む。 FIG. 57 shows a configuration example of the road image primary file 112, but an image header portion 470 and an image data portion 471 are prepared for each photographed image. The camera ID in the header part is a number for identifying each digital camera 750a-p constituting the digital camera assembly 755. The image data ID is an identification number assigned so that the images can be identified with each other, and the shooting date / time is the shooting time corresponding to the vehicle data portion 840. In the road image database generation / registration processing 130, each digital camera 750a is integrated. Used to calculate the optical axis direction of ~ i. The image data portion 471 is not processed. Further, since the camera parameter of the image header section 470 is normally fixed during running, the same set value is written.

図58に車載用安定プラットフォーム装置395のもっとも単純な構成例を示す。
安定プラットフォーム装置395は図30の航空機搭載用安定プラットフォームと同一構造であるが車両天井板上に設置され、安定プラットフォーム装置395上に車載用のディジタルカメラ集合体755が設置される。
FIG. 58 shows the simplest configuration example of the in-vehicle stable platform device 395.
The stable platform device 395 has the same structure as the aircraft-mounted stable platform shown in FIG. 30, but is installed on the vehicle ceiling plate, and an in-vehicle digital camera assembly 755 is installed on the stable platform device 395.

路上画像データベース生成登録システム130と路上画像データベース150について図59から図67までを用いて詳細に説明する。
路上画像データベースは画像投影面と視線と視点から検索する関係上、まず画像投影面の構造と道路グラフデータベース151の構造関係を定義しなくてはならない。図63に道路グラフの方向と視線ベクトルの方向による画像投影面について説明する。路上で通路に沿って全周を撮影した路上画像は道路の境界線にある投影面に投影し、視線と視点の位置関係によってモーフィング処理を行うが、進行方向または進行反対方向の映像は道路が細長いため画像を投影するためには極めて長い道路境界面を必要とし実現が困難となる。
The road image database generation registration system 130 and the road image database 150 will be described in detail with reference to FIGS.
Since the road image database is searched from the image projection plane, the line of sight, and the viewpoint, first, the structure of the image projection plane and the structural relationship of the road graph database 151 must be defined. FIG. 63 illustrates an image projection plane based on the direction of the road graph and the direction of the line-of-sight vector. On the road, the road image of the entire circumference along the passage is projected onto the projection plane at the road boundary, and morphing is performed according to the positional relationship between the line of sight and the viewpoint. Since it is elongate, an extremely long road boundary surface is required to project an image, which is difficult to realize.

この問題を解決するために、進行方向または進行反対方向ないしそれに近い方向の映像については道路の左右境界面ではなく図63で点線で示したように前方仮想投影面878と後方仮想投影面879を設けてこれに実画像を投影する。なお、前方仮想投影面878と後方仮想投影面879の位置は路上視点によって移動する。図63の例では道路の進行方向すなわち道路グラフと視線のなす角882が左右20°の範囲であれば前方仮想投影面878を使用し、路上画像取得システム110で撮影した前方画像を使用し、道路グラフと視線のなす角882が左右160°から180°の範囲であれば後方仮想投影面879を使用し、路上画像取得システム110で撮影した後方画像を使用する。道路グラフと視線のなす角882が左側20°から160°の範囲であれば左投影面880を使用し、路上画像取得システム110で撮影した進行方向に対して左斜め前方、左、左後方画像を使用し、道路グラフと視線のなす角882が右側20°から160°の範囲であれば右投影面881を使用し、路上画像取得システム110で撮影した進行方向に対して右斜め前方、右、右後方画像を使用する。ここでは道路グラフと視線のなす角882が前方左右20℃、後方左右160°で投影面を切り替える例を述べたが、この度数は現実のリアリティーに応じて可変とすることもできるし、実地でのリアリティーにより増減させることができるが、以下では具体例として20°を選定している。以下、路上画像データベース生成登録システム130、路上画像データベース150、路上3次元動画生成システム170は以上に説明した投影面の方式に沿って構築されている。 In order to solve this problem, the forward virtual projection plane 878 and the rear virtual projection plane 879 are not shown for the video in the traveling direction, the direction opposite to the traveling direction, or the direction close thereto, as shown by dotted lines in FIG. An actual image is projected on the image. The positions of the front virtual projection plane 878 and the rear virtual projection plane 879 move according to the road viewpoint. In the example of FIG. 63, if the traveling direction of the road, that is, the angle 882 formed by the road graph and the line of sight is in the range of 20 ° left and right, the front virtual projection plane 878 is used, and the front image taken by the road image acquisition system 110 is used. If the angle 882 formed by the road graph and the line of sight is in the range of 160 ° to 180 ° on the left and right, the rear virtual projection plane 879 is used, and the rear image captured by the road image acquisition system 110 is used. If the angle 882 formed by the road graph and the line of sight is in the range of 20 ° to 160 ° on the left side, the left projection plane 880 is used, and the left diagonally forward, left and left rear images with respect to the traveling direction photographed by the road image acquisition system 110. If the angle 882 formed by the road graph and the line of sight is in the range of 20 ° to 160 ° on the right side, the right projection plane 881 is used and the right front side and the right side with respect to the traveling direction photographed by the road image acquisition system 110 are used. Use the right rear image. Here, an example has been described in which the projection plane is switched at an angle 882 between the road graph and the line of sight of 20 ° forward and left and 160 ° backward right and left, but this power can be made variable according to the actual reality. However, in the following, 20 ° is selected as a specific example. Hereinafter, the road image database generation / registration system 130, the road image database 150, and the road three-dimensional moving image generation system 170 are constructed in accordance with the projection plane method described above.

次に画像投影面の構造について図64を用いて説明する。本発明の路上3次元動画生成システムは視点と視線が定まると、投影面を定めて、最適な実画像を検索し、視差に応じてモーフィングを行う。このため与えられた視点と視線に対して視差の少ない実画像が存在し、かつ該実画像を高速に検索できなくてはならない。道路ID No.mの任意の点を指定するために、端点列を定義してグラフで道路の先頭からm番目の端点とそれに続く辺の区間上の位置に対して、「端点m,i座標(xmi,ymi)」と表現するが、該区間は道路の形態により決まっており投影面の定義には長すぎる。このため図64に記すように、投影面区分として道路グラフの方向に対して左側と右側、さらに該辺に対応する左右の投影面を「投影面区分」と定義して端点と辺で構成されるグラフとして細分する。端点m,i座標(xmi,ymi)890に対応する道路グラフの方向883の左側の投影面区分を、
第0番目を 投影面区分mil0座標(xmil0,ymil0)891
第1番目を 投影面区分mil1座標(xmil1,ymil1)892
第2番目を 投影面区分mil2座標(xmil2,ymil2)893
第3番目を 投影面区分mil3座標(xmil3,ymil4)894
以下同様
と名づけて定義する。添え字lは左側を示す。
同様に道路グラフの方向883の右側の投影面区分を、
第0番目を 投影面区分mir0座標(xmir0,ymir0)895
第1番目を 投影面区分mir1座標(xmir1,ymir1)896
第2番目を 投影面区分mir2座標(xmir2,ymir2)897
第3番目を 投影面区分mir3座標(xmir3,ymir4)898
以下同様
と名づけて定義する。添え字rは右側を示す。各投影面区分は上記に示された端点座標に引き続く道路グラフの方向883の辺で表現される。
Next, the structure of the image projection plane will be described with reference to FIG. When the viewpoint and line of sight are determined, the road three-dimensional moving image generating system of the present invention determines a projection plane, searches for an optimal actual image, and performs morphing according to parallax. For this reason, there must be a real image with little parallax with respect to a given viewpoint and line of sight, and the real image must be searched at high speed. In order to specify an arbitrary point of road ID No.m, an end point sequence is defined, and the “end point m, i coordinate for the position of the m-th end point from the beginning of the road and the subsequent side section in the graph. (X mi , y mi ) ”, which is determined by the form of the road and is too long for the definition of the projection plane. For this reason, as shown in FIG. 64, the left and right projection plane sections are defined as projection plane sections, and the left and right projection planes corresponding to the sides are defined as “projection plane sections” and are composed of end points and sides. Subdivide as a graph. The projection plane segment on the left side in the direction 883 of the road graph corresponding to the end point m, i coordinate (x mi , y mi ) 890 is
0th projection plane section mil0 coordinate (x mil0 , y mil0 ) 891
The first projection plane section mil1 coordinate (x mil1 , y mil1 ) 892
The second projection plane section mil2 coordinates (x mil2 , y mil2 ) 893
The third projection plane section mil3 coordinates (x mil3 , y mil4 ) 894
The same is defined below. The subscript l indicates the left side.
Similarly, the right projection plane section in the direction 883 of the road graph is
The 0th projection plane section mir0 coordinate (x mir0 , y mir0 ) 895
The first projection plane section mir1 coordinate (x mir1 , y mir1 ) 896
The second is the projection plane section mir2 coordinate (x mir2 , y mir2 ) 897
The third projection plane section mir3 coordinates (x mir3 , y mir4 ) 898
The same is defined below. The subscript r indicates the right side. Each projection plane section is represented by an edge in the direction 883 of the road graph following the end point coordinates shown above.

次に、路上画像取得システム110で撮影された画像は原画像として、始点の緯度経度が指定されると下記検索手順で検索されるようインデクス体系を構築する。
緯度経度−>道路ID
No.−>端点座標―>投影面区分座標
投影面区分座標と視線方向―>原画像
図64において、原画像撮影位置R903にディジタルカメラ集合体755が存在してその中のディジタルカメラ750のひとつがカメラ光軸を表す正規化ベクトルである画像ベクトルR904の画像を撮影し、画像ベクトル904と画像右端R906が投影面区分mir2座標(xmir2,ymir2)897と交差し、画像左端R905が投影面区分mir2座標(xmir2,ymir2)897と交差する。該画像ベクトルと道路グラフの方向883のなす角により、図63における投影面の使用法が異なるため、下記原則で原画像を投影面区分にリンクさせて登録する。
(1)0°
道路グラフの方向883に対する画像ベクトルとのなす角
左20°
道路グラフの方向883の左側で視点の投影面区分への垂線の足が存在する投影面区分
道路グラフの方向883の右側で視点の投影面区分への垂線の足が存在する投影面区分
(2)左20°
道路グラフの方向883に対する画像ベクトルとのなす角
左160°
道路グラフの方向883の左側で画像ベクトルが交差する投影面区分
(3)左160°
道路グラフの方向883に対する画像ベクトルとのなす角
左180°
道路グラフの方向883の左側で視点の投影面区分への垂線の足が存在する投影面区分
道路グラフの方向883の右側で視点の投影面区分への垂線の足が存在する投影面区分
(4)0°
道路グラフの方向883に対する画像ベクトルとのなす角
右20°
道路グラフの方向883の右側で視点の投影面区分への垂線の足が存在する投影面区分
道路グラフの方向883の左側で視点の投影面区分への垂線の足が存在する投影面区分
(5)右20°
道路グラフの方向883に対する画像ベクトルとのなす角
右160°
道路グラフの方向883の左側で画像ベクトルが交差する投影面区分
(6)右160°
道路グラフの方向883に対する画像ベクトルとのなす角
右180°
道路グラフの方向883の左側で視点の投影面区分への垂線の足が存在する投影面区分
道路グラフの方向883の右側で視点の投影面区分への垂線の足が存在する投影面区分
すなわち(1)(3)(4)(6)は道路グラフの方向883の前後方向に対する画像であるため左右両側の投影面区分に登録する。
Next, an index system is constructed so that an image captured by the road image acquisition system 110 is searched as an original image by the following search procedure when the latitude and longitude of the start point are designated.
Latitude / Longitude-> Road ID
No .-> End point coordinates-> Projection plane section coordinates Projection plane section coordinates and line-of-sight direction-> Original image In FIG. 64, a digital camera aggregate 755 exists at the original image shooting position R903, and one of the digital cameras 750 therein. The image vector R904 is taken as a normalized vector representing the camera optical axis, the image vector 904 and the image right end R906 intersect with the projection plane section mir2 coordinates (x mir2 , y mir2 ) 897, and the image left end R905 is projected. Crosses the plane section mir2 coordinate (x mir2 , y mir2 ) 897. Since the usage of the projection plane in FIG. 63 differs depending on the angle formed by the image vector and the direction 883 of the road graph, the original image is registered by linking to the projection plane division according to the following principle.
(1) 0 °
Angle formed by image vector for direction 883 of road graph
20 ° left
Projection plane segment where the foot of the perpendicular to the projection plane segment of the viewpoint exists on the left side of the direction 883 of the road graph Projection plane segment where the foot of the perpendicular to the projection plane segment of the viewpoint exists on the right side of the direction 883 of the road graph (2 ) Left 20 °
Angle formed by image vector for direction 883 of road graph
160 ° left
Projection plane section where image vectors intersect on the left side of road graph direction 883 (3) 160 ° left
Angle formed by image vector for direction 883 of road graph
180 ° left
Projection plane segment where the foot of the perpendicular to the projection plane segment of the viewpoint exists on the left side of the direction 883 of the road graph Projection plane segment where the foot of the perpendicular to the projection plane segment of the viewpoint exists on the right side of the direction 883 of the road graph (4 ) 0 °
Angle formed by image vector for direction 883 of road graph
20 ° right
Projection plane segment with perpendicular foot to the projection plane segment of the viewpoint on the right side of the road graph direction 883 Projection plane segment with perpendicular leg to the projection plane segment of the viewpoint on the left side of the road graph direction 883 (5 ) 20 ° right
Angle formed by image vector for direction 883 of road graph
160 ° right
Projection plane section where image vectors intersect on the left side of road graph direction 883 (6) Right 160 °
Angle formed by image vector for direction 883 of road graph
180 ° right
Projection plane segment where the foot of the perpendicular to the projection plane segment of the viewpoint exists on the left side of the direction 883 of the road graph Projection plane segment where the foot of the perpendicular to the projection plane segment of the viewpoint exists on the right side of the direction 883 of the road graph Since 1), (3), (4), and (6) are images with respect to the front-rear direction of the direction 883 of the road graph, they are registered in the left and right projection plane sections.

上記原則に従い、図64の原画像撮影位置R903からの画像ベクトルR904は上記(5)の場合に該当し、原画像が投影面区分mir2座標(xmir2,ymir2)897にリンクして登録される。図64の原画像撮影位置L899からの画像ベクトルL900は上記(2)の場合に該当し、原画像が投影面区分mil2座標(xmil2,ymil2)893にリンクして登録される。また、図65の原画像撮影位置F907からの画像ベクトルF908は上記(4)の場合に該当し、原画像が投影面区分mir1座標(xmir1,ymir1)896と投影面区分mil1座標(xmil1,ymil1)892にリンクして登録される。図65の原画像撮影位置B911からの画像ベクトルB912は上記(3)の場合に該当し、原画像が投影面区分mil2座標(xmil2,ymil2)893と投影面区分mir2座標(xmir2,ymir2)907にリンクして登録される。 In accordance with the above principle, the image vector R904 from the original image shooting position R903 in FIG. 64 corresponds to the case of (5) above, and the original image is registered by linking to the projection plane section mir2 coordinates (x mir2 , y mir2 ) 897. The The image vector L900 from the original image shooting position L899 in FIG. 64 corresponds to the case (2) described above, and the original image is registered by being linked to the projection plane section mil2 coordinates (x mil2 , y mil2 ) 893. Also, the image vector F908 from the original image shooting position F907 in FIG. 65 corresponds to the case of (4) above, and the original image has the projection plane section mir1 coordinates (x mir1 , y mir1 ) 896 and the projection plane section mil1 coordinates (x mil1 , y mil1 ) 892 and registered. The image vector B912 from the original image shooting position B911 in FIG. 65 corresponds to the case of (3) above, and the original image has the projection plane section mil2 coordinates (x mil2 , y mir2 ) 893 and the projection plane section mir2 coordinates (x mir2 , y mir2 ) 907 is registered by linking.

次に図66を用いて原画像を投影面区分に登録する場合、画像ベクトルと道路グラフの方向883のなす角により区分する方式を説明する。投影面区分917にリンクして登録される原画像はどのような視線ベクトルで該投影面区分917を見込むかによってさらに区分する。すなわち該投影面区分917を視野に入れる画像について該原画像位置と該投影面区分中心点918を結んだ線が931から937のどのセクタに入るかを区分する。原画像撮影位置a 916aは角度140-160°セクタ
937に、原画像撮影位置c 916cは角度80-120°セクタ 934に区分される。画像ベクトルが道路グラフの方向883とのなす角が前方左右20°の範囲920に存在する画像ベクトルd 919dは原画像撮影位置d 916dからの垂線の足が投影面区分 917に存在するので角度20-40°セクタ 930に原画像を区分する。画像ベクトルが道路グラフの方向883とのなす角が後方左右20°の範囲921に存在する画像ベクトルe 919eは原画像撮影位置d 916dからの垂線の足が投影面区分 917に存在するので角度160-180°セクタ 938に原画像を区分する。
Next, with reference to FIG. 66, a method of dividing an original image according to the angle formed by the image vector and the direction 883 of the road graph when the original image is registered in the projection plane section will be described. The original image registered by linking to the projection plane section 917 is further classified according to what line-of-sight vector is used to view the projection plane section 917. That is, for an image in which the projection plane section 917 is put in the field of view, the sector from 931 to 937 into which the line connecting the original image position and the projection plane section center point 918 enters is classified. Original image shooting position a 916a is angle 140-160 ° sector
In 937, the original image shooting position c 916c is divided into sectors 80, 120 ° at an angle 80-120 °. The image vector d 919d exists in a range 920 in which the angle between the image vector and the direction 883 of the road graph is 20 ° to the left and right. The angle 20 Divide the original image into -40 ° sector 930. The image vector e 919e exists in the range 921 where the angle between the image vector and the direction 883 of the road graph is 20 ° backward left and right. -180 ° Divide the original image into 938 sectors.

以上に道路に対する投影面と画像のインデクス方式について説明したが、図62に具体的な路上画像インデクス機構の構造を説明する。図46で説明した道路グラフデータテーブルRDGDT 790を拡張して属性コラムの次に投影面原画像インデクステーブルアドレス873を追加して道路グラフデータテーブル RDGDTm 790mを構成する端点と辺ごとに路上原画像投影用の投影面区分にさらに細分化して記述できるようにする。すなわち道路ID No.mの相対レコードアドレスがiの端点に対して投影面原画像インデクステーブルPJINXT 871のアドレスPJINXTADRmiがリンクされ、該端点m,iに属する投影面区分が開始点より順次、相対コードアドレス874に対応して道路グラフの方向883の左側(左壁)と右側(右壁)に分けて記述される。セル数とは該端点m,iに属する投影面区分の数である。投影面区分の表現は各投影面区分に対してその開始座標で示される。投影面原画像インデクステーブルPJINXT 871には左右両壁の各投影面区分に対して投影面原画像アドレステーブルアドレス875 PJADRTADRがあり、図66に対応した投影面原画像アドレステーブルPJADRT 872にリンクする。投影面区分に対応した路上原画像が投影面区分を見込む視線角に応じて区分化されて、各区分に含まれる原画像数が路上画像データ数869として、原画像が路上画像データアドレス870として記載される。このようにして、下記の高速検索機構が完成する。
緯度経度−>道路ID
No.−>端点座標―>投影面区分座標
投影面区分座標と視線方向―>原画像
The projection plane and image index method for the road has been described above. FIG. 62 illustrates a specific structure of the road image index mechanism. The road graph data table RDGDT 790 described in FIG. 46 is expanded and a projection plane original image index table address 873 is added next to the attribute column to project the road original image for each end point and side constituting the road graph data table RDGDTm 790m. It can be further subdivided into the projection plane sections for use. That is, the address PJINXTADRmi of the projection plane original image index table PJINXT 871 is linked to the end point of the road record ID No.m relative record address i, and the projection plane sections belonging to the end points m and i are sequentially encoded from the start point. Corresponding to the address 874, the left side (left wall) and the right side (right wall) of the direction 883 of the road graph are described separately. The number of cells is the number of projection plane sections belonging to the end points m and i. The representation of the projection plane segment is indicated by its starting coordinates for each projection plane segment. The projection plane original image index table PJINXT 871 has a projection plane original image address table address 875 PJADRTADR for each projection plane section of the left and right walls, and is linked to the projection plane original image address table PJADRT 872 corresponding to FIG. The original road image corresponding to the projection plane segmentation is segmented according to the line-of-sight angle for which the projection plane segment is expected, the number of original images included in each segment is 869 on the road image data, and the original image is the road image data address 870. be written. In this way, the following high-speed search mechanism is completed.
Latitude / Longitude-> Road ID
No .-> End point coordinates-> Projection plane segment coordinates Projection plane segment coordinates and line-of-sight direction-> Original image

次に図60に従い路上画像データベース153の構造を説明する。路上画像データベース153は路上画像一次ファイル112に取得された情報に基づき、路上画像インデクス機構152と道路グラフデータベース151と整合性を持って構成されなくてはならない。図60の路上画像データベース153は図59の路上画像データベース生成登録システムの処理フローに従って生成登録される。処理ブロック843では、路上画像取得システム110で1日の走行中に蓄積した路上画像一次ファイル112を撮影が終了した後、すべての画像について順次処理する。処理ブロック844では図60の路上画像データベースの画像ヘッダ部850のヘッダーを作成するが図57の路上画像一次ファイル112の画像ヘッダ部470のヘダーをそのまま転記する。処理ブロック845についても通常は路上画像一次ファイル112の画像ヘッダ部470のカメラパラメタをそのまま転記すればよい。処理ブロック846では、画像ヘッダ部850の撮影パラメタを各画像ごとに計算するがその処理について以下に詳述する。 Next, the structure of the road image database 153 will be described with reference to FIG. The road image database 153 must be configured to be consistent with the road image index mechanism 152 and the road graph database 151 based on the information acquired in the road image primary file 112. The road image database 153 of FIG. 60 is generated and registered according to the processing flow of the road image database generation / registration system of FIG. In a processing block 843, after the shooting of the road image primary file 112 accumulated during the day running in the road image acquisition system 110 is finished, all images are sequentially processed. In the processing block 844, the header of the image header portion 850 of the road image database of FIG. 60 is created, but the header of the image header portion 470 of the road image primary file 112 of FIG. For the processing block 845 as well, the camera parameters in the image header part 470 of the road image primary file 112 are usually transferred as they are. In the processing block 846, the shooting parameters of the image header unit 850 are calculated for each image, and the processing will be described in detail below.

カメラ位置は緯度、経度、高度で規定されるが、通常車載GPS380による位置測定がDGPSである場合には、地表であることもあってそのまま正確な位置が得られるとしてよい。GPS380による位置測定がGPSである場合には誤差をふくむので、走行後に走行時刻と同時刻に測定した付近のDGPS局から座標補正データを入手して撮影日時刻にあわせて補正を行う。路上画像取得システム110の場合、路上を2次元的に移動するのみであることと、画角に比べて撮影点と撮影対象物の距離が近いことから撮影パラメタの計算は空中画像の場合と異なり平面幾何で近似して計算してもよい。第2レコードのカメラ位置(道路ID No.端点相対レコードアドレス,端点座標(x,y),端点距離,中心線左右距離)は道路ID No,が判明していなければ図46の地表セル道路インデックステーブル CLLRDINXT 785より検索して道路ID No,相対レコードアドレスより道路グラフアドレステーブルRDGRADRT
788、さらに道路グラフデータテーブルRDGDT 790を検索して、道路ID No.端点相対レコードアドレス,端点座標(x,y)までは直ちに判明する。
The camera position is defined by latitude, longitude, and altitude. However, when the position measurement by the in-vehicle GPS 380 is usually DGPS, the accurate position may be obtained as it is because it is the ground surface. Since the error is included when the position measurement by the GPS 380 is GPS, coordinate correction data is obtained from a nearby DGPS station measured at the same time as the travel time after traveling, and correction is performed according to the shooting date and time. In the case of the road image acquisition system 110, the calculation of the shooting parameters is different from the case of the aerial image because it only moves two-dimensionally on the road and the distance between the shooting point and the shooting object is closer than the angle of view. You may calculate by approximating by plane geometry. If the road ID No is not known as the camera position (road ID No. end point relative record address, end point coordinates (x, y), end point distance, centerline left-right distance) of the second record, the ground cell road index in FIG. Search from the table CLRRDINXT 785, road ID No, road graph address table RDGRADRT from relative record address
Further, the road graph data table RDGDT 790 is searched, and the road ID No. end point relative record address and end point coordinates (x, y) are immediately determined.

道路グラフの方向
883は(xm,i+1−xm,i,ym,i+1−ym,i)を正規化して求められ、車両進行方向
853は路上画像一次ファイルの車両データ部分840より得られる正規化ベクトルである。任意のディジタルカメラαの車両進行方向に対する設定方位を
に対する回転行列で表し、ディジタルカメラ設定方位
859 とするとこの数値はディジタルカメラ集合体755の構造が決まれば決まる。
端点距離Ds
852は Ds=
で求められる。 ただし
=
中心線左右距離Dv
853は Dv=
で求められ、道路グラフの左右いずれかにあるかは
の正負で判定する。
原画像撮影位置
916からの画像ベクトル
904が投影面上で交わる点は、任意のスカラーa、bに対して、
ただし、



これを解くと、
投影面区分の長さは通常同一とするが、投影面区分の座標が規定されているので、任意の投影面区分miri座標(xmiri,ymiri)までの投影面区分mir0座標(xmir0,ymir0)895からの総投影面長は判明する。上記nより投影面区分相対アドレスと画像ベクトル投影面区分内位置dc 856は単純な引き算でもとまる。同様に画像左端投影面区分内位置dl 857および画像右端投影面区分内位置dr 858も求めることができる。
Road graph direction
883 is obtained by normalizing (x m, i + 1 −x m, i , y m, i + 1 −y m, i ), and the vehicle traveling direction
853 is a normalized vector obtained from the vehicle data portion 840 of the road image primary file. Set the direction of any digital camera α with respect to the vehicle traveling direction.
Rotation matrix for the digital camera setting orientation
Assuming 859, this value is determined if the structure of the digital camera assembly 755 is determined.
Endpoint distance Ds
852 is Ds =
Is required. However,
=
Centerline left / right distance Dv
853 is Dv =
It is calculated at the right or left of the road graph
Judgment is based on the sign of.
Original image shooting position
Image vector from 916
The point where 904 intersects on the projection plane is that for any scalar a, b,
However,
,
,
,
Solving this,
The lengths of the projection plane segments are usually the same, but since the coordinates of the projection plane segment are defined, projection plane segment mir0 coordinates (xmir0, ymir0) 895 up to any projection plane segment miri coordinates (xmiri, ymiri) The total projection surface length from is known. From the above n, the projection plane section relative address and the position dc 856 in the image vector projection plane section can be obtained by simple subtraction. Similarly, the position dl 857 in the image left end projection plane section and the position dr 858 in the image right end projection plane section can be obtained.

次に処理ブロック847で処理ブロック844から846で求めた結果を図60に示す路上画像データベース153の該当画像データ部分851に格納する。図59の路上画像データベース生成登録システムの処理フローの最後の処理ブロック848で、処理ブロック847で登録した路上画像データを用いた動画生成のための図62に示す路上画像インデクス機構を生成する。処理ブロック848の内容は図61の路上画像データベース生成登録システム130の路上画像インデクス生成処理フローに述べられている。処理の内容は図62から図66の説明で詳細に述べた路上画像インデクス機構に基づくものであるが、処理ブロック861で道路グラフデータテーブル内の端点No.より道路グラフの方向を求め、画像ベクトル(撮影光軸)とのなす角度により分岐する。
画像ベクトル方向が道路グラフの方向に対して左側0°から20°および右側0°から20°のとき処理ブロック862で前方投影面処理として、直近の左投影面の投影面原画像アドレステーブルの角度160-180°区部分と直近の右投影面の投影面原画像アドレステーブルの角度0-20°区部分に原画像データアドレスを登録する。
画像ベクトル方向が道路グラフの方向に対して左側160°から180°および右側160°から180°のとき処理ブロック863で後方投影面処理として直近の左投影面の投影面原画像アドレステーブルの角度0-20°区部分と直近の右投影面の投影面原画像アドレステーブルの角度160-180°区部分に原画像データアドレスを登録する。
画像ベクトル方向が道路グラフの方向に対して左側20°から160°のとき処理ブロック864で左投影面処理として撮影画像が視野に入れている左側投影面を選出し、処理ブロック865で選出された投影面につき、カメラ位置と投影面中点のなす角に対応じて投影面原画像アドレステーブル内の該当角度部分に原画像データアドレスを登録する。
画像ベクトル方向が道路グラフの方向に対して右側20°から160°のとき処理ブロック866で右投影面処理として撮影画像が視野に入れている左側投影面を選出し、処理ブロック867で選出された投影面につき、カメラ位置と投影面中点のなす角に対応じてを投影面原画像アドレステーブル内の該当角度部分に原画像データアドレスを登録する。
Next, the processing block 847 stores the results obtained in the processing blocks 844 to 846 in the corresponding image data portion 851 of the road image database 153 shown in FIG. In the last processing block 848 of the processing flow of the road image database generation / registration system of FIG. 59, the road image index mechanism shown in FIG. 62 for generating a moving image using the road image data registered in the processing block 847 is generated. The contents of the processing block 848 are described in the road image index generation processing flow of the road image database generation registration system 130 in FIG. The content of the processing is based on the road image index mechanism described in detail in the description of FIGS. 62 to 66. In processing block 861, the direction of the road graph is obtained from the end point number in the road graph data table, and the image vector is obtained. Branches according to the angle formed with (photographing optical axis).
When the image vector direction is 0 ° to 20 ° on the left side and 0 ° to 20 ° on the right side with respect to the direction of the road graph, the angle of the projection surface original image address table of the nearest left projection surface is processed as the front projection surface processing in the processing block 862 The original image data address is registered in the 160-180 ° section and the angle 0-20 ° section of the projection surface original image address table of the right projection plane.
When the image vector direction is 160 ° to 180 ° on the left side and 160 ° to 180 ° on the left side with respect to the direction of the road graph, the angle 0 of the projection surface original image address table of the nearest left projection surface is used as the rear projection surface processing in the processing block 863. The original image data address is registered in the angle 160-180 ° section of the projection surface original image address table of the right 20 ° section and the nearest right projection plane.
When the image vector direction is 20 ° to 160 ° on the left side with respect to the direction of the road graph, the left projection plane in which the photographed image is in the field of view is selected as the left projection plane processing in processing block 864 and selected in processing block 865. For the projection plane, an original image data address is registered in a corresponding angle portion in the projection plane original image address table corresponding to the angle formed by the camera position and the projection plane midpoint.
When the image vector direction is 20 ° to 160 ° on the right side with respect to the direction of the road graph, the left projection plane in which the captured image is in the field of view is selected as the right projection plane processing in processing block 866, and is selected in processing block 867. For the projection plane, the original image data address is registered in the corresponding angle portion in the projection plane original image address table corresponding to the angle formed by the camera position and the projection plane midpoint.

次に、都市景観3次元動画アミューズメントシステムにおける路上動画生成処理システムにつき説明する。路上動画の生成は図63のモデルに従い、視点と視線に最も近い原画像を選択して、画像投影面に対する視差を計算してモーフィング処理を行うが、原理的には空中3次元動画生成システムにおける160におけるアルゴリズムと同様であるが、人間目線であるので視線は水平面上を動き、垂直軸も傾かないとしてよい。このためモーフィングは2次元的に処理する。全体の処理を図72に示す。 Next, a road animation generation processing system in the cityscape three-dimensional animation amusement system will be described. The road moving image is generated according to the model shown in FIG. 63 by selecting the original image closest to the viewpoint and the line of sight, calculating the parallax with respect to the image projection plane, and performing the morphing process. Similar to the algorithm at 160, but because it is a human eye, the line of sight may move on a horizontal plane and the vertical axis may not tilt. For this reason, morphing is processed two-dimensionally. The entire process is shown in FIG.

処理ブロック940では、グラフィックユーザインターフェイスシステム180より次の動画フレーム(次コマ)として計算すべき移動方向、移動速度、位置、視線方向ベクトルを取り込む。処理ブロック941では、この値に基づき次コマの視点位置、視線ベクトル、地表上の目標点座標を計算する。処理ブロック942では、次コマの視野が現コマの原画像に含まれる範囲か路上画像データベースの原画像の撮影パラメタと比較して判断する。含まれていない場合は、最適な原画像を求めなおす必要があり、処理ブロック944へ行く。含まれている場合は、処理ブロック943で現コマの原画像を引き続き使用する設定をおこなう。図68の例で見ると、視点R903は原画像撮影位置a 916aで撮影した右前方視の画像が右側の投影面の原画像になりうることを示している。 In a processing block 940, the moving direction, moving speed, position, and line-of-sight direction vector to be calculated as the next moving image frame (next frame) are fetched from the graphic user interface system 180. In the processing block 941, the viewpoint position of the next frame, the line-of-sight vector, and the target point coordinates on the ground surface are calculated based on this value. In processing block 942, it is determined whether the field of view of the next frame is within the range included in the original image of the current frame or compared with the shooting parameters of the original image in the road image database. If not, it is necessary to re-determine the optimal original image and go to processing block 944. If included, processing block 943 is set to continue using the original image of the current frame. In the example of FIG. 68, the viewpoint R903 indicates that the right-front-view image captured at the original image capturing position a 916a can be the original image on the right projection plane.

処理ブロック944の処理内容はより詳しく図73の路上3次元動画生成システムの処理おける原画像検索の処理フローと図63に示される。以下図63を参照しながら図73により説明する。処理ブロック950では道路グラフと視線のなす角882により図63の区分に従い前後の仮想投影面に画像を生成するか、道路に沿った左右の投影面に画像を生成するか判定する。左右投影面視が選択された場合は、処理ブロック953で前回位置と今回位置より、道路ID No. 端点アドレス、座標が求まるので、さらに視点位置、視線ベクトル方向と道路グラフベクトルの関係から、図63の基準に従い、左投影面か右投影面かを決定する。さらに、処理ブロック954では、前回の位置と今回の位置の変化量、前回視線ベクトルと今回視線ベクトルの変化量より、今回の視線ベクトルと視野左端ベクトル、視野右端ベクトルが交叉する投影面区分を予測する。通常は現コマの投影区分を継続使用するか隣接する投影区分である。処理ブロック955では今回視線ベクトルが交叉する投影面区分を予測値の周辺で探索して求める。処理ブロック956では図66の区分に従い、図62の検索機構で投影面原画像アドレステーブルPJADRTにより今回視線ベクトルと交叉する投影面区分のなす角にもっとも近い角度区分の原画像アドレスを検索して求める。処理ブロック950で図63の判定により前後の仮想投影面に画像を生成すると判定された場合は、処理ブロック951にて、前回位置と今回位置より、道路ID No. 端点アドレス、座標が求まるので、さらに視点位置、視線ベクトル方向と道路グラフベクトルの関係から、左投影面か右投影面かを決定する。前後視の場合は投影面としては左右の投影面を使用しないが、原画像撮影位置により左右投影面にリンクして登録されているのでこの判定を行う。処理ブロック952では図63の区分意従い、視線ベクトル方向と道路グラフベクトルの関係から、前方視か後方視かを判定し、直近の投影面区分を求めて、投影面原画像アドレステーブルの角度0ー20°(前方視)または角度160ー180°(前方視)の区分にある画像を原画像として検索する。図72の処理ブロック945にもどり、検索した新しい原画像を原画像とする。 The processing content of the processing block 944 is shown in more detail in FIG. 63 and the processing flow of the original image search in the processing of the road three-dimensional moving image generation system of FIG. Hereinafter, a description will be given with reference to FIG. In a processing block 950, it is determined whether an image is generated on the front and rear virtual projection planes according to the section of FIG. 63 or an image is generated on the left and right projection planes along the road based on the angle 882 formed by the road graph and the line of sight. When left and right projection plane view is selected, the road ID No. end point address and coordinates are obtained from the previous position and current position in processing block 953, and further, the relationship between the viewpoint position, line-of-sight vector direction, and road graph vector In accordance with 63, whether the left projection plane or the right projection plane is determined. Further, in processing block 954, the projection plane segment where the current gaze vector, the left field vector of the visual field, and the right field vector of the current field intersect is predicted from the variation amount of the previous position and the current visual field vector, and the variation amount of the previous visual line vector and the current visual line vector. To do. Usually, the projection segment of the current frame is continuously used or is an adjacent projection segment. In a processing block 955, a projection plane segment where the line-of-sight vector intersects is searched for around the predicted value. In the processing block 956, in accordance with the section of FIG. 66, the original image address of the angle section closest to the angle formed by the projection plane section intersecting with the current line-of-sight vector is retrieved and obtained by the projection mechanism original image address table PJADRT by the search mechanism of FIG. . If it is determined in processing block 950 that images are to be generated on the front and rear virtual projection planes in FIG. 63, the road ID No. end point address and coordinates are obtained from the previous position and current position in processing block 951. Further, the left projection plane or the right projection plane is determined from the relationship between the viewpoint position, the line-of-sight vector direction, and the road graph vector. In the case of the front-rear view, the left and right projection planes are not used as the projection plane, but this determination is made because they are registered linked to the left and right projection planes depending on the original image shooting position. In the processing block 952, according to the classification in FIG. 63, it is determined from the relationship between the line-of-sight vector direction and the road graph vector whether it is a forward view or a backward view, the latest projection plane section is obtained, and the angle 0 of the projection plane original image address table is obtained. An image in a section of −20 ° (forward view) or an angle of 160 to 180 ° (forward view) is searched as an original image. Returning to the processing block 945 in FIG. 72, the retrieved new original image is used as the original image.

処理ブロック946では図63の基準により分岐し、処理ブロック948の左右投影面モーフィング処理または、処理ブロック947の前後視界モーフィング処理を行う。処理ブロック948の左右投影面モーフィング処理の内容について図68と図69を参照しつつ以下の文章と式で説明する。
原画像mに対して原画像撮影位置
672と画像ベクトル
673(ノルム=1)と投影面が決まると、画像ベクトル
673と投影面の交点
と画像の左端、右端と投影面の交点

が決まる。投影面を表すベクトル
は道路グラフの方向
883と同一な正規化ベクトルである。
の垂線を
(正規化)とする。
は画像ベクトル
673が
が投影面と交わる点であるが、
を通り、画像ベクトル
に垂直な平面を
という。
は原画像撮影位置視点
671より撮影した画像(視野)である。
-->
への変換が存在して、これを
という。これは原画像mの撮影行為である。視点
に対して、視点座標
と視線ベクトル
(ノルム=1)と投影面
(共通)が決まると同様に


が決まる。
を通り視線ベクトル
に垂直な平面を
という。平面
とは投影面
の中で、視点
による視野で
の一部を構成する。
視点
の視野



と視野角
が決まれば一意に決まる。平面
の平面
への写像は

と原画像mの画角
が決まれば一意に決まる。
―>
―>
の対応により

に対応する各画素が、

に対応する画素に対応付けられればモーフィングアルゴリズムは完成する。
一般に平面
上の任意の点
は、
=a
+
であらわされる。
ここで垂線条件である、
=0 を代入すると、
=
が得られる。ここで・はベクトル内積をあらわす。
視界の中心線
と投影面
の交点
は、

=
+c
を満足することからこれに代入して、
(c
+
)=
よりc=
となり、
=
+

で、視点
の画像中心点の投影面
での座標が求められた。
Processing block 946 branches on the basis of FIG. 63, and the left and right projection plane morphing processing of processing block 948 or the front-rear view morphing processing of processing block 947 is performed. The contents of the left and right projection plane morphing processing in the processing block 948 will be described with reference to FIGS. 68 and 69 with the following text and expressions.
Original image shooting position with respect to original image m
672 and image vector
Once the projection plane is determined as 673 (norm = 1), the image vector
673 intersection of projection plane
And left edge of image, intersection of right edge and projection plane
When
Is decided. A vector representing the projection plane
Is the direction of the road graph
The same normalized vector as 883.
The perpendicular of
(Normalization).
Is an image vector
673
Is where the projection plane intersects,
The street, image vector
A plane perpendicular to
That's it.
Is the original image shooting position perspective
It is an image (field of view) taken from 671.
->
There is a conversion to
That's it. This is a photographing action of the original image m. point of view
, Viewpoint coordinates
And gaze vector
(Norm = 1) and projection plane
(Common) is determined as well
When
,
Is decided.
Street gaze vector
A plane perpendicular to
That's it. Plane
Is the projection plane
In perspective
In the field of view
Part of
point of view
Vision
When
Is
When
And viewing angle
If it is decided, it is decided uniquely. Plane
Plane
The mapping to
When
And angle of view of original image m
If it is decided, it is decided uniquely.
― >
― >
By the correspondence of
of
Each pixel corresponding to
of
The morphing algorithm is completed if it is associated with the pixel corresponding to.
Generally flat
Any point on
Is
= a
+
It is expressed.
Here is the normal condition,
Substituting = 0
=
Is obtained. Here, represents a vector dot product.
Center line of sight
And projection plane
Intersection of
Is
But
=
+ c
Substituting this for satisfying
(C
+
) =
C =
And
=
+
=
And perspective
Projection plane of the image center point
The coordinates at were obtained.

同様に、視点
の視界の左端、右端の正規化視線ベクトルを

とし、これらと投影面
の交点

の投影面
での座標を求めることができる。投影面
上の任意の点
は、
=a
+
であらわされ、垂線条件である、
=0 より、左右端の正規化視線ベクトルを

に対して、
=
+c
ただしk=L,を満足する
(c
+
)=
よりc=
となり、
=
+

で、視点
の画像の左右端の投影面
での座標が求められた。この平面
上での座標を平面
上での座標に対応付けることにより原画像である平面
上のどの点を視点
の画面に映せばよいか分かる。
上での視点
の画面の中心と左右端点の座標


(まとめて
、k=L,R,Cとする)が
上で


(まとめて
k=L,R,Cとする)に対応する。
面上での画面の水平ラインを
とすると
面上の任意の点
は任意定数aに対して
=
=a
+
で表される。画像ベクトル

に垂直だから
=0なり、また、

は画像撮影位置
より見て同一線上にあるから
=d(
-
)+
であるので、d(
-
)+
=a
+b
+
となり、
との内積をとって
d=
となるから
=
となる。
=
+
で既に
は求まっているから、これで、視点
の視界の原画面mの画面との対応が完成した。
Similarly, the perspective
Normalized gaze vector at the left and right ends of the field of view
,
And these and the projection plane
Intersection of
,
Projection plane
The coordinates at can be obtained. Projection plane
Any point on
Is
= a
+
Expressed by the perpendicular condition,
= 0, the normalized gaze vector at the left and right ends
,
Against
=
+ c
However, k = L is satisfied
(C
+
) =
C =
And
=
+
=
And perspective
The left and right projection planes of the image
The coordinates at were obtained. This plane
Coordinates on the plane
The plane that is the original image by associating it with the coordinates above
View any point above
You can see if it should be reflected on the screen.
Perspective on
Screen center and left and right end point coordinates
,
,
(collect
K = L, R, C)
Above
,
,
(collect
, K = L, R, C).
The horizontal line of the screen on the screen
If
Any point on the face
Is for an arbitrary constant a
=
= a
+
It is represented by Image vector
Is
Because it ’s perpendicular to
= 0, and
When
Is the image shooting position
Because it ’s on the same line.
= d (
-
) +
So d (
-
) +
= a
+ b
+
And
D =
Because it becomes
=
It becomes.
=
+
Already in
So now we have a perspective
Correspondence with the screen of the original screen m of the field of view was completed.

次に、
をy軸に移す変換を求める。ここで、
=1
=
として、z軸周りに回転させると
はx軸に載る。
z軸周りの回転は、

で与えられる。
平面
の交点
(k=L,R,C)に対して
をz軸に移す変換を施せば、
(k=L,R,C) はx軸の点に変換される。これは、原画像mの画面上の位置に対応する。すなわちモーフィングである。以上は2次元モーフィングであるので、図71に水平線上の対応が画素単位で求められた。視点における視野731の原画像730における対応が水平線上で示される。垂直方向は上下対称で拡大縮小比率は水平線上と同比率である。なお、視線の動きを水平面内に限定しないのであれば、空中3次元動画生成における3次元モーフィング処理を私用してもよい。なお、図72の処理ブロック947の前後視界モーフィング処理は、視点F 907の視界を撮影点a 916a での原画像から2次元モーフィングで処理ブロック948で述べたのと同様のアルゴリズムで生成する。
以上で本発明になる都市景観の3次元動画生成アミューズメントシステムの路上3次元動画生成に関する説明を終了する。
next,
Find the transformation that moves to the y-axis. here,
= 1
=
When rotating around the z axis,
Is on the x-axis.
The rotation around the z axis is

Given in.
Plane
Intersection of
for (k = L, R, C)
To the z axis,
(k = L, R, C) is converted to a point on the x-axis. This corresponds to the position on the screen of the original image m. That is morphing. Since the above is two-dimensional morphing, the correspondence on the horizontal line in FIG. 71 was obtained in units of pixels. The correspondence in the original image 730 of the visual field 731 at the viewpoint is shown on the horizontal line. The vertical direction is vertically symmetric, and the enlargement / reduction ratio is the same as that on the horizontal line. If the movement of the line of sight is not limited to a horizontal plane, a 3D morphing process in generating an aerial 3D moving image may be used privately. In the front-rear view morphing process of the processing block 947 in FIG. 72, the view of the viewpoint F 907 is generated from the original image at the shooting point a 916a by the same algorithm as described in the processing block 948 by two-dimensional morphing.
This is the end of the description of the on-road 3D animation generation of the city landscape 3D animation generation amusement system according to the present invention.

図71に車載用のディジタルカメラ集合体973のもうひとつの構成例を示す。本発明の都市景観の3次元動画生成では、都市の道路構造のため撮像目標とディジタルカメラ集合体の距離が短くなり、隣接する原画像間で視差が大きくなる傾向がある。その結果、生成した動画の滑らかさが劣化することがある。この問題を解決するために進行方向976に対する側方のディジタルカメラの角度ピッチを半分にし、なおかつ全体に広角レンズを採用することにより、より3次元動画生成に適した原画像を収集することができる。 FIG. 71 shows another configuration example of the on-vehicle digital camera assembly 973. In the generation of a three-dimensional moving image of a cityscape of the present invention, the distance between the imaging target and the digital camera assembly is shortened due to the road structure of the city, and the parallax tends to increase between adjacent original images. As a result, the smoothness of the generated moving image may deteriorate. In order to solve this problem, by halving the angle pitch of the side digital camera with respect to the traveling direction 976 and employing a wide-angle lens as a whole, it is possible to collect original images more suitable for generating a three-dimensional moving image. .

次に、都市景観の3次元動画生成アミューズメントシステムのグラフィックユーザインターフェイスシステム180に関する説明を図75を用いて行う。図75は該グラフィックユーザインターフェイスシステム180の全体構造を示している。図75と図76の処理フローと図77、78、79のモニタ表示と入力機能によりグラフィックユーザインターフェイスシステム180が構成される。本発明になる都市景観の3次元動画生成アミューズメントシステムでは空中模擬飛行と路上歩行を自由に切り替えられることが特徴であり、処理ブロック974で空中から地上または地上から空中に切り替えられたか判定する。空中から地上への着地が選択された場合には処理ブロック975で着地点と着地後の進行方向を読み取る。図77の空中3次元動画用グラフィックユーザインターフェイスで着地ボタン996を短く押した場合には進行方向の斜め下45度など指定した斜め角の地上に着地し、長く押した場合には押した時間に応じて直下地点に近づくという方法もある。S地上での視線方向は飛行中の向きを維持するのが常識的である。前回から路上模擬で変化がない場合とあわせて処理ブロック974に行き、地上用グラフィックユーザインターフェイスである図78で進行方向、速度指示を画面より読み込み、位置と速度ベクトルを更新して路上3次元動画生成システム170へ伝える。処理ブロック974で路上3次元動画生成から空中3次元動画生成に切り替わったと判定された場合は処理ブロック977にいく。地上から空中に切り替わるのは図78でジャンピングボタン984を押された場合であり、押される時間の長さにより、時間が短い場合は進行方向斜め後方一定角度、たとえば45°の一定高度、たとえば100m上空とし、押される時間が長いほど前方上空にするなどの方法がある。 Next, explanation will be given on the graphic user interface system 180 of the three-dimensional moving image generating amusement system of the cityscape with reference to FIG. FIG. 75 shows the overall structure of the graphic user interface system 180. The graphic user interface system 180 is constituted by the processing flow of FIGS. 75 and 76 and the monitor display and input functions of FIGS. 77, 78 and 79. The amusement system for generating a three-dimensional moving image of a cityscape according to the present invention is characterized in that it can freely switch between aerial simulation flight and walking on the road. In processing block 974, it is determined whether switching from the air to the ground or from the ground to the air is performed. If landing from the air to the ground is selected, the processing block 975 reads the landing point and the traveling direction after landing. If the landing button 996 is pressed for a short time in the aerial 3D video graphic user interface of FIG. 77, it will land on the ground at a specified diagonal angle, such as 45 degrees below the direction of travel, and if it is pressed for a long time, There is also a method of approaching the point directly below. It is common sense that the gaze direction on the S ground maintains the orientation during flight. Go to processing block 974 together with the case where there is no change in the road simulation from the previous time, read the direction of travel and speed instruction from the screen in FIG. 78 which is a graphic user interface for the ground, update the position and speed vector and update the 3D video on the road Tell generation system 170. If it is determined in the process block 974 that the road 3D moving image generation is switched to the aerial 3D moving image generation, the process goes to the processing block 977. Switching from the ground to the air occurs when the jumping button 984 is pressed in FIG. 78, and depending on the length of time pressed, when the time is short, the traveling direction is obliquely backward at a constant angle, for example, a constant altitude of 45 °, for example 100 m. There is a method such as making the sky above, and making it fly forward as the time pressed becomes longer.

次に、前回から空中3次元動画生成であった場合とあわせて処理ブロック978の空中グラフィックユーザインタフェースシステムに行く。この内容は図76にさらに記されている。処理ブロック979では図77の空中グラフィックユーザインタフェースより、進行方向、スロット、昇降指示を画面より読み込み、位置と速度ベクトルを更新する。空中3次元動画生成ではコックピット表示を3次元映像表示 990に行うだけでなく、機能ボタン1001による選択によりカメラ表示に切り替えることができる。これは空中3次元動画生成システム160が始点位置のトラジェクトリと視線ベクトルのトラジェクトリを自由に取れることに対応している。処理ブロック980でコックピット表示が選択された場合には処理ブロック983に進み、視線ベクトルを進行方向に設定、視野角は規定値に設定し、空中3次元動画生成システム160に情報を伝達する。処理ブロック980でカメラが選択されたと判定された場合は、処理ブロック981で図77の空中グラフィックユーザインタフェースよりカメラ方向、チルト角、ズーム設定値を取り込み、処理ブロック982で視点、視線、およびズームによる視野角を計算して空中3次元動画生成システム160に情報を伝達する。 Next, the process goes to the aerial graphic user interface system of the processing block 978 together with the case where the aerial three-dimensional moving image was generated from the previous time. This content is further described in FIG. In processing block 979, the advancing direction, slot, and elevation instruction are read from the screen from the aerial graphic user interface of FIG. 77, and the position and velocity vectors are updated. In the aerial 3D video generation, not only the cockpit display is performed on the 3D video display 990, but also the camera display can be switched by selecting with the function button 1001. This corresponds to the aerial three-dimensional moving image generation system 160 being able to freely take the trajectory of the start position and the trajectory of the line-of-sight vector. If cockpit display is selected in processing block 980, processing proceeds to processing block 983 where the line-of-sight vector is set to the direction of travel, the viewing angle is set to a specified value, and information is transmitted to the aerial three-dimensional video generation system 160. If it is determined in processing block 980 that the camera has been selected, processing block 981 captures the camera direction, tilt angle, and zoom setting values from the aerial graphic user interface of FIG. 77, and processing block 982 determines the viewpoint, line of sight, and zoom. The viewing angle is calculated and information is transmitted to the aerial three-dimensional moving image generation system 160.

以下、図77、78、79について今までに説明していない部分を説明する。図77の方位インジケータ991は飛行方向を示し、高度インジケータは飛行高度を示す。地図表示988は現在の飛行位置を地図で表示する。この機能はGISとして公然実施されている。図78は路上3次元動画生成の映像表示であり人間目線で市街を表示する。機能ボタン1001は後日に備えて機能追加を可能とするほか、地図表示983を中央の道路の上に配置してガイド機能がよくなるように工夫している。コメント表示ウィンドウ1000は地域に依存した広告などの表示が可能である。図79は路上3次元動画生成の進行方向と視線指定の別の方法であり、画面を領域に分割しておき、マウスなどによるカーソルの画面上の位置で操作入力の意味を変えるもので、前後進998の場所を指定された場合は矢印の方向に前進ないし後退し、左折右折997の場所を指定された場合は矢印の方向に左折ないし右折進行し、左右視線変更999の場所を指定された場合は矢印の方向に視線を左向きないし右向きに変更する。 Hereafter, the part which has not been demonstrated so far about FIG. 77, 78, 79 is demonstrated. 77 indicates the flight direction, and the altitude indicator indicates the flight altitude. A map display 988 displays the current flight position on a map. This function is publicly implemented as GIS. FIG. 78 is a video display for generating a three-dimensional moving image on the road, and displays the city with a human eye. The function button 1001 allows functions to be added in preparation for a later date, and the map display 983 is arranged on the central road so that the guide function is improved. The comment display window 1000 can display advertisements depending on the region. FIG. 79 shows another method for specifying the direction of travel and the line of sight for generating a three-dimensional moving image on the road. The screen is divided into regions, and the meaning of the operation input is changed depending on the position of the cursor on the screen using a mouse or the like. If the location of advance 998 is specified, it moves forward or backward in the direction of the arrow, and if it is specified the location of left turn right turn 997, it proceeds to the left or right turn in the direction of arrow and specified the location of the left and right gaze change 999 In this case, change the line of sight to the left or right in the direction of the arrow.

本発明の航空写真撮像システムは、航空機に搭載されるカメラの制御装置及び撮像データ処理装置として産業上利用することができる。   The aerial photography imaging system of the present invention can be industrially used as a control device and an imaging data processing device for a camera mounted on an aircraft.

本発明の都市景観3次元動画アミューズメントシステム全体構成を概略的に示す図である。It is a figure showing roughly the cityscape three-dimensional animation amusement system whole composition of the present invention. 図1に示す都市景観3次元動画アミューズメントシステムにおける空中画像取得の概念を示す図である。It is a figure which shows the concept of the aerial image acquisition in the cityscape three-dimensional moving image amusement system shown in FIG. 3次元動画におけるモーフィングの概念図である。It is a conceptual diagram of the morphing in a three-dimensional moving image. 本発明の都市景観3次元動画アミューズメントシステムにおける実画像を用いたモーフィングによる動画像生成の概念について説明する図である。It is a figure explaining the concept of the moving image production | generation by the morphing using the real image in the cityscape three-dimensional moving image amusement system of this invention. 本発明の航空機による空中画像取得システムの運用例について説明する図である。It is a figure explaining the operation example of the aerial image acquisition system by the aircraft of this invention. 本発明の空中画像取得システムの処理フローについて説明する図である。It is a figure explaining the processing flow of the aerial image acquisition system of this invention. 本発明の航空機搭載ディジタルカメラ集合体の例について説明する図である。It is a figure explaining the example of the airborne digital camera aggregate | assembly of this invention. 本発明の航空機による空中画像取得システムの航路および撮影ポイントの設定例を示す図である。It is a figure which shows the example of a setting of the course and imaging | photography point of the aerial image acquisition system by the aircraft of this invention. 本発明の空中画像取得システムの構成例を示す図である。It is a figure which shows the structural example of the aerial image acquisition system of this invention. 本発明の空中搭載画像取得システムのフライトナビゲーションシステム部の処理フローを示す図である。It is a figure which shows the processing flow of the flight navigation system part of the airborne image acquisition system of this invention. 本発明の空中画像取得計画ファイルの構成例を示す図である。It is a figure which shows the structural example of the aerial image acquisition plan file of this invention. 本発明の空中画像取得システムのフライトナビゲーションシステム部の表示画面の例を示す図である。It is a figure which shows the example of the display screen of the flight navigation system part of the aerial image acquisition system of this invention. 本発明の空中画像取得システムのデータ取得記録システム部の情報フローを示す図である。It is a figure which shows the information flow of the data acquisition recording system part of the aerial image acquisition system of this invention. 本発明の空中画像取得システムの撮影制御システムの処理フローを示す図である。It is a figure which shows the processing flow of the imaging | photography control system of the aerial image acquisition system of this invention. 本発明の空中画像一次ファイルの構造を示す図である。It is a figure which shows the structure of the aerial image primary file of this invention. 本発明の空中画像データベース生成登録システムの処理フローを示す図である。It is a figure which shows the processing flow of the aerial image database production | generation registration system of this invention. 本発明の空中画像データベース構成を示す図である。It is a figure which shows the aerial image database structure of this invention. 本発明のモヤ影響除去処理における画像と視野の関係を示す図である。It is a figure which shows the relationship between the image and visual field in the haze effect removal process of this invention. 本発明のモヤ影響除去処理における画像特性パラメータグラフ例を示す図である。It is a figure which shows the example of an image characteristic parameter graph in the haze influence removal process of this invention. 本発明のモヤ影響除去処理の処理フローを示す図である。It is a figure which shows the processing flow of the haze effect removal process of this invention. 本発明のモヤ影響除去処理の処理結果例を示す図である。It is a figure which shows the example of a process result of the haze effect removal process of this invention. 本発明の空中画像データベース生成登録システムの空中画像インデクス生成登録処理フローを示す図である。It is a figure which shows the aerial image index production | generation registration processing flow of the aerial image database production | generation registration system of this invention. 本発明の空中画像インデクス機構の構造と用語の定義を示す図である。It is a figure which shows the structure and term definition of the aerial image index mechanism of this invention. 本発明の空中画像インデクス機構の構造を示す図である。It is a figure which shows the structure of the aerial image index mechanism of this invention. 本発明の立体角セルのインデックス構造を示す図である。It is a figure which shows the index structure of the solid angle cell of this invention. 本発明の空中画像インデクスと関連テーブルの相互関連を示す図である。It is a figure which shows the correlation of the aerial image index of this invention, and an association table. 本発明のディジタルカメラ集合体の3種類の焦点距離の異なるディジタルカメラによる視野の構成例を示す図である。It is a figure which shows the structural example of the visual field by the digital camera from which three types of focal distances differ of the digital camera aggregate | assembly of this invention. 本発明の3種類の焦点距離の異なるディジタルカメラによるディジタルカメラ集合体の構成例を示す図である。It is a figure which shows the structural example of the digital camera aggregate | assembly by the digital camera from which three types of focal distances differ of this invention. 本発明の3種類の焦点距離の異なるディジタルカメラによるディジタルカメラ集合体の撮影範囲図を示す図である。It is a figure which shows the imaging | photography range figure of the digital camera aggregate | assembly by three types of digital cameras from which focal distance differs of this invention. 本発明の航空機搭載用安定プラットフォームの構造例を示す図である。It is a figure which shows the structural example of the stable platform for aircraft mounting of this invention. 本発明の安定プラットフォームの信号情報フローを示す図である。FIG. 4 is a diagram illustrating a signal information flow of the stable platform of the present invention. 本発明の都市景観3次元動画アミューズメントシステムにおける実画像を用いたモーフィングによる動画像生成の変数を説明する図である。It is a figure explaining the variable of the moving image production | generation by the morphing using the real image in the cityscape three-dimensional moving image amusement system of this invention. 本発明の都市景観3次元動画アミューズメントシステムにおける空中動画生成処理フローを示す図である。It is a figure which shows the aerial moving image production | generation processing flow in the cityscape three-dimensional moving image amusement system of this invention. 本発明の都市景観3次元動画アミューズメントシステムにおける実画像を用いた3次元動画生成処理の原画像検索の処理フローを示す図である。It is a figure which shows the processing flow of the original image search of the three-dimensional moving image production | generation process using the real image in the cityscape three-dimensional moving image amusement system of this invention. 本発明の3次元動画生成処理の原画像選択論理を示した図である。を示す図である。It is the figure which showed the original image selection logic of the three-dimensional moving image production | generation process of this invention. FIG. 本発明の3次元動画生成処理での視点における視野と原画像の関係を示す図である。It is a figure which shows the relationship between the visual field in the viewpoint in the three-dimensional moving image production | generation process of this invention, and an original image. 本発明の視線ベクトルとTerrainの交点の関係を示す図である。It is a figure which shows the relationship between the gaze vector of this invention, and the intersection of Terrain. 本発明の視点における視野と原画像の関係を示す図である。It is a figure which shows the relationship between the visual field in the viewpoint of this invention, and an original image. 本発明の視点P(ti)からの視野を示す図である。It is a figure which shows the visual field from viewpoint P (t i ) of this invention. 本発明の路上画像取得システムの処理フローを示す図である。It is a figure which shows the processing flow of the road image acquisition system of this invention. 本発明の車載ディジタルカメラ集合体構成例を示す図である。It is a figure which shows the vehicle-mounted digital camera aggregate structure example of this invention. 本発明の路上画像取得システムの経路および撮影ポイントの設定例と撮影範囲を示す図である。It is a figure which shows the example of a setting of the path | route and imaging | photography point of a road image acquisition system of this invention, and an imaging | photography range. 本発明の路上画像取得システム鉛直方向撮影パターンと画像投影面の関係を示す図である。It is a figure which shows the relationship between the road image acquisition system vertical direction imaging | photography pattern of this invention, and an image projection surface. 本発明のグラフによる道路の記述を説明する図である。It is a figure explaining the description of the road by the graph of this invention. 本発明の緯度・経度による道路検索方式を説明する図である。It is a figure explaining the road search system by the latitude and longitude of this invention. 本発明の道路グラフデータベースの構造を説明する図である。It is a figure explaining the structure of the road graph database of this invention. 本発明の道路グラフデータテーブルRDGDTの構成例を示す図である。It is a figure which shows the structural example of the road graph data table RDGDT of this invention. 本発明の道路グラフデータテーブルRDGDTの構成例を示す図である。It is a figure which shows the structural example of the road graph data table RDGDT of this invention. 本発明の道路グラフデータテーブルRDGDTの構成例を示す図である。It is a figure which shows the structural example of the road graph data table RDGDT of this invention. 本発明の道路グラフデータテーブルRDGDTの構成例を示す図である。It is a figure which shows the structural example of the road graph data table RDGDT of this invention. 本発明の道路グラフデータテーブルRDGDTの構成例を示す図である。It is a figure which shows the structural example of the road graph data table RDGDT of this invention. 本発明の道路グラフデータテーブルRDGDTの構成例を示す図である。It is a figure which shows the structural example of the road graph data table RDGDT of this invention. 本発明の路上画像取得システムの構成例を示す図である。It is a figure which shows the structural example of the road image acquisition system of this invention. 本発明の路上画像取得システムのカーナビゲーションシステム部の処理フローを示す図である。It is a figure which shows the processing flow of the car navigation system part of the road image acquisition system of this invention. 本発明の路上画像取得計画ファイルの構成例を示す図である。It is a figure which shows the structural example of the road image acquisition plan file of this invention. 本発明の路上画像取得システムのカーナビゲーションシステムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the car navigation system of the road image acquisition system of this invention. 本発明の路上画像取得システムのデータ取得記録システム部の情報フローを示す図である。It is a figure which shows the information flow of the data acquisition recording system part of the road image acquisition system of this invention. 本発明の路上画像取得システムのデータ取得記録システム部の処理フローを示す図である。It is a figure which shows the processing flow of the data acquisition recording system part of the road image acquisition system of this invention. 本発明の路上画像一次ファイルの構造を示す図である。It is a figure which shows the structure of the road image primary file of this invention. 本発明の車載用安定プラットフォームの構造例を示す図である。It is a figure which shows the structural example of the vehicle-mounted stable platform of this invention. 本発明の路上画像データベース生成登録システムの処理フローを示す図である。It is a figure which shows the processing flow of the road image database production | generation registration system of this invention. 本発明の路上画像データベースの構成を示す図である。It is a figure which shows the structure of the road image database of this invention. 本発明の画像データベース生成登録システムの路上画像インデクス生成処理フローを示す図である。It is a figure which shows the road image index production | generation processing flow of the image database production | generation registration system of this invention. 本発明の路上画像インデクス機構の構造を示す図である。It is a figure which shows the structure of the road image index mechanism of this invention. 本発明の道路グラフの方向と視線ベクトルの方向による動画生成処理を説明する図である。It is a figure explaining the animation production | generation process by the direction of the road graph of this invention, and the direction of a gaze vector. 本発明の路上画像データベース生成登録システムおよび路上3次元動画生成システムにおいて視線方向が投影面を向いている場合の処理を説明する図である。It is a figure explaining the process in case the line-of-sight direction has faced the projection surface in the road image database production | generation registration system and road three-dimensional moving image production system of this invention. 本発明の路上画像データベース生成登録システムおよび路上3次元動画生成システムにおいて視線方向が投影面にほぼ平行な場合の処理を説明する図である。It is a figure explaining the process in case a gaze direction is substantially parallel to a projection surface in the road image database production | generation registration system and road three-dimensional moving image production system of this invention. 本発明の路上画像データベース生成登録システムおよび路上3次元動画生成システムにおいて投影面と原画像撮影光軸の関係を示す図である。It is a figure which shows the relationship between a projection surface and an original image imaging | photography optical axis in the road image database production | generation registration system and the road three-dimensional moving image production system of this invention. 本発明の路上画像データベースの撮影パラメタの計算法を示す図である。It is a figure which shows the calculation method of the imaging | photography parameter of the road image database of this invention. 本発明の路上3次元動画生成システムにおける原画像の選択について説明する図である。It is a figure explaining selection of the original picture in the road three-dimensional animation generation system of the present invention. 本発明の路上3次元動画生成システムにおける投影面に対するモーフィングの方式を示す図である。It is a figure which shows the system of the morphing with respect to the projection surface in the road three-dimensional moving image production | generation system of this invention. 本発明の路上3次元動画生成システムにおける投影面にほぼ平行な視界に対するモーフィングの方式を示す図である。It is a figure which shows the morphing system with respect to the visual field substantially parallel to a projection surface in the three-dimensional moving image production | generation system on the road of this invention. 本発明の路上3次元動画生成システムの処理フローを示す図である。It is a figure which shows the processing flow of the road three-dimensional moving image production | generation system of this invention. 本発明の路上3次元動画生成システムの処理フローを示す図である。It is a figure which shows the processing flow of the road three-dimensional moving image production | generation system of this invention. 本発明の路上3次元動画生成システムの処理おける原画像検索の処理フローを示す図である。It is a figure which shows the processing flow of the original image search in the process of the road three-dimensional moving image production | generation system of this invention. 本発明の車載ディジタルカメラ集合体のもうひとつの構成例を示す図である。It is a figure which shows another structural example of the vehicle-mounted digital camera aggregate | assembly of this invention. 本発明のグラフィックユーザインターフェイスシステムの処理フローを示す図である。It is a figure which shows the processing flow of the graphic user interface system of this invention. 本発明のグラフィックユーザインターフェイスシステムの処理の空中グラフィックユーザインターフェイスシステムの処理フローを示す図である。It is a figure which shows the processing flow of the aerial graphic user interface system of the process of the graphic user interface system of this invention. 本発明のグラフィックユーザインターフェイスシステムの処理の空中グラフィックユーザインターフェイスシステムの表示例を示す図である。It is a figure which shows the example of a display of the aerial graphic user interface system of the process of the graphic user interface system of this invention. 本発明のグラフィックユーザインターフェイスシステムの処理の路上グラフィックユーザインターフェイスシステムの表示例を示す図である。It is a figure which shows the example of a display of the road graphic user interface system of the process of the graphic user interface system of this invention. 本発明のグラフィックユーザインターフェイスシステムの処理の路上グラフィックユーザインターフェイスシステムの方向盛業カーソル機能を示す図である。It is a figure which shows the direction work cursor function of the road graphic user interface system of the process of the graphic user interface system of this invention.

符号の説明Explanation of symbols

100 空中画像取得システム
101 空中画像取得計画ファイル
102 空中画像一次ファイル
110 路上画像取得システム
111 路上画像取得計画ファイル
112 路上画像一次ファイル
120 空中画像データベース生成登録システム
121 DEMファイル
122 DGPSファイル
130 路上画像データベース生成登録システム
140 空中画像データベース
142 空中画像インデクス機構
143 空中画像データベース
150 路上画像データベース
151 道路グラフデータベース
152 路上画像インデクス機構
153 路上画像データベース
160 空中3次元動画生成システム
165 空中画像検索エンジン
170 路上3次元動画生成システム
175 路上画像検索エンジン
180 グラフィックユーザインターフェイスシステム
190 インターネット
191 ユーザ
200 都市
210 視線
220 充分小さい立体角の範囲 1
221 充分小さい立体角の範囲

222 天球
230 建物および視線方向の関係図
240 視線方向1
241 視線方向1より見た画像
250 視線方向2
251 視線方向2より見た画像
260 空中画像

261 空中画像
i+1
270 視点経路 P(t)
271 時刻
t の視線
272 時刻
t+δt の視線
273 時刻
t+2δt の視線
274 時刻
t+3δt の視線
275 時刻
t+4δt の視線
276 時刻
t+5δt の視線
280 目標トラジェクトリ T(t)
300 飛行経路
301 航空機
310 撮影ポイント
320 ディジタルカメラ集合体光軸方向
330 撮影ポイント設定プロセス
331 撮影プロセス
332 空中画像一次ファイル生成プロセス

350a〜i ディジタルカメラ
360 ディジタルカメラ集合体
370 撮影方向
371 飛行方向撮影間隔
372 飛行航路間撮影間隔
373 航空機位置
375a〜i ディジタルカメラ350a〜iの撮影範囲
380 GPSアンテナ
385 フライトナビゲーションシステム部
386 フライトナビゲーションシステム
387 アビオニクス情報
388 航空計装
390 データ取得記録システム部
391 メタデータファイル
393 空中撮影制御システム
394 安定プラットフォーム制御システム
395 安定プラットフォーム装置
396 IMU
397 航空機床穴
398 航空機床
400 IMU
420〜425 処理ブロック
430 航路No.1撮影座標ファイル
431 航路No.2撮影座標ファイル
432 航路No.m撮影座標ファイル
437 撮影ガイダンス表示
438 航路内残撮影ポイント数表示
439 航路No.表示
440 撮影許容範囲
441 飛行方向
442 方位表示
443 姿勢表示
444 左右傾斜表示
445 昇降姿勢軸表示
446 位置偏差表示
447 水平偏差軸
448 高度偏差軸
450 安定プラットフォームの姿勢データ
451 航空機の姿勢データ
452 GPSアンテナの位置データ
453 ディジタルカメラ撮影パラメタ
454 カメラパラメタ
455 空中画像データ
456 撮像ポイントデータ
457 撮影指令
460〜465 処理ブロック
470 画像ヘッダ部分
471 画像データ部分
472 航空機データ部分
480〜486 処理ブロック
490 画像ヘッダ部分
491 画像データ部分
495 撮影画像
496 近景部分a
497 近景部分b

498 遠景部分
499 撮影地表部分
500 正規化ヒストグラム
501 近景部分aヒストグラム
502 遠景部分ヒストグラム
503 ヒストグラム下限値
504 ヒストグラム上限値
505 値幅
506 中央値
507 輝度上限値
508 輝度軸
509 画素数軸
510 数値軸
511 ディジタルカメラよりの距離軸
512 中央値フィッティング曲線
513 値幅フィッティング曲線
514 近景部分a値幅
515 近景部分a中央値
516 遠景部分中央値
517 遠景部分値幅
520〜524 処理ブロック
530 モヤ影響除去前画像
531 モヤ影響除去後画像
540〜545 処理ブロック
549 地表画像範囲
550 撮影位置
551 画像ベクトル(正規化)
552 画像距離
553 フレーム回転角
554 Terrain上中心点座標
555 Terrain上最近右座標
556 Terrain上最遠右座標
557 Terrain上最遠左座標
558 Terrain上最近左座標
559 地表セル
560 Terrain
570 天頂ベクトル
571 天頂離角
572 天頂インデックスi
573 立体角セル
574 立体角セル中心ベクトル
575 地表セル中心点
580 天頂インデックス0
581 天頂インデックス1
582 天頂インデックス2
583 天頂インデックス3
584 立体角セルアドレス(0.0)
585 立体角セルアドレス(1.0)
586 立体角セルアドレス(1.1)
587 立体角セルアドレス(1.2)
588 立体角セルアドレス(2.0)
589 立体角セルアドレス(2.1)
590 立体角セルアドレス(2.2)
597 天頂インデックスパラメタテーブル
ZNPRMT
598 方位インデックスパラメタテーブル
DRPRMT
599 方位数
600 地表セル位置インデックステーブル TCINXT
601 経度インデックス
LONINX
602 緯度インデックス LATINX
603 天頂インデックステーブルアドレス
604 天頂インデックステーブル ZNINXT
605 方位インデックステーブルアドレス
606 方位インデックステーブル
DRINXT
607 画像アドレステーブルアドレス
608 画像アドレステーブル GADDRT
610 焦点の長い望遠レンズのディジタルカメラ
611 焦点の短い望遠レンズのディジタルカメラ
612 標準レンズディジタルカメラ
613 標準レンズディジタルカメラの撮影範囲
614 焦点の短い望遠レンズのディジタルカメラの撮影範囲
615 焦点の長い望遠レンズのディジタルカメラの撮影範囲
620j〜y ディジタルカメラ
621 ディジタルカメラ集合体
630j〜y ディジタルカメラ550 j〜yの撮影範囲
635 固定部
636 上下動部
637 回転部
640 回転駆動機構
641 上下駆動機構A
642 上下駆動機構B
643 上下駆動機構C
644 上下駆動機構D
645 ベアリング機構
646 安定プラットフォームの姿勢データ
647 ロー、ピッチ方向の制御
648 ヨー方向の制御
649 上下運動
650 回転運動
666 空中画像m−1
667 空中画像m
670 原画像撮影位置Sm-1
671 原画像撮影位置Sm
672 画像ベクトルGm-1
673 画像ベクトルGm
675 視点 P(t1
676 視点 P(t2
677 視点 P(t3
678 視点 P(t4
679 視点 P(ti
680 視線ベクトルトラジェクトリ V(t)
681 視線ベクトル V (t1
682 視線ベクトル V (t2
683 視線ベクトル V (t3
684 視線ベクトル V (t4
685 視線ベクトル V (ti
690〜697 処理ブロック
700〜705 処理ブロック
710 原画像撮影位置SA
711 原画像撮影位置SB
712 原画像撮影位置SC
713 遮蔽物
714 Terrain上可視範囲
715 Terrain上最近右座標Zm1
716 Terrain上最遠右座標Zm2
717 Terrain上最遠左座標Zm3
718 Terrain上最近左座標Zm4
719 Terrain上中心座標ZmC
720 Terrain上左端中点Zm34
721 Terrain上右端中点Zm12
722 Terrain上上端中点Zm23
723 Terrain上下端中点Zm41
724 Terrain上視野縦ベクトルZmV
725 Terrain上視野横ベクトルZmH
726 Terrain上視野垂直ベクトルnm
727 Terrain平面
730 原画像
731 視点における視野
732 フレーム画角(横)
733 フレーム画角(縦)
734 視野右下端点Vi1
735 視野右上端点Vi2
736 視野左上端点Vi3
737 視野左下端点Vi4
741〜743 処理ブロック
750a〜w ディジタルカメラ
755 ディジタルカメラ集合体
760a〜p ディジタルカメラ750a〜pの撮影範囲
765 移動経路
766 撮影ポイント
767 撮影方向
768 道路境界線
769 道路または通路
770 画像投影面
771 建物
775 端点
776 辺
777k〜n 道路ID No.k〜n
779 端点座標
780 中心線グラフ
781 緯経度セル
782 緯経度セル中心点
783a〜b 垂線の足A〜B
785 地表セル道路インデックステーブル CLLRDINXT
786 経度インデックス
787 緯度インデックス
788 道路グラフアドレステーブル RDGRADRT
789 道路ID No
790 道路グラフデータテーブル RDGDT
791 属性
792k,i〜792k,i+6 端点k,i〜k,i+6
793l,j〜793l,j+6 端点l,j〜l,j+6
794m,n-3〜794m,n 端点m,n-3〜m,n
795k〜m 道路グラフデータテーブル RDGDT k〜m
796 相対レコードアドレス
800 データ取得記録システム部
801 カーナビゲーションシステム部
802 カーナビゲーションシステム端末
803 車両
804 メタデータファイル
805 路上画像データファイル
806 路上撮像制御システム
807 車両天井板
810〜813 処理ブロック
820 道路ID No.1撮影座標ファイル
821 道路ID No.2撮影座標ファイル
822 道路ID No.m撮影座標ファイル
825 指定撮影経路
826 撮影ポイントデータ
827 路上画像データ
828 車両の姿勢データ
829 安定プラットフォームの姿勢データ
830 GPSアンテナの位置データ
831 ディジタルカメラ撮影パラメタ

832 路上画像データ
834〜839 処理ブロック
840 車両データ部分
843〜848 処理ブロック
850 画像ヘッダ部分
851 画像データ部分
852 端点距離
853 中心線左右距離
854 車両進行方向
855 原画像撮影位置の投影面区分内位置
856 画像ベクトル投影面区分内位置
857 画像左端投影面区分内位置
858 画像右端投影面区分内位置
859 ディジタルカメラ設定方位
860〜867 処理ブロック
869 路上画像データ数
870 路上画像データアドレス
871 投影面原画像インデクステーブル PJINXT
872 投影面原画像アドレステーブル PJADRT
873 投影面原画像インデクステーブルアドレス
874 相対レコードアドレス
875 投影面原画像アドレステーブルアドレス
876 路上視線
877 路上視点
878 前方仮想投影面
879 後方仮想投影面
880 左投影面
881 右投影面
882 道路グラフと視線のなす角
883 道路グラフの方向
884 画像撮影光軸
885 前方投影面処理範囲
886 左投影面処理範囲
887 後方投影面処理範囲
888 右投影面処理範囲
890 端点m, i 座標 (xm,i,ym,i)
891 投影面区分mil0座標(xmil0,ymil0)
892 投影面区分mil1座標(xmil1,ymil1)
893 投影面区分mil2座標(xmil2,ymil2)
894 投影面区分mil3座標(xmil3,ymil3)
895 投影面区分mir0座標(xmir0,ymir0)
896 投影面区分mir1座標(xmir1,ymir1)
897 投影面区分mir2座標(xmir2,ymir2)
898 投影面区分mir3座標(xmir3,ymir3)
899 原画像撮影位置L
900 画像ベクトルL
901 画像左端L
902 画像右端L
903 原画像撮影位置R
904 画像ベクトルR
905 画像左端R
906 画像右端R
907 原画像撮影位置F
908 画像ベクトルF
909 画像左端F
910 画像右端F
911 原画像撮影位置B
912 画像ベクトルB
913 画像左端B
914 画像右端B
915 道路グラフの逆方向
916a〜d 原画像撮影位置a〜d
917 投影面区分
918 投影面区分中心点
919a〜e 画像ベクトルa〜e
920 前方左右20°の範囲
921 後方左右20°の範囲
930 角度0-20°セクタ
931 角度20-40°セクタ
932 角度40-60°セクタ
933 角度60-80°セクタ
934 角度80-100°セクタ
935 角度100-120°セクタ
936 角度120-140°セクタ
937 角度140-160°セクタ
938 角度160-180°セクタ
940〜948 処理ブロック
950〜956 処理ブロック
960 原画像m
961 原画像m+1
962 画像ベクトルGm
963 視点Pi
964 視線ベクトルVic
965 視線左端ベクトル ViL
966 視線右端ベクトルViR
967 Zの垂線
968 投影平面Z
969 原画像撮影位置S
970 原画像上視界左端QiL
971 原画像上視界右端QiR
972 原画像上視界右端QiR
973 ディジタルカメラ集合体
974〜983 処理ブロック
984 ジャンピングボタン
985 着地ボタン
986 方向転換ボタン
987 高度インジケータ
988 地図表示
989 現在地名称表示
990 3次元映像表示
991 方位インジケータ
992 操縦ボタン
993 スロットル
994 カメラ前後方向指定
995 カメラ左右方向指定
996 ズーム指定
997 左折右折
998 前後進
999 左右視線変更
1000 コメント表示ウインドウ
1001 機能ボタン
100 Aerial image acquisition system
101 Aerial image acquisition plan file
102 Aerial image primary file
110 Road image acquisition system
111 Road image acquisition plan file
112 Road image primary file
120 Aerial image database generation registration system
121 DEM file
122 DGPS file
130 Road image database generation and registration system
140 Aerial image database
142 Aerial image index mechanism
143 Aerial image database
150 Road image database
151 road graph database
152 Road image index mechanism
153 Road image database
160 Aerial 3D video generation system
165 Aerial image search engine
170 Road 3D video generation system
175 Road image search engine
180 graphic user interface system
190 Internet
191 users
200 cities
210 eyes
220 sufficiently small solid angle range 1
221 sufficiently small solid angle range i
222 celestial sphere
230 Relationship between building and line of sight
240 Gaze direction 1
241 Image seen from line of sight 1
250 Gaze direction 2
251 Image viewed from line of sight 2
260 Aerial image i
261 Aerial image i + 1
270 View path P (t)
271 Line of sight at time t
272 Line of sight at time t + δt
273 Line of sight at time t + 2δt
274 Line of sight at time t + 3δt
275 Line of sight at time t + 4δt
276 Line of sight at time t + 5δt
280 Target trajectory T (t)
300 flight paths
301 aircraft
310 Shooting points
320 Digital camera assembly optical axis direction
330 Shooting point setting process
331 Shooting process
332 Aerial image primary file generation process

350a ~ i digital camera
360 digital camera assembly
370 Shooting direction
371 Flight direction shooting interval
372 Shooting interval between flight routes
373 Aircraft position
375a to i Digital camera 350a to i shooting range
380 GPS antenna
385 Flight Navigation System
386 Flight Navigation System
387 Avionics Information
388 Air Instrumentation
390 Data acquisition and recording system
391 metadata files
393 Aerial shooting control system
394 Stable platform control system
395 Stable platform equipment
396 IMU
397 Aircraft floor hole
398 aircraft floor
400 IMU
420 ~ 425 processing block
430 Route No.1 shooting coordinate file
431 Route No.2 shooting coordinate file
432 Route No.m shooting coordinate file
437 Shooting guidance display
438 Number of remaining shooting points in route
439 Route No. display
440 tolerance
441 Flight direction
442 Orientation display
443 Posture display
444 Horizontal tilt display
445 Elevation posture axis display
446 Position deviation display
447 Horizontal deviation axis
448 Altitude deviation axis
450 Stable platform attitude data
451 Aircraft attitude data
452 GPS antenna position data
453 Digital camera shooting parameters
454 Camera parameters
455 Aerial image data
456 Imaging point data
457 shooting command
460 ~ 465 processing block
470 Image header
471 Image data part
472 Aircraft data part
480 ~ 486 processing block
490 Image header
491 Image data part
495 Images taken
496 Foreground part a
497 Foreground part b

498 Distant view
499 Shooting surface
500 Normalized histogram
501 Histogram for a foreground
502 Histogram partial histogram
503 Lower limit of histogram
504 Histogram upper limit
505 Price range
506 Median
507 Upper brightness limit
508 Luminance axis
509 pixel count axis
510 Value axis
511 Distance axis from digital camera
512 median fitting curve
513 Value Fitting Curve
514 Foreground part a value range
515 Foreground part a median
516 Distant view median
517 Far view partial value width
520 to 524 processing block
530 Image before removing haze
531 Image after removing haze effect
540 to 545 processing block
549 Ground image range
550 Shooting position
551 Image vector (normalized)
552 image distance
553 Frame rotation angle
554 Terrain upper center point coordinates
555 Terrain recent right coordinates
556 farthest right coordinate on Terrain
557 farthest left coordinate on Terrain
558 Terrain latest left coordinate
559 surface cell
560 Terrain
570 Zenith vector
571 Zenith angle
572 Zenith Index i
573 solid angle cell
574 solid angle cell center vector
575 Ground cell center point
580 Zenith Index 0
581 Zenith Index 1
582 Zenith Index 2
583 Zenith Index 3
584 Solid angle cell address (0.0)
585 Solid angle cell address (1.0)
586 Solid angle cell address (1.1)
587 Solid angle cell address (1.2)
588 solid angle cell address (2.0)
589 Solid angle cell address (2.1)
590 solid angle cell address (2.2)
597 Zenith Index Parameter Table ZNPRMT
598 Direction index parameter table DRPRMT
599 bearings
600 Ground cell position index table TCINXT
601 Longitude index LONINX
602 Latitude Index LATINX
603 Zenith Index Table Address
604 Zenith Index Table ZNINXT
605 Direction index table address
606 Azimuth index table DRINXT
607 Image address table address
608 Image address table GADDRT
610 digital camera with long telephoto lens
611 Digital camera with short telephoto lens
612 standard lens digital camera
613 Standard lens digital camera shooting range
614 Range of digital camera with short telephoto lens
615 Range of digital camera with long telephoto lens
620j ~ y Digital camera
621 Digital camera assembly
630j to y Digital camera 550 j to y shooting range
635 fixed part
636 Vertical movement
637 Rotating part
640 Rotation drive mechanism
641 Vertical drive mechanism A
642 Vertical drive mechanism B
643 Vertical drive mechanism C
644 Vertical drive mechanism D
645 Bearing mechanism
646 Stable platform attitude data
647 Low, pitch direction control
648 Control of yaw direction
649 Vertical movement
650 rotational motion
666 Aerial image m-1
667 Aerial image m
670 Original image shooting position S m-1
671 Original image shooting position S m
672 Image Vector G m-1
673 Image Vector G m
675 Viewpoint P (t 1 )
676 Viewpoint P (t 2 )
677 Viewpoint P (t 3 )
678 Viewpoint P (t 4 )
679 viewpoints P (t i )
680 Eye vector trajectory V (t)
681 Eye vector V (t 1 )
682 Eye vector V (t 2 )
683 Eye vector V (t 3 )
684 Eye vector V (t 4 )
685 Gaze vector V (t i )
690-697 processing block
700 to 705 processing block
710 Original image position S A
711 Original image shooting position S B
712 Original image position S C
713 Shield
714 Visible range on Terrain
715 Terrain recent right coordinate Z m1
716 Terrain farthest right coordinate Z m2
717 Terrain farthest left coordinate Z m3
718 Terrain recent left coordinate Z m4
719 Terrain upper center coordinate Z mC
720 Terrain Upper left middle point Z m34
721 Terrain upper right middle point Z m12
722 Terrain upper middle point Z m23
723 Terrain upper and lower middle point Z m41
724 Terrain upper field of view vertical vector Z mV
725 Terrain upper field of view horizontal vector Z mH
726 Terrain top view vertical vector nm
727 Terrain plane
730 Original image
731 Field of view
732 Frame angle (horizontal)
733 Frame angle of view (vertical)
734 Field of view lower right corner point V i1
735 Field of view upper right corner V i2
736 Field of view upper left corner point V i3
737 Field of view lower left point V i4
741-743 processing blocks
750a-w digital camera
755 Digital camera assembly
760a to p Digital camera 750a to p shooting range
765 Route
766 Shooting points
767 Shooting direction
768 road border
769 road or walkway
770 image projection plane
771 Building
775 endpoint
776 sides
777k ~ n Road ID No. k to n
779 endpoint coordinates
780 Centerline graph
781 latitude and longitude cells
782 Latitude and longitude cell center point
783a-b Vertical foot AB
785 Ground Cell Road Index Table CLLRDINXT
786 Longitude index
787 Latitude Index
788 Road graph address table RDGRADRT
789 Road ID No
790 Road graph data table RDGDT
791 Attributes
792k, i ~ 792k, i + 6 Endpoint k, i ~ k, i + 6
793l, j to 793l, j + 6 End point l, j to l, j + 6
794m, n-3 to 794m, n End point m, n-3 to m, n
795k ~ m Road graph data table RDGDT k ~ m
796 Relative record address
800 Data acquisition and recording system
801 Car navigation system
802 Car navigation system terminal
803 vehicles
804 Metadata file
805 Road image data file
806 Road imaging control system
807 Vehicle ceiling board
810-813 processing block
820 Road ID No.1 shooting coordinate file
821 Road ID No.2 shooting coordinate file
822 Road ID No.m shooting coordinate file
825 Designated shooting route
826 Shooting point data
827 Road image data
828 Vehicle attitude data
829 Stable platform attitude data
830 GPS antenna position data
831 Digital camera shooting parameters

832 Road image data
834-839 processing block
840 Vehicle data part
843-848 processing blocks
850 Image header part
851 Image data part
852 Endpoint distance
853 Centerline left / right distance
854 Vehicle traveling direction
855 Position within the projection plane section of the original image shooting position
856 Position in image vector projection plane section
857 Position within left projection plane section
858 Image right edge projection plane position
859 Digital camera setting direction
860 ~ 867 processing block
869 Number of road image data
870 Road image data address
871 Projection surface original image index table PJINXT
872 Projection plane original image address table PJADRT
873 Projection plane original image index table address
874 Relative record address
875 Projection surface original image address table address
876
877 street perspective
878 Virtual front projection plane
879 Virtual rear projection plane
880 Left projection plane
881 Right projection plane
882 Angle between road graph and line of sight
883 Road graph direction
884 Image taking optical axis
885 Front projection plane processing range
886 Left projection plane processing range
887 Rear projection plane processing range
888 Right projection plane processing range
890 End point m, i coordinate (x m, i , y m, i )
891 Projection plane section mil0 coordinates ( xmil0 , ymil0 )
892 Projection plane section mil1 coordinates ( xmil1 , ymil1 )
893 projection plane division mil2 coordinates ( xmil2 , ymil2 )
894 projection plane section mil3 coordinates ( xmil3 , ymil3 )
895 Projection plane section mir0 coordinates (x mir0 , y mir0 )
896 Projection plane section mir1 coordinates (x mir1 , y mir1 )
897 Projection plane section mir2 coordinates (x mir2 , y mir2 )
898 projection plane section mir3 coordinates (x mir3 , y mir3 )
899 Original image shooting position L
900 image vector L
901 Left image L
902 Right edge L
903 Original image shooting position R
904 Image vector R
905 Left edge of image R
906 Image right end R
907 Original image shooting position F
908 Image Vector F
909 Left edge F
910 Image right edge F
911 Original image shooting position B
912 Image vector B
913 Left edge of image B
914 Image right edge B
915 Reverse direction of road graph
916a to d Original image shooting positions a to d
917 Projection plane division
918 Projection plane section center point
919a-e image vector ae
920 Front left and right 20 ° range
921 Range of rear left and right 20 °
930 Angle 0-20 ° Sector
931 Angle 20-40 ° Sector
932 Angle 40-60 ° sector
933 angle 60-80 ° sector
934 Angle 80-100 ° Sector
935 angle 100-120 ° sector
936 Angle 120-140 ° Sector
937 angle 140-160 ° sector
938 Angle 160-180 ° sector
940-948 processing block
950-956 processing block
960 Original image m
961 Original image m + 1
962 Image vector G m
963 Viewpoint P i
964 Eye vector V ic
965 Left line of sight vector V iL
966 Gaze right edge vector V iR
967 Z m perpendicular
968 Projection plane Z m
969 Original image shooting position S m
970 Left end Q iL on the original image
971 Right edge Q iR on the original image
972 Original image right end Q iR
973 Digital camera assembly
974 to 983 Processing block
984 Jumping button
985 landing button
986 Direction change button
987 altitude indicator
988 Show map
989 Current location name display
990 3D image display
991 Orientation indicator
992 Control button
993 throttle
994 Camera front / rear direction specification
995 Camera left / right direction designation
996 Zoom designation
997 Turn left Turn right
998 back and forth
999 Left / right gaze change
1000 comment display window
1001 Function button

Claims (30)

都市の任意の場所に対して、空中の任意の視点経路および任意の視線方向から見た景観を3次元的に動画で表示する都市景観3次元動画アミューズメントシステムにおいて、該都市の任意の場所に対して十分小さい一定の立体角ごとに見込む画像を画像データベースとして事前に準備し、指定された視点経路と指定された視線方向の時間変化に応じて該画像データベースから視点および視線が近い画像を順次取り出し、該視点経路と該視線に対応して画像モーフィングを行いつつ滑らかにつなぎ合わせて3次元動画を表示するシステムであって、空中画像取得システム、空中画像データベース生成登録システム、空中データベース、空中3次元動画生成システム、およびグラフィックユーザインターフェイスシステムより構成されることを特徴とする都市景観3次元動画アミューズメントシステム。 In an urban landscape 3D video amusement system that displays a landscape viewed from an arbitrary viewpoint route in the air and an arbitrary line of sight in a three-dimensional manner for an arbitrary location in the city, for an arbitrary location in the city Images that can be viewed at a certain sufficiently small solid angle are prepared in advance as an image database, and images with close viewpoints and lines of sight are sequentially extracted from the image database in accordance with temporal changes in the specified viewpoint path and specified line-of-sight direction. A system for displaying a three-dimensional moving image by smoothly connecting the viewpoint path and the line of sight while performing image morphing, including an aerial image acquisition system, an aerial image database generation and registration system, an aerial database, and an aerial 3D It consists of a video generation system and a graphic user interface system. Cityscape 3-dimensional video amusement system that. 都市の通路に面する任意の場所に対して、人間目線の任意の視点経路および任意の視線方向から見た景観を3次元的に動画で表示する都市景観3次元動画アミューズメントシステムにおいて、該都市の通路に面する任意の場所に対して十分小さい一定の方位角ごとに見込む画像を画像データベースとして事前に準備し、該通路に面し鉛直な面を画像投影面となし、指定された視点経路と指定された視線方向の時間変化に応じて該画像データベースから視点および視線が近い画像を順次取り出し、該画像投影面上で該視点経路と該視線に対応して画像モーフィングを行いつつ滑らかにつなぎ合わせて3次元動画を表示するシステムであって、路上画像取得システム、路上画像データベース生成登録システム、路上画像データベース、路上3次元動画生成システム、およびグラフィックユーザインターフェイスシステムより構成されることを特徴とする都市景観3次元動画アミューズメントシステム。 In a cityscape three-dimensional video amusement system that displays a three-dimensional moving image of an arbitrary viewpoint route of a human eye and an arbitrary line-of-sight direction with respect to an arbitrary place facing a city passage, Prepare in advance an image database as an image database for every small azimuth that is sufficiently small with respect to an arbitrary location facing the passage, and form a vertical plane facing the passage as an image projection plane, and a designated viewpoint path Images with close viewpoints and line of sight are sequentially extracted from the image database in accordance with temporal changes in the specified line-of-sight direction, and are smoothly connected while performing image morphing corresponding to the viewpoint path and the line of sight on the image projection plane. 3D moving image display system, road image acquisition system, road image database generation registration system, road image database, road 3D Cityscape 3D video amusement system comprising image generation system, and that it is composed of a graphic user interface system. 請求項1に記載の都市景観3次元動画アミューズメントシステムにおいて、該空中画像取得システムが飛行する航空機の航空機搭載ディジタルカメラから構成されることを特徴とする都市景観3次元動画アミューズメントシステム。 The city landscape three-dimensional video amusement system according to claim 1, wherein the aerial image acquisition system comprises an aircraft-mounted digital camera of a flying aircraft. 請求項1または3のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの空中画像取得システムにおいて、該航空機の飛行航路間隔を等間隔かつ地表からの高度を一定に設定し、網目状の撮影点を構成し、該撮影点にて重力方向のみならず複数方向の斜め方向を撮影し蓄積することができるように複数の航空機搭載ディジタルカメラでディジタルカメラ集合体を構成して撮影することを特徴とする空中画像取得システム。 The aerial image acquisition system of the cityscape three-dimensional video amusement system according to any one of claims 1 and 3, wherein the flight route interval of the aircraft is set at an equal interval and the altitude from the ground surface is constant, It is possible to compose a photographing point and compose a digital camera assembly with a plurality of aircraft-mounted digital cameras so as to be able to photograph and store not only the direction of gravity but also a plurality of oblique directions at the photographing point. A featured aerial image acquisition system. 請求項4に記載の都市景観3次元動画アミューズメントシステムの空中画像取得システムにおいて、GPSと慣性航法装置より構成される飛行管制装置が該網目状の撮影点またはその近傍に該航空機が位置していることを検出し、該ディジタルカメラ集合体を構成する各ディジタルカメラに撮影指令信号を発すると同時に、航空機位置、該航空カメラ集合体の姿勢を記録装置に記録することを特徴とする空中画像取得システム。 5. The aerial image acquisition system of the cityscape three-dimensional moving image amusement system according to claim 4, wherein the flight control device comprising a GPS and an inertial navigation device is located at or near the mesh-shaped imaging point. An aerial image acquisition system for recording an aircraft position and an attitude of the aerial camera assembly on a recording device at the same time as issuing a shooting command signal to each digital camera constituting the digital camera assembly . 請求項4または5のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの空中画像取得システムにおいて、重力方向よりなす角が大きい方向に対しては焦点距離の長い望遠レンズを用い、重力方向よりなす角が小さい方向に対しては焦点距離の短い望遠レンズを用いることにより、俯角の小さい画像の分解能低下を防止することを特徴とする空中画像取得システム。 In the aerial image acquisition system of the cityscape three-dimensional animation amusement system according to any one of claims 4 and 5, a telephoto lens having a long focal length is used for a direction having a larger angle than the direction of gravity, and the direction of gravity is determined. An aerial image acquisition system characterized in that a reduction in resolution of an image with a small depression angle is prevented by using a telephoto lens having a short focal length in a direction with a smaller angle. 請求項4または5または6のいづれかに記載の都市景観3次元動画アミューズメントシステムの空中画像取得システムにおいて、該複数方向の斜め方向ディジタルカメラを該レンズの光軸が重力方向となす角が同一で、かつ水平全周方向が放射状に等間隔に分割されるように配設されることを特徴とする空中画像取得システム。 In the aerial image acquisition system of the cityscape three-dimensional moving image amusement system according to any one of claims 4 or 5 or 6, the angle of the optical axis of the lens and the direction of gravity of the multiple-direction oblique digital camera is the same, An aerial image acquisition system, wherein the horizontal circumferential direction is radially divided into equal intervals. 請求項4から7のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの空中画像取得システムにおいて、レンズ光軸が重力方向のディジタルカメラを中心に斜め方向撮影用ディジタルカメラをその周囲に点対称に放射状に配設してディジタルカメラ集合体を構成し、とくに該航空撮影用航空機の床面の撮影用円筒状空隙に機外に突起物が出ないように配設することを特徴とする空中画像取得システム。 The aerial image acquisition system for a cityscape three-dimensional moving image amusement system according to any one of claims 4 to 7, wherein a digital camera for oblique shooting is pointed around a digital camera whose lens optical axis is in the direction of gravity. A digital camera assembly is configured by symmetrically arranging radially, and in particular, it is arranged so that projections do not protrude outside the imaging cylindrical gap on the floor surface of the aerial imaging aircraft. Aerial image acquisition system. 請求項8に記載の都市景観3次元動画アミューズメントシステムの空中画像取得システムにおいて、少なくとも2種類以上の焦点距離の望遠レンズの組を用意し、その各々に対して重力方向視用カメラを中心に斜め方向撮影用カメラをその周囲に点対称に放射状に配設してディジタルカメラ集合体を構成し、とくに航空撮影用航空機の床面の円筒状空隙に機外に突起物が出ないように配設することを特徴とする空中画像取得システム。 9. An aerial image acquisition system for a cityscape three-dimensional video amusement system according to claim 8, wherein at least two types of telephoto lenses having focal lengths are prepared, each of which is oblique with a gravitational direction camera as a center. A camera for direction shooting is arranged radially around the point in a symmetrical manner to form a digital camera assembly, and in particular, it is arranged so that protrusions do not protrude outside the cylindrical gap on the floor surface of an aircraft for aerial shooting. An aerial image acquisition system characterized by: 請求項8または9のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの空中画像取得システムにおいて、該ディジタルカメラ集合体を安定プラットフォーム機構より吊下し、または搭載し慣性航法装置の検出信号により航空機機体の姿勢擾乱による影響を排除することを特徴とする空中画像取得システム。 10. The aerial image acquisition system for a cityscape three-dimensional moving image amusement system according to claim 8, wherein the digital camera assembly is suspended from or mounted on a stable platform mechanism, and a detection signal of an inertial navigation device is mounted. An aerial image acquisition system that eliminates the effects of aircraft body attitude disturbance. 請求項3から10のいずれかに記載の都市景観3次元動画アミューズメントシステムの空中画像取得システムにおいて、太陽直射による影を避け、滑らかな3次元動画を得るために、曇天に雲の下に飛行高度を設定し、雲の下から撮影することを特徴とする空中画像取得システムおよび方法。 The aerial image acquisition system of the cityscape three-dimensional video amusement system according to any one of claims 3 to 10, wherein a flying altitude under a cloud in a cloudy sky to obtain a smooth three-dimensional video while avoiding shadows caused by direct sunlight. An aerial image acquisition system and method, characterized in that an image is taken from below the cloud. 請求項1および3のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの空中画像データベース生成登録システムにおいて、空気中の水蒸気の影響を除去するため、画像中で視線方向が重力方向よりなす角に対応して連続的に各色要素ごとまたは各色要素を統合したヒストグラムを計測し、重力方向よりなす角によらずにヒストグラム特性が同一となるように画像処理を該空中画像取得システムが取得した画像に対して行い、該空中画像データベースに登録することを特徴とする空中画像データベース生成登録システム。 In the aerial image database generation / registration system of the urban landscape three-dimensional video amusement system according to any one of claims 1 and 3, in order to remove the influence of water vapor in the air, the line-of-sight direction is made more than the direction of gravity in the image. The aerial image acquisition system acquires the image processing so that the histogram characteristics are the same regardless of the angle formed from the gravitational direction by measuring a histogram that continuously integrates each color element or each color element corresponding to the corner. An aerial image database generation / registration system which is performed on an image and registered in the aerial image database. 請求項1および3のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの空中画像データベース生成登録システムにおいて、該都市景観3次元動画の各コマ画像の原画像を該空中画像データベースから高速に検索する目的で、画像データに付随するメタデータとして画像に四隅の地表上の緯度経度と標高などの位置座標、撮影光軸が地表と交わる点の緯度経度と標高などの位置座標、撮影位置と撮影光軸が地表と交わるまでの距離、画像のフレームが水平面に対し撮影光軸周りに回転している角度の全部または一部を計算することを該空中画像取得システムが取得した画像に対して行い、撮影位置と撮影光軸方向とあわせて該空中画像データベースに登録することを特徴とする空中画像データベース生成登録システム。 The aerial image database generation / registration system of the cityscape three-dimensional video amusement system according to any one of claims 1 and 3, wherein an original image of each frame image of the cityscape three-dimensional video is quickly transmitted from the aerial image database. For the purpose of searching, as metadata accompanying the image data, the position coordinates such as latitude and longitude and elevation on the ground surface of the four corners as the metadata, the position coordinates such as latitude and longitude and elevation of the point where the shooting optical axis intersects the ground surface, the shooting position and For the image acquired by the aerial image acquisition system that calculates the distance until the imaging optical axis intersects the ground surface, and all or part of the angle at which the image frame rotates around the imaging optical axis with respect to the horizontal plane An aerial image database generation / registration system that performs registration in the aerial image database together with a shooting position and a shooting optical axis direction. 請求項1および3のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの空中画像データベース生成登録システムにおいて、該都市景観3次元動画の各コマ画像の原画像を該空中画像データベースから高速に検索する目的で、該空中画像取得システムが取得した画像または、該空中画像データベースに登録されている画像に対して、地表を緯度経度あるいは他の水平座標により網目状セルに分割し、該画像が撮影している該網目状セルを検索選定して該網目ごとに該画像が検索できるようインデクスをつけ、さらに該網目を撮影している画像の撮影点の該網目の中心点からの方位角、仰角、距離で該網目状セルより該画像が検索できるようにインデクス化して該画像を該空中画像データベースに登録することを特徴とする空中画像データベース生成登録システム。 The aerial image database generation / registration system of the cityscape three-dimensional video amusement system according to any one of claims 1 and 3, wherein an original image of each frame image of the cityscape three-dimensional video is quickly transmitted from the aerial image database. For the purpose of searching, for the image acquired by the aerial image acquisition system or the image registered in the aerial image database, the ground surface is divided into mesh cells by latitude and longitude or other horizontal coordinates, and the image is The mesh cell being photographed is selected and indexed so that the image can be retrieved for each mesh, and the azimuth angle from the center point of the mesh of the photographing point of the image capturing the mesh, Indexing the image so that the image can be searched from the mesh cell at an elevation angle and a distance, and registering the image in the aerial image database Image database generation registration system. 請求項1または3のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの空中3次元動画生成システムにおいて、空中を移動する時間軸tの関数で定義される視点経路P(t)と、該視点経路P(t)からの視線方向を示す視線ベクトルトラジェクトリV(t)、さらに該視線ベクトルトラジェクトリV(t)が画像の対象となる地点と交わる点の軌跡を目標トラジェクトリT(t)と定義することができて、t=tiにおける該視線ベクトルトラジェクトリV(ti)に、撮影光軸ベクトル、撮影位置、視野角からなる属性の最も近いものを持つ画像を該空中画像データベースより検索して原画像とし、該原画像の該属性をもとに該都市景観3次元動画の各コマ画像を該各コマ画像の視線ベクトル、視点、視角よりなる属性と該原画像の属性の相違からモーフィング変換により該各コマ画像を生成し時間軸上でつなぎ合わせて滑らかな動画像とすることを特徴とする空中3次元動画生成システム。 In the aerial three-dimensional video generation system of the cityscape three-dimensional video amusement system according to any one of claims 1 and 3, a viewpoint path P (t) defined by a function of a time axis t moving in the air, The line-of-sight vector trajectory V (t) indicating the line-of-sight direction from the viewpoint path P (t), and the trajectory of the point at which the line-of-sight vector trajectory V (t) intersects the target point of the image are referred to as the target trajectory T (t). The aerial image database is searched for an image having the closest attribute consisting of a shooting optical axis vector, a shooting position, and a viewing angle in the line-of-sight vector trajectory V (t i ) at t = t i . And each frame image of the three-dimensional cityscape based on the attribute of the original image is assigned to the attribute of the line-of-sight vector, viewpoint, and viewing angle of each frame image. Aerial 3D video generation system characterized by a smooth moving picture by joining on the generated time axis respective frame image by morphing conversion from the difference in the attribute of the original image. 請求項15に記載の都市景観3次元動画アミューズメントシステムの空中3次元動画生成システムにおいて、t=tiにおける該視線ベクトルトラジェクトリV(ti)に、撮影光軸ベクトル、撮影位置、視野角からなる属性の最も近いものを持つ画像を該空中画像データベースより検索して原画像とする処理において、該原画像の撮影光軸ベクトルと該視線ベクトルトラジェクトリV(ti)のなす角が所定の角度より少なく、なおかつ、該原画像は該撮影光軸ベクトルを中心としてカメラの焦点距離により一定の視野角を持つが、この視野を構成する四角錐が地表と交わる多角形が、該視線ベクトルトラジェクトリV(ti)を中心として模擬する視野を構成する四角錐が地表と交わる多角形を包含するように選定することを特徴とする空中3次元動画生成システム。 The aerial three-dimensional video generation system of the cityscape three-dimensional video amusement system according to claim 15, wherein the line-of-sight vector trajectory V (t i ) at t = t i includes a shooting optical axis vector, a shooting position, and a viewing angle. In the process of retrieving an image having the closest attribute from the aerial image database to obtain an original image, the angle formed by the photographic optical axis vector of the original image and the line-of-sight vector trajectory V (t i ) is greater than a predetermined angle. The original image has a fixed viewing angle depending on the focal length of the camera with the photographing optical axis vector as the center, and a polygon in which the quadrangular pyramid forming the visual field intersects the ground surface is the line-of-sight vector trajectory V ( wherein the quadrangular pyramid constituting a field of view to simulate about a t i) is selected to include a polygon intersecting the surface 3-dimensional moving image generating system in. 請求項16に記載の都市景観3次元動画アミューズメントシステムの空中3次元動画生成システムにおいて、該空中画像データベースより該原画像を選定する際、時点tiにおける該視線ベクトルトラジェクトリV(ti)と対象となる地点の間に存在する障害物を避けるために選定の条件を満足する複数の該原画像の中から該撮影光軸ベクトルと地表が交わる点までのベクトル長が最も小さいものを原画像として選択することを特徴とする空中3次元動画生成システム。 The aerial three-dimensional video generation system of the cityscape three-dimensional video amusement system according to claim 16, wherein when the original image is selected from the aerial image database, the line-of-sight vector trajectory V (t i ) at the time t i and the target In order to avoid obstacles existing between the points, the image having the smallest vector length from the plurality of original images satisfying the selection condition to the point where the photographing optical axis vector intersects the ground surface is defined as the original image. An aerial three-dimensional video generation system characterized by selecting. 請求項2に記載の都市景観3次元動画アミューズメントシステムにおいて、該路上画像事前準備システムが移動する自動車の車載ディジタルカメラ、または移動する人間が担架しまたは牽引しまたは推進するディジタルカメラから構成されることを特徴とする都市景観3次元動画アミューズメントシステム。 3. The urban landscape three-dimensional video amusement system according to claim 2, wherein the road image preparation system is composed of a vehicle-mounted digital camera of a moving vehicle or a digital camera that is moved, pulled, or propelled by a moving person. A 3D movie amusement system featuring urban landscape. 請求項2または18のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの路上画像取得システムにおいて、該路上画像取得システムが車載ディジタルカメラ、または人間が担架しまたは牽引しまたは推進するディジタルカメラにより構成され、該ディジタルカメラを通路の進行方向に沿って移動させて通路に面する任意の地点に対して十分小さい一定の角度ごとに見込む画像が存在するように通路の進行方向に沿って通路上の一定距離ごとに撮影点を設定し水平面上で前後左右のみならずその中間方向および斜め上方向を撮影し蓄積することができるように複数のディジタルカメラでディジタルカメラ集合体を構成し撮影することを特徴とする路上画像取得システム。 The road image acquisition system of the cityscape three-dimensional moving image amusement system according to any one of claims 2 and 18, wherein the road image acquisition system is an in-vehicle digital camera, or a digital camera that is stretched, pulled, or propelled by a person. The digital camera is moved along the direction of travel of the path, and the path along the direction of travel of the path so that there is an image that can be seen at a predetermined angle that is sufficiently small relative to an arbitrary point facing the path. Set up shooting points for each fixed distance above, and compose and shoot a digital camera assembly with multiple digital cameras so that not only the front, back, left and right but also the middle direction and diagonally upward direction can be shot and stored on the horizontal plane A road image acquisition system characterized by that. 請求項19に記載の都市景観3次元動画アミューズメントシステムの路上画像取得システムおいて、該ディジタルカメラ集合体を安定プラットフォーム機構に吊下または搭載し、慣性航法装置の検出信号により、車体の姿勢擾乱による影響を排除することを特徴とする路上画像取得システム。 The road image acquisition system of the cityscape three-dimensional video amusement system according to claim 19, wherein the digital camera assembly is suspended or mounted on a stable platform mechanism, and the vehicle body posture is disturbed by a detection signal of an inertial navigation device. A road image acquisition system characterized by eliminating the influence. 請求項19または20のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの路上画像取得システムにおいて、GPSと慣性航法装置より構成されるカーナビゲーション装置が請求項19に規定される該撮影点に該ディジタルカメラ集合体が位置していることを検出し、該ディジタルカメラ集合体を構成する各カメラに撮影指令信号を発すると同時に、該ディジタルカメラ集合体の位置と姿勢を記録装置に記録することを特徴とする路上画像取得システム。 21. The imaging point defined in claim 19, wherein in the road image acquisition system of the cityscape three-dimensional video amusement system according to any one of claims 19 and 20, a car navigation device comprising a GPS and an inertial navigation device is provided. And detecting the position of the digital camera assembly and issuing a shooting command signal to each camera constituting the digital camera assembly, and simultaneously recording the position and orientation of the digital camera assembly on a recording device. A road image acquisition system characterized by that. 請求項2および18のいずれか1項に記載の都市景観3次元動画アミューズメントシステムにおける路上画像データベース生成登録システムおよび路上画像データベースにおいて、該都市景観3次元動画の各コマ画像の原画像を該路上画像データベースから高速に検索する目的で、通路の構造を通路の中心線をグラフとして表現し、これを中心線グラフと称し、該中心線グラフの属性としてグラフ各辺に対して端点位置座標、道路幅員、進行方向左右各々に対する該画像投影面の有無、道路の交差、分岐、合流情報を記載して通路の位置と構造を記述し、さらに地表を緯度経度あるいは他の水平座標により網目状セルに分割し、該網目状セルから該中心線グラフで記載される通路認識番号にリンクするインデックス機構を有することを特徴とする路上画像データベース。 The road image database generation registration system and road image database in the city landscape three-dimensional video amusement system according to any one of claims 2 and 18, wherein an original image of each frame image of the city landscape three-dimensional video is the road image For the purpose of high-speed retrieval from the database, the structure of the passage is expressed as a graph with the center line of the passage as a graph, and this is referred to as a center line graph. Describes the position and structure of the passage by describing the presence or absence of the image projection plane for each of the left and right traveling directions, road intersection, branching, and merge information, and further dividing the ground surface into mesh cells by latitude and longitude or other horizontal coordinates And an index mechanism for linking the mesh cell to the passage recognition number described in the center line graph. The road image database that. 請求項2および18および22のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの路上画像データベース生成登録システムにおいて、
該都市景観3次元動画の各コマ画像の原画像を該路上画像データベースから高速に検索する目的で通路構造を記述する該中心線グラフに付帯する該画像投影面を該中心線グラフの辺に沿って区分分割し、該路上画像取得システムが取得した画像または該路上画像データベースに登録されている画像が撮影している区分を検索し、該区分から該区分を撮影している画像を該路上画像データベースより検索できるようインデクスをつけ、さらに該区分を撮影している画像の撮影点の該区分の中心点からの方位角、距離でインデクス化して該画像を該路上画像データベースに登録することを特徴とする空中画像データベース生成登録システム。
In the road image database production | generation registration system of the cityscape three-dimensional animation amusement system of any one of Claim 2 and 18 and 22,
The image projection plane that accompanies the centerline graph describing the passage structure for the purpose of quickly retrieving the original image of each frame image of the cityscape three-dimensional video from the road image database along the edges of the centerline graph The image obtained by the road image acquisition system or the image captured by the image registered in the road image database is retrieved, and the image capturing the image from the segment is searched for the road image. An index is provided so that the image can be retrieved from a database, and the image is recorded in the road image database after being indexed by the azimuth and distance from the central point of the image of the image capturing the image. Aerial image database generation and registration system.
請求項2に記載の都市景観3次元動画アミューズメントシステムの路上3次元動画生成システムにおいて、通路上を移動する時間tの関数で定義される視点経路P(t)と、該視点経路P(t)からの視線方向を示す視線ベクトルトラジェクトリV(t)、さらに該視線ベクトルトラジェクトリV(t)が画像の対象となる建造物または物体または通路の境界線に鉛直に立つ仮想的な画像投影面と交わる点の軌跡を目標トラジェクトリT(t)と定義することができて、t=tiにおける該視線ベクトルトラジェクトリV(ti)に、撮影光軸ベクトル、撮影位置、視野角からなる属性の最も近いものを持つ画像を該画像データベースより検索して原画像とし、該原画像の該属性をもとに該都市景観3次元動画の各コマ画像を、該各コマ画像の視線ベクトル、視点、視角よりなる属性と該原画像の属性の相違からモーフィング変換により該各コマ画像を生成することを特徴とする路上3次元動画生成システム。 The viewpoint path P (t) defined by the function of the time t moving on the passage in the on-road 3D animation generation system of the cityscape 3D animation amusement system according to claim 2, and the viewpoint path P (t) The line-of-sight vector trajectory V (t) indicating the line-of-sight direction from the image line, and the line-of-sight vector trajectory V (t) intersects the virtual image projection plane that stands perpendicular to the boundary line of the building or object or passage that is the object of the image. The trajectory of the point can be defined as the target trajectory T (t), and the line-of-sight vector trajectory V (t i ) at t = t i is closest to the attribute composed of the photographing optical axis vector, the photographing position, and the viewing angle. An image having a thing is retrieved from the image database as an original image, and each frame image of the cityscape three-dimensional moving image is converted into each frame image based on the attribute of the original image. Line-of-sight vector, perspective, road 3D video generation system and generating a respective frame image by morphing conversion from the difference in the attribute of the attribute and the original image consisting of the viewing angle. 請求項24に記載の都市景観3次元動画アミューズメントシステムの路上3次元動画生成システムにおいて、t=tiにおける該視線ベクトルトラジェクトリV(ti)に、撮影光軸ベクトル、撮影位置、視野角からなる属性の最も近いものを持つ画像を該路上画像データベースより検索して原画像とする処理において、該原画像は該撮影光軸ベクトルを中心としてカメラの焦点距離により一定の視野角を持つが、この視野が画像の対象となる該画像投影面と交わる人間目線の水平面上の範囲が、該視線ベクトルトラジェクトリV(ti)を中心として模擬する視野が該画像投影面と交わる人間目線の水平面上の範囲を包含し、なおかつ、該原画像の視線ベクトルと該視線ベクトルトラジェクトリV(ti)のなす角が所定の角度より少なく、するように選定することを特徴とする路上3次元動画生成システム。 The road three-dimensional video generation system of the cityscape three-dimensional video amusement system according to claim 24, wherein the line-of-sight vector trajectory V (t i ) at t = t i includes a shooting optical axis vector, a shooting position, and a viewing angle. In the process of retrieving an image having the closest attribute from the road image database to obtain an original image, the original image has a fixed viewing angle depending on the focal length of the camera around the photographing optical axis vector. The range on the horizontal plane of the human line of sight that intersects the image projection plane that is the subject of the image is on the horizontal plane of the human line of sight that simulates the visual field trajectory V (t i ) around the line-of-sight vector trajectory V (t i ). encompasses a range, yet, the angle of the line-of-sight vector of the original image and the visual line vector trajectory V (t i) is less than the predetermined angle Road 3D video generation system characterized by selecting as. 請求項24および25のいずれか1項に記載の都市景観3次元動画アミューズメントシステムの路上3次元動画生成システムにおいて、該路上画像データベースより該原画像を選定する際、時点tiにおける該視線ベクトルトラジェクトリV(ti)と対象となる地点の間に存在する障害物を避けるために選定の条件を満足する複数の該原画像の中から該撮影光軸ベクトルと該画像投影面が交わる点までのベクトル長が最も小さいものを原画像として選択することを特徴とする路上3次元動画生成システム。 26. The road three-dimensional video generation system of the cityscape three-dimensional video amusement system according to claim 24, wherein the line-of-sight vector trajectory at time t i is selected when the original image is selected from the road image database. In order to avoid an obstacle existing between V (t i ) and the target point, a plurality of the original images satisfying the selection condition up to a point where the imaging optical axis vector and the image projection plane intersect A road three-dimensional moving image generation system, wherein an image having the smallest vector length is selected as an original image. 請求項1および3および15から17までのいずれか1項に記載の都市景観3次元動画アミューズメントシステムのグラフィックユーザインターフェイスシステムにおいて、モニタ上に表示されるかまたは専用の模擬装置を介して表示される飛行ルート指定用地図を参照し、該3次元動画生成システムで生成される模擬視界を見ながら模擬操縦棹を操作して飛行方位および飛行高度を昇降し、スロットレバーを操作して飛行速度を調節することにより飛行経路と速度を制御して模擬コックピットの前方視界をモニタ上または専用の模擬装置に表示することを特徴とするグラフィックユーザインターフェイスシステム。 The graphic user interface system of the cityscape three-dimensional video amusement system according to any one of claims 1 and 3, and 15 to 17, is displayed on a monitor or via a dedicated simulation device. Referring to the map for specifying the flight route, while watching the simulated field of view generated by the 3D video generation system, operate the simulated control stick to raise and lower the flight direction and flight altitude, and operate the slot lever to adjust the flight speed By controlling the flight path and speed, the graphic user interface system displays the front view of the simulated cockpit on a monitor or a dedicated simulation device. 請求項25に記載の都市景観3次元動画アミューズメントシステムのグラフィックユーザインターフェイスシステムにおいて、該模擬コックピットの該模擬視界表示を航空機搭載模擬カメラ表示に切り替える機構を有し、該模擬カメラは方位およびズーミングおよびティルト角の制御を行えることを特徴とする空中グラフィックユーザインターフェイスシステム。 26. The graphic user interface system of a cityscape three-dimensional moving image amusement system according to claim 25, further comprising a mechanism for switching the simulated view display of the simulated cockpit to an on-board simulated camera display, wherein the simulated camera has an orientation, zooming, and tilt. An aerial graphic user interface system that can control corners. 請求項2および23から26までのいずれか1項に記載の都市景観3次元動画アミューズメントシステムのグラフィックユーザインターフェイスシステムにおいて、モニタ上に表示される地図を参照し、該路上3次元動画生成システムで生成される模擬視界を見ながら表示されるカーソルを操作して進行方向および速度を操作でき、さらに目の向きを制御することができることを特徴とするグラフィックユーザインターフェイスシステム。 27. A graphic user interface system of a cityscape three-dimensional video amusement system according to any one of claims 2 and 23 to 26, wherein a map displayed on a monitor is referred to and generated by the road three-dimensional video generation system. A graphic user interface system characterized in that the direction and speed can be controlled by operating a displayed cursor while viewing the simulated field of view, and the direction of the eyes can be controlled. 請求項27または28のいずれかの1項に記載の都市景観3次元動画アミューズメントシステムのグラフィックユーザインターフェイスシステムにおいて、
リアルタイム飛行模擬の飛行高度が一定値より下がった場合、ランディング地点を視界前方斜め下に指定して該ランディング地点の路上地点に視点位置を移行し、以降請求項31に記載の該路上での都市景観3次元動画生成システムに切替え移行する。また、路上で都市景観3次元動画生成中に離陸アイコンをクリックすると該アイコンの選択に応じて該離陸路上点の直上または該離陸路上点を前方斜め下に見る一定高度の上空に位置を移行して請求項27または28のいずれかの1項に記載の都市景観3次元動画アミューズメントシステムの空中における飛行模擬に切替えることができることを特徴とするグラフィックユーザインターフェイスシステム。
In the graphic user interface system of the cityscape three-dimensional video amusement system according to any one of claims 27 and 28,
32. When the flight altitude of the real-time flight simulation falls below a certain value, the landing point is designated obliquely downward in front of the field of view, and the viewpoint position is shifted to the road point of the landing point, and the city on the road according to claim 31 hereinafter. Switch to the landscape 3D video generation system. In addition, when a take-off icon is clicked while generating a 3D video of a cityscape on the road, the position is shifted to a position above the point on the take-off road or above a certain altitude where the point on the take-off road is seen diagonally forward in accordance with the selection of the icon. 29. A graphic user interface system capable of switching to a flight simulation in the air of the cityscape three-dimensional moving image amusement system according to any one of claims 27 and 28.
JP2008060351A 2008-03-11 2008-03-11 System for generating and browsing three-dimensional moving image of city view Pending JP2009217524A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008060351A JP2009217524A (en) 2008-03-11 2008-03-11 System for generating and browsing three-dimensional moving image of city view

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008060351A JP2009217524A (en) 2008-03-11 2008-03-11 System for generating and browsing three-dimensional moving image of city view

Publications (1)

Publication Number Publication Date
JP2009217524A true JP2009217524A (en) 2009-09-24

Family

ID=41189303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008060351A Pending JP2009217524A (en) 2008-03-11 2008-03-11 System for generating and browsing three-dimensional moving image of city view

Country Status (1)

Country Link
JP (1) JP2009217524A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010134502A1 (en) * 2009-05-18 2010-11-25 小平アソシエイツ株式会社 Image information output method
WO2012066642A1 (en) * 2010-11-16 2012-05-24 小平アソシエイツ株式会社 Field-of-view video information generating apparatus
WO2013177059A1 (en) * 2012-05-22 2013-11-28 Urbach Julian M Portable mobile light stage
CN105872396A (en) * 2016-03-30 2016-08-17 东斓视觉科技发展(北京)有限公司 Photographic method and device
CN105915783A (en) * 2016-03-30 2016-08-31 东斓视觉科技发展(北京)有限公司 Photography method and apparatus
CN107358639A (en) * 2017-07-25 2017-11-17 上海传英信息技术有限公司 A kind of photo display method and photo display system based on intelligent terminal
CN110648389A (en) * 2019-08-22 2020-01-03 广东工业大学 3D reconstruction method and system for city street view based on cooperation of unmanned aerial vehicle and edge vehicle
CN111445544A (en) * 2020-02-24 2020-07-24 东莞职业技术学院 Map drawing method based on route live detection
CN111862325A (en) * 2020-07-21 2020-10-30 北京师范大学 Method and system for constructing street view index
CN112767224A (en) * 2021-01-13 2021-05-07 厦门市建筑科学研究院有限公司 Image processing method and system
CN113379916A (en) * 2021-06-29 2021-09-10 西安科技大学 Photographing method for assisting building three-dimensional modeling
CN116563505A (en) * 2023-05-09 2023-08-08 阿波罗智联(北京)科技有限公司 Avatar generation method, apparatus, electronic device, and storage medium

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4854819B2 (en) * 2009-05-18 2012-01-18 小平アソシエイツ株式会社 Image information output method
JP2012053896A (en) * 2009-05-18 2012-03-15 Kodaira Associates Kk Image information output method
US8593486B2 (en) 2009-05-18 2013-11-26 Kodaira Associates Inc. Image information output method
WO2010134502A1 (en) * 2009-05-18 2010-11-25 小平アソシエイツ株式会社 Image information output method
WO2012066642A1 (en) * 2010-11-16 2012-05-24 小平アソシエイツ株式会社 Field-of-view video information generating apparatus
JP5780561B2 (en) * 2010-11-16 2015-09-16 小平アソシエイツ株式会社 Visibility video information generator
US9609284B2 (en) 2012-05-22 2017-03-28 Otoy, Inc. Portable mobile light stage
WO2013177059A1 (en) * 2012-05-22 2013-11-28 Urbach Julian M Portable mobile light stage
AU2013266608B2 (en) * 2012-05-22 2015-09-03 Otoy, Inc. Portable mobile light stage
CN105915783B (en) * 2016-03-30 2019-01-01 东斓视觉科技发展(北京)有限公司 Method for imaging and device
CN105915783A (en) * 2016-03-30 2016-08-31 东斓视觉科技发展(北京)有限公司 Photography method and apparatus
CN105872396A (en) * 2016-03-30 2016-08-17 东斓视觉科技发展(北京)有限公司 Photographic method and device
CN105872396B (en) * 2016-03-30 2019-04-12 东斓视觉科技发展(北京)有限公司 Method for imaging and device
CN107358639A (en) * 2017-07-25 2017-11-17 上海传英信息技术有限公司 A kind of photo display method and photo display system based on intelligent terminal
CN110648389A (en) * 2019-08-22 2020-01-03 广东工业大学 3D reconstruction method and system for city street view based on cooperation of unmanned aerial vehicle and edge vehicle
CN111445544A (en) * 2020-02-24 2020-07-24 东莞职业技术学院 Map drawing method based on route live detection
CN111862325A (en) * 2020-07-21 2020-10-30 北京师范大学 Method and system for constructing street view index
CN111862325B (en) * 2020-07-21 2023-04-07 北京师范大学 Method and system for constructing street view index
CN112767224A (en) * 2021-01-13 2021-05-07 厦门市建筑科学研究院有限公司 Image processing method and system
CN112767224B (en) * 2021-01-13 2023-09-29 厦门市建筑科学研究院有限公司 Image processing method and system
CN113379916A (en) * 2021-06-29 2021-09-10 西安科技大学 Photographing method for assisting building three-dimensional modeling
CN113379916B (en) * 2021-06-29 2023-10-27 西安科技大学 Photographing method for assisting building three-dimensional modeling
CN116563505A (en) * 2023-05-09 2023-08-08 阿波罗智联(北京)科技有限公司 Avatar generation method, apparatus, electronic device, and storage medium
CN116563505B (en) * 2023-05-09 2024-04-05 阿波罗智联(北京)科技有限公司 Avatar generation method, apparatus, electronic device, and storage medium

Similar Documents

Publication Publication Date Title
JP4854819B2 (en) Image information output method
JP2009217524A (en) System for generating and browsing three-dimensional moving image of city view
JP5899232B2 (en) Navigation with guidance through geographically located panoramas
WO2017045251A1 (en) Systems and methods for uav interactive instructions and control
US20200036952A1 (en) Free viewpoint movement display device
CN107514993A (en) The collecting method and system towards single building modeling based on unmanned plane
EP1607716A2 (en) Model forming apparatus and method, and photographing apparatus and method
WO2010024212A1 (en) Bird&#39;s-eye image forming device, bird&#39;s-eye image forming method, and bird&#39;s-eye image forming program
US20110211040A1 (en) System and method for creating interactive panoramic walk-through applications
CN101137890A (en) Navigation and inspection system
JP5780561B2 (en) Visibility video information generator
CN109900274B (en) Image matching method and system
JP4418857B1 (en) Image acquisition system for generating 3D video of routes
CN110428501A (en) Full-view image generation method, device, electronic equipment and readable storage medium storing program for executing
CN116883604A (en) Three-dimensional modeling technical method based on space, air and ground images
Stal et al. Highly detailed 3D modelling of Mayan cultural heritage using an UAV
CN116978010A (en) Image labeling method and device, storage medium and electronic equipment
US11703354B2 (en) Video display system and method
Orlik et al. 3D modelling using aerial oblique images with close range UAV based data for single objects
CN107063094A (en) The method of laser ranging aerial image based on optoelectronic switch
Sugisaki et al. Design and Implementation of Multi-layered Seeing-and-moving-through System
Frank et al. An Alternative Raw Data Acquisition Approach for Reconstruction of LOD3 Models
Zhang et al. UAV-Borne Mapping Algorithms for Low-Altitude and High-Speed Drone Applications
Shukina et al. Creation of a three-dimensional model of a landscape of the left bank of the Akhangaran reservoir using a phontom 4 pro quadrocopter
Barazzetti et al. Recognizing landscapes: can we change the point of view of geographic data?

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091005