WO2012066642A1 - 視界映像情報生成装置 - Google Patents

視界映像情報生成装置 Download PDF

Info

Publication number
WO2012066642A1
WO2012066642A1 PCT/JP2010/070407 JP2010070407W WO2012066642A1 WO 2012066642 A1 WO2012066642 A1 WO 2012066642A1 JP 2010070407 W JP2010070407 W JP 2010070407W WO 2012066642 A1 WO2012066642 A1 WO 2012066642A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
shooting
field
image information
Prior art date
Application number
PCT/JP2010/070407
Other languages
English (en)
French (fr)
Inventor
小平 高敏
Original Assignee
小平アソシエイツ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 小平アソシエイツ株式会社 filed Critical 小平アソシエイツ株式会社
Priority to JP2012544039A priority Critical patent/JP5780561B2/ja
Priority to PCT/JP2010/070407 priority patent/WO2012066642A1/ja
Publication of WO2012066642A1 publication Critical patent/WO2012066642A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the present invention relates to a visual field image information generation device.
  • an apparatus for generating a view image of a landscape on the ground including an urban area an apparatus using an aerial photograph taken from above in an aircraft or the like or a photograph taken on the ground on a road and an apparatus for generating view image information
  • the present invention also relates to an apparatus for generating and displaying a three-dimensional city view image using photographs taken from various angles on the ground.
  • a field-of-view video device that uses photographs taken from various angles of the ground, it is corrected when switching between photographs that use the displacement of the view image display position due to parallax due to the distance in the height direction from the position reference plane of the object.
  • an apparatus for realizing smooth continuous display in a field-of-view video device that uses photographs taken from various angles of the ground.
  • a 3D model of a city and terrain is created, and a texture is pasted on the surface of the generated 3D model by texture mapping to obtain a 3D model.
  • This method is widely used as a textbook method, but requires a lot of man-hours for creating a three-dimensional model and man-hours for attaching a texture to a polygon formed by the three-dimensional model.
  • the amount of calculation increases, requiring a very large number of man-hours, resulting in a high cost, and also has a drawback of being responsive.
  • Patent Document 1 discloses a technique for obtaining three-dimensional information of an object in real time on the same principle as stereo photogrammetry. That is, the three-dimensional information of the photographing target is obtained by the triangulation method using the information of the corresponding points of the panoramic images of the two common photographing targets. Each time the combination of panoramic images used for display changes, three-dimensional information of the object to be imaged is obtained by triangulation, and a polygon is formed by connecting adjacent corresponding points of the panoramic image. Texture mapping. Furthermore, it is a common practice to generate a 3D video field of view by matrix transformation from polygon information.
  • Patent Document 2 discloses a method related to a panoramic video system that displays an image without distortion in real time. That is, a method of capturing a real image and generating a panoramic image as a moving image is disclosed.
  • the system used in the method of Patent Document 2 is composed of a panoramic annular lens (PAL) system, a video camera, and a PC-based software system.
  • the PAL system is 360 degrees with two mirrors, a hyperboloid mirror and an ellipsoidal mirror. A horizontal field of view and a vertical field of view of 90 degrees are taken with a video camera.
  • images taken by the software system are developed in real time into 360-degree video images that are seamless and have no distortion.
  • the system for development uses a ray tracing program to convert a distorted spherical image into a planar panoramic image on Cartesian coordinates and obtain the image in real time.
  • a graphical user interface can be used to determine any break point (centerline of panoramic image), zoom in or zoom out function, and built-in calibration.
  • the image capturing device captures images in a plurality of directions at each of a plurality of image capturing positions, captures a plurality of image areas divided into a plurality of sub areas, and acquires a plurality of pieces of image information. And when storing each of the plurality of pieces of image information in the memory, shooting position information and shooting direction information when the image information is acquired are stored in the memory in association with the image information.
  • the image information, the shooting position information, and the shooting direction information are associated and stored in a database, and a plurality of positions arranged in order on the viewpoint path and the plurality of positions are stored.
  • the direction of the line of sight toward the shooting area is specified, the shooting direction information associated with the sub-area stored in the database is referred to, and the line of sight at each of the plurality of positions on the viewpoint path
  • the image information including the sub-region located in the direction and the shooting position information associated with the image information is retrieved and read in the order, while switching the image information read in the order,
  • a view image information generating method including generating view image information with reference to shooting position information associated with the image information, generating the view image information in the direction of the line of sight from a position on the viewpoint path
  • the positional deviation correction of the visual field video information is performed so as not to cause a deviation in the display position of a region common to the image information and the different image information.
  • the parallax for different viewpoints caused by the height of the surface structure that cannot be resolved only from the viewpoint position, the line-of-sight direction, and the position information of the photographed image is eliminated using image recognition technology. To do. In other words, even if the position-related attributes of the view image cannot be maintained, the point of interest of the specific feature exists in a close place in the view image, and the shape of the feature in the view image has high similarity. Use.
  • the image matching process is performed in parallel with a separate processor while synchronizing with the view image generation process in order to perform the image matching process without affecting the view image generation time.
  • a separate processor such as Intel (registered trademark) i7 that includes a plurality of cores in the same CPU chip and has a plurality of threads.
  • a visual image for an arbitrary viewpoint route and viewpoint direction is acquired for an arbitrary place using an actual image. Can be generated in a short time. In addition, it is possible to eliminate the discontinuity of the view image and obtain a smooth image.
  • FIG. 1 It is a figure showing roughly the cityscape 3D picture generation and browsing system whole composition of the present invention. It is a figure which shows the concept of the aerial image acquisition in the cityscape three-dimensional video production
  • FIG. 1 It is a figure which shows the example of a setting of the course and imaging
  • FIG. 4 is a diagram illustrating a signal information flow of the stable platform of the present invention. It is a figure explaining the variable of the image generation by the morphing using the real image in the cityscape 3D image generation and browsing system of this invention. It is a figure which shows the aerial image generation process flow in the cityscape 3D image generation and browsing system of this invention. It is a figure which shows the processing flow of the original image search of the three-dimensional video generation process using the real image in the cityscape three-dimensional video generation and browsing system of this invention. It is the figure which showed the original image selection logic of the three-dimensional video generation process of this invention.
  • FIG. 1 is a diagram schematically illustrating an overall configuration of a visual field image information generation device according to an embodiment of the present invention.
  • FIG. 1 is a diagram schematically illustrating an overall configuration of a visual field image information generation device according to an embodiment of the present invention.
  • FIG. 42 is a diagram illustrating a difference in visual field image due to parallax with respect to the same object in the image display system 100 of the visual field image information generation device illustrated in FIG. 41. It is a figure explaining the position shift correction of the visual field image
  • FIG. 47 is a diagram for describing an example of histogram leveling in the image comparison information database shown in FIG. 46. It is a figure explaining the position shift correction method by the parallax of the image switching smooth system 110 of the visual field video information generation device shown in FIG. It is a figure explaining the processing flow of the position shift correction process by the parallax of the image switching smooth system of the visual field video information generation device shown in FIG. FIG.
  • FIG. 45 is a diagram for explaining a case where the time required for the image matching process 255 is long in the operation time chart of the detailed structure of the image switching smoothing system 110 of the visual field image information generating device shown in FIG.
  • FIG. 45 is another diagram for explaining a case where the time required for the image matching process 255 is long in the operation time chart of the detailed structure of the image switching smoothing system 110 of the field-of-view video information generating device shown in FIG. 44.
  • Embodiment 1 of the present invention will be described with reference to FIGS.
  • a system capable of capturing a wide range of multi-directional images with high-density mesh points in the air in an aircraft or the like is created, a large number of captured images are made into a database, and an arbitrary position in the city can be viewed from an arbitrary viewpoint.
  • an image and a video mean content in which a moving image and a still image are displayed on an electronic display device including a liquid crystal screen.
  • a content means landscape information exclusively, it is not limited to landscape information.
  • the inventor of the present application takes a landscape of any part of the city in advance from any direction as a method of obtaining a three-dimensional image of any part of the city from any route without following these means.
  • the optimal captured image corresponding to the selected viewpoint path, line-of-sight direction, and target position is selected, and the position and optical axis direction of the camera that captured the image, and the difference between the selected viewpoint and line-of-sight are morphed. I came up with a method to compensate for this and obtain a smooth image.
  • the present inventor must prepare photographs for all city points in directions ranging from a minimum of 2 degrees to a maximum of 25 degrees with a half-vertical angle when the solid angle is expressed as a cone. I know from experience that I must not. Since the solid angle is expressed in units of steradians, the steradians are calculated as 2 ⁇ (1-cos ⁇ ) with respect to the half apex angle ⁇ degrees, and therefore, the steradians range from a minimum of 0.004 to a maximum of 0.59. In order to solve this problem, many small digital cameras were used, and an arrangement method and a control method were conceived.
  • a large number of small digital cameras are formed as a collection of digital cameras, and they are stored in the holes of an aerial surveying camera on the floor of an aerial surveying aircraft.
  • a camera for direct shooting is placed in the center of the digital camera assembly, and the surrounding area is radially inclined There are 8 to 25 digital cameras for photographing, or more if there is enough space.
  • an off-nadir angle that generally refers to an angle formed from the vertical direction.
  • a small off-nadir angle digital camera uses a short focal length telephoto lens
  • a large off-nadia angle digital camera uses a long focal length telephoto lens, and each of them is radially concentric.
  • the inventor of the present application has come up with a digital camera assembly that acquires images over a wide range without degrading the resolution from directly below a flying object such as an aircraft to a region with a considerably large off-nadir angle.
  • the inventor of the present application uses an GPS device and an inertial navigation device on an aircraft in order to efficiently operate the digital camera assembly and obtain an image for every fixed solid angle for every point over a wide city space. After introducing a guidance system consisting of the above, a precise mesh-like shooting point was constructed in the air, and then a system for shooting and recording a shooting command was automatically issued to the digital camera assembly at the shooting point.
  • the present inventor conceived of shooting from a low altitude under the cloud to cloudy weather that is generally unsuitable for aerial surveying in order to reduce the shooting cost due to the necessity for frequent and frequent shooting.
  • the inventor of the present invention uses a solid angle in the range of a minimum of 0.004 to a maximum of 0.59 as a steradian (a range of 2 to 25 degrees in cone half apex angle) to generate an image for an arbitrary target point.
  • a high-speed image search mechanism suitable for this system.
  • the ground surface as an imaging region is divided into a square mesh shape by latitude / longitude or XY coordinates.
  • One side of the square is sufficiently small, for example, set to about 50 m to 20 m.
  • Each square on the mesh is managed by attaching a two-dimensional address.
  • Each captured image includes the mesh square group included in the image range obtained by capturing the ground surface, and a vector connecting the camera position at the time of capturing and the center of the mesh square can be defined. This is normalized and defined as an original image vector.
  • the original image vector can be used as an index for expressing an image for a designated ground mesh.
  • the zenith index is defined by quantizing the angle formed between the zenith vector indicating the position directly above and the original image vector, and the quantization criterion for the angle formed is 5 degrees or less. Since each zenith index includes 360 degrees of azimuth as horizontal components, it is subdivided into cells of solid angle units, and the angle between the original image vector and the zenith vector, the original Index by the horizontal component of the image vector. A necessary original image can be searched at high speed by this three-stage indexing.
  • the original images required for 3D images are prepared for every urban location in solid angles from a minimum of 0.004 steradians to a maximum of 0.59 steradians.
  • the viewpoint passes through this neighborhood, if the deviation of the solid angle between the actual viewpoint and the line of sight and the original image vector is a minimum of 0.004 steradian or less and a maximum of 0.59 steradian or less, the original image can be smoothly connected by morphing processing. . If the solid angle of the two images to be connected is smaller than a predetermined value, the original image may be switched without performing the morphing process.
  • FIG. 1 is a diagram schematically showing an overall configuration of a browsing system in which the cityscape three-dimensional video generation method according to the present embodiment is used.
  • the browsing system in which the cityscape 3D image generation method is used has a portion 80 for generating a 3D image when the viewpoint is in the air.
  • the part 80 is “preparing an image database (hereinafter referred to as“ original image ”) for each solid angle of 0.004 or more and 0.59 or less with respect to an arbitrary place in the city as an image database in advance.
  • the browsing system includes a graphic user interface system 180, and a service is provided to the user 191 via the Internet 190.
  • a portion 80 for generating a 3D image when the viewpoint is in the air includes an image acquisition system (hereinafter referred to as an aerial image acquisition system 100) for acquiring an aerial photograph in the air by an aircraft, and the acquired aerial photograph.
  • the aerial image database generation / registration system 120 for processing and creating a database so that it can be easily used for 3D video generation, the aerial image database 140 created as a database, and the request of the user 191 required through the graphic user interface system 180
  • an aerial 3D video generation system 160 that generates a 3D video based on it.
  • FIG. 2 is a diagram showing the concept of aerial image acquisition in the cityscape 3D video generation and browsing system.
  • One of the greatest and common technical features of the present invention is that, firstly, it is not necessary to generate a three-dimensional model of a city in the generation of a three-dimensional cityscape image, and secondly, the generation It is not necessary to apply the texture of the outer wall surface pattern or the outer wall surface photograph to the three-dimensional model.
  • images are acquired from all directions in advance for any location in the cityscape, and can be selected and transformed as needed. can do.
  • this method not only needs to capture a large number of images in advance, but also needs to search for an optimal captured image at high speed. Recent advances in digital cameras, reduction in the capacity and cost of various memories, When the conditions for realization were established by improving the capability and communication capability, the new scheme according to the present invention was first realized.
  • the sky sphere sphere 222 is divided into solid angles by a cone or regular hexagonal prism with a half apex angle of 2 to 40 degrees as shown by a sufficiently small solid angle range i221 or solid angle range 1220.
  • This solid angle is calculated as 2 ⁇ (1-cos ⁇ ) with respect to the half apex angle ⁇ degrees, and the celestial sphere 222 except the vicinity of the ground surface is divided in the range of 0.04 to 0.59 steradians, and images of every place on the ground surface
  • the concept of the aerial image acquisition system 100 for preparing for each solid angle is shown.
  • FIG. 3 shows a case where the same technical method as that in FIG. 2 is applied to 90 when generating a three-dimensional image when the viewpoint is on the road, and is taken in the adjacent range i221 of the sufficiently small solid angle.
  • the images for the same point look slightly different due to parallax, but the morphing process to obtain a smooth 3D image by linearly transforming the field of view between the slightly different images by linear transformation This shows the concept of.
  • the field of view of the building shown in the relationship diagram 230 of the building and the line-of-sight direction viewed from the line-of-sight direction 1240 and the line-of-sight direction 2250 having a relatively small parallax is an image 241 viewed from the line-of-sight direction 1 and an image 251 viewed from the line-of-sight direction 2.
  • the angle formed by the line-of-sight direction 1240 and the line-of-sight direction 2250 is a solid angle having a half apex angle of 20 degrees.
  • the angle formed is smaller than a value of 1.47 steradians or less, or when the object is planar, the images can be approximated to each other by morphing processing by linear transformation. It is one of the features of the present invention that this morphing process is used for the interpolation process of an actual image of an adjacent viewpoint. Note that it is also possible to simply switch the image without performing the morphing process, which is one of the features of the present invention.
  • FIG. 4 is a diagram for explaining the concept of generation of a simulated view by simulated flight in the cityscape 3D video generation and browsing system according to the present invention.
  • the viewpoint moves sequentially along the viewpoint path P (t) 270 with the passage of time t, and during that time, the ground surface is caught in the view along the target trajectory T (t) 280.
  • the target trajectory T (t) 280 is viewed from the position on the viewpoint path P (t) 270, the line of sight 271 at time t, the line of sight 272 at time t + ⁇ t, the line of sight 273 at time t + 2 ⁇ t, and the line of sight at time t + 3 ⁇ t.
  • a trajectory on the ground surface captured for each ⁇ t by a line of sight 275 at time t + 4 ⁇ t and a line of sight 276 at time t + 5 ⁇ t.
  • the parallax is close to the sight line 276 at the time t + 5 ⁇ t from the sight line 271 at the time t.
  • a few aerial images i260 and aerial images i + 1 261 are retrieved from the aerial image database 143, and the closest gaze is between the line of sight 271 at time t, line 272 at time t + ⁇ t, and line of view 273 at time t + 2 ⁇ t.
  • the parallax due to the difference in viewpoint between the line of sight 271 at time t, the line of sight 272 at time t + ⁇ t, and the line of sight 273 at time t + 2 ⁇ t and the line of sight of the aerial image i260 The aerial image i + 1 261 is determined to have less parallax due to a difference in viewpoint than the aerial image i260 from the gaze 274 at time t + 3 ⁇ t, and the aerial image i + 1 261 is converted into the original image.
  • the three-dimensional video generation of the cityscape along the target trajectory T (t) 280 is performed. Note that the aerial image i260 and the aerial image i + 1 261 may be switched without performing the morphing process.
  • FIG. 5 shows an example of an aerial image acquisition method according to the present invention.
  • a digital camera assembly containing a large number of digital cameras as shown in FIG. 7 is mounted on the aircraft 301, and the ground surface is photographed at photographing points 310 at regular intervals along the flight path 300.
  • the flight path 300 and the shooting points 310 are densely set in a mesh pattern, and a plurality of digital cameras are mounted and multi-directional images are taken simultaneously as shown in the optical axis direction 320 of the digital camera assembly, thereby obtaining FIG.
  • An image is acquired for each sufficiently small solid angle range i221 shown.
  • FIG. 6 shows a processing flow of the aerial image acquisition system 100.
  • a flight route and an imaging point are set so that aerial images can be taken in a mesh pattern at regular distance intervals.
  • this shooting plan for example, flight routes and shooting points on the route are defined in the form of an aerial image acquisition plan file 101 whose configuration is shown in FIG.
  • the shooting process 331 it is determined that the aircraft 301 has reached the shooting point 310 defined in the aerial image acquisition plan file 101, and shooting is performed by the aerial shooting control system 393 shown in FIG.
  • the captured image in the digital camera is stored in the aerial image primary file 102 together with metadata including the shooting position and digital camera attitude data acquired in the imaging process at predetermined timings by the aerial shooting control system 393. .
  • FIG. 7 is a diagram showing a configuration example of the digital camera assembly 360 constituting the aerial image acquisition system 100 according to the present invention.
  • a plurality of oblique digital cameras 350b to 350i are arranged in such a way that the horizontal circumferential direction is radially divided at equal intervals around the digital camera 350a in the direct downward direction.
  • the digital camera assembly 360 is formed by arranging eight cameras so that the angle between the optical axis and the direction of gravity is the same. In particular, when shooting on board an aircraft, it is necessary to obtain an airworthiness certificate.
  • aerial photography the hole on the aircraft floor is changed, or the camera is placed outside the aircraft from the floor hole.
  • the digital camera assembly 360 is devised so that the digital camera assembly fits in the aircraft floor hole by using a small digital camera such as Canon PowerShot.
  • the support structure other than the digital cameras 350a to i constituting the digital camera assembly 360 is required to have high shooting direction accuracy, so any structure that is lightweight and rigid can be used. It can be composed of a plate or carbon resin.
  • FIG. 8 shows a setting example of the route and the shooting point of the aerial image acquisition system using an aircraft.
  • FIG. 8B shows a setting example of the shooting point 310.
  • the flight path 300 flies in a reciprocating manner by making a U-turn as shown by a dotted line in FIG. 8 (b) through parallel flight routes 300 at equal intervals in order to form a network of imaging points 310 in the air.
  • shooting is performed at the shooting point 310.
  • the mutual interval between the shooting points 310 is defined by the flight interval shooting interval 372 and the flight direction shooting interval 371.
  • the flight interval shooting interval 372 and the flight direction shooting interval 371 are set to about 80 m or less in order to obtain at least one image within the sufficiently small solid angle range i221 in FIG. It is preferable to do this.
  • the flight altitude is not limited to 800 m and can be set in the range of 200 m to 2500 m.
  • the flight altitude is lower than 200 m, the amount of captured images increases and the processing amount increases. Further, if the flight altitude is higher than 2500 m, it is difficult to acquire a detailed image on the ground.
  • the digital camera 350a-i's shooting range 375a-i overlaps with the range captured by each digital camera.
  • the degree varies.
  • the direction of the digital camera 350a that captures the direct direction with respect to the flight path 300 is the traveling direction of the flight path 300 in the horizontal direction of the image frame in FIG.
  • the present invention is not limited to this, and the direction of the digital camera 350a that captures the direction directly below the flight path 300 may be the vertical direction of the image frame that is the traveling direction of the flight path 300.
  • FIG. 9 is a diagram showing a configuration example of the aerial image acquisition system.
  • the aerial image acquisition system includes a flight navigation system unit 385 and a data acquisition / recording system unit 390.
  • the flight navigation system unit 385 is a device for guiding the aircraft 301 along the flight path 300 to the imaging point 310 defined in FIG. 8B.
  • the aircraft position data is periodically obtained from the GPS 380, and the air meter Avionics information 387 such as the attitude, altitude and speed of the aircraft can be obtained from the equipment 388.
  • These signal interfaces are not novel because they are standardized as aircraft bus signals.
  • the attitude information of each digital camera can be calculated from the attitude of the aircraft and the position and orientation of each digital camera relative to the aircraft.
  • the function of the flight navigation system unit 385 is in accordance with the contents of the aerial image acquisition plan file 101 of FIG. 11, and the flight navigation system unit of the aerial image acquisition system of FIG. 12 according to the processing flow of the flight navigation system unit of the aerial image acquisition system of FIG.
  • the pilot is guided by the example of the display screen.
  • the flight navigation system itself has already been publicly implemented and may not have any novelty.
  • the part that efficiently guides the aircraft to the shooting point 310 is a part related to the present invention. is there. First, it is determined which part of the city the sky image is to be acquired before the flight. Determine the shooting range on the map and formulate a flight plan. The flight plan is performed by setting the flight path 300 on the aerial map.
  • the photographing point 310 should be set in a high-density mesh shape with a height in the range of 200 m to 2500 m, preferably 500 m to 2000 m, so as to achieve the object of the present invention.
  • the flight path 300 is set to be constituted by parallel lines.
  • the route number shown in the aerial image acquisition plan file 101 in FIG. 11 is assigned to each straight line portion, and shooting points 310 are assigned so as to form a mesh as a whole for each route, and the start coordinates and end coordinates of each route, and in between Set the number of shooting points and the coordinates of each shooting point by latitude and longitude and altitude.
  • the graphic user interface related to the construction of the aerial image acquisition plan file 101 can be implemented as a map information system.
  • the function of the flight navigation system unit 385 is shown by the processing flow of the flight navigation system unit of the aerial image acquisition system shown in FIG.
  • the display shown in FIG. 12 is sequentially performed from the route numbers registered in the aerial acquisition plan file 101 to all the shootings for the route numbers scheduled for flight. Since the designated route number has a start coordinate, in order to start the route number in processing block 421, the position, altitude, traveling direction and speed of the route start point are designated and the contents of FIG. To display guidance.
  • the flight route may be restarted.
  • the guidance of the processing block 421 is performed again in the processing block 423.
  • the processing points 424 and 425 are sequentially processed one by one from the shooting point coordinates described in the aerial image acquisition plan file of the route number selected in the processing block 420 to the final shooting point.
  • Guidance by FIG. 12 shows a display screen example of the flight navigation system unit of the aerial image acquisition system.
  • the photographing guidance display 437 and the position deviation display 446 of FIG. 12 are used.
  • the deviation of the aircraft position 373 from the flight route 300 can be known, and the deviation is eliminated by maneuvering the aircraft.
  • Data on the position of the aircraft is obtained from GPS 380, and altitude, heading direction, speed, and pitch / yaw / roll attitude data is obtained as avionics information 387 from aircraft instrumentation 388, and is used for the display in FIG.
  • the route number 439 indicates the route in flight
  • the remaining shooting point number display 438 in the route indicates the number of shooting points that must be taken in the future.
  • the shooting point 310 and the shooting allowable range 440 are displayed along the flight route 300 for the shooting point 310, so that the pilot passes through the shooting allowable range 440 for each shooting point. Maneuver like so.
  • the aircraft guidance display 437 is displayed rolling from top to bottom according to the flight, so that the relationship between the flight path 300 and the aircraft position 373 that should always be taken as the latest photographing point is shown.
  • the aircraft position display 373 is always at the bottom left of the screen.
  • the azimuth display 442, posture display 443, and position deviation display 446 of FIG. 12 those that are publicly implemented in the current aircraft instrumentation can be used.
  • an aircraft 301 has an aircraft floor hole 397 for installing an aerial photographer below the fuselage. It is preferable to install the digital camera assembly 360 in this hole so as not to protrude outside the apparatus.
  • a structure that is suspended from the aircraft floor hole 397 by a stable platform device 395 described later is employed.
  • the stable platform control system 394 and the stable platform device 395 regardless of the attitude of the aircraft 301, the digital camera assembly 360 is always directed directly below the ground, and the direction is fixed in a specified direction.
  • the stable platform device 395 may be omitted if the pitch and roll of the aircraft can always be controlled within 5 °.
  • IMU is an acronym for English representation of inertial measurement device.
  • the data acquisition and recording system unit 390 stores an IMU 400 for observing the attitude of the aircraft 301, an aerial imaging control system 393 including a program for controlling the digital camera 350 and processing imaging data, and a large amount of data including image data.
  • An aerial image primary file 102 composed of a memory device such as a capacity disk device and an aerial image acquisition plan file 101 storing shooting points for issuing shooting commands to the digital camera 350 are installed in the apparatus.
  • a GPS380 antenna for measuring the position of the aircraft 301 is provided at a place where the field of view to the outside of the aircraft can be opened.
  • FIG. 13 shows the flow of information between the components of the data acquisition and recording system unit 390 in FIG.
  • FIG. 14 illustrates a processing flow of the imaging control system 393.
  • the imaging control system 393 is configured using a CPU.
  • the imaging control system 393 periodically acquires the attitude data 450 of the stable platform device 395 from the IMU 396.
  • the IMU 400 fixed to the aircraft 301 periodically sends aircraft attitude data 451, and the GPS 380 periodically sends GPS antenna position data 452 to the imaging control system 393.
  • the processing of the imaging control system 393 is described in detail in FIG.
  • the contents of the aerial image acquisition plan file 101 and the obtained GPS antenna position data 452 and aircraft attitude data 451 are sequentially processed in processing block 460 and processing block 461.
  • the route number is identified, the route number is identified, and from the end of shooting of the route number to the departure of the route, it is sequentially determined in processing block 462 whether it is passing the nearest point of the shooting point of the designated route and within the shooting allowable range 440
  • a shooting command 457 is sent simultaneously to the digital cameras 350 constituting the digital camera aggregate in processing block 463, and at the same time, the aircraft data portion 472 in the aerial image primary data file shown in FIG. 15 is processed. Write at block 464.
  • the digital camera 350 can have 32 GB of memory at the time of the present invention. Therefore, the captured aerial image data 455 can be held until at least one route number is completed. Aircraft 301 makes a U-turn flight until it finishes one route number and enters the next route number, but during this time, no image is taken, so aerial image data 455 in digital camera 350 is used as the aircraft. It is stored in the memory inside the digital camera 350 by transferring it to the aerial image primary file 102 composed of a memory device such as a large-capacity disk device installed in the processing block 465 or by replacing the memory held by the digital camera 350 itself. Delete the image information.
  • FIG. 15 shows an example of the configuration of the aerial image primary file 102.
  • An image header portion 470 and an image data portion 471 are prepared for each photographed image.
  • the camera ID in the header is a number that identifies each digital camera 350a-i constituting the digital camera assembly 360.
  • the image data ID is an identification number assigned so that the images can be distinguished from each other.
  • the shooting date / time is the shooting time corresponding to the aircraft data portion 472.
  • the digital data 350a is integrated. Used to calculate the optical axis direction of ⁇ i.
  • the image data portion 471 is not particularly processed at this stage. Further, since the camera parameter of the image header section 470 is normally fixed during flight, the same set value is written.
  • the aerial image database generation / registration system 120 will be described in detail with reference to FIGS. FIG. 16 describes the overall processing flow.
  • processing block 480 the aerial image primary file 102 accumulated during the day's flight in the aerial image acquisition system 100 is sequentially processed for all images after the flight is completed. To do.
  • a processing block 481 a header of the image header portion 490 of the aerial image database of FIG. 17 is created.
  • the header to be created the header of the image header portion 470 of the aerial image primary file 102 in FIG. 15 can be directly copied.
  • the camera parameters of the image header portion 470 of the aerial image primary file 102 are usually transferred as they are.
  • the camera position can be defined by latitude, longitude, and altitude.
  • the position measurement by the onboard aircraft GPS 380 is DGPS
  • an accurate position may not be obtained as it is because the flight altitude is low.
  • the position measurement by GPS380 is GPS, errors may be included, so coordinate correction data is obtained from a nearby DGPS station measured at the same time as the flight time after landing and corrected according to the shooting date and time. be able to.
  • a three-dimensional or two-dimensional point is written in uppercase Roman letters and has a three-dimensional or two-dimensional component. If there is a change in time, add () after it and write time information in it.
  • vectors are written in italic capital roman letters, written in capital roman letters in the text, and "(vector)" is added before the letters when identification is necessary.
  • a 3D or 2D point can also be expressed as a vector relative to the origin.
  • the position of the aircraft data portion 472 in the aerial image primary file 102 is set to X in the orthogonal coordinate system, and the position deviation from the GPS antenna 380 to the digital camera assembly 360 in the body is set to (vector) D in vector expression.
  • the normalized vector in the direction of the image 4 with the attitude transformation (matrix) A relative to the aircraft reference direction is used for each camera using (matrix) A and (vectors) G k1 to G k4 , respectively.
  • k1, AG k2 AG k3, AG k4 .
  • Terrain data on the surface is given to the grid points on the surface by latitude, longitude, and altitude, so that the nearest three adjacent points form a triangle.
  • a and b are arbitrary scalar constants.
  • R is the image distance of the shooting parameter in FIG. The image distance is the distance from the shooting position until the shooting optical axis crosses Terrain 580.
  • the center point coordinates (latitude, longitude, altitude) on Terrain of the shooting parameters of FIG. 17 are obtained as Tc .
  • it is checked by calculating an outer product whether it is inside the triangle T 1 T 2 T 3 .
  • the horizontal line passing through the optical axis of each digital camera frame is parallel to the horizontal line of the earth, but if the coordinate transformation by pitch, yaw and roll of the aircraft is (matrix) A, A rotation angle is generated from the horizontal line.
  • the horizontal line of the screen frame when the attitude of the aircraft is in the reference direction is given below.
  • the coordinate transformation by pitch, yaw, and roll of the airframe is (matrix) A
  • the horizontal line of the screen frame is given below. Therefore, the frame rotation angle is It becomes.
  • “ ⁇ ” represents the inner product
  • the portion surrounded by two vertical lines represents the norm.
  • the process for removing the influence of the air in the air is performed.
  • images from various directions in a city are expressed using original images taken from different viewpoints. For this reason, if a shadow due to direct sunlight is present in the original image, the shooting time must be different for each original image, which makes it extremely difficult to see when the moving image is synthesized. In order to avoid this, it is preferable to capture an aerial image by shooting from below the cloud on a cloudy day without direct sunlight. For this reason, in the aerial image acquisition plan file 101, it is preferable that the flight altitude is set to 700 to 800 m, which is lower than the altitude at which cumulus clouds or stratus clouds appear.
  • FIG. 18 is a diagram showing the relationship between the image and the field of view in the defocusing effect removal processing, and the lower end of the photographed image 495 is the closest portion of the photographed ground surface portion 499 in the foreground portion a496.
  • the upper end portion of the photographed image 495 is a distant view portion 498 and is located at the farthest portion of the photographing ground surface portion 499.
  • the value width 505 which is the difference between the histogram upper limit value 504 and the histogram lower limit value 503 is minimized, and the median value 506 is maximized.
  • the range for which the histogram is taken is the entire range in the horizontal direction of the screen, and the vertical direction is a strip with a constant width such as the foreground portion a496 and the foreground portion b497, and is directed upward while shifting one line at a time.
  • each pixel value is corrected with a correction coefficient of a value width and a median value obtained from the fitting curve for each row after being obtained by fitting from an actual measurement value.
  • the brightness correction of each pixel is performed for each horizontal line (Equation 9) Normalized histogram median + (pixel brightness-median fitting value) * Obtained by normalized histogram value width / value width fitting value.
  • FIG. 21 shows an example of the processing result of the defocusing effect removal processing of the present invention.
  • a post-blur removal image 531 is obtained.
  • the processing block 485 stores the results obtained in the processing blocks 481 to 484 in the corresponding image data portion of the aerial image database 143 shown in FIG.
  • an index is searched for the purpose of searching the aerial image data at high speed for moving image generation using the aerial image data registered in the processing block 485.
  • the contents of the processing block 486 are described in more detail in the aerial image index generation registration processing flow of the aerial image database registration system of FIG.
  • the contents of the processing block 540 will be described with reference to the structure and term definition of the aerial image index mechanism in FIG.
  • the far left coordinate (latitude, longitude, elevation) 557 and the latest left coordinate (latitude, longitude, elevation) 558 on Terrain are already stored, and FIG. 23 illustrates this.
  • the image photographed at the photographing position 550 captures the ground image range 549.
  • the latitude and longitude are defined in the ground surface and Terrain 580, if meshing is performed every second, a cell of 30 m in the latitude direction and 25 m in the longitude direction can be formed around 35 ° latitude in the Tokyo region. If meshed every 0.4 seconds, a cell of 12 m in the latitude direction and 10 m in the longitude direction can be configured. Considering the 65km square city area, this number of cells is only 35M cells.
  • the ground cell 559 included in the ground image range 549 can be easily obtained because the four end points of the ground image range 549 are known from the latitude and longitude.
  • a zenith vector 570 in which the celestial sphere is directed vertically upward from the center of the ground cell 559 is defined.
  • the celestial spheres are cut into concentric circles based on the zenith vector. Define Zenith Index I 572.
  • a solid angle cell center vector is defined from the surface cell 559 through the zenith index 572.
  • the solid angle cell center vector 574 is always defined on the zenith index 572 at a constant azimuth angle interval.
  • the solid angle cell 573 corresponds to the sufficiently small solid angle range I 221 in FIG. 2 and is a basic unit of image search from the ground surface cell 559.
  • the solid angle cell 573 is a cone having a half apex angle of 20 degrees with respect to the solid angle cell center vector 574, and is defined as a cone in which a vector whose solid angle is 0.4 steradian or less is contained.
  • FIG. 24 is a view of the ground cell 559 viewed from the zenith direction.
  • the solid angle cell 573 is defined adjacent to and overlapping each other with respect to the zenith index I 572 and fills the entire circumference of the zenith index i572.
  • a zenith separation angle 571 which is a numerical value defining the zenith index I 572.
  • FIG. 25 shows the index structure of the solid angle cell 573.
  • FIG. 25B is a view of the ground cell center point 575 looking down from the zenith direction.
  • a solid angle cell address (i, j) with a two-dimensional subscript is defined, i indicates a zenith index i572, and j indicates a solid angle cell in the jth direction on a concentric circle of the zenith index i.
  • the solid angle cell center vector of the solid angle cell address (0,0) 584 is the zenith vector 570, which surrounds the solid angle cell address (1,0) 585, solid angle cell address ( 1,1) 586 and solid angle cell address (1,2) 587 are defined until the entire circumference of the zenith index 1 is filled.
  • solid angle cell address (2,0) 588, solid angle cell address (2,1) 589, solid angle cell address (2,2) 590 are zenith index 2. It is defined until the entire circumference is filled.
  • the solid angle cells 573 overlap each other and fill the celestial sphere so that there is no gap.
  • the solid angle of the solid angle cell is set so that three-dimensional moving image generation is performed smoothly.
  • the number of solid angle cell addresses increases as the zenith index approaches the ground surface. In this way, for all the ground cells, an image obtained by photographing the ground cell can be searched by the direction on the celestial sphere.
  • Fig. 26 shows the structure of the aerial image index relation table and its interrelationship.
  • the structures of the zenith index and the zenith cell address are the same regardless of the ground cell, and this structure is defined by the zenith index parameter table ZNPRMT597 and the azimuth index parameter table DRPRMT598.
  • the zenith index parameter table ZNPRMT597 defines the zenith separation angle 571 with respect to the zenith index i572 sequentially from the zenith index 0, and the vertical direction component when the center vector 574 corresponding to the zenith index i572 is a normalized vector. Store as vertical component.
  • the direction index parameter table DRPRMT 598 defines the azimuth X component and the azimuth Y component of the solid angle cell center vector for the solid angle cell address corresponding to the azimuth number NDRi defined corresponding to the zenith index.
  • the vector norm is normalized so as to be 1 together with the vertical component described in the zenith index parameter table ZNPRMT597.
  • the ground cell position index table TCINXT 600 in FIG. 26 is defined for all the ground cells 559, and the zenith index table address ADDR ij 603 is designated corresponding to the ground cell.
  • the subscript of ADDR ij indicates that the longitude index LONINX 601 is i and the latitude index LATINX 602 is j corresponding to the position on the ground surface.
  • the zenith index table address ADDR ij (603) indicates the zenith index table ZNINXT 604 corresponding to the ground cell ij.
  • an azimuth index table address ADDR ijk (605) is defined corresponding to the selected zenith index k, and the azimuth index table DRINXT 606 is defined accordingly.
  • ADDR ijkm is designated as the address of the image address table 608.
  • the image address table thus selected indicates the number of image data and the image data address included in the solid angle cell of the solid angle cell address (k, m) with respect to the ground cell ij. In this way, if the correlation between the aerial image index and the association table is defined according to FIG. 26, it is possible to retrieve an image taken from an arbitrary direction in the air from the position of the ground surface.
  • processing block 540 if there is one image as shown in FIG. 23, all the ground cells included in the ground image range 549 are obtained.
  • processing block 541 processing is sequentially performed for all the ground cells obtained in processing block 540.
  • a vector for predicting the photographing position 550 is obtained from the ground cell center coordinates.
  • the number of image data in the image data table ADDR ijkm is increased by 1 in a processing block 545 and an image data address is additionally written.
  • FIG. 27 shows a configuration example of a field of view by three types of digital cameras having different focal lengths.
  • the original image when the depression angle is small becomes an image with a large off-nadir angle, so that the image is inevitably far from the aircraft.
  • FIG. 28 a digital camera 350a is used for direct point shooting, and eight digital cameras 350b to i are arranged with the same small off-nadir angle on the radiation, and the digital cameras 620j to y are arranged outside the same. Sixteen units are arranged on the radiation with the same large off-nadir angle. In recent years, digital cameras have been significantly reduced in size and performance, and can be sufficiently accommodated in the existing aircraft floor hole 398 for aerial photography cameras.
  • the digital camera 350a is oriented directly below with a 35mm film equivalent focal length of 50mm
  • the digital cameras 350b to i are oriented with a focal length of 70mm and an off-nadir angle of 35 °
  • the digital cameras 620j to y are equivalent to a focal length of 105mm.
  • FIG. 30 shows the simplest configuration example of the stable platform device 395 for mounting on an aircraft.
  • the stable platform device 395 is installed in a shape that covers the aircraft floor hole 397 and covers the upper part, and includes a fixed part 635, a vertical movement part 636, and a rotating part 637 from the bottom.
  • the rotating unit 637 has a rotating table structure, and an IMU 396 for posture detection is installed in close contact with the rotating table 637.
  • a digital camera assembly 360 is suspended under the rotating unit 637 from the aircraft floor hole 397. All downward views can be stored in all digital cameras 350a to i without projecting outside.
  • the stable platform device 395 can also shoot a digital camera aggregate 360 or 621 in the same manner using the digital cameras 350a to i and the digital cameras 620j to y.
  • the stable platform device 395 is intended to maintain a constant attitude against the aircraft attitude disturbance, but the aircraft attitude disturbance that can be dealt with is a maximum of 7 to 10 degrees in pitch angle and roll angle, and the maximum in yaw angle. It is sufficient to assume 20 °.
  • the fixing part 635 is fixed to the aircraft floor 398.
  • the vertical movement unit 636 is held via the vertical drive mechanisms A to D641 to 644.
  • the vertical drive mechanisms A to D641 to 644 move up and down independently to correct the pitch angle and roll angle disturbances.
  • the vertical drive may be a hydraulic mechanism or a conversion method of a rotary motion by a worm gear into a vertical motion.
  • FIG. 31 shows a signal information flow of the stable platform device.
  • the stable platform control system 394 periodically inputs the pitch angle, yaw angle, and roll angle from the IMU 396, calculates the deviation from the reference value, and cancels the deviation of the pitch angle and roll angle from the vertical drive mechanism A to D641 to 644. To control the vertical movement 649. In order to cancel the deviation of the yaw angle, the rotation mechanism 640 is controlled to perform the rotation motion 650.
  • FIG. 32 the viewpoint moves with time t along the viewpoint path P (t) 270, and the ground surface is moved along the target trajectory T (t) 280 from the position on the viewpoint path P (t) 270 at time t. from 1 to t 4, t i, V ( t 4) from line-of-sight vector V (t 1), taken in a V (t i).
  • the viewpoint P (t 1 ) at times t 1 , t 2 , and t 3 is used.
  • the aerial image m-1 666 that is close to the line of sight of 675, the viewpoint P (t 2 ) 676, and the viewpoint P (t 3 ) 677 and has little parallax is searched from the aerial image database 130, and the line of sight at times t 1 , t 2 , and t 3
  • the parallax difference from the image vector G m ⁇ 1 672 is corrected by the morphing process for the aerial image m ⁇ 1 666. Connected to generate a smooth moving image.
  • Switch the aerial image m 667 to the original image is determined to be less parallax due to the difference towards the aerial image m 667 is perspective than aerial image m-1 666 from time t 4 of the line-of-sight vector V (t 4) 684, 3D smooth cityscape by correcting the difference in parallax between aerial images m 667 to time viewing vector V (t 4) of t 4 684 after the next original image is selected by the morphing process for the aerial image m 667 Video generation is performed.
  • FIG. 33 shows the above processing in a processing flow.
  • a processing block 690 the moving direction, moving speed, position, and line-of-sight vector to be calculated as the next moving image frame (next frame) from the graphic user interface system 180 are shown. take in.
  • a processing block 691 the viewpoint position of the next frame, the line-of-sight vector, and the target point coordinates on the ground surface are calculated based on this value.
  • processing block 692 it is determined whether the ground index position of the next frame is the same as that of the current frame based on the center point of the current frame and the next frame. If they are not identical, it is necessary to re-determine the optimal original image and go to processing block 694.
  • processing block 693 determines whether the line-of-sight vector of the next frame is within the same solid angle cell as the current frame. This determines whether the direction of the line of sight has changed to some extent from the current frame. If it is determined that the line of sight does not fall within the same solid angle cell, it is necessary to re-determine an optimal original image in processing block 694. If it is determined that the cells are in the same solid angle cell, the original image of the current frame is continuously used.
  • the processing contents of the processing block 694 are shown in more detail in the processing flow of the original image search in the aerial moving image generation of FIG. 34 and the original image selection logic diagram of the three-dimensional moving image generation processing of FIG.
  • a ground cell address (i, j) existing at the center of the next frame is obtained, and a line-of-sight vector connecting the center point and the viewpoint of the next frame is created and normalized.
  • a solid angle cell address (k, m) is obtained from the normalized line-of-sight vector with reference to the zenith index parameter table ZNPRMT597 and the azimuth index parameter table DRPRMT598, and is combined with the ground cell address (i, j).
  • the address ADDR ijkm of the image address table is obtained. Since the original image candidate indicated by the first data of the image address table exists at the same solid-angle cell address for the same ground cell address, the visual field from the viewpoint P (t i ) from among the processing block 704 and the processing block 705 It is determined whether the original image has taken all the four corner points.
  • the four end points T i1 715, T i2 716, T i3 717, and T i4 718 on the ground surface of the field of view of the viewpoint P (t i ) are the original image shooting position S A 710 and the original image shooting.
  • Whether or not the image is taken from the position S B 711 and the original image shooting position S C 712 is determined by the processing block 705, and can be easily performed by vector cross product calculation.
  • the processing block 705 only the images from the original image shooting position S A 710 and the original image shooting position S B 711 are the four end points T i1 715, T on the ground surface of the viewpoint P (t i ). All of i2 716, T i3 717, and T i4 718 are captured in the image.
  • the shortest image with the image distance closest to the ground cell address (i, j) is selected as the original image in the processing block 706.
  • the image distance is calculated as one data of the shooting parameter of the aerial image database shown in FIG. 17, and selecting the original image with the shortest image distance is a procedure for eliminating an obstacle that blocks the view between the viewpoint and the target. is there.
  • the midpoint Z m23 street the Z mc Z m2, Z m3, in the Z m1, Z m4 A vector parallel to the vector passing through the point Z m41 is defined as Z mV .
  • a parallel vector and vector passing through the middle point Z m34 of Z m3 and Z m4 is defined as Z mH.
  • a surface that passes through Z mc and is stretched by (vector) Z mV and (vector) Z mH is called a Terrain plane (plane) Z m .
  • (Plane) N m is an image (field of view) photographed from the original image photographing position viewpoint S m 671.
  • There is a transformation to (plane) Z m- > (plane) N m which is called ⁇ A. This is a photographing action of the original image m .
  • a plane passing through T iC and perpendicular to the line-of-sight vector V i is referred to as N i .
  • the plane T mi constitutes a part of Z m in the Terrain plane Z m with a visual field based on the viewpoint P i .
  • Viewpoint P i of the field of view (plan) N i and (plane) T mi is uniquely determined once the viewpoint P i and (vector) V i and the viewing angle theta i.
  • the mapping of (plane) T mi to (plane) N m is uniquely determined if the original image shooting position viewpoint S m , (vector) G m and the angle of view ⁇ m of the original image m are determined.
  • normalized line-of-sight vectors at the four corners of the field of view P i are V i1 , V i2 , V i3 , and V i4, and the intersections T i1 , T i2 , T i3 , and T i4 of these and the Terrain plane Z m .
  • the coordinates in the Terrain plane Z m can be obtained. Further obtaining the conversion of the N m plane of the coordinate.
  • the viewpoint position is determined based on the height of the ground structure from only the viewpoint position, the line-of-sight direction, and the position information of the photographed image. In principle, it is impossible to eliminate the parallax due to the difference. This will be described with reference to FIG. That is, a view image A 2220 and a view image B 2221 in which a point P 2212 having a height h 2215 from the ground surface is seen at the ground surface point O 2213 of the ground surface 214 from the viewpoint A 2210 and the viewpoint B 2211 are considered.
  • Image O A 2218 in view video A 2220 of ground point O 2213 corresponds to the image O B 2219 in view video B 2221.
  • P 2212 points at the location of the height h 2215 from the surface 2214 as viewed from the viewpoint A 2210, it overlaps with the ground point R 2223.
  • the place on the view image B 2221 of the point P 2212 viewed from the viewpoint B 2211 is an image Q B 2225 and overlaps with the ground point Q 2222. Due to the difference in viewpoint, the position of the point P 2212 on the view image A 2220 and the view image B 2221 is different.
  • FIG. 41 shows a configuration of a visual field image information generation device according to Embodiment 2 of the present invention.
  • the image display system 2100 is a part according to the first embodiment, and the photographed image search engine 2104 performs the photographed image index mechanism 2102 according to the set input value of the viewpoint / line-of-sight input mechanism 2122 for inputting the viewpoint position and the line-of-sight direction including the keyboard or mouse.
  • the optimal image (the viewpoint and line of sight at the time of shooting are closest to the viewpoint position and line of sight) is retrieved, and the visual field image generation system 2105 generates a visual field image to be output to the display device 2121. To do.
  • One of the features of the present invention is an image switching smoothing system 2110, which solves the discontinuity on the visual field image that occurs when the real image used by the visual field image generation system 2105 is switched in the image display system 2100. . That is, discontinuity on the visual field image occurs at the point of interest position 2126 input by the attention point input mechanism 2123 of the operator 2130 including the mouse or eye tracker on the screen of the display device 2121 at the time of switching the real image screen. Do not.
  • the image comparison information database 2111 and the visual field image position correction system 2112 are configured in detail below.
  • FIG. 42 and 43 are diagrams for explaining the function of the image switching smoothing system 2110.
  • FIG. 42 the relationship when the reference point 2233 is viewed so that the building 2239 is included in the view from the line-of-sight direction 1 2231 and the line-of-sight direction 2232 is shown as the relationship 2230 between the building and the line-of-sight direction.
  • the image 2234 viewed from the line-of-sight direction 21 and a video 2235 viewed from the line-of-sight direction 22 appear different.
  • FIG. 43 is a diagram for explaining the influence of the parallax on the position on the view image screen.
  • the reference point 2233 is a point on the ground surface and 3D data is obtained from the DEM data 2103, as is well known in the 3D computer graphic technology, the position on the field-of-view image is accurately determined if the viewpoint and line of sight are determined. .
  • the position of the reference point 2233 on the screen is determined in the image 234 viewed from the line-of-sight direction 21 in FIG. 43A and the image 2235 viewed from the line-of-sight direction 22 in FIG.
  • the photographed image to be used is switched while viewing the reference point 2233 from the viewpoint, as shown in FIG. 43 (c)
  • the video 2234 and the line of sight viewed from the line-of-sight direction 21 due to parallax because there is no 3D information of the building 2239.
  • the position of the image 2235 viewed from the direction 22 is generally shifted and displayed. In this case, for example, when the operator 2130 is gazing at the end point of the building 2239 as the attention point 2236, the view display shown in FIG.
  • FIG. 43 (d) obtains the attention point of the operator 2130 by an input mechanism including a mouse cursor, a keyboard, or an eye tracker, and a visual field image is displayed at the attention point (in the case of FIG. 43 (d), the upper part of the building 2239).
  • the position of the field-of-view video to be displayed on the display screen is shifted so as to match even when the original actual image is switched. It is an object of the present invention to provide smoothness at the time of screen switching of the view image by providing such a position adjustment function on the display screen, and the photographed image used in the technique of Embodiment 1 has three-dimensional information. This is a technology that eliminates the disadvantages of not doing so.
  • FIG. 44 is a diagram for explaining a mechanism for realizing the position adjustment function on the display screen.
  • the image switching smoothing system 2110 and the connection between the image display system 2100 and the image switching smoothing system 2110 are one of the features of the present invention, and the image switching smoothing system 2110 operates in synchronization with the image display system 2100. .
  • the processing timing of each component is shown in the time chart of FIG.
  • the column at the left end in FIG. 45 corresponds to each processing block in FIG. 44, and the row of each processing indicates processing timing on the time axis 2260.
  • a curved arrow indicates that the process at the end of the arrow is started at the timing when the original process of the arrow ends.
  • the photographed image search processing unit 2262, the photographed image development processing unit 2263, and the field-of-view image generation processing unit 2264 follow the viewpoint / line-of-sight input processing unit 2127. Are activated sequentially using.
  • an image comparison information search processing unit 2251 and an image comparison information expansion processing unit 2257 are sequentially activated using the results of the previous stage based on the result of the real image search processing unit 2262 of the image display system 2100. .
  • the comparison information region selection processing unit 2254 is activated together with the result of the attention point input processing unit 128, the image matching processing unit 2255 is activated, and the deviation calculation processing unit 2256 performs the deviation calculation processing based on the result. Is called.
  • the result of the deviation calculation processing unit 2256 is combined with the result of the view image generation processing unit 2264 of the image display system 2100, and the processing of the screen output processing unit 2266 is performed.
  • the image display system 2100 and the image switching smoothing system 2110 can be simultaneously processed in parallel as shown in FIG. 45, and are compatible with a recent multi-core CPU architecture.
  • the display image 2124 displayed on the display device 2121 is updated every image update period 2261 in FIG.
  • Information captured from the viewpoint / line-of-sight input mechanism 2122 is transmitted to the photographed image search engine 2104 as the viewpoint position / line-of-sight direction 2125 by the input processing unit 2127, and the photographed image database is referred to the photographed image index mechanism 2142 as image retrieval information.
  • a live-action image is searched from 2143.
  • the functions and processing of the photographed image search engine 2104 and the visual field image generation system 2105 have been described in the first embodiment.
  • the image comparison information database 2250 corresponds to the photographed image database 2143 for each image and has the same structure. Therefore, the image comparison information database 2250 can be searched using the photographed image index mechanism 2142.
  • the image comparison information search processing unit 2251 takes out the image comparison information data.
  • the information in the image comparison information database 2250 (image comparison information) has the same structure as that of a live-action image, but since it is intended for use in image matching processing 2255 between images in which the viewpoint and the line-of-sight direction are close to each other, it can be efficiently shortened.
  • the real image in the real image database 2143 is subjected to image processing so that image matching can be performed in time, and each real image is obtained by calculation in advance.
  • FIG. 46 shows the structure of an example of such processing.
  • a processing block 2300 indicates that all images in the live-action image database 2143 are sequentially processed.
  • a real-image image to be processed is extracted from the live-action image database 2143.
  • a processing block 2302 is a process for reducing the resolution of the photographed image to 1 / n for each of the vertical and horizontal (H, V).
  • n is an integer of 1 or more. This process can reduce the calculation amount of the image matching processing unit 2255 to 1 / (n * n), but degrades the processing accuracy of the deviation calculation processing unit 2256 to 1 / n. It is necessary to determine n in consideration of processing capacity.
  • the number of pixels in a live-action image is Hmax in the horizontal direction and Vmax in the vertical direction, and the brightness of each pixel in the live-action image is expressed as P (h, v, RGB).
  • the brightness of each pixel in the 1 / n resolution image of the real image is expressed as Pn (hn, vn, RGB).
  • RGB is a distinction by color. The operation to set the resolution to 1 / n is, for example, Is required.
  • the processing block 2302 monochrome, the calculation amount of the image matching processing unit 2255 can be reduced to 1/3.
  • the monochrome processing of the processing block 2302 is not necessarily performed.
  • the monochrome operation is, for example, Is required.
  • the histogram leveling of the processing block 2304 will be described with reference to FIG.
  • the resolution is changed to 1 / n, and the processing is performed on the monochrome photographed image 2310.
  • the image filter 2311 performs the histogram leveling process described in the next paragraph while moving one pixel at a time from the origin of the upper left HV coordinate to the horizontal (H) axis 2312. When the right end is reached, the image filter 2311 is moved to the left end of the horizontal (H) axis 2312. Return and move one pixel to the vertical (V) axis 2313.
  • the histogram leveling process described below is performed.
  • the luminance distribution of an image varies depending on the location of the image.
  • Such bias is a luminance distribution of low spatial frequency components, and it is necessary for image processing to improve matching detection accuracy in advance to remove spatial frequency components lower than the size of the matching filter used in the image matching processing unit 2255. is there.
  • the luminance distribution is leveled according to the size of the image filter 2311.
  • Image filter 2311 has a size of m * m pixels.
  • the image filter 2311 moves pixel by pixel while scanning the image from the upper left corner to the lower right corner of a real image 2310 (hereinafter referred to as a real image 2310) that has been changed to 1 / n and converted into monochrome.
  • a real image 2310 (hereinafter referred to as a real image 2310) that has been changed to 1 / n and converted into monochrome.
  • Each pixel of the live-action image 2310 in the image filter 2311 has a luminance value.
  • the luminance expression is 8 bits, it has a value from 0 to 255.
  • FIG. 47B is a histogram in which the number of pixels by luminance with respect to m * m pixels in the image filter 2311 is graphed.
  • the luminance histogram axis 2315 is the number of pixels relative to the luminance on the luminance axis 2314.
  • FIG. 47B shows an example of the luminance histogram (distribution) of the pixels in the region where the
  • luminance histogram 2318 An example of the luminance distribution in the region of the image filter 2311 range with respect to an arbitrary place of the photographed image 2310 is shown by a luminance histogram 2318.
  • the luminance histogram 2318 is distributed between the luminance lower limit value 2316 and the luminance upper limit value 2317, but generally exists in a biased manner between the luminance lower limit value 2316 and the luminance upper limit value 2317 as shown in FIG. This is because there is a bias in brightness and contrast depending on the location of the screen, which hinders image collation.
  • histogram leveling processing is performed in processing block 2304.
  • the luminance histogram 2318 is extended along the luminance axis 2314 so that the luminance distribution in the region of the image filter 2311 range exists over the entire luminance lower limit value 2316 and luminance upper limit value 2317 as shown in FIG. .
  • the decompression is an example of the histogram leveling process of the processing block 2304, and any process other than the above may be used as long as it is suitable for image collation.
  • the calculation result of the image filter 2311 stores the luminance value at the center of the m * m pixel area as the result of the filter processing. Therefore, it is preferable that the number of m pixels on one side of the image filter is an odd number. Further, by adopting such a result storage method, the image filter 2311 is matched with scanning by moving the actual image 2310 pixel by pixel.
  • FIG. 48 shows an example of luminance histogram leveling
  • FIG. 48 (a) shows a monochromatic actual image
  • FIG. 48 (b) shows an example of the histogram leveling.
  • the content of the processing block 2304 has been described above, but the result is stored in the image comparison information database 2250 in the processing block 2305.
  • the viewpoint position / line-of-sight direction 2125 is the line of the viewpoint / line-of-sight input processing unit 2127 in FIG. 45, is fetched prior to the image update cycle 2261, and is sent to the real-image search engine 2104 of the real-image search engine 2104. In this manner, the most suitable photographed image for the viewpoint position / line-of-sight direction 2125 is extracted from the photographed image database 2143. Since the image comparison information database 2250 is set to have the same structure as the photographed image database 2143, the image comparison information search processing 2251 obtains the image search information as image comparison information data search information 2258 from the photographed image search processing 2104. Thus, image comparison information data corresponding to the photographed image can be obtained from the image comparison information database 2250.
  • the image comparison information retrieval process 251 needs to read out the image comparison information data corresponding to the actual image to be displayed next in addition to the actual image of the current display.
  • the viewpoint position and the line-of-sight direction can be predicted at this point in time, and using this predicted value, search information for a live-action image to be switched and displayed in the same process as the real-action image currently being displayed can also be obtained.
  • the image comparison information search processing 2251 also searches and reads out the actual image to be switched and displayed from the image comparison information database 2250.
  • the image comparison information expansion processing 2257 is executed following the image comparison information search processing 2251.
  • the image capturing point position, the image capturing direction, the viewpoint position / line-of-sight direction 2125, and the display screen of the retrieved real image are displayed.
  • the image comparison information expansion processing unit 2257 obtains the currently displayed field image displayed on the display device 2121 from the field angle and the field image corresponding to the actual image displayed after switching. This result is transmitted to the comparison information area selection processing unit s254 as current display image comparison information 2253 and next display image comparison information s252 (FIGS. 44 and 45).
  • the contents of the image comparison information development process 2257 are the image comparison information data searched by the image comparison information search processing unit 2251 from the image comparison information database 2250, corresponding to the shooting point and shooting direction of the corresponding real image.
  • the viewpoint position / gaze direction 2125 is close but different. This difference is publicly known as a three-dimensional graphic, or is converted into a view image by linear conversion according to the first embodiment.
  • the current display image and the next display image are in the vicinity where the shooting point and the shooting direction are adjacent to each other, they do not match, so there is a parallax, and it is not a plane to match both images for the entire display field screen of the display device 2121 It cannot be done in principle.
  • the attention point input mechanism 2123 and the attention point input processing 2128 are used to input the attention point position 2126 and input it to the comparison information region selection processing 2254.
  • the comparison information region selection processing unit 2254 selects a part to be processed by the image matching processing unit 2255 from the display image comparison information 2253 and the next display image comparison information 2252.
  • FIG. 49 illustrates the function of the comparison information area selection processing unit 2254.
  • FIG. 49A shows a field-of-view screen 2340 that is currently being displayed, and an attention point window 21 2330 shows an area that the operator is paying attention to based on the attention point position 2126.
  • the HV coordinate of the point of interest position 2126 is (Ht, Vt).
  • the region surrounded by the attention point window 21 2330 in the image comparison information 21 2333 in FIG. 49B corresponding to the currently displayed visual field screen 340 becomes the reference pattern 2335 in the image matching processing unit 2255.
  • the center of the field of view display screen may be automatically set (Note that FIGS. 49B and 49D are examples of image comparison information, and FIGS.
  • Pattern [i] [j] is the luminance array of the reference pattern
  • M [Ht-m / 2 + i] [Vt-m / 2 + j] is the luminance array of the image comparison information 21 2333.
  • FIG. 49C shows a visual field screen 341 for switching display.
  • the point-of-interest window 21 2330 in FIG. 49 (c) is at the same position on the display screen as FIG. 49 (a), but a different part of the building 2239 from FIG. 49 (a) is displayed due to the parallax.
  • the attention point window 21 2330 in FIG. 49 (a) is displayed as the attention point window 22 2331 in FIG. 49 (c).
  • the positional deviation between the attention point window 21330 and the attention point window 2231 in FIG. 49C is a value calculated by the image matching processing unit 2255 and the deviation calculation processing unit 2256.
  • the point-of-interest window 21330 shown in FIG. FIG. 49 (d) shows the image comparison information 22 2334 corresponding to the visual field screen 2341 of the switching display in FIG. 49 (c), and the same position in FIG. 49 (d) as the attention point window 21 2330 in FIG. 49 (b).
  • the point of interest window 21 is expanded in the vicinity of 2330, and an enlarged point of interest window 2332 is set.
  • the center point of the enlarged attention point window 2332 is the same as that of the attention point window 21 2330, and the vertical and horizontal magnification is a guideline until the maximum outer edge touches the image comparison information 22 2334, but it can be further enlarged if necessary.
  • This value is passed to the screen output processing unit 2266 as display image position correction information 2259, and is used to correct the display position of the view image at the time of switching the actual image to be used.
  • FIG. 50 shows the above processing in a processing flow.
  • FIG. 45 shows the anteroposterior relationship and dependency relationship in the timing of each process in FIG.
  • the image update period 2261 of the display screen is generally about 30 ms, and the processing of the image matching processing unit 2255 may take the longest in the processing of the image switching smoothing system 2110. If the image matching processing unit 2255 does not end within the image update cycle 2261, as shown in FIG. 51, the deviation calculation processing 256 may be sent to the screen output processing 2266 after the image update cycle 2261 has elapsed, In the case of FIG. 52, the image is sent to the screen output process 2266 after 3 times the image update cycle 2261.
  • the parallel processing method is that the maximum attention point window 2332 is divided into a plurality of regions in the vertical or horizontal direction, and then the correlation operation (product-sum operation) with the reference pattern 2335 is performed for each division, and the maximum of them is calculated. What takes a value should just be adopted.
  • the actual image to be displayed next is predicted based on the change direction and change speed of the viewpoint position / line-of-sight direction 2125 and the viewpoint position / line-of-sight direction 2125, but the prediction may be other than linear extrapolation. Since there is no method, it may not be possible to cope with a sudden change in the change direction of the viewpoint position / gaze direction 2125.
  • the processing of the image switching smoothing system 2110 can be performed in parallel on a plurality of images in descending order of possibility of display. There is a method of determining the possibility of display next in ascending order of the angle formed by the viewpoint and line-of-sight direction of the photographed image and the viewpoint position and line-of-sight direction 2125 input by the operator 2130.
  • the method according to Embodiment 1 cannot maintain the continuity of the visual field image due to the parallax at the time of switching the actual image to be used. If the attention points of the features are limited, the viewpoints of viewing the features before and after the switching of the real image are close to each other, and the viewing direction is also close. That is, even if the position-related attribute of the visual field image cannot be maintained, the attention point of the specific feature exists at a close location in the visual image, and the shape of the feature in the visual image is highly similar.
  • image matching is performed around the point of interest of a specific feature in the view image, and the display coordinates of the view image at the time of switching the live image are shifted so that the positions of the matched images overlap, and if necessary Thus, the enlargement / reduction ratio is changed.
  • the field-of-view video information generation apparatus eliminates image disturbance or discontinuity that occurs when a live-action image is switched when a three-dimensional view image is generated using a real-shot image, and generates a smooth video. Therefore, it can be industrially used as a field-of-view video information generation device using a photographed image.
  • the visual image information generating device of the present invention can be used industrially in a wide range of fields as urban space landscape simulation, video guidance, situational grasp and monitoring, advertising, commercial activities, and amusement infrastructure, and can be specified in advance. It can be used for the purpose of disaster prevention and security maintenance by taking advantage of the features that can be observed from various viewpoints and directions with respect to a specific object at the time of image display, by photographing a certain area with high density without limiting objects.
  • Image display system 2101 Live-action image database 2102
  • Image index mechanism 2103 DEM data 2104
  • Live image search engine 2105 Visual image generation system 2110 Smooth image switching system 2111 Image Comparison Information Database 2112 Vision image position correction system 2120
  • User interface system 2121 Display device 2122 Viewpoint / Gaze input mechanism 2123 Attention point input mechanism 2127 Viewpoint / Gaze input processor 2128 Viewpoint / Gaze input processor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

複数の撮影位置において複数の方向に撮影された複数の画像情報に、撮影された時の撮影位置情報と撮影方向と撮影されたサブ領域とを関連付けて記憶するデータベースと、視点経路上に配置される複数の位置と視線方向とを指定する経路視点指定装置と、経路視点指定装置により指定された視点経路上から指定された視線の方向を見る場合の映像情報を検索し動画情報を生成する動画生成エンジンであって、データベースに記憶されている、サブ領域に関連付けられている撮影方向情報を参照し、視点経路上の複数の位置それぞれにおける視線の方向に位置するサブ領域を含む画像情報とその画像情報に関連付けられている撮影位置情報とを検索する動画生成エンジンとを備える動画像情報生成システムにおいて表示する画像情報を切り替えるときに画像情報の撮影点と撮影位置の相違に起因する視差が原因で発生する映像の不連続現象を解消する装置が提供される。

Description

視界映像情報生成装置
 本発明は、視界映像情報生成装置に関する。特に、市街地を含む地上の景観について視界映像を生成する装置において、航空機等において上空から撮影した航空写真、あるいは路上において地上で撮影した写真を利用してする装置および視界映像情報を生成する装置に関し、また、地上を様々な角度から撮像した写真を利用する3次元都市視界映像を生成表示する装置に関する。特に、地上を様々な角度から撮像した写真を利用する視界映像装置において、対象物の位置基準面からの高さ方向の距離による視差による視界画像表示位置のずれを使用する写真を切り替えるときに補正し、滑らかな連続表示を実現する装置に関する。
 従来、市街を含む地上の景観の視界映像を表示する方法として、市街および地形の立体モデルを作成し、生成された立体モデルの表面にテクスチャーをテクスチャーマッピングにより貼り付けて3次元モデルを得て、得られた3次元モデルに対して3次元画像処理により視界映像を得る方法がある。この方法は、教科書的な方法で広く行われているが、立体モデルを作成する工数と立体モデルが構成するポリゴンにテクスチャーを貼り付ける工数とを多く要する。とくに実写真をテクスチャーマッピングにより貼り付ける場合には計算量が増加し、極めて多くの工数が必要でコスト高となり、即応性にもかける欠点がある。
 特許文献1には、ステレオ写真測量と同じ原理で、リアルタイムで対象物の3次元情報を得る技術が開示されている。すなわち、2つの共通な撮影対象物のパノラマ画像の対応点の情報を利用して、三角測量法により撮影対象の3次元情報を得る。表示に際して使用するパノラマ画像の組み合わせが変化するたびに三角測量法により撮影対象の3次元情報を得て、パノラマ画像の隣接する対応点を結ぶとポリゴンが形成されるが、形成されるポリゴンに対してテクスチャーマッピングを行う。さらにポリゴン情報から行列変換により3次元動画の視界生成をおこなうことは一般に行われている方法である
 特許文献2には、ひずみのない画像をリアルタイムに表示するパノラマ・ビデオ・システムに関する方法が開示されている。すなわち、実画像を撮影してパノラマ画像を動画で生成する方法が開示されている。特許文献2の方法に用いるシステムは、パノラマ環状レンズ(PAL)システム、ビデオカメラ、及びPCベースのソフトウェア・システムから構成され、PALシステムは、双曲面鏡及び楕円面鏡の2つのミラーで360度の水平視野と90度の垂直視野をビデオカメラにより撮影する。再生時にはソフトウェア・システムで撮影された画像を360度のビデオ画像をシームレスでひずみのない水平画像にリアルタイムに展開するものである。展開するためのシステムはレイ・トレーシング・プログラムによって、ひずみのある球面画像を、カルテシアン座標上の平面パノラマ画像に変換し、画像をリアルタイムで得る。グラフィック・ユーザ・インターフェース(graphic use interface、GUI)を用いて、任意の破断点(パノラマ画像の中心線)の決定、ズーム・イン或いはズーム・アウト機能、及びビルトイン較正が可能である。
 これらの方法はいずれも都市の立体構造諸元すなわち3次元モデルを生成するためには時間とコストを要し、さらに建物等の立体の外壁を実際と同一にするためには、外壁のパターン情報または、画像情報の張り付け(テクスチャー貼り付け)の必要があった。テクスチャ貼り付けのための情報としては3次元物体の全ての方向からの情報が不可欠であり、その取得とテクスチャー貼り付けに多大の労力とコストを要するものであった。このように、任意の空中経路と視線から任意の都市部分の景観を3次元映像で表示することは強く望まれていたにもかかわらず、テクスチャー貼り付けの精度を十分に現実的にできない、あるいは、情報の更新周期が長くなり、表示する映像の新鮮度、正確さに難点が生じることが多かった。
特開2006-350852号公報 特願2006-517853号公報 特許第4418857号公報
 しかしながら特許文献1、2、3に開示されている方法においては、地表に関するDEM(digital elevation model)情報以外に地上構造物の高さ情報を用いないと、視点位置、視線方向、実写画像の位置情報だけからでは地表構造物の高さに起因して生じる視点位置の相違による視差を解消することが原理的に不可能である。すなわち、都市構造物の3次元情報を計測し3次元モデルを生成し、さらのその表面に実画像によるテクスチャー貼り付け等の手数を経ずに実写真によるリアリティーの高い視界映像を短時間で得られる利点がある反面、建物等の3次元情報を持っていないため、視界映像生成に使用する実写画像を切り替える時点で視差による映像の位置ずれが発生し、滑らかな視界映像が得られないという欠点がある。本発明は、このような実情に鑑みてなされたものである。
 本発明の一実施形態として、撮影装置により、複数の撮影位置それぞれにおいて複数の方向への撮影であり、複数のサブ領域に分割される撮影領域の撮影を行い複数の画像情報を取得してメモリに記憶し、前記複数の画像情報それぞれを前記メモリ記憶する際に、前記画像情報が取得された時の撮影位置情報と撮影方向情報とを前記画像情報に関連付けて前記メモリに記憶し、前記メモリに記憶された前記画像情報に関連付けられた撮影位置情報と撮影方向情報とを参照して前記画像情報が取得されたときに撮影されたサブ領域を特定し、前記特定されたサブ領域に、前記画像情報と、前記撮影位置情報と、前記撮影方向情報とを関連付けてデータベースに記憶し、視点経路上において順番に配置される複数の位置と前記複数の位置それぞれにおける視線の前記撮影領域へ向かう方向とを指定し、前記データベースに記憶されている、前記サブ領域に関連付けられている撮影方向情報を参照し、前記視点経路上の前記複数の位置それぞれにおける前記視線の前記方向に位置する前記サブ領域を含む画像情報とその画像情報に関連付けられている撮影位置情報とを検索して前記順番にて読出し、前記順番にて読出された前記画像情報を切り替えながら、前記像情報に関連付けられている撮影位置情報とを参照して視界映像情報を生成することを含む視界映像情報生成方法において、前記視点経路上の位置より前記視線の方向の前記視界映像情報を生成するに際して、使用する前記画像情報から、前記画像情報の撮影位置とは異なる撮影位置または/および前記画像情報の撮影方向とは異なる撮影方向の別の画像情報に切り替える場合、前記画像情報と前記別の画像情報とに共通している領域の表示位置のずれが起きないように前記視界映像情報の位置ずれ補正を実施することを特徴とする視界映像生成装置が提供される。
 本発明の一実施形態として、視点位置、視線方向、実写画像の位置情報だけからでは解消できない地表構造物の高さに起因して発生する異なった視点に対する視差を、画像認識技術を用いて解消する。すなわち、視界映像の位置連属性が保てないにせよ、特定地物の注目点は視界映像内で近接した箇所に存在しており、視界映像内の地物の形状も類似性が高いことを用いる。これは、同一の地物を視線で捉えながら視点を移動させると、使用する実写画像を切り替える時点で、視差により視界映像の連続性が保てなくなるが、視界画像中の特定地物の注目点を限定すれば、実画像の切替前後の前記地物を見る視点は近接しており、また視線方向も近いからである。このことに注目して視界映像内での特定地物の注目点を中心に画像マッチングを行い、マッチングした画像の位置が重なるように実写画像切替時の視界映像の表示座標をずらし、必要に応じて拡大縮小倍率を変更するのである。
 一般に、同一の地物に対して異なる視点から撮影した実写画像を用いた視界映像は視差により完全には一致しない。このため位置あわせの画像マッチングを行うのは視界内の特定の部分を中心に行う必要があり、本発明の一実施形態として、選択により(1)画像の中央部分、(2)カーソルで指定した部分、(3)アイ・トラッカーなどの視線検出器により検出した視界映像画面上の位置を基準として、マッチングした画像が重なるように実写画像切替時の視界映像の表示座標をずらすのである。
 また、本発明の一実施形態として、前記画像マッチング処理を視界映像生成時間に影響を与えないように行うため、視界映像生成処理と並行して同期を取りながら別プロセッサで並列処理により実施する。またこの並列処理の形態として、同一CPUチップ内に複数のコアを含み、複数のスレッドを有するIntel(登録商標) i7のようなCPUを使用して並列処理をさせることが好ましい。
 また、本発明の一実施形態として、画像マッチングを高速に実行する必要があるため、各実写画像に対して画像マッチングを容易にできるように事前に加工を行い、各実写画像と共にメモリに事前に記憶しておくこともできる。このような画像マッチング用の画像は専ら計算処理に使用するものであるので、画像のサブ領域ごとの輝度分布が平準化するように処理したものが適している。
 本発明においては、3次元数値モデル生成と建造物の表面に対するテクスチャー貼り付け処理を行わずに、実画像を用いて任意の場所に対して、任意の視点経路と視点方向に対する視界映像を画像取得から短時間で生成することができる。また、視界映像の不連続性を解消してなめらかな映像を得ることができる。
本発明の都市景観3次元映像生成および閲覧システム全体構成を概略的に示す図である。 図1に示す都市景観3次元映像生成および閲覧システムにおける空中画像取得の概念を示す図である。 3次元映像におけるモーフィングの概念図である。 本発明の都市景観3次元映像生成および閲覧システムにおける実画像を用いたモーフィングによる映像生成の概念について説明する図である。 本発明の航空機による空中画像取得システムの運用例について説明する図である。 本発明の空中画像取得システムの処理フローについて説明する図である。 本発明の航空機搭載ディジタルカメラ集合体の例について説明する図である。 本発明の航空機による空中画像取得システムの航路および撮影ポイントの設定例を示す図である。 本発明の空中画像取得システムの構成例を示す図である。 本発明の空中搭載画像取得システムのフライトナビゲーションシステム部の処理フローを示す図である。 本発明の空中画像取得計画ファイルの構成例を示す図である。 本発明の空中画像取得システムのフライトナビゲーションシステム部の表示画面の例を示す図である。 本発明の空中画像取得システムのデータ取得記録システム部の情報フローを示す図である。 本発明の空中画像取得システムの撮影制御システムの処理フローを示す図である。 本発明の空中画像一次ファイルの構造を示す図である。 本発明の空中画像データベース生成登録システムの処理フローを示す図である。 本発明の空中画像データベース構成を示す図である。 本発明のモヤ影響除去処理における画像と視野の関係を示す図である。 本発明のモヤ影響除去処理における画像特性パラメータグラフ例を示す図である。 本発明のモヤ影響除去処理の処理フローを示す図である。 本発明のモヤ影響除去処理の処理結果例を示す図である。 本発明の空中画像データベース生成登録システムの空中画像インデクス生成登録処理フローを示す図である。 本発明の空中画像インデクス機構の構造と用語の定義を示す図である。 本発明の空中画像インデクス機構の構造を示す図である。 本発明の立体角セルのインデックス構造を示す図である。 本発明の空中画像インデクスと関連テーブルの相互関連を示す図である。 本発明のディジタルカメラ集合体の3種類の焦点距離の異なるディジタルカメラによる視野の構成例を示す図である。 本発明の3種類の焦点距離の異なるディジタルカメラによるディジタルカメラ集合体の構成例を示す図である。 本発明の3種類の焦点距離の異なるディジタルカメラによるディジタルカメラ集合体の撮影範囲図を示す図である。 本発明の航空機搭載用安定プラットフォームの構造例を示す図である。 本発明の安定プラットフォームの信号情報フローを示す図である。 本発明の都市景観3次元映像生成および閲覧システムにおける実画像を用いたモーフィングによる映像生成の変数を説明する図である。 本発明の都市景観3次元映像生成および閲覧システムにおける空中映像生成処理フローを示す図である。 本発明の都市景観3次元映像生成および閲覧システムにおける実画像を用いた3次元映像生成処理の原画像検索の処理フローを示す図である。 本発明の3次元映像生成処理の原画像選択論理を示した図である。 本発明の3次元映像生成処理での視点における視野と原画像の関係を示す図である。 本発明の視線ベクトルとTerrainの交点の関係を示す図である。 本発明の視点における視野と原画像の関係を示す図である。 本発明の視点P(ti)からの視野を示す図である。 視差により視界映像における位置ずれが発生するメカニズムについて説明する図である。 本発明一実施形態に係る視界映像情報生成装置の全体構成を概略的に示す図である。 図41に示す視界映像情報生成装置の画像表示系100において、同一対象物に対する視差による視界映像の相違について説明する図である。 図41に示す視界映像情報生成装置の画像切替平滑系110の同一対象物に対する視差による視界映像の位置ずれ補正について説明する図である。 図41に示す視界映像情報生成装置の画像切替平滑系110の詳細構造について説明する図である。 図44に示す視界映像情報生成装置の画像切替平滑系110の詳細構造の動作タイムチャートについて説明する図である。 図44に示す視界映像情報生成装置の画像切替平滑系110の画像比較情報データベース250の生成方法について説明する図である。 図46に示す画像比較情報データベースのヒストグラム平準化について説明する図である。 図46に示す画像比較情報データベースのヒストグラム平準化の例について説明する図である。 図41に示す視界映像情報生成装置の画像切替平滑系110の視差による位置ずれ補正方法について説明する図である。 図41に示す視界映像情報生成装置の画像切替平滑系の視差による位置ずれ補正処理の処理フローについて説明する図である。 図44に示す視界映像情報生成装置の画像切替平滑系110の詳細構造の動作タイムチャートにおいて画像マッチング処理 255の所要時間が長い場合について説明する図である。 図44に示す視界映像情報生成装置の画像切替平滑系110の詳細構造の動作タイムチャートにおいて画像マッチング処理 255の所要時間が長い場合について説明するもう1つの図である。
 以下、本発明を実施するための形態について、図面を参照しながら詳細に説明を行なう。なお、本発明は以下の説明に限定されることはなく、その要旨を逸脱しない範囲において種々に変形を加えて実施することが可能である。
 (実施形態1)
 本発明の実施形態1を、図1から図39を用いて説明する。本実施形態では、航空機等において空中で高密度のメッシュ点で多方向の画像を広範囲に撮像できるシステムを構築し、撮影された大量の画像をデータベース化し、都市の任意の位置を任意の視点で任意の方向から見た場合の最も視差の少ない画像を高速に検索するシステムを構築し、さらに指定した視点、視線、都市中の位置に対応して最も視差の少ない画像から連続的になめらかな映像を生成するモーフィングを行う。
 本願発明者は都市景観3次元映像生成および閲覧システムの実現において最大の障壁となるのは、都市の建物等建造物および構築物の3次元情報を安価かつ頻繁に取得する手段がないこと、さらにこれらの3次元物体の表面に張り付ける画像の取得と貼り付けを安価かつ頻繁に行う手段を欠いていることを認識するに至った。なお、本発明において、画像及び映像とは、液晶画面を含む電子的表示装置に動画および静止画を表示されるコンテンツを意味するものとする。また、本願においては、コンテンツは景観情報を専ら意味するが、景観情報に限定されることはない。
 このため、本願発明者はこれらの手段を踏まずに任意の経路から任意の視線で都市の任意の部分の3次元映像を得る方法として都市のあらゆる部分の景観をあらゆる方向から事前に撮影しておき、選択された視点経路、視線方向および目標位置に対応して最適な撮影済み画像を選択し、画像を撮影したカメラの位置および光軸方向と、選択された視点と視線の相違をモーフィング処理により補償し、なめらかな映像を得る方法を着想するに至った。
 しかしながら、都市のあらゆる部分の景観をあらゆる方向から事前に撮影しておくことはきわめて困難である。本願発明者は、この目的を達成するためには立体角を円錐で表現すると半頂角で最小2度から最大25度の範囲の方向ごとの写真を全ての都市地点に対して準備しなければならないことを経験上知っている。立体角はステラジアンを単位として表記するので、半頂角θ度に対してステラジアンは2π(1-cosθ)で計算されるので、ステラジアンとして最小0.004から最大0.59の範囲となる。この問題を解決するために小型のディジタルカメラを多数用い、配列方法と制御方法とに想到した。
 すなわち、第一に多数の小型ディジタルカメラをディジタルカメラ集合体として形成し、従来から航空測量用航空機の床面に存在する航空測量用カメラの穴に機外に張り出すことなく収納して耐空証明取得上の問題を回避すること、第二に多方向からの写真を効率的に撮影するために、ディジタルカメラ集合体の中心部に直下撮影用のカメラを配し、その周囲に放射状に斜め方向撮影用のディジタルカメラを8ないし25あるいは、スペース的に余裕があればそれ以上配置するのである。
 第三に、地上を各方面から撮影したとしても、画像の分解能が地上を見る俯角によって変化することは好ましくない。鉛直方向よりなす角を一般的に称するオフナディア角を用いて以下説明する。小さいオフナディア角の斜め写真用ディジタルカメラには短い焦点距離の望遠レンズを用い、大きいオフナディア角の斜め写真用ディジタルカメラには長い焦点距離の望遠レンズを用い、さらにそれらを各々放射状に同心円状に配列することにより航空機などの飛翔体の直下からかなり大きなオフナディア角の領域まで、分解能を劣化させることなく広範囲に画像を取得するディジタルカメラ集合体に本願発明者は想到した。
 第四に、本願発明者は、該ディジタルカメラ集合体を効率的に運用し広範な都市空間上空であらゆる地点に対して一定の立体角ごとの画像を得るために航空機にGPS装置と慣性航法装置よりなるガイダンスシステムを導入し空中に緻密なメッシュ状の撮影ポイントを構成したうえで、該撮影ポイントで自動的にディジタルカメラ集合体に撮影司令を発し撮影記録するシステムに想到した。
 第五に、本願発明者は、大量頻繁に撮影を行う必要性から撮影コストを削減する目的で一般に航空測量が不適当な曇天に雲の下の低高度より撮影することを着想し、曇天の空中モヤによる画像劣化をディジタル画像処理により自動的に補償する方法に想到した。
 さらに、本発明者は、ステラジアンとして最小0.004から最大0.59の範囲の立体角(円錐半頂角で2度から25度の範囲)で撮影済み画像を任意の対象地点に対して映像生成のために高速に検索する必要があることに鑑み、本システムに適した高速画像検索機構に想到した。例えば、撮影領域としての地表を緯度経度あるいはXY座標により正方形の網目状に区分する。正方形の1辺は十分小さく、たとえば50mから20m程度に設定する。この網目上の正方形の各々に2次元のアドレスを付して管理する。各撮影済みの画像には、地表を撮影した画像範囲内に含まれる該網目状正方形群が存在して、撮影時のカメラ位置と該網目状正方形の中心とを結ぶベクトルが定義できる。これを正規化して原画像ベクトルと定義するが、該原画像ベクトルは指定された地表網目に対する画像を表現するインデクスとして使用できる。
 すなわち直上を示す天頂ベクトルと該原画像ベクトルのなす角度を量子化して天頂インデックスを定義する、該なす角の量子化の基準は5度以下である。各天頂インデックスには、水平方向成分として360度分の全方位が含まれているので、これを立体角数度単位のセルに小分割し、該原画像ベクトルと天頂ベクトルのなす角、該原画像ベクトルの水平方向成分によりインデクシングする。この3段階のインデクシングにより必要な原画像を高速に検索することができる。3次元映像に必要な原画像は任意の都市位置に対して立体角で最小0.004ステラジアンから最大0.59ステラジアンごとに準備されている。この近傍を視点が通過するので、実際の視点および視線と該原画像ベクトルの立体角のずれが最小0.004ステラジアンから最大0.59ステラジアン以下であれば、原画像に対するモーフィング処理により滑らかに接続することができる。なお、接続される2つの画像の立体角が所定の値よりも小さい場合には、モーフィング処理を行わずに該原画像を切り替えるだけでもよい。
 図1は、本実施形態における都市景観3次元映像生成方法が用いられる閲覧システムの全体構成を概略的に示す図である。該都市景観3次元映像生成方法が用いられる閲覧システムは、視点が空中にある場合の3次元映像生成を行うための部分80を有する。部分80は、「該都市の任意の場所に対して0.004以上0.59以下のステラジアンの立体角ごとに見込む画像(以下、「原画像」という)を画像データベースとして事前に準備し、該都市の3次元数値モデルの生成および建造物および地表の表面に対するテクスチャ貼り付け処理を行うことなしに、指定された視点経路と指定された視線方向の時間変化に応じて該画像データベースから視点および視線が近い原画像を順次取り出し、該視点経路と該視線に対応して画像モーフィングを行いつつ滑らかにつなぎ合わせる方法で表示する」ことを実現する。さらに本実施形態における閲覧システムは、グラフィックユーザインターフェイスシステム180より構成され、ユーザ191にはインターネット190を介してサービスが提供される。
 視点が空中にある場合の3次元映像生成を行うための部分80は、航空機により空中で航空写真を取得するための画像取得システム(以下、空中画像取得システム100と呼ぶ)と、取得した航空写真を3次元映像生成に使いやすいように加工しデータベース化するための空中画像データベース生成登録システム120と、データベース化された空中画像データベース140と、グラフィックユーザインターフェイスシステム180を通して要求されるユーザ191の要求に基づき3次元映像を生成する空中3次元映像生成システム160とにより構成される。
 図2は、都市景観3次元映像生成および閲覧システムにおける空中画像取得の概念を示す図である。本発明の最大のかつ共通の技術的特徴の一つは、第1に、都市景観3次元映像生成において第一に都市の3次元モデルを生成する必要がないことであり、第二に、生成した3次元モデルに外壁面パターンないし外壁面写真をテクスチャ貼り付けする必要がないことである。人手とコストが必要なモデル生成とテクスチャ貼り付けの作業を排除する代わりに、都市景観のあらゆる位置について事前にあらゆる方向から画像を取得しておき、これを必要に応じて選択、変形して利用することができる。しかしながらこの方法は膨大な画像を事前に撮影する必要があるだけでなく、最適な撮影済み画像を高速に検索する必要があり、近年のディジタルカメラの進歩、各種メモリの大容量低コスト化と処理能力と通信能力の向上によって実現の条件が整ったところに、本発明による新方式の完成によって初めて実現が可能となったのである。
 図2では都市200の上空天球222を充分小さい立体角の範囲i221あるいは立体角の範囲1220で示すように半頂角2度から40度の円錐ないし正6角柱で天球を立体角で分割する。この立体角は半頂角θ度に対して2π(1-cosθ)で計算され、最小0.04ステラジアンから最大0.59ステラジアンの範囲で、地表近くを除く天球222を分割し、地表のあらゆる場所の画像を該立体角ごとに準備するための空中画像取得システム100の概念を示している。
 図3は図2と同一の技術的方式を、視点が路上にある場合の3次元映像生成をおこなう場合90に適用した場合を示しており、隣接する該充分小さい立体角の範囲i221で撮影された同一地点に対する画像は視差のため見え方が若干異なるが、この若干異なった画像間の視界を線形変換により画像を連続的に変形させて補間し、滑らかな3次元映像を得るためのモーフィング処理の概念を示したものである。建物および視線方向の関係図230で示される建造物を視差が比較的小さい視線方向1240と視線方向2250より見た視界は、視線方向1より見た画像241および視線方向2より見た画像251で示される。視線方向1240と視線方向2250のなす角は半頂角20度の立体角を図示したものである。そのなす角が1.47ステラジアン以下の値より小さい場合、あるいは対象物が平面的である場合には画像を線形変換によるモーフィング処理によって相互に近似することができる。このモーフィング処理を隣接する視点の実画像の補間処理に使用するのが本発明の特徴の一つである。なお、モーフィング処理を行わずに画像を切り替えるだけでもよく、これも本発明の特徴の一つである。
 図4は本発明になる都市景観3次元映像生成および閲覧システムにおける模擬飛行による模擬視界発生の概念を説明した図である。視点経路P(t) 270に沿って視点が時刻tの経過とともに順番に移動し、その間、地表を目標トラジェクトリT(t) 280に沿って視界にとらえる。該目標トラジェクトリT(t) 280は該視点経路P(t) 270上の位置から、時刻t の視線271、時刻t+δt の視線272、時刻t+2δt の視線273、時刻t+3δt の視線 274、時刻t+4δt の視線275、および時刻t+5δt の視線276によりδtごとにとらえられた地表上の軌跡である。本発明では該視点経路P(t) 270からの該目標トラジェクトリT(t) 280に対する都市景観3次元映像を生成する方法として、時刻tの視線271から時刻t+5δtの視線276に近く視差の少ない空中画像i260および空中画像i+1 261を空中画像データベース143より検索し、時刻t の視線271、時刻t+δt の視線272、および時刻t+2δt の視線273の間は最も視線が近い空中画像i260を原画像として使用して、時刻t の視線271、時刻t+δt の視線272、および時刻t+2δt の視線273と空中画像i260の視線の間の視点の相違による視差を空中画像i260に対するモーフィング処理で補正し、時刻t+3δt の視線 274からは空中画像i260よりも空中画像i+1 261の方が視点の相違による視差が少ないと判断して空中画像i+1 261を原画像に切り替え、時刻t+3δt の視線 274、時刻t+4δt の視線275、時刻t+5δt の視線276と空中画像i+1 261の視線の間の視点の相違による視差を空中画像i+1 261に対するモーフィング処理で補正することにより滑らかな該目標トラジェクトリT(t) 280に沿った都市景観の3次元映像生成を行うのである。なお、モーフィング処理を行わずに空中画像i260と空中画像i+1 261を切り替えるだけでもよい。
 本発明に係る空中画像の取得方法についての例を示したのが図5である。航空機301に図7に示すような多数のディジタルカメラを収容したディジタルカメラ集合体を搭載し、飛行経路300に沿って一定間隔ごとの撮影ポイント310で地表を撮影する。飛行経路300と撮影ポイント310を網目状に濃密に設定し、複数のディジタルカメラを搭載してディジタルカメラ集合体光軸方向320に示すように同時に多方向の画像を撮影することにより、図2に示す該充分小さい立体角の範囲i221ごとの画像を取得する。
 図6は空中画像取得システム100の処理フローを記したもので、以下、図15まで、該空中画像取得システム100の詳細な実現方法を説明する。まず、撮影ポイント設定プロセス330で、一定距離間隔で網目状に空中画像を撮影できるように、飛行航路と撮像ポイントを設定する。この撮影計画は、例えば、図11に構成が示される空中画像取得計画ファイル101の形で飛行航路と航路上の撮影ポイントが定義される。次に撮影プロセス331では、航空機301が空中画像取得計画ファイル101に規定された撮影ポイント310に到達したことを判断して図9に示す空中撮影制御システム393により撮影を行う。撮影されたディジタルカメラ内の画像は空中撮影制御システム393により予め決められたタイミングごとに撮像プロセスで取得した撮影の位置およびディジタルカメラの姿勢データを含むメタデータとともに空中画像一次ファイル102に蓄積される。
 図7は本発明になる空中画像取得システム100を構成するディジタルカメラ集合体360の構成例を示した図である。地表をあらゆる視点から効率よく高密度に撮影する目的で、直下方向のディジタルカメラ350aの周辺に水平全周方向が放射状に等間隔に分割されるように複数の斜め方向ディジタルカメラ350bから350iまでの8台を光軸が重力方向となす角が同一となるように配置してディジタルカメラ集合体360を形成したものである。とくに航空機に搭載して撮影する場合には、耐空証明を取得する必要があり、航空写真撮影用に航空機床面にあいている穴を変更したり、あるいは該床面穴から機体外にカメラが飛び出す形で利用したりすることは法令等による許認可を得ることが困難である。このため、ディジタルカメラ集合体360をCanon社製のPowerShotなどの小型ディジタルカメラを利用して該ディジタルカメラ集合体が該航空機床面穴内に収まるよう工夫したものである。ディジタルカメラ集合体 360を構成するディジタルカメラ350a~i以外の支持構造は、撮影方向精度が高いことを要求されるので、軽量かつ剛性の高いものであればどのようなものでもよく、ハニカム構造アルミニウム板あるいは炭素樹脂などで構成することができる。
 図8は、航空機による空中画像取得システムの航路および撮影ポイントの設定例を示したものである。図8(b)にて撮影ポイント310の設定例を示している。飛行経路300は空中に撮影ポイント310の網目を構成するために等間隔で平行な飛行航路300を、図8(b)において点線で結んであるようにUターンして往復しながら飛行する。この間、撮影ポイント310で撮影を行う。撮影ポイント310の相互間隔は、飛行航路間撮影間隔372と飛行方向撮影間隔371により規定される。飛行高度を約800mと設定すると、飛行航路間撮影間隔372および飛行方向撮影間隔371は、図2の充分小さい立体角の範囲 i221内に少なくとも1枚の画像を得るためには約80m以下に設定するのが好ましい。ディジタルカメラ集合体360で撮影した場合、図8(a)のディジタルカメラ350a~iの撮影範囲375a~iで示す範囲が撮影される。なお、飛行高度は、800mに限定されることはなく、200m以上2500m以下の範囲に設定が可能である。飛行高度が200mより低いと撮影画像の量が増大し、処理量が増大する。また、飛行高度が2500mより高いと地上の詳細な画像の取得が困難となる。
 飛行高度、斜め方向ディジタルカメラ350b~iの鉛直方向となす角度、およびレンズの焦点距離の設定によって、該ディジタルカメラ350a~iの撮影範囲375a~iの各ディジタルカメラが撮影する範囲と相互の重複度は変化する。本発明の目的からは、相互に若干の重複しながら地表をほぼ連続的に覆うように設定することが望ましい。なお、直下方向を撮影するディジタルカメラ350aの飛行経路300に対する向きは、図8(a)では画像フレームの横方向を飛行経路300の進行方向にしている。ただし、これに限定されることはなく、直下方向を撮影するディジタルカメラ350aの飛行経路300に対する向きは、画像フレームの縦方向を飛行経路300の進行方向にしてもよい。
 図9は空中画像取得システムの構成例を示した図である。空中画像取得システムは、フライトナビゲーションシステム部385とデータ取得記録システム部390とにより構成される。フライトナビゲーションシステム部385は図8(b)で規定される撮影ポイント310に航空機301を飛行経路300に沿って誘導するための装置であり、GPS380より航空機位置データが周期的に得られ、航空計装388より航空機の姿勢、高度、速度などのアビオニクス情報387が得られる。これらの信号インターフェイスは航空機用バス信号として標準化されているので新規性はない。航空機の姿勢と、航空機に対する各ディジタルカメラの相対的な位置、向きから、各ディジタルカメラの姿勢の情報を計算することができる。
 フライトナビゲーションシステム部385の機能は、図11の空中画像取得計画ファイル101の内容に従い、図10の空中画像取得システムのフライトナビゲーションシステム部の処理フローによって図12の空中画像取得システムのフライトナビゲーションシステム部の表示画面例によってパイロットを誘導するものである。フライトナビゲーションシステム自体は既に公然実施されていて何ら新規性はないかもしれないが、本発明の目的を実現するために撮影ポイント310に効率的に航空機を誘導する部分が本発明に関係する部分である。まず飛行前に都市のどの部分の上空画像を取得するかを決定する。地図上で撮影範囲を決定し、飛行プランを策定する。飛行プランは飛行経路300を航空地図上で設定することによって行われる。
 撮影ポイント310は本発明の目的を達成するように高密度な網目状に地表から200m以上2500m以下、好ましくは500m以上2000m以下の範囲の高さで設定するのがよい。その設定の結果に基づき飛行経路300を平行線で構成されるように設定する。各直線部分に図11の空中画像取得計画ファイル101に示される航路No.を割り振り、航路ごとに全体として網目を構成するように撮影ポイント310を割付け、各航路の開始座標と終了座標、さらにその間の撮影ポイント数と各撮影ポイント座標を緯度経度および高度で設定する。このようにして図11の空中画像取得計画ファイル101が構築される。該空中画像取得計画ファイル101の構築に関わるグラフィックユーザインターフェイスは地図情報システムとして実施することができる。
 フライトナビゲーションシステム部385の機能は図10に記載の空中画像取得システムのフライトナビゲーションシステム部の処理フローによって示される。処理ブロック420で空中取得計画ファイル101に登録されている航路No.の中から飛行予定の航路No.についてすべての撮影が終了するまで図12に示される表示を順次に行う。指定された航路No.には開始座標があるので、処理ブロック421で該航路NO.を開始するために航路開始点の位置、高度、進行方向、速度を指定して図12の内容をモニタ上に表示してガイダンスを行う。撮影を行うには、処理ブロック421で規定された条件を一定の誤差範囲、たとえば位置誤差で10mから30m以下の精度、飛行方向誤差で5°以下の精度で満足するのが好ましい。もし、満足しない場合には再度飛行航路をやり直してもよい。やり直す場合には、処理ブロック423で処理ブロック421のガイダンスを再度行う。処理ブロック422の条件を満足した場合には処理ブロック420で選択された航路No.の空中画像取得計画ファイル記載の撮影ポイント座標から最終撮影ポイントまで撮影ポイントをひとつずつ順次処理ブロック424および処理ブロック425によりガイダンスする。図12に空中画像取得システムのフライトナビゲーションシステム部の表示画面例を示す。
 航空機301を処理ブロック420で指定された航路No.の開始点に誘導するためには図12の撮影ガイダンス表示437と位置偏差表示446を用いる。航空機位置373の飛行航路300からの偏差を知ることができ、航空機を操縦して偏差の解消を行う。航空機の位置に関するデータはGPS380より得られるほか、航空機計装388よりアビオニクス情報387として高度、進行方位、速度、ピッチ・ヨー・ロールの姿勢データが得られ、図12の表示に使用される。撮影ガイダンス表示437では、航路No.表示439により飛行中の航路が示されるほか、航路内残撮影ポイント数表示438により、航路内で今後撮影しなければならない撮影ポイント数が示される。撮影ガイダンス表示437では、撮影ポイント310を飛行航路300に沿って、撮影ポイントNo.と撮影許容範囲440が表示されるので、パイロットは各撮影ポイントに対して撮影許容範囲440内を航空機が通過するように操縦する。航空機ガイダンス表示437は飛行にしたがって上から下へローリング表示することにより、常に直近の撮影ポイントととるべき飛行経路300と航空機位置373の関係が示される。航空機位置表示373は常時画面左下部となる。なお、図12の方位表示442、姿勢表示443、位置偏差表示446としては、いずれも現在の航空計装では公然実施されているものを使用することができる。
 つぎに図9を参照し、データ取得記録システム部 390につき詳述する。図9において、航空機301には機体下方に航空写真機設置用の航空機床穴397がある。この穴にディジタルカメラ集合体360を機外に張り出さないように設置するのが好ましい。図9の例では後述する安定プラットフォーム装置395により航空機床穴397に吊下する構造を採用している。これにより、安定プラットフォーム制御システム394および安定プラットフォーム装置395は航空機301の姿勢に拘らずディジタルカメラ集合体360が常に地上直下に指向され、かつ方位が規定方向に固定される。なお、航空機のピッチ・ロールを常時5°以内に操縦で保てるのであれば安定プラットフォーム装置395を省略してもよい。IMUは慣性計測装置の英語表現の頭文字である。IMU396を、安定プラットフォーム装置395に乗せることによりディジタルカメラ集合体360の姿勢を計測することができる。ディジタルカメラ集合体360の上面は航空機床398より上に出てもよい。
 データ取得記録システム部390には航空機301の姿勢を観測するIMU400と、ディジタルカメラ350の制御と撮像データ処理のためのプログラムを含む空中撮影制御システム393と、画像データを含む各種データを記憶する大容量ディスク装置などのメモリ装置で構成される空中画像一次ファイル102と、ディジタルカメラ350に対する撮影指令を出すための撮影ポイントを記憶している空中画像取得計画ファイル101を機内に搭載している。航空機301の位置計測用のGPS380のアンテナを機外への視界の開ける場所に有している。
 図13は、図9のデータ取得記録システム部 390の構成機器間の情報の流れを示している。図14は撮影制御システム393の処理フローを説明している。撮影制御システム393はCPUを用いて構成される。撮影制御システム393はIMU396より安定プラットフォーム装置395の姿勢データ450を周期的に取り込む。安定プラットフォーム395が正常に動作している場合には、航空機301の姿勢によらず慣性空間に対して常に一定の姿勢を保っている。航空機301に固定されたIMU400は航空機の姿勢データ451を、GPS380はGPSアンテナの位置データ452を周期的に撮影制御システム393に送り込む。撮影制御システム393の処理は図14に詳説しているが、空中画像取得計画ファイル101の内容と得られたGPSアンテナの位置データ452と航空機の姿勢データ451を処理ブロック460と処理ブロック461で順次照合し、航路No.を特定し、当該航路No.の撮影終了ないし、航路離脱まで、順次処理ブロック462で指定航路の撮影点の直近点を通過中かを判定し、撮影許容範囲440内で撮影ポイントに最近接したタイミングにディジタルカメラ集合体を構成する各ディジタルカメラ350に処理ブロック463で一斉に撮影指令457を送ると同時に図15に示す空中画像一次データファイル内の航空機データ部分472を処理ブロック464で書き込む。
 ディジタルカメラ350は内部に本発明の時点では、32GBのメモリを保有できる。このため、撮影した空中画像データ455を少なくともひとつの航路No.が終了するまで保持することができる。航空機301は、ひとつの航路No.を終了し、次の航路No.に入るまでの間、Uターン飛行をするが、この間は撮影を行わないので、ディジタルカメラ350内の空中画像データ455を航空機搭載の大容量ディスク装置などのメモリ装置で構成される空中画像一次ファイル102に処理ブロック465で転送するか、ディジタルカメラ350の保有するメモリ自体を交換することによりディジタルカメラ350内部のメモリに記憶されている画像情報を消去する。
 図15に空中画像一次ファイル102の構成例を記したが、画像ヘッダ部470と画像データ部471は撮影した画像ごとに用意される。ヘッダ部のカメラIDはディジタルカメラ集合体360を構成する各ディジタルカメラ350a~iを識別する番号である。画像データIDは相互に画像が識別できるように付す認識番号であり、撮影日時刻は航空機データ部分472と対応する撮影時刻であり、空中画像データベース生成登録処理120において、統合して各ディジタルカメラ350a~iの光軸方向を算定するのに用いられる。画像データ部分471は特にこの段階では加工を施さない。また、画像ヘッダ部470のカメラパラメタは通常は飛行中固定であるので、同一設定値を書き込む。
 空中画像データベース生成登録システム120について図16から図26までを用いて詳細に説明する。図16は全体の処理フローを記載しており、処理ブロック480では、空中画像取得システム100で1日の飛行中に蓄積した空中画像一次ファイル102を飛行が終了した後、すべての画像について順次処理する。処理ブロック481では図17の空中画像データベースの画像ヘッダ部490のヘッダーを作成する。このとき、作成するヘッダーは、図15の空中画像一次ファイル102の画像ヘッダ部470のヘダーをそのまま転記することができる。処理ブロック482についても通常は空中画像一次ファイル102の画像ヘッダ部470のカメラパラメタをそのまま転記すればよい。
 処理ブロック483では、画像ヘッダ部490の撮影パラメタを画像ごとに計算する処理について以下に詳述する。カメラ位置は緯度、経度、高度で規定することができる。通常航空機搭載GPS380による位置測定がDGPSである場合には、飛行高度が低いこともあってそのまま正確な位置が得られるとは限らない。GPS380による位置測定がGPSである場合には誤差をふくむ場合があるので、着陸後に飛行時刻と同時刻に測定した付近のDGPS局から座標補正データを入手して撮影日時刻にあわせて補正を行うことができる。
 撮影パラメタの計算は線形代数を使用して行う。以下、図23を参照しながら説明する。明細書中にスミ付き括弧で記載した数式は通常の数学記法に従うが、本文中では記号の記述に制約があるので下記原則に従う。3次元または2次元の点は大文字のローマ字で表記し、3次元または2次元の成分を有する。時間的変化のある場合は()を後につけ、その中に時間情報を記す。画像として記載した数式では、ベクトルをイタリックスの大文字ローマ字で記載し、本文中では大文字ローマ字で記載し、識別が必要な場合には文字の前に"(ベクトル)"と付記する。3次元または2次元の点は原点に対するベクトルでも表記できる。画像として記載した数式では、行列を太字の大文字ローマ字で記載し、本文中では大文字ローマ字で記載し、識別が必要な場合には文字の前に"(行列)"と付記する。角度についてはギリシャ文字を用い、平面、線等を示す記号については記号の前に平面、線等の記述を付記する。北方の水平方向を指す直交座標系での単位ベクトルを(ベクトル)Nとし基準軸とする。(ベクトル)Nを基準とした機体のピッチ・ヨー・ロールによる座標変換を(行列)Aとする。また、空中画像一次ファイル102における航空機データ部分472の位置を直交座標系でXとし、機体内のGPSアンテナ380からディジタルカメラ集合体360への位置偏差をベクトル表現で(ベクトル)Dとする。さらに基準軸(ベクトル)Nに対する各カメラ(添字k=a~iで示す)の光軸、および4隅の方向ベクトルを単位ベクトルで下記と表現する。下記は常数であり、カメラの焦点距離と、ディジタルカメラ集合体360のディジタルカメラ350a~iの取り付ける向きにより決まる。
     撮影画像中心光軸方位ベクトル(正規化) Gkc=(Gkcx Gkcy Gkcz)
     撮影画像右下端方位ベクトル(正規化)  Gk1=(Gk1x Gk1y Gk1z)
     撮影画像右上端方位ベクトル(正規化)  Gk2=(Gk2x Gk2y Gk2z)
     撮影画像左上端方位ベクトル(正規化)  Gk3=(Gk3x Gk3y Gk3z)
     撮影画像左下端方位ベクトル(正規化)  Gk4=(Gk4x Gk4y Gk4z)
 と定義すると、撮影位置Sは 
Figure JPOXMLDOC01-appb-M000001

となり、図17撮影パラメタの撮影位置(緯度,経度,高度)が求まる。正規化画像ベクトル(X,Y,Z)は(行列)Aと(ベクトル)GkCにより、AGkC,により求まる。
 航空機の基準方向に対する姿勢変換(行列)Aを加味した画像4端の方向の正規化ベクトルは各カメラに対して、それぞれ、(行列)Aと(ベクトル)Gk1からGk4 を用いて、AGk1,AGk2 (AGk3,AGk4となる。地表のTerrainデータは緯度、経度、標高で地表の格子点に対して与えられているから、その直近の隣接する3点ずつで3角形を構成してその頂点座標をT1,T2,T3とし,Tcを三角形T123 の平面と(ベクトル)Gkcの交わる座標とする。xは外積を表し、
Figure JPOXMLDOC01-appb-M000002

であればTcは三角形T123内部にあるといえる。すなわち交わる。撮影位置S=(x,y,z)からの画像ベクトル(正規化)Gkc がTcで三角形T123と交わるとすると
Figure JPOXMLDOC01-appb-M000003

ここでa,bは任意のスカラー定数となる。ここでRは図17の撮影パラメタの画像距離である。画像距離とは撮影位置から撮影光軸がTerrain580に交わるまでの距離をいう。ここで、
Figure JPOXMLDOC01-appb-M000004

とすると、
Figure JPOXMLDOC01-appb-M000005

となり、図17の撮影パラメタのTerrain上中心点座標(緯度,経度,標高)がTとして求まる。ただし三角形T123の内部にあるかは、外積を計算してチェックする。
 同様に(ベクトル)Gkcの代わりに(ベクトル)Gk1,Gk2,Gk3,Gk4に対して計算することにより、Terrain上最近右座標(緯度,経度,標高)、Terrain上最遠右座標(緯度,経度,標高)、Terrain上最遠左座標(緯度,経度,標高)、Terrain上最近左座標(緯度,経度,標高)がそれぞれ求まる。次に、図17に示す撮影パラメタのフレーム回転角を求める。航空機の姿勢が基準方向であると、各ディジタルカメラのフレームの光軸を通る水平線は地球の水平線と平行であるが、機体のピッチ・ヨー・ロールによる座標変換が(行列)Aであると地球の水平線から回転角が生じる。機体の姿勢が基準方向であるときの画面フレームの水平線は下記で与えられる。
Figure JPOXMLDOC01-appb-M000006

機体のピッチ・ヨー・ロールによる座標変換が(行列)Aであると、画面フレームの水平線は下記で与えられる。
Figure JPOXMLDOC01-appb-M000007

したがって、フレーム回転角は、
Figure JPOXMLDOC01-appb-M000008

となる。ここで“・”は内積を表し、縦に2本線で囲んだ部分はノルムを表す。
 次に処理ブロック484で空中のモヤの影響除去の処理を行う。本発明の一実施形態に係る空中3次元動画生成システム150では、異なる視点から撮影した原画像を使用して都市のさまざまな方向からの映像を表現する。このため原画像に直射日光による影が存在すると、撮影時刻は原画像ごとに異ならざるを得ないため動画を合成したとき極めて見づらいものとなる。これを避けるため、直射日光のない曇天に雲の下から撮影し空中画像を取得するのが好ましい。このため、空中画像取得計画ファイル101では飛行高度を積雲または層雲が出現する高度より低い700~800mに設定して撮影を行うのが好ましい。曇天での撮影は航空測量に航空機が使用できない条件下であるので、航空機の余剰時間を安価に利用できるという利点がある。一方、空中の水分が多いため視程が晴天時より短くなる欠点がある場合がある。
 水分は微小な水滴として直進光を乱反射、乱屈折させるため、空中の通過距離に応じて影響が発生する。特に斜め航空写真の場合には、オフナディア角が大きい程水分の影響が大きくなる。図18はモヤの影響除去処理における画像と視野の関係を示した図で、撮影画像495の下端は近景部分a496で撮影地表部分499のもっとも直近部分である。撮影画像495の上端部分は遠景部分498であり、撮影地表部分499の最遠部に位置する。近景部分a496から遠景部分498に向けて光が空気中を通過する距離が増える結果、微小水滴による光の散乱が増え、コントラストが減少し白濁する。この結果、図19(a)に示すように微小水滴(モヤ)のない場合の画像のピクセルの明度のヒストグラムが輝度下限値から輝度上限値507まで分布した正規化ヒストグラム500であった場合、近景部分a496では近景部分aヒストグラム501となり、上限値と下限値の幅が狭くなり中央値も白い方、すなわち輝度の高いほうに偏移する。
 この傾向は遠景部分ヒストグラム502で最も顕著となり、ヒストグラム上限値504とヒストグラム下限値503の差である値幅 505が最小となり中央値506が最大となる。図18の撮影画像495で、ヒストグラムをとる範囲を画面横方向は全範囲で縦方向は近景部分a496、近景部分b497のように一定幅の短冊状にして、1ラインずつずらしながら上方に向けてピクセルの明度のヒストグラムを計算すると、図19(b)のような特性が得られる。モヤの濃度は高度によって濃淡があるが、水平方向には濃度の差がないとしてよいので、値幅フィッティング曲線513は単調減少、中央値フィッティング曲線512は単調増加として近似してよい。これらの曲線はモヤの高度による分布が不明であるので、実測値からフィッティングで求めた上で各行ごとに、フィッティング曲線から求めた値幅と中央値の補正係数で各画素値を補正する。各画素の輝度の補正は、水平ラインごとに
 (数9)
  正規化ヒストグラム中央値+(画素輝度―中央値フィッティング値)
                *正規化ヒストグラム値幅/値幅フィッティング値
で求められる。以上説明した処理は、図20で処理ブロック520から処理ブロック524で記された処理である。図21は本発明のモヤ影響除去処理の処理結果例を示すものであり、モヤ影響除去前画像530を処理した結果、モヤ影響除去後画像531が得られている。
 次に処理ブロック485で処理ブロック481から484で求めた結果を図17に示す空中画像データベース143の該当画像データ部分に格納する。図16の空中画像データベース生成登録システムの処理フローの最後の処理ブロック486で、処理ブロック485で登録した空中画像データを用いた動画生成のために高速に該空中画像データを検索する目的でインデクスを生成する。処理ブロック486の内容は図22の空中画像データベース登録システムの空中画像インデクス生成登録処理フローでさらに詳細に述べられている。以下、図22にしたがって説明する。処理ブロック540の内容を図23の空中画像インデクス機構の構造と用語の定義を参照しながら説明する。撮影位置550で撮影された画像には、図17の空中画像データベース133の撮影パラメタとして撮影位置(緯度,経度,高度)550、正規化画像ベクトルG=(X Y Z) 551、フレーム回転角553、画像距離552,Terrain上中心点座標(緯度,経度,標高)554、Terrain上最近右座標(緯度,経度,標高)555、Terrain上最遠右座標(緯度,経度,標高)556、Terrain上最遠左座標(緯度,経度,標高)557、Terrain上最近左座標(緯度,経度,標高)558が既に格納されており、図23はそれを図示したものである。撮影位置550で撮影した画像は地表画像範囲549を捉えている。地表、Terrain580には緯度経度が定義されるので、1秒ごとにメッシュ化すると東京地方の緯度35°付近では緯度方向で30m、経度方向で25mのセルが構成できる。0.4秒ごとにメッシュ化すれば緯度方向で12m、経度方向で10mのセルが構成できる。65km四方の都市領域を考えると、このセル数は35Mセルに過ぎない。地表画像範囲549に含まれる地表セル559は地表画像範囲549の4端点が緯度経度で判明しているから容易に求めることができる。
 各地表セルに対して、図2に示す天球222のあらゆる方向に対し、十分小さい立体角の範囲i221で画像を検索できなくてはならない。この目的で図24(a)に示すように天球を地表セル559の中心から鉛直に上を向いている天頂ベクトル570を定義し、以下、該天頂ベクトルを基準に同心円状に天球を輪切りにして天頂インデクスI 572を定義する。天頂インデクスiはi=0,1,2,...と順次定義され、i=0は天頂ベクトルであり、順次iが大きくなるに従い、天頂ベクトルとなす角度が同一幅で増加し、同一同心円状に天頂から水平線まで定義される。天頂インデクス572を通過して地表セル559から立体角セル中心ベクトルが定義される。立体角セル中心ベクトル574は、必ず天頂インデクス572上に一定方位角間隔で定義される。
 図24(a)で立体角セル573とは図2の十分小さい立体角の範囲I 221に対応するもので、地表セル559からの画像検索の基本単位となる。図24(b)では立体角セル573を立体角セル中心ベクトル574に対してなす半頂角20度の円錐であり、立体角が0.4ステラジアン以下であるベクトルの収まる円錐と定義される。図24は天頂方向から地表セル559を見た図である。立体角セル573は天頂インデクスI 572に対して相互に重複しながら隣接して定義され、天頂インデクスi572の全周をうめる。天頂ベクトル570と天頂インデクスI 570を通過する立体角セル中心ベクトル574のなす角を天頂離角571といい、天頂インデクスI 572を定義する数値となる。
 図25は立体角セル573のインデクス構造を示したものである。図25(b)は天頂方向から地表セル中心点575を見下ろした図である。2次元の添字のある立体角セルアドレス(i,j)を定義して、iは天頂インデクスi572を示し、jは天頂インデクスiの同心円上のj番目の方向の立体角セルを表す。立体角セルアドレス(0,0) 584の立体角セル中心ベクトルは天頂ベクトル570であり、これを囲んで、同心円状に天球上で立体角セルアドレス(1,0) 585、立体角セルアドレス(1,1) 586、立体角セルアドレス(1,2) 587が以下、天頂インデクス1の全周を埋めるまで定義される。天頂インデクス1581の外側に天頂インデクス2に沿って、立体角セルアドレス(2,0) 588、立体角セルアドレス(2,1) 589、立体角セルアドレス(2,2) 590が天頂インデクス2の全周を埋めるまで定義される。立体角セル573は相互に重複し、天球を空隙が無いように埋め尽くされる。立体角セルの立体角は3次元動画生成が滑らかに行われるように、設定される。立体角セルアドレス数は天頂インデクスが地表に近づくにつれて多くなる。このようにしてすべての地表セルに対して、該地表セルを撮影した画像を、天球上の方向によって検索できるのである。
 図26に空中画像インデクススの関連テーブルの構造と相互関連を示す。天頂インデクスと天頂セルアドレスの構造は、地表セルに依存せず同一であり、この構造を天頂インデクスパラメタテーブルZNPRMT597と方位インデクスパラメタテーブルDRPRMT598で定義する。この構造を天頂インデクスパラメタテーブルZNPRMT597は天頂インデクス0から順次、天頂インデクスi572に対する天頂離角571を定義し、さらに天頂インデクスi572に対応する中心ベクトル574が正規化ベクトルであった場合の鉛直方向成分を縦方向成分として格納する。天頂インデクスi 572に含まれる立体角セルの数は天頂から水平線に近づくにつれ増大するので、各天頂インデクスに対応した方位数NDRiとして規定する。方向インデクスパラメタテーブルDRPRMT598は天頂インデックスに対応して定義される方位数NDRiに対応する立体角セルアドレスにつき、その立体角セル中心ベクトルの方位X成分と方位Y成分を規定する。天頂インデックスパラメタテーブルZNPRMT597記載の縦方向成分とあわせてベクトルノルムが1となるように正規する。
 次に、地表セルに対応した画像データインデクステーブルの構造について説明する。図26の地表セル位置インデックステーブルTCINXT600はすべての地表セル559に対して定義され、地表セルに対応して天頂インデックステーブルアドレスADDRij  603が指定される。ADDRijの添え字は地表上の位置に対応して経度インデックスLONINX 601がi、緯度インデックスLATINX 602がjであることを示している。天頂インデックステーブルアドレスADDRij(603)は、地表セルijに対応した天頂インデックステーブルZNINXT604を示す。天頂インデックステーブルZNINXTには選択された天頂インデクスkに対応して方位インデックステーブルアドレスADDRijk (605)が定義され、これに従い方位インデックステーブルDRINXT606が規定される。ここには天頂インデックスパラメタテーブルZNPRMT597で指定される数の方位数があるので方位インデクスがmであれば画像アドレステーブル608のアドレスとしてADDRijkmが指定される。このように選択された画像アドレステーブルとは、地表セルijに対して立体角セルアドレス(k,m)の立体角セルに含まれる画像データ数と画像データアドレスを示しているのである。このように図26に従い、空中画像インデクスと関連テーブルの相互関連を定義すると地表の位置から空中の任意の方向から撮影した画像を検索できるのである。
 以上の画像データインデクス機構の説明に基づき、図22に示す空中画像データベース登録システムの空中画像インデクス生成登録処理フローの説明を以下に行う。処理ブロック540では図23で示されるような1枚の画像があると、地表画像範囲549に含まれるすべての地表セルを求める。処理ブロック541では処理ブロック540で求めた地表セルすべてについて処理を順次行う。処理ブロック542では地表セル中心座標から撮影位置550を見込むベクトルを求める。処理ブロック543と処理ブロック544ではでは天頂インデックスパラメタテーブルZNPRMT597と方位インデックスパラメタテーブルDRPRMT598の定義から内積演算により該地表セル中心座標から撮影位置550を見込むベクトルをふくむ立体角セルアドレス(k,m)を求める。この情報に基づき処理ブロック545で画像データテーブルADDRijkmの画像データ数を1つ増加して画像データアドレスを追記する。
 図27に3種類の焦点距離の異なるディジタルカメラによる視野の構成例を示す。本発明の都市景観の3次元動画生成では、俯角が少ない場合の原画像はオフナディア角の大きな画像となるため必然的に航空機より遠方の画像となる。このことは、俯角が少ない場合の動画像を、分解能を低下させずに生成させるためにはオフナディア角の大きな場合の画像撮影時に分解能を悪化させない配慮が必要である。このため、図27に示すようにオフナディア角が大きくなるに従い望遠レンズの焦点距離を大きくし、分解能を維持すると同時に、3種類のオフナディア角のディジタルカメラを採用してオフナディア角が大きくなるほど焦点距離を大きくして地表分解能が均一になるように工夫した例である。図28に直下点撮影用にディジタルカメラ350aを用い、ディジタルカメラ350b~iまでの8台を放射上に同一の小さいオフナディア角を持たせて配置し、その外側にディジタルカメラ620j~yまでの16台を放射上に同一の大きいオフナディア角を持たせて配置する。近年のディジタルカメラの小型高性能化は著しく、既存の航空写真カメラ用航空機床穴398に充分収納することができる。図29に3種類の焦点距離の異なるディジタルカメラによるディジタルカメラ集合体の撮影範囲例を図示する。代表的実施例としてはディジタルカメラ350aを35mmフィルム換算焦点距離50mm相当で直下指向、ディジタルカメラ350b~iを焦点距離70mm相当でオフナディア角35°指向、ディジタルカメラ620j~yを焦点距離105mm相当でオフナディア角60°指向という組み合わせがある。
 図30に航空機搭載用安定プラットフォーム装置395のもっとも単純な構成例を示す。安定プラットフォーム装置395は航空機床穴397をまたぎ、上部にふさぐ形で設置され、下から固定部635、上下動部636、回転部637より構成される。回転部637は回転テーブル構造をなしており、その上に密着して姿勢検出用のIMU396が設置され、回転部637の下部にはディジタルカメラ集合体360が吊下されて航空機床穴397より機外に張り出すことなくすべての下方視界をすべてのディジタルカメラ350a~iに収めることができる。該安定プラットフォーム装置395はディジタルカメラ集合体360または621を吊下してディジタルカメラ350a~iおよびディジタルカメラ620j~yを用いて同様に撮影することもできる。なお、回転部637とディジタルカメラ集合体360または621の接合方法は剛性を持たせて固定することが必要である。安定プラットフォーム装置395は航空機姿勢の擾乱に対して一定の姿勢を保持することを目的としているが、対処可能な航空機の姿勢擾乱はピッチ角およびロール角で最大7から10°、ヨー角については最大20°を想定しておけばよい。固定部635は航空機床398に固着される。上下駆動機構A~D641~644を介して上下動部636を保持する。上下駆動機構A~D641~644は各々独立に上下に動きピッチ角とロール角の擾乱を補正する。上下駆動は油圧機構でも、ウォーム歯車による回転運動の上下運動への変換方式を採用してもよい。上下動部645にはさらにベアリング機構645に保持される形で回転部637が搭載される。回転駆動機構640は上下動部636に固定され、かつ回転部637が外延部に接する形で設置される。回転部637と回転駆動機構640との間は回転運動を伝達すればよく、回転部637を回転させて航空機のヨー角に対する擾乱を打ち消す。図31に安定プラットフォーム装置の信号情報フローを示す。安定プラットフォーム制御システム394はIMU396よりピッチ角、ヨー角、ロール角を周期的に入力し、基準値からの偏差を求めてピッチ角、ロール角の偏差を打ち消すために上下駆動機構A~D641~644を制御して上下運動649を行わせる。ヨー角の偏差を打ち消すためには回転機構640を制御して回転運動650を行わせる。
 次に、都市景観3次元動画アミューズメントシステムにおける空中動画生成処理につき図32から図39を用いて説明する。モーフィングによる空中動画像生成の概念と変数の説明を図32で説明し、全体の処理のフローを図33の都市景観3次元動画アミューズメントシステムにおける空中動画生成処理フローに基づき説明する。図32において、視点経路P(t) 270に沿って視点が時刻tとともに移動し、その間、地表を目標トラジェクトリT(t) 280に沿って該視点経路P(t)270上の位置から時刻t1からt、tまで、視線ベクトルV(t)からV(t)、V(t)でとらえる。本発明では該視点経路P(t) 270からの該目標トラジェクトリT(t)280に対する都市景観の3次元動画を生成する方法として、時刻t、t、tでは視点P(t)675、視点P(t)676、視点P(t)677の視線に近く視差の少ない空中画像m-1666を空中画像データベース130より検索し、時刻t、t、t の視線ベクトルV(t)681、V(t)682、V(t)683の間は、画像ベクトルGm-1672との視差の相違を空中画像m-1666に対するモーフィング処理で補正して接続し、滑らかな動画像を生成する。時刻t の視線ベクトルV(t)684からは空中画像m-1666よりも空中画像667の方が視点の相違による視差が少ないと判断して空中画像667を原画像に切り替え、時刻tの視線ベクトルV(t)684以降次の原画像が選ばれるまで空中画像667との視差の相違を空中画像667に対するモーフィング処理で補正することにより滑らかな都市景観の3次元動画生成を行うのである。
 以上の処理を処理フローで示したのが図33で、処理ブロック690では、グラフィックユーザインターフェイスシステム180より次の動画フレーム(次コマ)として計算すべき移動方向、移動速度、位置、視線方向ベクトルを取り込む。処理ブロック691では、この値に基づき次コマの視点位置、視線ベクトル、地表上の目標点座標を計算する。処理ブロック692では、次コマの地表インデクス位置が現コマと同一か現コマ、次コマの中心点で判断する。同一でない場合は、最適な原画像を求めなおす必要があり、処理ブロック694へ行く。同一な場合は、処理ブロック693で次コマの視線ベクトルが現コマと同じ立体角セル内か判定する。これは視線の向きが現コマとある程度変化したかを判定するもので、同一立体角セル内でないと判断された場合には処理ブロック694で最適な原画像を求めなおす必要がある。同一立体角セル内であると判断された場合には現コマの原画像を引き続き使用する。
 処理ブロック694の処理内容は、より詳しく図34の空中動画像生成における原画像検索の処理フローと図35の3次元動画生成処理の原画像選択論理図に示される。処理ブロック700では、次コマの中心に存在する地表セルアドレス(i,j)を求めその中心点と次コマの視点を結ぶ視線ベクトルをつくりこれを正規化する。処理ブロック701から703では、この正規化視線ベクトルから天頂インデクスパラメタテーブルZNPRMT597および方位インデクスパラメタテーブルDRPRMT598を参照して立体角セルアドレス(k,m)を求め、地表セルアドレス(i,j)と併せて画像アドレステーブルのアドレスADDRijkmが求まる。同一地表セルアドレスに対する同一立体角セルアドレスには画像アドレステーブルのはじめのデータで示される原画像候補が存在するので、処理ブロック704と処理ブロック705でその中から視点P(t)からの視野の4隅の点を原画像がすべて撮影しているかを判定する。図35で(a)で視点P(t)の視野の地表上の4端点Ti1715、Ti2716、Ti3717、Ti4718のすべてが原画像撮影位置S710、原画像撮影位置S711、原画像撮影位置S712からの画像に撮影されているかを判定するのが処理ブロック705の判定であり、ベクトル外積演算で容易にできる。図35(b)の例で言えば、原画像撮影位置S710、原画像撮影位置S711からの画像のみが視点P(t)の視野の地表上の4端点Ti1715、Ti2716、Ti3717、Ti4718のすべてを画像に捕らえている。処理ブロック705の条件を満足する原画像をすべて求めた後、処理ブロック706で地表セルアドレス(i,j)に最も近い画像距離の最短の画像を原画像として選択する。画像距離は図17に示される空中画像データベースの撮影パラメタの1データとして計算されており、画像距離が最短の原画像を選択するとは視点と目標の間の視界をさえぎる障害物を排除する処置である。
 次に図33に戻り、処理ブロック697のモーフィング処理の内容について図36を参照しつつ以下の文章と式で説明する。なお、処理ブロック697を省略することによりモーフィングを行わずに原画像のみを切り替え表示することもできる。原画像に対して原画像撮影位置S671と画像ベクトルGm673(ノルム=1)とTerrain(地表面)が決まると、画像ベクトルGm 673とDEMの交点Zmcと画像の四隅とTerrainの交点Zm1、Zm2、Zm3、Zm4が決まる。図37に示すように、一般にZm1、Zm2、Zm3、Zm4は同一平面上にないので、Zmcを通りZm2、Zm3の中点Zm23と、Zm1、Zm4の中点Zm41を通るベクトルと平行なベクトルをZmVと定義し、
Figure JPOXMLDOC01-appb-M000009

mcを通りZm1とZm2の中点Zm12と、Zm3とZm4の中点Zm34を通るベクトルと平行なベクトルをZmHと定義する。
Figure JPOXMLDOC01-appb-M000010

mcを通り(ベクトル)ZmVと(ベクトル)ZmHで張られる面をTerrain平面といい(平面)Zであらわす。(平面)Zの垂線を(ベクトル)nm(ノルム=1)とする。Zmcを通り、画像ベクトルGに垂直な平面を(平面)Nという。(平面)Nは原画像撮影位置視点S671より撮影した画像(視野)である。(平面)Z-->(平面)Nへの変換が存在して、これをΦという。これは原画像の撮影行為である。視点Pに対して、視点座標Pと視線ベクトルV(ノルム=1)とTerrain平面Z(共通)が決まると同様にTiCとTi1、Ti2、Ti3、Ti4が決まる。TiCを通り視線ベクトルVに垂直な平面をNという。平面TmiとはTerrain面Zの中で、視点Pによる視野でZの一部を構成する。視点Pの視野(平面)Nと(平面)Tmiは視点Pと(ベクトル)Vと視野角θが決まれば一意に決まる。(平面)Tmiの(平面)Nへの写像は原画像撮影位置視点Sと(ベクトル)Gmと原画像mの画角θが決まれば一意に決まる。(平面)N―>(平面)Tmi―>(平面)Nの対応により(平面)Nのθに対応する各画素が、(平面)Nのθに対応する画素に対応付けられればモーフィングアルゴリズムは完成する。
 一般にTerrain平面Z上の任意の点Xは、
Figure JPOXMLDOC01-appb-M000011

であらわされる。ここで垂線条件である、
Figure JPOXMLDOC01-appb-M000012

を代入すると、
Figure JPOXMLDOC01-appb-M000013

が得られる。ここで・はベクトル内積をあらわす。視界の中心線ViCとTerrain平面Zmの交点TiCは、TiC
Figure JPOXMLDOC01-appb-M000014

を満足することからこれに代入して、
Figure JPOXMLDOC01-appb-M000015

より
Figure JPOXMLDOC01-appb-M000016

となり、
Figure JPOXMLDOC01-appb-M000017

より、視点Piの画像中心点のTerrain平面Zmでの座標が求められる。同様に、視点Piの視界の4隅の正規化視線ベクトルをVi1、Vi2、Vi3、Vi4とし、これらとTerrain平面Zmの交点Ti1、Ti2、Ti3、Ti4のTerrain平面Zmでの座標を求めることができる。さらにこの座標のN面上への変換を求める。Terrain平面Zm上の任意の点Xは、
Figure JPOXMLDOC01-appb-M000018

であらわされ、垂線条件である、
Figure JPOXMLDOC01-appb-M000019

より、4隅の正規化視線ベクトルをVi1、Vi2、Vi3、Vi4に対して、
Figure JPOXMLDOC01-appb-M000020

ただしk=1,4を満足する
Figure JPOXMLDOC01-appb-M000021

より
Figure JPOXMLDOC01-appb-M000022

となり、
Figure JPOXMLDOC01-appb-M000023

で、視点Piの画像の4隅の点のTerrain平面Zmでの座標が求められる。この平面Zm上での座標を平面N上での座標に対応付けることにより原画像である平面Zm上のどの点を視点Piの画面に映せばよいか分かる。(平面)Zm上での視点Piの画面の中心および四隅の点の座標TiC、Ti1、Ti2、Ti3、Ti4(まとめてTik、k=1,2,3,4,cとする)が(平面)N上でQiC、Qi1、Qi2、Qi3、Qi4(まとめてQik、k=1,2,3,4,cとする)に対応する。(平面)N面上での画面の水平ラインを(ベクトル)NH、垂直ラインを(ベクトル)NVとするとN面上の任意の点Yは任意定数a,bに対して
Figure JPOXMLDOC01-appb-M000024

で表される。画像ベクトルGmは(ベクトル)NH、(ベクトル)NVに垂直だから
Figure JPOXMLDOC01-appb-M000025

となり、また、QikとTikは画像撮影位置Smより見て同一線上にあるから
Figure JPOXMLDOC01-appb-M000026

であるので、
Figure JPOXMLDOC01-appb-M000027

となり、Gmとの内積をとって
Figure JPOXMLDOC01-appb-M000028

となるから
Figure JPOXMLDOC01-appb-M000029

となる。
Figure JPOXMLDOC01-appb-M000030

で既にTikは求まっているから、これで、視点Piの視界の原画面mの画面との対応が完成した。
 次に、(ベクトル)Gmをz軸に移す変換を求める。ここで、
Figure JPOXMLDOC01-appb-M000031

として、z軸周りに回転させてyz平面に載せてからy軸周りに回転させてz軸と一致させる。z軸周りの回転は、
Figure JPOXMLDOC01-appb-M000032

で与えられる。次に、y軸周りの回転は、
Figure JPOXMLDOC01-appb-M000033

で与えられる。両方の回転を合成すると、
Figure JPOXMLDOC01-appb-M000034

となる。平面Nの交点Qik(k=1,2,3,4,C)に対してGをz軸に移す変換を施せば、Qik(k=1,2,3,4,C)はxy面上の点に変換される。これは、原画像mの画面上の位置に対応する。すなわちモーフィングである。
 (実施形態2)
 実施形態1において、地上構造物の高さ情報を用いずに視界映像生成を行なうと、視点位置、視線方向、実写画像の位置情報だけからでは地表構造物の高さに起因して視点位置の相違による視差を解消することが原理的に不可能である。図40を用いてこのことを説明する。すなわち、視点A 2210および視点B 2211より地表214の地表点O 2213において、地表より高さh 2215の点P 2212を見た視界映像A 2220と視界映像B 2221を考える。
 地表点O 2213の視界映像A 2220における像O 2218は視界映像B 2221における像O 2219に対応する。一方、地表 2214より高さh 2215の場所にある点P 2212は視点A 2210から見た視界映像A 2220上では像P 2216となり、地表点R 2223と重なる。視点B 2211より見た点P 2212の視界映像B 2221上の場所は像Q 2225であって、地表点Q 2222と重なる。視点の相違により、点P 2212の視界映像A 2220と視界映像B 2221上の位置が異なることになる。このことは、地表より高さのある地物は、使用する実写画像の視点(撮影点)が異なると視界映像上の位置が視差により跳躍することを意味し、図4で示す視界映像が実写原画像(空中画像 i 260、空中画像 i+1  261)の切替ごとに不連続に移動することを意味する。かかる視界映像上の不連続性は、実施形態1の方法に起因した現象であり、本実施形態では実施形態1の方法を使用しつつ、前記現象を解決するものである。
 図41は本発明の実施形態2に係る視界映像情報生成装置の構成を示す。画像表示系2100は実施形態1による部分であって、キーボード又はマウスを含む視点位置と視線方向を入力する視点・視線入力機構2122の設定入力値に従い、実写画像検索エンジン2104が実写画像インデクス機構2102を参照して実写画像データベース2101より最適な、(撮影時の視点と視線が視点位置・視線方向に最も近い)画像を検索し、視界映像生成システム2105が表示装置2121へ出力する視界映像を生成する。本発明の特徴部分の一つは画像切替平滑系2110であって、画像表示系2100において視界映像生成システム2105が使用する実写画像を切り替えるときに発生する前記視界映像上の不連続性を解決する。すなわち、表示装置2121画面上で、マウス又はアイ・トラッカーを含むオペレータ2130の注目点入力機構2123で入力される注目点位置2126の点で、前記実写画面切替時に視界映像上の不連続性が生じないようにする。画像比較情報データベース2111と視界映像位置補正システム2112より構成されるが、その詳細構成と機能は次に詳述する。
 図42および図43は画像切替平滑系2110の機能を説明する図である。図42において視線方向1 2231および視線方向2 2232より建物2239を視界に含めるように基準点2233を見込んだ場合の関係を建物および視線方向の関係2230として示す。この場合、同一の建物2239は視点と視線方向が異なるため、視線方向21より見た映像2234および視線方向22より見た映像2235のように異なって見える。図43は視差による視界映像画面上の位置への影響を説明する図である。基準点2233は地表上の点であり、DEMデータ2103により3次元データが求められているので、3次元コンピュータグラフィック技術で周知のとおり、視点と視線が決まれば視界映像上の位置が正確に定まる。図43(a)の視線方向21より見た映像234および、図43(b)の視線方向22より見た映像2235において基準点2233の画面上の位置は定まる。基準点2233を視点から視線で捉えながら使用する実写画像を切り替えると、図43(c)に示すように、建物2239の3次元情報がないため視差により、視線方向21より見た映像2234と視線方向22より見た映像2235の位置が一般にずれて表示される。この場合、たとえば建物2239の端点を注目点2236としてオペレータ2130が注視していると図43(c)に示す視界表示は画面の平滑さを欠き好ましくない。
 図43(d)はオペレータ2130の注目点をマウスカーソル、キーボード、またはアイ・トラッカーを含む入力機構により求め、かかる注目点(図43(d)の場合は建物2239の上部カド)で視界映像が元となる実写画像の切替時にも一致するように、表示する視界映像の表示画面上の位置をずらしたものである。かかる表示画面上の位置調整機能を持たせることにより視界映像の画面切替時の平滑さを実現することが本発明の目的であり、実施形態1の技術において使用する実写画像が3次元情報を保有しないことによる欠点を解消する技術である。
 図44はかかる表示画面上の位置調整機能を実現する機構を説明する図である。画像切替平滑系2110および、画像表示系2100と画像切替平滑系2110の間の接続が本発明の特徴の部分の一つであり、画像切替平滑系2110は画像表示系2100と同期しながら動作する。各構成部分の処理タイミングは図45のタイムチャートで示される。図45の左端の縦列は図44の各処理ブロックに対応し、各処理の横行は時間軸2260上での相互に処理タイミングを示す。曲線矢印は矢印の元の処理が終了するタイミングで矢印の先の処理が起動されることを示す。
 図45の意味するところは、画像表示系2100においては、視点・視線入力処理部2127に引き続き、実写画像検索処理部2262、実写画像展開処理部2263、視界映像生成処理部2264が前段の処理結果を用いて順次起動される。画像切替平滑系2110では、画像表示系2100の実写画像検索処理部2262の結果により画像比較情報検索処理部2251、引き続いて画像比較情報展開処理部2257が前段の処理結果を用いて順次起動される。一方、注目点入力処理部128の結果と併せて比較情報領域選択処理部2254が起動され、画像マッチング処理部2255が起動され、その結果に基づきズレ計出処理部2256によりずれ計出処理が行われる。ズレ計出処理部2256の結果が画像表示系2100の視界映像生成処理部2264の結果と合わされ、画面出力処理部2266の処理が行われる。本発明の一実施形態においては、画像表示系2100と画像切替平滑系2110が図45に示すように並列に同時処理可能であり、近年のマルチコアCPUのアーキテクチャに適合するものである。
 表示装置2121に表示される表示画像2124は図45の画像更新周期2261毎に更新される。視点・視線入力機構2122から取り込まれた情報は入力処理部2127により視点位置・視線方向2125として実写画像検索エンジン2104に伝達され、画像検索情報である実写画像インデクス機構2142を参照して実写画像データベース2143より実写画像を検索する。実写画像検索エンジン2104および視界映像生成システム2105の機能および処理は実施形態1において説明した。画像切替平滑系2110において画像比較情報データベース2250は実写画像データベース2143と画像ごとに対応しており同一の構造を持っているため実写画像インデクス機構2142を用いて検索でき、画像比較情報データベース2250内の画像比較情報データを画像比較情報検索処理部2251が取り出す。
 画像比較情報データベース2250内の情報(画像比較情報)は実写画像と同一構造であるが、視点と視線方向が近接する画像間の画像マッチング処理2255に使用することが目的であるため、効率よく短時間に画像マッチングができるように実写画像データベース2143内の実写画像を画像処理して実写画像ごとに事前に計算によって求める。図46はかかる処理の例について構造を示したものである。処理ブロック2300は実写画像データベース2143の全画像について順次処理することを示し、処理ブロック2301で実写画像データベース2143より処理対象の実写画像を取り出す。
処理ブロック2302は実写画像の分解能を縦横(H,V)各々について1/nに減ずる処理である。ただし、nは1以上の整数である。この処理は画像マッチング処理部2255の計算量を1/(n*n)に減らすことができる反面、ズレ計出処理部2256の処理の精度を1/nに劣化させるものであるから、プロセッサの処理能力を勘案してnを決める必要がある。実写画像の画素数は横方向にHmax、縦方向にVmaxであるとし、実写画像の各画素の輝度を P(h,v,RGB) で表現する。ここで、hはH(横)方向座標でh=0,Hmax-1の範囲の整数値をとり、vはV(縦)方向座標でv=0,Vmax-1の範囲の整数値をとる。RGBは色による区別で、RGB=0,1,2の整数値をとり、R,G,B3色に対応する。実写画像の1/n分解能の画像の各画素の輝度を Pn(hn,vn,RGB) で表現する。ここで、hnはH(横)方向座標でhn=0,Hmax/n-1の範囲の整数値をとり、vはV(縦)方向座標でvn=0,Vmax/n-1の範囲の整数値をとる。RGBは色による区別である。分解能を1/nにする操作は、たとえば
Figure JPOXMLDOC01-appb-M000035

で求められる。
 処理ブロック2302のモノクロム化により画像マッチング処理部2255の計算量を1/3に減らすことができる。ただし、処理ブロック2302のモノクロム化の処理は必ずしも行う必要はない。モノクロ化した画像の各画素の輝度を Pmn(hn,vn) で表現すると、モノクロ化の操作は、たとえば
Figure JPOXMLDOC01-appb-M000036

で求められる。
 処理ブロック2304のヒストグラム平準化を、図47を用いて説明する。画像マッチング処理部2255に適した画像フィルタ処理において分解能を1/nに変更し、モノクロ化した実写画像2310に対して実施する。画像フィルタ 2311は左上のHV座標原点から1画素ずつ横方向(H)軸 2312に移動しながら次段落で述べるヒストグラム平準化処理を実施し、右端に達すると横方向(H)軸 2312の左端に戻り、縦方向(V)軸 2313に1画素移動する。この状態で1画素ずつ横方向(H)軸 2312に移動しながら同様に次段落で述べるヒストグラム平準化処理を実施し、右端に達すると、以下、同様に分解能を1/nに変更しモノクロ化した実写画像 2310の右下端に至るまで全画面をスキャンしつつ歩進する。
 この横方向(H)軸 2312または縦方向(V)軸 2313に1画素移動するごとに、以下に記すヒストグラム平準化処理を行う。画像の輝度分布は画像の場所によって異なるのが通常である。このような偏りは低い空間周波数成分の輝度分布であり、画像マッチング処理部2255で使用するマッチングフィルタのサイズより低い空間周波数成分を事前に除去することが画像処理上マッチング検出精度向上のため必要である。この目的のため画像フィルタ 2311の大きさに合わせて輝度分布の平準化を行う。画像フィルタ 2311はm*m画素の大きさを持つ。画像フィルタ 2311は分解能を1/nに変更しモノクロ化した実写画像 2310(以下、実写画像 2310と称する)の左上端から右下端まで、画像を走査しながら1画素ずつ移動する。画像フィルタ 2311内の実写画像2310の各画素は輝度値を持ち、輝度表現が8ビットの場合、0から255までの値を持つ。図47(b)は画像フィルタ 2311内のm*m画素に対する輝度別の画素数をグラフ化したヒストグラムである。輝度ヒストグラム軸 2315は輝度軸 2314上の輝度に対する画素数である。実写画像 2310上で、画像フィルタ 2311が移動してきた領域内の画素の輝度ヒストグラム(分布)の例を図47(b)に示す。
 実写画像2310の任意の場所に対して画像フィルタ2311範囲の領域内にける輝度分布の例を輝度ヒストグラム2318で示す。輝度ヒストグラム2318は輝度下限値 2316から輝度上限値2317のあいだで分布しているが、図47(b)に示すように一般には輝度下限値2316と輝度上限値2317のあいだに偏って存在する。これは、画面の場所によって明暗およびコントラストに偏りがあるためであり、画像照合には妨げとなる。この解決のため処理ブロック2304でヒストグラム平準化処理を行う。すなわち、画像フィルタ2311範囲の領域内にける輝度分布が図47(c)に示すように輝度下限値2316と輝度上限値2317全体にわたって存在するように輝度ヒストグラム2318を輝度軸2314にそって伸長する。なお、伸長することは、処理ブロック2304のヒストグラム平準化処理の一例であり、上記以外の方法を用いても画像照合に適するものであれば、如何なる処理を用いてもよい。
 画像フィルタ 2311の計算結果は、m*m画素の領域の中心部の輝度値をフィルタ処理の結果として格納する。したがって画像フィルタの一辺のサイズのm画素は奇数であることが好ましい。さらにこのような結果格納方法を採用することにより、画像フィルタ 2311を、実写画像2310上を1画素ずつ移動させて走査することと整合する。図48は輝度ヒストグラム平準化の例であり、図48(a)はモノクロ化した実写原画像であり、図48(b)は前記ヒストグラム平準化を行った例である。以上、処理ブロック2304の内容を説明したが、結果は処理ブロック2305で画像比較情報データベース2250へ格納される。
 図44の説明の戻り、画像切替平滑系 2110の説明を継続する。視点位置・視線方向2125は図45の視点・視線入力処理部2127の行で、画像更新周期 2261に先立って取り込まれ、実写画像検索エンジン 2104の実写画像検索エンジン2104に送り込まれて、実施形態1に係る方法で視点位置・視線方向 2125に最も適切な実写画像が実写画像データベース2143より取り出される。画像比較情報データベース 2250は実写画像データベース2143と同一構造を有するように設定されているから、画像比較情報検索処理2251は実写画像検索処理2104より前記画像検索情報を画像比較情報データ検索情報 2258として得て、前記実写画像に対応する画像比較情報データを画像比較情報データベース 2250より得ることができる。
 比較情報領域選択処理2254では、現表示画像比較情報2253と次表示画像比較情報2252を入力する必要がある。このため現表示の実写画像に加え、次に表示する実写画像に対応した画像比較情報データを画像比較情報検索処理 251が読み出す必要があるが、視点位置・視線方向2125と、その変化方向から次の時点の視点位置・視線方向を予測することができ、かかる予測値を用いて、現在表示中の実写画像と同一の処理で切替表示する実写画像の検索情報も得られる。画像比較情報検索処理2251は、切替表示する実写画像も併せて画像比較情報データベース2250より検索して読み出す。
 画像比較情報展開処理2257は図45に示す通り、画像比較情報検索処理2251に引き続いて実行され、前記検索された実写画像の撮影点位置、撮影方向と、視点位置・視線方向 2125及び表示画面の視野角より表示装置2121に表示する現在表示中の視野画像と、切替後に表示する実写画像に対応する視野画像が画像比較情報展開処理部2257により得られる。この結果は現表示画像比較情報 2253および次表示画像比較情報 s252として比較情報領域選択処理部s254に伝えられる(図44、45)。画像比較情報展開処理2257の内容は、画像比較情報検索処理部2251が画像比較情報データベース2250より検索した画像比較情報データは、対応する実写画像を撮影した撮影点と撮影方向に対応したものであり、視点位置・視線方向2125とは近接しているが異なるものである。この相違を3次元グラフィックで公知、あるいは実施形態1に係る線形変換により視界映像とするものである。
 現表示画像と次表示画像は撮影点と撮影方向が隣接した近傍にあるが、一致していないので視差があり、両画像を表示装置2121の表示視野画面全体について一致させることは対象が平面でない限り原理的にできない。しかしながら、オペレータ2 130が注目するのは表示画面の一部であるから、注目点入力機構2123と注目点入力処理2128により注目点位置 2126を入力して比較情報領域選択処理2254に入力し、現表示画像比較情報2253と次表示画像比較情報2252の中から画像マッチング処理部2255による処理を実施する部分を比較情報領域選択処理部2254により選定する。
 図49は比較情報領域選択処理部2254の機能を図で説明したものである。図49(a)は現在表示中の視野画面2340を示し、注目点ウィンドウ21 2330はオペレータが注目点位置2126により注目している領域を示す。注目点位置2126のHV座標を(Ht,Vt)とする。現在表示中の視野画面340に対応する図49(b)の画像比較情報21 2333で注目点ウィンドウ21 2330で囲まれた領域が画像マッチング処理部2255における基準パターン2335となる。注目点入力機構2123がない場合には自動的に視界表示画面の中心としてもよい(なお、図49(b)(d)は画像比較情報の例であって、図49(a)(b)の建物に対応したものではない。)。基準パターン 335をm画素 x m画素の領域とし、C言語などの文法で記述すれば次のようになる。
for ( int i=0; i<m; i++ ){
 for ( int j=0; j<m; j++ ) {
     Pattern[i][j] =  M[Ht-m/2+i][ Vt-m/2+j];
  }
}
ここで、Pattern[i][j]は基準パターンの輝度配列、M[Ht-m/2+i][ Vt-m/2+j]は画像比較情報21 2333の輝度配列である。
 図49(c)は切替表示の視野画面341を示す。図49(c)における注目点ウィンドウ21 2330は図49(a)と表示画面上で同じ位置にあるが、視差のため図49(a)と異なる建物2239の部分を表示することになる。図49の例では図49(a)の注目点ウィンドウ21 2330は図49(c)では注目点ウィンドウ22 2331として表示されている。図49(c)における注目点ウィンドウ21 2330と注目点ウィンドウ22 2331の位置ズレが画像マッチング処理部2255とズレ計出処理部2256が算出する値である。注目点位置2126に対応して図49(a)の注目点ウィンドウ21 2330が決まる。図49(b)の注目点ウィンドウ21 2330を現在表示中の視野画面2340の縦横座標が同一の場所に定める。図49(d)は図49(c)の切替表示の視野画面 2341に対応する画像比較情報22 2334であり、図49(b)上の注目点ウィンドウ21 2330と図49(d)で同一位置にある注目点ウィンドウ21 2330の周辺を拡大して拡大注目点ウィンドウ 2332を設定する。拡大注目点ウィンドウ 2332の中心点は注目点ウィンドウ21 2330と同一であり、縦横倍率は最大外縁が画像比較情報22 2334に接するまでが目安であるが、必要に応じてさらに拡大することもできる。
 前記基準パターン2335が最も相関の高い図49(d)の拡大注目点ウィンドウ 2332内で最も相関の高い点を求める。拡大注目点ウィンドウ 2332を注目点ウィンドウ21 2330のN倍の大きさとし、アルゴリズムをC言語の文法で記述すれば
   long Convolution[N*m][ N*m];
   for ( int I=0; I<N*m; I++ ){
     for ( int J=0; J<N*m; j++ ){
       Convolution [I][J] = 0;
       for ( int i=0; i<m; i++ ){
        for ( int j=0; j<m; j++ ){
          Convolution [I][J] += Pattern[i-m/2][j-m/2]
               * M[Ht-N*m/2+I-m/2+i][Vt-N*m/2+J-m/2+j];
        }
       }
     }
   }
により積和計算(結果はConvolution [I][J])を拡大注目点ウィンドウ 2332の各点について実施し、その中で最大値の点(Htnext,Vtnext)が前記基準パターン 2335と最も相関の高い点であり、切替表示の視野画面 2341で現在表示中の視野画面 2340の注目点位置  2126に対応する点である。
 注目点ウィンドウ21 2330と拡大注目点ウィンドウ 2332の座標のズレがズレ計出処理部2256で求める値であり、
    横方向ズレ = Htnext-Ht (画素)
    縦方向ズレ = Vtnext-Vt  (画素)
で求められる。この値は表示画像位置補正情報2259として画面出力処理部2266に渡され、使用する実写画像を切り替える時点で視界映像の表示位置の修正に用いられる。図50は上記処理を処理フローで示したものである。また図45は図45における各処理のタイミング上の前後関係、従属関係を示したものである。
 図51および図52は画像表示系 2100と画像切替平滑系 2110の処理について図45と異なる並列処理方法を示すものである。表示画面の画像更新周期 2261は一般には30ms程度であり、画像切替平滑系 2110の処理で最も時間がかかる可能性があるものが画像マッチング処理部2255の処理である。画像マッチング処理部2255が画像更新周期 2261内に終了しない場合には、図51に示すようにズレ計出処理 256を画像更新周期 2261の2倍経過後に画面出力処理2266に送信してもよく、図52の場合では、画像更新周期 2261の3倍経過後に画面出力処理 2266に送信している。このように、画像マッチング処理部2255の処理に要する時間が画像更新周期 2261より長くなる場合は、同期タイミングを遅らせることにより対応できるが、遅延が大きくなると注目点位置  2126の変化に対する応答性が劣化する。
 画像マッチング処理部2255の処理を高速に処理する方法としては、マルチコア、マルチスレッドのCPUを利用して画像マッチング処理部2255の処理を複数のコアまたはスレッドで並列処理する方法がある。並列処理の方法は拡大注目点ウィンドウ 2332を縦方向または横方向に複数の領域に分割した上で各区分ごとに基準パターン 2335との相関演算(積和演算)を実施して、その中から最大値を取るものを採用すればよい。
 以上に述べた方法では、視点位置・視線方向 2125と視点位置・視線方向 2125の変化方向、変化速度より、次に表示する実写画像を予測しているが、予測は線形外挿以外にはよい方法がないので、視点位置・視線方向 2125の変化方向が急変した場合には対応できなくなることが起こりえる。この問題を解決するためには、画像表示系 2100を行うCPUコアまたはスレッド以外の複数のCPUコアまたはスレッドに次に表示する可能性のある全ての実写画像または表示する可能性のある実写画像から表示する可能性の大きいものから順に複数の画像に対して画像切替平滑系2110の処理を並列演算することも可能である。次に表示する可能性は実写画像の視点、視線方向とオペレータ2130が入力する視点位置・視線方向 2125の成す角度の小さいものから順に決める方法がある。
 同一の地物を視線で捉えながら視点を移動させると、実施形態1に係る方法では、使用する実写画像を切り替える時点で、視差により視界映像の連続性が保てなくなるが、視界画像中の特定地物の注目点を限定すれば、実画像の切替前後の前記地物を見る視点は近接しており、また視線方向も近い。すなわち、視界映像の位置連属性が保てないにせよ、特定地物の注目点は視界映像内で近接した箇所に存在しており、視界映像内の地物の形状も類似性が高い。このことに注目して視界映像内での特定地物の注目点を中心に画像マッチングを行い、マッチングした画像の位置が重なるように実写画像切替時の視界映像の表示座標をずらし、必要に応じて拡大縮小倍率を変更するのである。
 本発明の視界映像情報生成装置は、実写画像を用いて3次元視界映像を生成する場合に発生する実写画像切替時に発生する画像の乱れ、あるいは不連続性を解消し、滑らかな映像が生成するためのものであり、実写画像を用いた視界映像情報生成装置として産業上利用することができる。さらに本発明の視界映像情報生成装置は、都市空間の景観模擬、動画による案内、状況把握および監視、広告、商業活動、およびアミューズメントのインフラとして広範囲な分野で産業上利用できるほか、事前に特定対象物を限定せず一定の領域を高密度に撮影しておき、画像表示時に特定対象についてさまざまな視点と方向から観察できる特徴を生かして防災、治安維持の目的に使用することができる。
2100  画像表示系
2101  実写画像データベース
2102  画像インデクス機構 
2103  DEMデータ
2104  実写画像検索エンジン
2105  視界映像生成システム
2110  画像切替平滑系
2111  画像比較情報データベース
2112  視界映像位置補正システム
2120  ユーザインターフェイスシステム
2121  表示装置
2122  視点・視線入力機構
2123  注目点入力機構
2127  視点・視線入力処理部
2128  視点・視線入力処理部

Claims (11)

  1.  撮影装置により、複数の撮影位置それぞれにおいて複数の方向への撮影であり、複数のサブ領域に分割される撮影領域の撮影を行い複数の画像情報を取得してメモリに記憶し、
     前記複数の画像情報それぞれを前記メモリ記憶する際に、前記画像情報が取得された時の撮影位置情報と撮影方向情報とを前記画像情報に関連付けて前記メモリに記憶し、
     前記メモリに記憶された前記画像情報に関連付けられた撮影位置情報と撮影方向情報とを参照して前記画像情報が取得されたときに撮影されたサブ領域を特定し、
     前記特定されたサブ領域に、前記画像情報と、前記撮影位置情報と、前記撮影方向情報とを関連付けてデータベースに記憶し、
     視点経路上において順番に配置される複数の位置と前記複数の位置それぞれにおける視線の前記撮影領域へ向かう方向とを指定し、
     前記データベースに記憶されている、前記サブ領域に関連付けられている撮影方向情報を参照し、前記視点経路上の前記複数の位置それぞれにおける前記視線の前記方向に位置する前記サブ領域を含む画像情報とその画像情報に関連付けられている撮影位置情報とを検索して前記順番にて読出し、
     前記順番にて読出された前記画像情報を切り替えながら、前記像情報に関連付けられている撮影位置情報とを参照して視界映像情報を生成することを含む視界映像情報生成方法において、
    前記視点経路上の位置より前記視線の方向の前記視界映像情報を生成するに際して、使用する前記画像情報から、前記画像情報の撮影位置とは異なる撮影位置または/および前記画像情報の撮影方向とは異なる撮影方向の別の画像情報に切り替える場合、前記画像情報と前記別の画像情報とに共通している領域の表示位置のずれが起きないように前記視界映像情報の位置ずれ補正を実施することを特徴とする視界映像生成装置。
  2.  請求項1の視界映像生成装置において、表示位置のずれが起きないように位置ずれ補正を実施する視界映像情報内の領域が、前記視界映像生成装置に表示中の視界映像情報の中心部であることを特徴とする請求項1に記載の視界映像生成装置。
  3.  請求項1の視界映像生成装置において、表示位置のずれが起きないように位置ずれ補正を実施する視界映像情報内の領域が、前記視界映像生成装置に表示中の視界映像の領域のうち視界映像中の位置指示装置で指定された部分を含む領域であることを特徴とする請求項1に記載の視界映像生成装置。
  4.  前記位置指示装置は、視線検出装置により検出された視線により前記視界映像情報の中の部分を指定する請求項3に記載の視界映像生成装置。
  5.  請求項3または請求項4の視界映像生成装置において、前記視界映像情報に表示位置のずれが発生しないように位置ずれ補正を行う際、前記視線を含む前記視界映像情報中の領域の表示位置のずれが発生しないように位置ずれ補正を行う点および/または前記領域との間の距離に基づき表示倍率を調整して画像のなめらかな切り替えを行うことを特徴とする視界映像生成装置。
  6.  請求項1から請求項5のいずれか一に記載の視界映像生成装置において、前記視界映像に表示位置のずれが発生しないように位置ずれ補正を表示中の画像情報と切り替え表示後の画像情報との間で画像認識を実施して行うことを特徴とする視界映像生成装置。
  7.  請求項6に記載の視界映像生成装置において、前記切替表示後の前記画像情報をカーソルの動きまたは視線の動きから予測することを特徴とする視界映像生成装置。
  8.  請求項6または請求項7に記載の視界映像生成装置において、前記画像認識は、位置ずれ補正のための画像認識に供する情報を前記画像情報ごとに事前に計算してメモリに記憶しておくことを特徴とする視界映像生成装置。
  9. 請求項1から請求項8のいずれか一に記載の視界映像生成装置において、前記視界映像情報生成処理と前記位置ずれ補正の画像認識処理とを、同期を取りながら並行処理することを特徴とする視界映像生成装置。
  10.  請求項9の前記並行処理は、同一CPUのLSIパッケイジ内の複数のコアまたはスレッドにより分担して行うことを特徴とする視界映像生成装置。
  11. 請求項8に記載の視界映像生成装置において、前記画像情報ごとに事前に計算してメモリに記憶しておく前記画像認識に供する情報は、画像のサブ領域ごとの輝度ヒストグラムが平準化するように処理した情報であることを特徴とする視界映像生成装置。
PCT/JP2010/070407 2010-11-16 2010-11-16 視界映像情報生成装置 WO2012066642A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012544039A JP5780561B2 (ja) 2010-11-16 2010-11-16 視界映像情報生成装置
PCT/JP2010/070407 WO2012066642A1 (ja) 2010-11-16 2010-11-16 視界映像情報生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/070407 WO2012066642A1 (ja) 2010-11-16 2010-11-16 視界映像情報生成装置

Publications (1)

Publication Number Publication Date
WO2012066642A1 true WO2012066642A1 (ja) 2012-05-24

Family

ID=46083605

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/070407 WO2012066642A1 (ja) 2010-11-16 2010-11-16 視界映像情報生成装置

Country Status (2)

Country Link
JP (1) JP5780561B2 (ja)
WO (1) WO2012066642A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014155168A (ja) * 2013-02-13 2014-08-25 Mitsubishi Electric Corp 画像合成装置及び画像合成方法
KR101478981B1 (ko) 2012-12-04 2015-01-07 (주)쓰리디랩스 스테레오 영상에서 기준점 추출 방법 및 장치
CN109697757A (zh) * 2019-01-16 2019-04-30 浙江科澜信息技术有限公司 一种三维模型贴地方法、装置、系统及可读存储介质
US10341559B2 (en) 2014-05-06 2019-07-02 Zakariya Niazi Imaging system, method, and applications
CN110910482A (zh) * 2019-11-29 2020-03-24 四川航天神坤科技有限公司 视频数据组织调度的方法、系统及可读存储介质
CN115630191A (zh) * 2022-12-22 2023-01-20 成都纵横自动化技术股份有限公司 基于全动态视频的时空数据集检索方法、装置及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866636B (zh) * 2020-12-31 2023-06-27 北京文安智能技术股份有限公司 基于最远可视距离的团雾识别预警方法、系统和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366972A (ja) * 2001-06-08 2002-12-20 Univ Tokyo 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
JP2008520052A (ja) * 2004-11-12 2008-06-12 モク3, インコーポレイテッド シーン間遷移のための方法
JP2009217524A (ja) * 2008-03-11 2009-09-24 Kodaira Associates Kk 都市景観の3次元動画生成および閲覧システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366972A (ja) * 2001-06-08 2002-12-20 Univ Tokyo 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
JP2008520052A (ja) * 2004-11-12 2008-06-12 モク3, インコーポレイテッド シーン間遷移のための方法
JP2009217524A (ja) * 2008-03-11 2009-09-24 Kodaira Associates Kk 都市景観の3次元動画生成および閲覧システム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101478981B1 (ko) 2012-12-04 2015-01-07 (주)쓰리디랩스 스테레오 영상에서 기준점 추출 방법 및 장치
JP2014155168A (ja) * 2013-02-13 2014-08-25 Mitsubishi Electric Corp 画像合成装置及び画像合成方法
US10341559B2 (en) 2014-05-06 2019-07-02 Zakariya Niazi Imaging system, method, and applications
US10659688B2 (en) 2014-05-06 2020-05-19 Zakariya Niazi Imaging system, method, and applications
US11363194B2 (en) 2014-05-06 2022-06-14 Zakariya Niazi Imaging system, method, and applications
US11743591B2 (en) 2014-05-06 2023-08-29 Circle Optics, Inc. Imaging system, method, and applications
CN109697757A (zh) * 2019-01-16 2019-04-30 浙江科澜信息技术有限公司 一种三维模型贴地方法、装置、系统及可读存储介质
CN110910482A (zh) * 2019-11-29 2020-03-24 四川航天神坤科技有限公司 视频数据组织调度的方法、系统及可读存储介质
CN110910482B (zh) * 2019-11-29 2023-10-31 四川航天神坤科技有限公司 视频数据组织调度的方法、系统及可读存储介质
CN115630191A (zh) * 2022-12-22 2023-01-20 成都纵横自动化技术股份有限公司 基于全动态视频的时空数据集检索方法、装置及存储介质
CN115630191B (zh) * 2022-12-22 2023-03-28 成都纵横自动化技术股份有限公司 基于全动态视频的时空数据集检索方法、装置及存储介质

Also Published As

Publication number Publication date
JPWO2012066642A1 (ja) 2014-05-12
JP5780561B2 (ja) 2015-09-16

Similar Documents

Publication Publication Date Title
JP5861150B2 (ja) 画像情報出力方法
JP5780561B2 (ja) 視界映像情報生成装置
CN110310248B (zh) 一种无人机遥感影像实时拼接方法及系统
CA2773303C (en) Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
AU2008322565B2 (en) Method and apparatus of taking aerial surveys
JP2009217524A (ja) 都市景観の3次元動画生成および閲覧システム
US10789673B2 (en) Post capture imagery processing and deployment systems
US20160232792A1 (en) UAV Inspection Flight Segment Planning
EP1607716A2 (en) Model forming apparatus and method, and photographing apparatus and method
CN110930508B (zh) 二维光电视频与三维场景融合方法
US20090245691A1 (en) Estimating pose of photographic images in 3d earth model using human assistance
CN107370994B (zh) 海域全景监控方法、装置、服务器及系统
CN109900274B (zh) 一种图像匹配方法及系统
Lauterbach et al. The Eins3D project—Instantaneous UAV-based 3D mapping for Search and Rescue applications
CN112381935A (zh) 一种合成视觉生成及多元融合装置
JP4418857B1 (ja) 路線の3次元動画生成用画像取得システム
CN116883604A (zh) 一种基于天、空、地影像的三维建模技术方法
CN115082759A (zh) 一种光电视频与雷达gmti融合方法
CN111527375B (zh) 一种测绘采样点的规划方法、装置、控制终端及存储介质
Chandaria et al. Realtime camera tracking in the MATRIS project
CN111222586A (zh) 一种基于三维倾斜模型视角的倾斜影像匹配方法及装置
CN115331074A (zh) 跨尺度全景感知系统和全景图像的跨尺度目标检测方法
Calantropio et al. 360 images for UAV multisensor data fusion: First tests and results
Wang Towards real-time 3d reconstruction using consumer uavs
Orlik et al. 3D modelling using aerial oblique images with close range UAV based data for single objects

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10859737

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012544039

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10859737

Country of ref document: EP

Kind code of ref document: A1