JP2003287434A - Image information searching system - Google Patents

Image information searching system

Info

Publication number
JP2003287434A
JP2003287434A JP2002145543A JP2002145543A JP2003287434A JP 2003287434 A JP2003287434 A JP 2003287434A JP 2002145543 A JP2002145543 A JP 2002145543A JP 2002145543 A JP2002145543 A JP 2002145543A JP 2003287434 A JP2003287434 A JP 2003287434A
Authority
JP
Japan
Prior art keywords
image
video
displayed
situation
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002145543A
Other languages
Japanese (ja)
Inventor
Kazuo Iwane
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWANE KENKYUSHO KK
Original Assignee
IWANE KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWANE KENKYUSHO KK filed Critical IWANE KENKYUSHO KK
Priority to JP2002145543A priority Critical patent/JP2003287434A/en
Publication of JP2003287434A publication Critical patent/JP2003287434A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To search and display an object by designating an attribute, data and the like of the object in an image by forming a computer graphic image of the object or the like and designating the object. <P>SOLUTION: Images of surroundings picked up by actually traveling a road to be searched or the like are stored and recorded in an image data base section 3 as a data base. Various objects in the images of the surroundings are changed into computer graphic images as parts, and the computer graphic images are stored and recorded in a computer graphic data base section 7 as a computer graphic data base. Attribute data of the objects such as names, positions, attributes is stored in an object attribute data base section 8. The object displayed on the computer, graphic image or the image of the surroundings and the attribute data in the data base 8 are mutually searched by designating a searching condition, and a result of the search is displayed. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば車両ナビゲ
ーションシステムにおける走行地点、任意地点等の周囲
状況の検索、また道路・河川管理機関等における管内の
道路・河川その他の管理維持に際する所定地点での周囲
状況の実態把握等を簡単に行えるようにした画像情報検
索システムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, a predetermined location for searching for surrounding conditions such as a traveling location and an arbitrary location in a vehicle navigation system, and for managing and maintaining a road / river in a jurisdiction of a road / river management organization. The present invention relates to an image information retrieval system that enables easy understanding of the actual condition of the surrounding environment.

【0002】[0002]

【従来の技術】近時、自動車等による走行に際しナビゲ
ーションシステムで表示される地図検索の案内に従うこ
とで目的地に容易に到達できる等の利便性の故に数多く
の車両にカーナビゲーションが搭載されるようになって
いる。また一般に提供されているナビゲーションシステ
ムには、GPSによる位置検索で自らの位置を表示され
た地図上にほぼ正確にプロットできるようにしてあると
共に、地図上には各種設備、設置されている信号機その
他が表示され、システムによっては鳥瞰図を表示できる
ようになっている。
2. Description of the Related Art Recently, many vehicles are equipped with a car navigation system for convenience such as easily reaching a destination by following a map search guide displayed by a navigation system when driving a car. It has become. In addition, generally provided navigation systems are designed so that their position can be plotted almost accurately on a displayed map by GPS position search, and various equipment on the map, installed traffic lights, etc. Is displayed, and depending on the system, a bird's-eye view can be displayed.

【0003】一方、道路・河川等を管理する道路・河川
管理事務所では管内の道路等の実態を把握し、その適切
な管理を図るため本出願人が提案している例えば特許第
3099103号による道路・河川等の現況ビデオ検索
装置が使用されている。この検索装置では、実際に道路
等を走行することで逐次撮影して得られた道路の周囲状
況に関する動画像・連続した静止画像等を、その任意地
点におけるものとして表示することで直ちに検索できる
ようにすると共に、その地点における各種施設の状況、
管理用各種施設図・記録その他をも関連表示できるよう
にしたものである。
On the other hand, at a road / river management office that manages roads / rivers, etc., for example, Japanese Patent No. 3099103 proposed by the present applicant in order to grasp the actual conditions of roads in the jurisdiction and to manage them properly. The current video search system for roads and rivers is used. With this search device, you can search immediately by displaying moving images and continuous still images, etc. relating to the surrounding conditions of the road that were sequentially captured by actually traveling on the road etc. as those at arbitrary points. As well as the situation of various facilities at that point,
It is also possible to display related facility maps, records, etc. for management.

【0004】[0004]

【発明が解決しようとする課題】ところが上述した従来
のナビゲーションシステムにおける検索対象は、例えば
自車の位置、周囲の施設、目的地等を地図上に平面的あ
るいは立体的に表示するのみであり、地図情報そのもの
である。そのためカーナビゲーションの走行案内にあっ
ては、例えば斜交・錯綜している複雑な交差点での進行
方向の指示は、地図情報と実際の状況との対比が走行し
ながらの短時間では困難なために進行方向を誤ることが
多々あるものである。
However, the search target in the above-mentioned conventional navigation system is only to display the position of the own vehicle, the surrounding facilities, the destination, etc. on a map in a two-dimensional or three-dimensional manner. It is the map information itself. Therefore, in driving guidance for car navigation, for example, it is difficult to indicate the direction of travel at a complicated intersection that intersects / is complicated because it is difficult to compare map information with the actual situation in a short time while driving. There are many cases where the direction of travel is wrong.

【0005】また現況ビデオ検索装置で動画像等を検索
するとしても、画角と方向が限られるため、その道路に
おける全体情報の把握は困難であり、しかも個々の対象
物の位置とそのデータが正確に得られないために、総合
的な道路の付帯施設・設備等の管理には十分なものでは
なかった。
Even if a moving image or the like is searched by the current video search device, it is difficult to grasp the whole information on the road because the angle of view and the direction are limited, and the position of the individual object and the data thereof are not obtained. Since it cannot be obtained accurately, it was not sufficient for comprehensive management of ancillary facilities and equipment for roads.

【0006】そこで本発明は叙上のような従来存した諸
事情に鑑み創出されたもので、道路・河川その他の各種
通路における実際状況の動画像・連続静止画像等の状況
映像が有する三次元情報を、地図・航空写真等の地域図
における位置情報と関連付け、三次元化するのであり、
その際、三次元情報中で認識抽出される各種対象物をC
G画像として再構成し、状況映像に含まれる各種対象物
のデータベースを構築することで、検索対象を地図上に
表示するのみならず画像内にも表示し、しかも画像内の
或いはCG生成された三次元情報中の対象物における例え
ば名称・位置・属性・それらの組合せその他のデータに
よる検索を可能とするように拡張するのであり、それら
の各種の検索、表示を可能にする画像情報検索システム
を提供することを目的とする。
Therefore, the present invention was created in view of the various existing conditions as described above, and three-dimensional images of a situation such as a moving image of a real situation on a road, a river or various passages, a continuous still image, etc. Information is associated with location information in regional maps such as maps and aerial photographs, and three-dimensionalized.
At that time, various objects that are recognized and extracted in the three-dimensional information are C
By reconstructing as a G image and constructing a database of various objects included in the situation video, not only the search target is displayed on the map but also in the image, and further, it is generated in the image or CG generated. The object information in the three-dimensional information is expanded so that it can be searched by, for example, name, position, attribute, combination thereof, and other data. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】上述した目的を達成する
ため、本発明にあっては、検索すべき通路状況を当該通
路を移動しながら撮影することによって状況映像を取得
して表示し、状況映像内の対象物と、対象物に予め作
成、登録させておいた属性データとを相互に検索表示で
きるようにしたことにある。また、検索すべき通路状況
を当該通路を移動しながら撮影することによって状況映
像を取得して表示する一方、この状況映像中に撮影され
ている各種の対象物をCG(コンビュータグラフィック
ス)画像化して表示しておき、状況映像内あるいはCG
画像内の対象物と、対象物に予め作成、登録させておい
た属性データとを相互に検索表示できるようにしたこと
にある。あるいは、検索すべき通路状況を当該通路を移
動しながら撮影することによって状況映像を取得し、こ
の状況映像中に撮影されている各種の対象物をCG画像
化して表示する一方、当該通路の地図あるいは航空写真
を表示しておき、CG画像内、地図あるいは航空写真内
の対象物と、対象物に予め作成、登録させておいた属性
データとを相互に検索表示できるようにしたことにあ
る。また通路は、道路、河川、海路、地底路、軌道、空
路等であり、また状況映像は動画像あるいは連続静止画
像のものとし、更にリアルタイム映像、予め取得作成し
た記録映像の少なくともいずれかとし、また表示された
状況映像の地点位置を地図あるいは航空写真上に表示す
ると共に、地点位置の緯度・経度・高度あるいは緯度・
経度のみ、基準地から距離、地点名称(道路の起点から
の距離、地図上の二次元座標あるいは三次元座標、ある
指定点からの距離の数値、地図あるい航空写真上の任意
の一点の2次元座標、道路の地点名、地図上の地名の名
称その他)の少なくともいずれかの索引情報を備えてい
るものとすることができる。状況映像を保存記録する映
像データベース部3と、状況映像をCG画像化するCG
作成部4,5と、CG画像化されたデータを保存記録す
るCGデータベース部7と、映像データベース部3内の
状況映像及びCGデータベース部7内のCG画像両者を
対応させる位置あわせ同期部9と、CGデータベース部
7内に記録されているCG画像における各種対象物の属
性データを保存記録する対象物属性データベース部8
と、検索方法、検索対象を指定する検索指定部10と、
状況映像、CG画像、検索結果を表示する表示装置15
とを備えて成る。表示装置15は、状況映像表示域3
1、地図域32、CG画像域33を区画表示し、状況映
像を表示する状況映像表示域31内における表示映像
と、CG画像を表示するCG画像域33内におけるCG
画像とは相互に対応し、また地図あるいは航空写真を表
示する地図域32内における地図あるいは航空写真上の
地点に対応しているものとできる。また状況映像におけ
る表示に、地点が対応するように同期したCG画像と同
一地点、同一視角のCG画像を並べて、あるいは位置と
対象物とが合致するように重ねて同時にあるいは選択に
より単独で表示し、CG画像内で表示された対象物を直
接に選択指定することで、その対象物の属性やデータを
画面に表示し、あるいは同時に地点の緯度、経度を表示
するようにすることができる。状況映像内における対象
物の動きに、地点を含むように同期して動くようにCG
画像を自由視点で表示し、あるいは状況映像内の対象物
の位置をCG画像内に表示し、あるいは選択によって同
期せずにCG画像を単独で自由視点で表示し、CG画像
内の対象物を直接に選択指定を指定することで、その対
象物の属性やデータを画面に表示するようにすることが
できる。状況映像内あるいはCG画像内の対象を指定す
ることで、距離・面積・体積を計測し、それらを画面に
表示するようにすることができる。状況映像をCG画像
と同様に、状況映像内における視点を変更して表示し、
あるいはCG画像を状況映像と同様に扱い、両者を区別
なく検索対象とし、あるい検索の入り口とすることがで
きる。状況映像で表示された地点の動きに同期して表示
される地図あるいは航空写真をCG画像と並べてあるい
は重ねて表示することができる。検索指定部10は検索
方法、検索対象を指定するのであり、状況映像表示域3
1、地図域32、CG画像域33の少なくともいずれか
で対象物の一部または複数を含む検索条件を指定してそ
れらの条件を満足する対象物を検索できるようにしてあ
る。また検索指定部10は検索方法、検索対象を指定す
るのであり、別に取得した新規映像を比較対象として、
その新規映像と同一の場所で撮影した映像データベース
部3内の状況映像、あるいはCGデータベース部7内の
CG画像を検索対象とし、更には地図あるいは航空写真
上の位置を検索対象とすることができる。別に取得した
新規映像のデータは映像データベース部3内の状況映像
あるいはCGデータベース部7内のCG画像と比較し、
対応させることで、新規映像のデータは状況映像データ
あるいCG画像から三次元座標を取得し、取得された座
標により映像データベース部3内の状況映像を更新し、
映像データベース部3に更新データとして記録保存する
更新映像データ部16を備えることができ、更新データ
は、座標を同じくする並列データとして並列表示あるい
は切り替え表示とすることができる。状況映像内で表示
されている移動体画像を削除し、削除された部分の移動
体に隠されていた空白部分の映像は他の映像フレームか
ら三次元的に貼り付けて補完し、表示するようにした映
像補完部17を備えることができる。状況映像内で表示
されている対象物の陰部分のみを抽出し、陰部分の明る
さ、色温度を周囲と同じ程度にして周囲との境界を目立
たなくするようにした映像補完部17を備えることがで
きる。状況映像内の対象物と、その属性データとを電気
通信回線あるいはWeb(World wide we
b)を介して検索表示できるようにし、また映像データ
ベース部3、CG作成部4,5、CGデータベース部
7、位置あわせ同期部9、対象物属性データベース部
8、検索指定部10、表示装置15の少なくとも一部は
電気通信回線あるいはWebを介して接続構成されてい
るものとできる。更に状況映像、CG画像、各種の対象
物及びその対象物に関する各種の属性データ、地図デー
タ、地図あるいは航空写真上の地点位置における検索の
ための索引情報、状況映像作成のための制作過程及び制
作過程における各種データその他の各種情報を電気通信
回線を通じて提供ないし取得可能なものとする。また表
示された状況映像には、実際の状況での距離・面積・体
積を計測可能とする一定間隔のグリットを視覚的にある
いは非視覚的に重ねて表示してあるものとすることがで
きる。
In order to achieve the above-mentioned object, in the present invention, a situation picture is acquired and displayed by photographing the passage situation to be searched while moving in the passage. The object is to be able to mutually search and display the object in the image and the attribute data created and registered in the object in advance. In addition, while capturing the passage image to be searched while moving along the passage to acquire and display the situation image, various objects photographed in the situation image are converted into CG (comuter graphics) images. Displayed in the situation video or CG
The object in the image and the attribute data previously created and registered in the object can be searched and displayed mutually. Alternatively, a situation video is obtained by photographing the passage situation to be searched while moving in the passage, and various objects photographed in the situation video are displayed as CG images, while a map of the passage is obtained. Alternatively, the aerial photograph is displayed, and the object in the CG image, the map, or the aerial photograph and the attribute data created and registered in advance in the object can be searched and displayed mutually. The passage is a road, a river, a sea route, an underground route, an orbit, an air route, etc., and the situation image is a moving image or a continuous still image, and at least one of a real-time image and a recorded image acquired in advance, In addition to displaying the point position of the displayed situation video on a map or aerial photograph, it also displays the latitude, longitude, altitude, or latitude
Longitude only, distance from the reference place, point name (distance from the starting point of the road, two-dimensional coordinates or three-dimensional coordinates on the map, numerical value of the distance from a certain specified point, any one point on the map or aerial photograph 2 It may be provided with at least one of index information such as dimensional coordinates, road point name, place name on map, and the like). Video database unit 3 for storing and recording the situation video and CG for converting the situation video into a CG image
Creating sections 4 and 5; a CG database section 7 for storing and recording CG imaged data; and a positioning synchronization section 9 for associating both the situation video in the video database section 3 and the CG image in the CG database section 7. , Object attribute database unit 8 for storing and recording attribute data of various objects in CG images recorded in the CG database unit 7
And a search designation unit 10 for designating a search method and a search target,
Display device 15 for displaying situation video, CG image, and search results
And. The display device 15 has a status video display area 3
1, the map area 32 and the CG image area 33 are section-displayed, and the display image in the situation image display area 31 for displaying the situation image and the CG in the CG image area 33 for displaying the CG image
The images may correspond to each other and may correspond to points on the map or aerial photograph in the map area 32 displaying the map or aerial photograph. In addition, the CG images synchronized with the points corresponding to the points and the CG images at the same viewing angle are displayed side by side on the situation video, or are overlapped so that the position and the object match, or are displayed independently or by selection. , By directly selecting and designating the object displayed in the CG image, the attribute and data of the object can be displayed on the screen, or simultaneously the latitude and longitude of the point can be displayed. CG to move in synchronization with the movement of the object in the situation video to include the point
The image is displayed from the free viewpoint, or the position of the object in the situation video is displayed in the CG image, or the CG image is displayed independently from the free viewpoint without synchronization by selection, and the object in the CG image is displayed. By directly specifying the selection designation, the attributes and data of the target object can be displayed on the screen. By specifying an object in the situation video or CG image, the distance, area, and volume can be measured and displayed on the screen. The situation video is displayed in the same manner as the CG image by changing the viewpoint in the situation video,
Alternatively, the CG image can be treated in the same manner as the situation image, and both can be searched without distinction, and can be used as the entrance to the search. The map or aerial photograph displayed in synchronization with the movement of the point displayed in the situation video can be displayed side by side or overlaid with the CG image. The search designation unit 10 designates a search method and a search target.
1, a search condition including a part or a plurality of objects is specified in at least one of the map area 32 and the CG image area 33, and the objects satisfying those conditions can be searched. Further, the search designation unit 10 designates a search method and a search target, and a separately acquired new video is used as a comparison target.
The situation video in the video database unit 3 taken at the same place as the new video or the CG image in the CG database unit 7 can be the search target, and further the position on the map or aerial photograph can be the search target. . The newly acquired video data is compared with the situation video in the video database unit 3 or the CG image in the CG database unit 7,
By associating the new video data, three-dimensional coordinates are obtained from the situation video data or the CG image, and the situation video in the video database unit 3 is updated with the obtained coordinates,
The video database unit 3 can be provided with an updated video data unit 16 which is recorded and stored as updated data, and the updated data can be displayed in parallel or in parallel as parallel data having the same coordinates. The moving body image displayed in the situation video is deleted, and the blank image hidden in the deleted moving body is three-dimensionally pasted from other video frames to be complemented and displayed. The image complementing unit 17 can be provided. An image complementing unit 17 is provided which extracts only the shaded portion of the object displayed in the situation image and makes the brightness and color temperature of the shaded portion similar to those of the surroundings to make the boundary with the surroundings inconspicuous. be able to. The object in the situation video and its attribute data are transferred to a telecommunication line or a Web (World wide we
b), search and display are possible, and the video database unit 3, the CG creation units 4 and 5, the CG database unit 7, the alignment synchronization unit 9, the object attribute database unit 8, the search designation unit 10, and the display device 15 are provided. At least a part of the above can be configured to be connected via an electric communication line or the Web. In addition, situation video, CG image, various objects and various attribute data related to the objects, map data, index information for searching at point position on map or aerial photograph, production process and production for creating situation video Various data and other various information in the process can be provided or acquired through a telecommunication line. Further, the displayed situation video may be displayed visually or non-visually so as to superimpose grids at regular intervals that enable measurement of the distance, area, and volume in the actual situation.

【0008】以上のように構成された本発明に係る画像
情報検索システムにおいて、例えば道路等の各種通路に
おいての実際上の状況映像と、これをCG画像化したC
G画像との対比、状況映像・CG画像両者内の各種の対
象物、更には地図・航空写真上の地点等を相互に検索さ
せ、また対象物に関する各種の属性データ等を表示さ
せ、例えばカーナビゲーションシステムとして走行中の
実景と状況映像との対比による走行案内を円滑にさせ、
また道路等の管理においての各種の管理情報等を迅速に
取得させる。検索指定部10による検索は、種々な検索
条件の指定を可能にしており、例えば各種の地点索引、
対象物の属性データ等によるものとさせ、それに対応し
た地点、対象物が存在している映像データベース部3
内、CGデータベース部7内等に記録保存されている映
像フレーム、画像フレームを単独あるいは複数で表示さ
せる。状況映像表示域31によって表示される状況映
像、CG画像域33によって表示されるCG画像内にお
いての自由視点の変更は、その変更された視点において
の対象物の属性データ等を利用して、変更された視点か
らの対象物像を含む新たな状況映像、CG画像を生成さ
せ、多様な状況把握、管理情報等の取得を可能にさせ
る。状況映像内、CG画像内の対象の指定による距離・
面積・体積の計測は、通路管理機関における管理のため
の任意の通路部位の形態等を画面上で予め把握させ、例
えば現場における保守・点検等の各種作業の迅速化を図
らせる。映像データベース部3内に記録保存されている
状況映像フレーム、CGデータベース部7内に記録保存
されているCG画像フレームは、それらの間での比較対
照を可能にさせ、また新たに取得した状況映像との比較
対照後の更新映像データ部16による更新を可能にさせ
る。映像補完部17による状況映像、CG画像等の補完
修正は、状況映像、CG画像内に存する各種の車両の如
き移動体画像を削除させ、また対象物に付随する陰部分
等を消去させ、通路における余分なものが存在しない原
始状況の状況映像、CG画像を生成させる。状況映像内
の対象物の属性データを電気通信回線、Webを介して
検索表示することで、通路、各種対象物その他に関連す
る各種情報の逐次更新された最新データを利用者に提供
させ得るものとし、またこれらを制作する映像データベ
ース部3、CG作成部4,5、CGデータベース部7、
位置あわせ同期部9、対象物属性データベース部8、検
索指定部10、表示装置15の少なくとも一部を電気通
信回線あるいはWebを介して接続構成することで遠隔
地相互、異時的にでもデータ更新の作業等を円滑にさ
せ、また利用者には最新データを即時に取得可能にさせ
る。また電気通信回線を通じた各種情報の提供ないし取
得は、日々に変化する通路に関連する各種情報を最新の
ものとして更新しておくことで、利用者に最新情報を逐
次入手可能にさせる。状況映像中に重ねて表示される視
覚的、非視覚的なグリット46は、状況映像中の各地点
間の距離、高さ、対象物その他の大きさ等の計測を目視
可能にさせ、あるいは自動的な計算によって求めさせ得
る。
In the image information retrieval system according to the present invention configured as described above, for example, an actual situation image in various passages such as roads and a CG image C
In contrast to G images, various objects in both situation video and CG images are searched for each other, as well as points on maps and aerial photographs, and various attribute data related to the objects are displayed. As a navigation system, it facilitates running guidance by comparing the actual scene while driving and the situation video,
In addition, various management information on the management of roads etc. shall be promptly acquired. The search by the search designation unit 10 enables designation of various search conditions. For example, various point indexes,
The image data base unit 3 in which the point and the object corresponding to the attribute data of the object are present.
Among them, video frames and image frames recorded and stored in the CG database unit 7 and the like are displayed alone or in plural. The change of the free viewpoint in the situation video displayed by the situation video display area 31 and the CG image displayed by the CG image area 33 is changed by using the attribute data of the object at the changed viewpoint. A new situation video and CG image including the object image from the generated viewpoint are generated, and various situations can be grasped and management information can be acquired. Distance specified by target in situation video and CG image
The measurement of the area / volume allows the passage control organization to grasp the form of an arbitrary passage portion for management on the screen in advance, and speed up various works such as maintenance and inspection at the site. The situation video frame recorded and stored in the video database unit 3 and the CG image frame recorded and stored in the CG database unit 7 enable comparison and comparison between them and a newly acquired situation video. The update video data unit 16 after comparison and contrast with is enabled. Complementary correction of the status image, CG image, etc. by the image complementing unit 17 deletes the moving object image such as various vehicles existing in the status image, CG image, deletes the shadow part etc. accompanying the object, A situation video and a CG image of a primitive situation in which there is no surplus in are generated. By displaying the attribute data of the object in the situation video through a telecommunication line or the Web and displaying it, it is possible to provide the user with the latest updated data of various information related to the passage, various objects, etc. In addition, the video database section 3 for producing these, the CG creation sections 4 and 5, the CG database section 7,
At least a part of the position alignment synchronization unit 9, the object attribute database unit 8, the search designation unit 10, and the display device 15 are connected to each other via a telecommunication line or the Web to update data between remote locations or even at different times. The work of will be smoothed, and the latest data can be immediately acquired by the user. Further, the provision or acquisition of various kinds of information through the telecommunication line allows the user to sequentially obtain the latest information by updating the various kinds of information related to the passage that changes daily to the latest. The visual and non-visual grit 46 that is displayed overlaid on the situation image makes it possible to visually measure the distance, height, object or other size between points in the situation image, or automatically. Can be obtained by a mathematical calculation.

【0009】[0009]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明するに、本発明による画像情報検索シス
テムは、検索すべき通路、すなわち道路、河川、海路、
地底路、軌道、空路その他の自動車、船舶、航空機等の
各種移動体、更には人間が移動する交通往来等のために
設けられている通路の実際の状況を上り、下りで走行・
航行等によって撮影取得することで記録保存した動画像
・連続静止画像、及び生成されたCG(コンビュータグ
ラフィックス)画像を検索するのである。動画像、連続
静止画像、CG画像等は、実際の通路における現時点で
あるリアルタイムのものあるいは予め記録したもの、あ
るいは生成したCG画像であり、それらの状況映像中で
検索した視点位置を地図上に示し、あるいはそれらの画
像中に示し、さらに状況映像内の対象物を名称・位置・
属性・及び属性の組み合わせ等の属性データで指定する
ことで表示するのであり、これらの概略を図によって説
明すると次の通りである。
BEST MODE FOR CARRYING OUT THE INVENTION In the following, an embodiment of the present invention will be described with reference to the drawings, in which an image information retrieval system according to the present invention comprises a passage to be searched, that is, a road, a river, a sea route,
Underground roads, trajectories, air routes and other various moving bodies such as automobiles, ships, aircraft, etc., as well as the actual conditions of the passages provided for traffic movement by humans, traveling up and down
The moving images / continuous still images that have been recorded and saved by capturing and acquiring by navigation etc., and the generated CG (comuter graphics) images are searched. The moving images, continuous still images, CG images, etc. are real-time or pre-recorded images at the current time in the actual passage, or generated CG images, and the viewpoint positions searched in those situation videos are displayed on the map. Shown or shown in those images, and the name, position, and
It is displayed by designating it with attribute data such as an attribute and / or a combination of attributes. The outline of these is described below with reference to the drawings.

【0010】図に示される符号1はリアルタイム映像取
得部であり、通路における現時点で取得した状況映像を
視点位置でカメラによって取得し、それをデジタル化し
て映像データベース部3へ送るようになっている。また
この映像データベース部3では、前もって記録した通路
の状況映像を記録作成し、保存する記録映像データ取得
部2からも所定の映像が送られるようになっている。
Reference numeral 1 shown in the figure is a real-time image acquisition unit, which acquires the situation image acquired at the present time in the passage by the camera at the viewpoint position, digitizes it, and sends it to the image database unit 3. . Further, in the video database unit 3, a predetermined video is also sent from the recorded video data acquisition unit 2 which records and creates the situation video of the passage recorded in advance and stores it.

【0011】映像データベース部3では、取得された状
況映像における夫々の映像の基準位置を示す何らかの検
索のための例えば通路基点からのキロ標、経度・緯度更
には必要があれば標高等の数値索引、通路等における地
点の名称等の名称索引等の各種の索引情報を持ってお
り、これらが状況映像に関連付けられている。そしてそ
れらの索引情報は、地図・航空写真データベース部6に
おける地図、及び航空写真の座標と最終的に結合するよ
うになっており、こうすることで状況映像は位置情報を
獲得するものとしてある。
In the video database unit 3, a numerical index such as a kilometer from the passage base point, longitude / latitude, and, if necessary, an altitude, etc. for some retrieval indicating the reference position of each video in the acquired situation video. , Has various index information such as a name index such as a name of a point in a passage, and these are associated with the situation video. The index information is finally combined with the map in the map / aerial photograph database unit 6 and the coordinates of the aerial photograph, and the situation video acquires the position information by doing so.

【0012】一方、映像データベース部3における状況
映像は例えば3DCG(3次元コンピュータグラフィッ
ク:三次元CG three dimensional
computer graphics)化、あるいは
二次元画像化のようにCG画像化されるもので、そのた
めの作業者の手作りによる手動操作でCG画像化するC
G手動作成部4、あるいは自動的にCG化するCG自動
作成部5が設けられている。これらのCG作成部4,5
では、状況映像中の存する各種対象物をデータベース化
するのであり、その対象物例を挙げれば次のようなもの
である。 (a) 人と人以外の区別 (b) 車と車以外の区別 (c) 人以外の移動物体と静止物体の区別 ・移動物体として:車両、軽車両、静止物体の移動、そ
の他予期せぬもの ・静止物体として:道路標識、道路表示、道路設備、工
事案内等 ・静止物体として:看板、電柱、樹木、大地、山、海、
川、太陽、月、その他天体、雲等 ・建築物として:ガソリンスタンド、整備工場、コンビ
ニエンスストア、警察署等 (d) 移動物体の速度ベクトル、加速度ベクトルの計測を
属性として付加 (e) 人と移動物体の未来予測 (f) 天候、路面状況(気温、路面温度、路面摩擦係数等
の情報取得) 等である。
On the other hand, the situation image in the image database unit 3 is, for example, 3DCG (3D computer graphic: 3D CG three dimensional).
Computer graphics or CG imaging such as two-dimensional imaging, for which CG imaging is performed manually by an operator by hand.
A G manual creation unit 4 or a CG automatic creation unit 5 that automatically creates a CG is provided. These CG creation parts 4, 5
Then, various objects existing in the situation video are made into a database, and examples of the objects are as follows. (a) Distinguishing between humans and non-humans (b) Distinguishing between cars and non-vehicles (c) Distinguishing between moving and stationary objects other than humans ・ As moving objects: moving vehicles, light vehicles, stationary objects, and other unexpected situations Things / stationary objects: road signs, road displays, road equipment, construction guidance, etc.-Stationary objects: signs, telephone poles, trees, ground, mountains, sea,
Rivers, suns, moons, other celestial bodies, clouds, etc. ・ As buildings: Gas stations, maintenance plants, convenience stores, police stations, etc. (d) Add velocity and acceleration vector measurements of moving objects as attributes (e) With people Future prediction of moving objects (f) Weather, road surface conditions (acquisition of information on air temperature, road surface temperature, road surface friction coefficient, etc.).

【0013】すなわち、例えば道路映像中で認識、特定
される対象物は、道路面・道路標識・案内標識・街路灯
・道路標示・ガードレール・街路樹その他の道路付帯設
備、ビル・住宅・店舗・看板その他の道路周辺構築物で
あり、対象物に関する属性データは、これらの道路付帯
設備、道路周辺構築物の設置点に関係して撮影取得した
それらの映像・この映像に関連するデータ・関連設計図
・関連工事履歴を含んでいるものとしてもよいのであ
る。更に、宿泊施設・観光ポイント・店舗等がそれらを
撮影取得した映像を含むこともできる。
That is, for example, the objects to be recognized and specified in the road image are road surfaces, road signs, guide signs, street lights, road markings, guardrails, roadside trees and other road incidental equipment, buildings, houses, shops, etc. It is a signboard or other road peripheral structure, and the attribute data related to the object are those images taken and acquired in relation to the installation points of these road auxiliary equipment and road peripheral structures, data related to this image, related design drawings, It may also include the related construction history. Furthermore, it is also possible to include images of accommodation facilities / sightseeing points / stores, etc. captured and acquired.

【0014】その作成方法は、地図・航空写真データベ
ース部6における地図・航空写真と状況映像とを重ね合
わせて、状況映像と同じ視点となるように判断してCG
画像を作成するのであり、このようにして作成したCG
画像は状況映像と完全に重なるものであり、またこのよ
うに重ねることが特徴であり、重要でもある。そのため
例えば表示画面において、状況映像の表示域とCG画像
の表示域とがいずれか一方のみとされることがあり、い
ずれか一方のみが表示されていても、それは外見的なも
ので、実質的には重ねられているにすぎないものであ
る。なおCG自動作成部5にあっては、CG手動作成部
4における手動操作を自動で行う機能を有しており、例
えば本出願人が既に出願している特願平11−9756
2号(特開2000−295611)、特願2000−
190725による情報変換システムによるものとして
あり、PRM(Parts Reconstructi
nMethod)と称している。
The CG is created by superimposing the map / aerial photograph and the situation video in the map / aerial photograph database section 6 and determining that the viewpoint is the same as the situation video.
The image is created, and the CG created in this way
The image completely overlaps the situation video, and the feature of overlapping in this way is also important. Therefore, for example, on the display screen, the display area of the situation video and the display area of the CG image may be only one, and even if only one of them is displayed, it is an external appearance and is substantially It is nothing more than a stack. Note that the CG automatic creation unit 5 has a function of automatically performing a manual operation in the CG manual creation unit 4, and for example, Japanese Patent Application No. 11-9756 filed by the present applicant.
No. 2 (JP 2000-295611), Japanese Patent Application 2000-
It is based on an information conversion system according to 190725, and PRM (Parts Reconstruct)
nMethod).

【0015】すなわち、対象物に関して取得した対象物
情報をこの対象物に対応して予め登録されている情報コ
ードに変換し、その情報コードを送信あるいは出力する
情報コード変換装置と、この情報コード変換装置からの
情報コードが受信あるいは入力されることで、この情報
コードに対応して予め登録されている再現対象物情報に
変換する再現変換装置とを備えて成り、その情報コード
変換装置は、各種対象物の位置を、取得した画像上で場
情報データベースを基礎として分析する場分析用相関関
数演算手段と、この場分析用相関関数演算手段の演算結
果から座標コードデータベースを基礎として分析して画
像中の最適な座標を生成する最適座標生成手段と、また
取得した画像内における分析から画像中の各種対象物の
輪郭処理等を行なう前処理手段と、この前処理手段にて
得られた輪郭データ等、場分析用相関関係演算手段にて
得られた場データ、最適座標生成手段にて得られた最適
座標データ等を基礎にして配列コードに変換すると共
に、前記部品庫データベース内における対象物データと
取得認識した対象物情報とを比較対照・選択して、配列
コードと組合せられた情報コードを生成する部品検索用
相関関数演算手段とを備えている情報変換システムによ
る。
That is, the information code conversion device for converting the object information acquired for the object into an information code registered in advance corresponding to the object and transmitting or outputting the information code, and this information code conversion. The information code conversion device is provided with a reproduction conversion device that receives or inputs an information code from the device and converts it into reproduction target object information registered in advance corresponding to this information code. An image obtained by analyzing the position of the object on the acquired image using the field information database as a basis, and a field analysis correlation function calculation means and the result of calculation by the field analysis correlation function calculation means based on the coordinate code database. The optimum coordinate generation means for generating the optimum coordinates in the image and the outline processing of various objects in the image from the analysis in the acquired image. Based on the preprocessing means, the contour data and the like obtained by the preprocessing means, the field data obtained by the correlation calculation means for field analysis, the optimum coordinate data obtained by the optimum coordinate generation means, etc. Correlation function calculating means for component search for converting into array code and comparing / selecting the object data in the parts database and the acquired object information for recognition to generate an information code combined with the array code. According to the information conversion system equipped with.

【0016】あるいは所要の対象物に関する情報を入力
する情報入力手段と、予め作成した各種対象物ないしそ
の部分およびそれらの属性等に関する情報と、それらの
情報をそれぞれコード化したデータとを蓄積してデータ
ベースを形成した第1の部品庫と、前記情報入力手段に
入力された情報と前記第1の部品庫に蓄積された情報と
を比較対照して対応する情報に関するデータを選択して
出力する情報コード変換装置と、前記第1の部品庫と同
様にデータベースを形成した第2の部品庫と、前記情報
コード変換装置から出力されたデータを前記第2の部品
庫に蓄積されたデータと比較対照して対応する対象物を
再現する情報を選択すると共に、この対象物を再現する
情報に基づいて所要の出力手段により対象物を再現出力
する情報再現変換装置とから構成して成り、その情報コ
ード変換装置は、情報入力手段により入力された対象物
に関する情報について、その位置を画像上で場情報のデ
ータベースを基礎として分析する場分析用相関関数演算
手段と、この場分析用相関関数演算手段の演算結果から
座標コードのデータベースを基礎として分析して画像中
の最適な座標を生成する最適座標生成手段と、画像内に
おける分析から画像中の各種対象物の輪郭処理等を行う
前処理手段と、配列コードを生成すると共にこの配列コ
ードと組合せられる情報コードを生成する部品検索用相
関関数演算手段とを備え、前記部品検索用相関関数演算
手段は、前記前処理手段により得られた輪郭等のデー
タ、場分析用相関関係演算手段にて得られた場データ、
および最適座標生成手段により得られた最適座標データ
等を、それぞれ基礎にして配列コードに変換すると共
に、前記第1の部品庫内のデータベースに蓄積された情
報と入力された対象物の情報とを比較対照し、一致する
情報を選択し、この選択された情報にそれぞれ対応する
と共に前記配列コードと組合せられた情報コードを生成
するように構成して成る情報変換システムによる。
Alternatively, information input means for inputting information on a desired object, information on various objects or parts thereof created in advance, their attributes, and the like, and data encoding each of these information are stored. Information for comparing and comparing the information input to the information input means with the information stored in the first component storage, and selecting and outputting the data regarding the corresponding information A code conversion device, a second parts storage that forms a database similar to the first parts storage, and the data output from the information code conversion device is compared with the data stored in the second parts storage. Information reproduction conversion for selecting the information for reproducing the corresponding target object and reproducing and outputting the target object by the required output means based on the information for reproducing the target object. And an information code conversion device for analyzing the position of the information about the object input by the information inputting means on the image based on a database of field information. And an optimum coordinate generation means for analyzing the result of the correlation function calculation means for field analysis based on a database of coordinate codes to generate the optimum coordinates in the image, and various objects in the image from the analysis in the image. And a component search correlation function computing unit for generating an array code and an information code combined with the array code, wherein the component search correlation function computing unit is Data such as contours obtained by the pre-processing means, field data obtained by the correlation calculation means for field analysis,
And the optimum coordinate data and the like obtained by the optimum coordinate generating means are converted into array codes on the basis of each, and the information accumulated in the database in the first parts storage and the information of the input object are An information conversion system configured to compare and compare, select matching information, and generate an information code corresponding to each of the selected information and combined with the sequence code.

【0017】これらのCG作成部4,5によって作成さ
れたCG化された全体画像は、状況映像中にある各種の
対象物につき、個々の対象物毎に作成するCG画像の部
品の集合として構成され、作成されたCG画像は、CG
データベース部7に記憶され、保存される。また対象物
の各種データは、対象物属性データベース部8に保存さ
れ、対象物毎に分類し、個々の部品に属性を持たせるこ
とが可能となり、個々の部品夫々の検索を対象物の名
称、属性、属性の組合せ等の属性データ、更にはその位
置座標等によって可能にし、状況映像と対応させて、あ
るいは映像の中に表示できるようにしてある。
The CG-generated whole image created by these CG creating units 4 and 5 is configured as a set of CG image parts created for each individual object in the situation video. The created CG image is CG
It is stored and saved in the database unit 7. Further, various data of the target object are stored in the target object attribute database unit 8, and it becomes possible to classify each target object and give an attribute to each individual part, and to search each individual part, the name of the target object, This is made possible by attribute data such as attributes and attribute combinations, as well as their position coordinates, and can be displayed in association with the situation video or in the video.

【0018】またリアルタイム映像取得部1あるいは記
録映像データ取得部2によって取得される動画・連続静
止画等による状況映像は、撮影時には既に状況映像の各
フレーム毎に座標が付いており、あるいは地図内の一点
と対応するコードが付してあり、更にCG画像作成時に
状況映像の各フレームと対応されている。そのため地
図、状況映像、CG画像はデータとしては完全に一体化
しているので、常に対応関係があることになり、常に対
応して表示できる。これは位置あわせ同期部9によって
三者は完全に一体化するようにしてあり、それを表示コ
ントロール部14に送ることによって、目的にあった表
示の形式に構成され、ディスプレーの如き表示装置15
によって表示可能となるようにしてある。なお地図、状
況映像、CG画像の三者は区別されずに全く同じように
扱うことができ、状況映像について説明することは、他
のCG画像、地図についても同じような説明が可能であ
るので、本実施の形態においては特に必要がない限り、
状況映像について説明される。特に状況映像とCG画像
とは重ね合わせられるようになっており、状況映像上の
対象物の特定、例えば表示装置15におけるマウスポイ
ンター等による対象物、輪郭その他の指示はCG画像上
においても同様な指示となるのである。
Further, the situation video such as a moving picture / continuous still picture acquired by the real-time video acquisition unit 1 or the recorded video data acquisition unit 2 already has coordinates attached to each frame of the situation video at the time of shooting, or in the map. A code corresponding to one point is attached, and further, it corresponds to each frame of the situation video when the CG image is created. Therefore, since the map, the situation video, and the CG image are completely integrated as data, they always have a corresponding relationship and can always be displayed correspondingly. This is designed so that the three members are completely integrated by the position alignment synchronization unit 9, and by sending it to the display control unit 14, a display format suitable for the purpose is formed, and a display device 15 such as a display is provided.
It can be displayed by. It should be noted that the map, the situation video, and the CG image can be treated in the same way without distinction, and the explanation of the situation video can be applied to other CG images and maps in the same manner. In the present embodiment, unless otherwise necessary,
The situation video will be explained. In particular, the situation video and the CG image are designed to be superposed, and the identification of the object on the situation video, for example, the object by the mouse pointer or the like on the display device 15, the outline and other instructions are the same on the CG image. It will be an instruction.

【0019】更に、リアルタイム映像取得部1あるいは
検索画像入力部12によって新たに取り込まれた新規の
状況映像は、映像データベース部3でデータベース化さ
れ、更新される状況映像のデータとして更新映像データ
部16に保存されるようにしてある。更新に際し、画像
一致技術で映像検索を行い、対応関係が求められること
で、新規に取り込んだ状況映像データはその座標を旧状
況映像から受け取ることができ、またCG画像と画像一
致技術で比較すれは、CG画像にはフレームの制約がな
いので、連続的座標と比較して、新座標を取得すること
ができる。座標を取得した新規の状況映像は旧の状況映
像の更新という意味を持つので、新旧の状況映像を対比
することもでき、例えば夏期と冬期とにおいて異なる状
況映像を並列表示したり、切り替え表示したりすること
ができるのである。
Further, the new situation video newly fetched by the real-time video acquisition unit 1 or the search image input unit 12 is converted into a database in the video database unit 3 and updated as data of the situation video to be updated by the updated video data unit 16. It is supposed to be saved in. At the time of updating, the image search is performed by the image matching technique, and the correspondence is required, so that the coordinates of the newly captured situation image data can be received from the old situation image, and the CG image and the image matching technique can be compared. Since there is no frame constraint in the CG image, it is possible to obtain new coordinates by comparing with continuous coordinates. Since the new situation video that has obtained the coordinates has the meaning of updating the old situation video, it is possible to compare the old and new situation videos, for example, displaying different situation videos in parallel in summer and winter, or switching display. It can be done.

【0020】また状況映像内の各種の対象物を認識でき
ていることで、映像データベース部3に連繋した移動体
抽出部18によって状況映像内の移動体画像のみを抽出
することができ、そのため、例えば静止物以外のモノを
移動体画像と定義して抽出もできるし、移動体画像その
ものを認識して、抽出することもできる。このように抽
出した移動体画像を状況映像から削除することで、移動
体が存在しない画像を作成することができる。ただその
ままでは、移動体画像を削除した後では該当部分が空白
状に残るために、映像補完部17によってその空白部分
である移動体に隠されていた部分を補完するようにして
いる。この映像補完部17では、移動体抽出部18によ
って抽出削除した削除部分は移動体の性質から常に移動
しているので、その削除部分の、例えば道路面画像の座
標は既に既知であることを利用し、その座標部分を他の
映像の道路面が出ているフレームから、道路面を三次元
的に切り取り、空白部分に三次元的に貼り付けることで
補完するのである。
Further, since the various objects in the situation video can be recognized, only the moving body image in the situation video can be extracted by the moving body extraction unit 18 linked to the video database unit 3. Therefore, For example, an object other than a stationary object can be defined and extracted as a moving body image, or the moving body image itself can be recognized and extracted. By deleting the moving body image thus extracted from the situation video, it is possible to create an image in which no moving body exists. However, since the corresponding portion remains blank after the moving body image is deleted as it is, the image complementing unit 17 complements the blank portion hidden by the moving body. In the video complementing unit 17, since the deleted portion extracted and deleted by the moving body extracting unit 18 is constantly moving due to the nature of the moving body, it is used that the coordinates of the deleted portion, for example, the road surface image are already known. Then, the coordinate portion is complemented by cutting the road surface three-dimensionally from the frame in which the road surface of another image appears and pasting it in the blank portion three-dimensionally.

【0021】取得する状況映像において、例えば通路す
なわち道路を管理する管理機関等によって管理する場合
に、通路周囲に陰影がある場合に、その陰影部分は黒く
落ちて見にくく、管理上に不都合が生じることがある。
そこで、陰部分のみ、照度と色温度を補正して、周囲と
同じ見え方になるようにすることができ、もちろんテク
スチャー(texture:表面のきめ、特質等)の特
徴を失わないように、陰部分の全域で同じ補正処理を行
い、陰部分と周囲の境界を目立たなくすることで、管理
しやすくするのである。すなわちこの陰影補完処理プロ
セスにつき、図2を参照して説明すると、映像画像入力
され(21)、スペクトル分析、輝度による切り取りに
よって陰影部分を抽出し(22)、テクスチャーを保存
するためにその分析を行い保存する(23)。その分析
によって陰影部分の色温度は周囲と異なることでその基
準色温度を抽出し(24)、また周囲色温度を抽出し
(25)、それらの色温度差を検出して補正の対象とす
る。次いで陰影部分を三次元として周囲の色温度と強度
とに補完し(26)、補正済み映像信号を出力するので
ある(30A)。なお撮影時間帯の異なる同一地点の映
像等により、陰影部分の情報を他から取得できる場合に
は、補正情報を持つフレームを選択し(27)、画像を
切り取り(28)、その画像を貼り付けることで補完す
る(29)のであり、これによって補正済み映像信号を
出力するのである(30B)。
In the situation video to be acquired, for example, in the case where there is a shadow around the passage when it is managed by a management organization that manages the passage, that is, the road, the shaded portion is black and difficult to see, which causes inconvenience in management. There is.
Therefore, it is possible to correct the illuminance and color temperature of only the shaded part so that it looks the same as the surroundings, and of course not to lose the characteristics of texture (texture: surface texture, characteristics, etc.). The same correction processing is performed on the entire area to make the boundary between the shadow portion and the surrounding area inconspicuous, thereby facilitating management. That is, the shadow complementing process will be described with reference to FIG. 2. A video image is input (21), a shadow portion is extracted by spectral analysis and luminance cutting (22), and the analysis is performed to save the texture. Perform and save (23). As a result of the analysis, the color temperature of the shaded portion is different from that of the surroundings, the reference color temperature is extracted (24), and the ambient color temperature is extracted (25). . Then, the shaded portion is made three-dimensional to complement the surrounding color temperature and intensity (26), and the corrected video signal is output (30A). If the information of the shaded portion can be obtained from the other by the image of the same place where the shooting time period is different, the frame having the correction information is selected (27), the image is cut (28), and the image is pasted. This complements (29), and the corrected video signal is output (30B).

【0022】またCG画像はその性質から、状況映像を
自由視点で表示できるのであり、しかも本発明において
は、動画による状況映像とCG画像とは完全に重なるか
ら、CG画像に状況映像を貼り付けることが可能であ
り、そのときに状況映像はいわば三次元化されたという
ことができ、この三次元化された状況映像はCG画像と
同じ原理で、視点も自由に変更できるのである。すなわ
ち図4に示すように表示されている状況映像に関連して
表示される例えば地図と共に視点変更制御域33Aにお
ける視点変更のための矢印状のアイコンのクリック等の
選択指示によって視点変更ができるようになっている。
Because of its nature, the CG image can display the situation image from a free viewpoint. Further, in the present invention, the situation image by the moving image and the CG image completely overlap each other, so that the situation image is attached to the CG image. It is possible to say that the situation video has been made three-dimensional at that time, and this three-dimensional situation video has the same principle as the CG image, and the viewpoint can be freely changed. That is, the viewpoint can be changed by a selection instruction such as clicking an arrow-shaped icon for changing the viewpoint in the viewpoint change control area 33A together with the map displayed in association with the situation video displayed as shown in FIG. It has become.

【0023】なお状況映像では視点位置による死角とな
る部分があるので、全ての視点で三次元表示ができるわ
けではないが、視点位置である撮影のためのカメラが移
動することで、静止対象物については三次元化可能であ
るから、他の視点からのテクスチャーをCG画像として
貼り付けることができることで、視角の変更はかなりの
範囲で可能となるのである。
Since there is a blind spot depending on the viewpoint position in the situation image, three-dimensional display is not possible at all viewpoints. However, when the camera for photographing at the viewpoint position moves, a stationary object is displayed. Since 3D can be three-dimensionalized, the texture can be pasted as a CG image from another viewpoint, and the viewing angle can be changed in a considerable range.

【0024】次に検索につき説明すると、表示装置15
によって表示される夫々の区域内におけるマウスポイン
ター等によるクリックの選択指示で検索し、表示できる
ようにしてある。すなわち表示装置15における表示画
面では、図に示すようにリアルタイムのあるいは予め取
得した状況映像が動画像あるいは連続静止画像として表
示される状況映像表示域31、地図を表示する地図域3
2、CG画像を表示するCG画像域33、検索対象物の
内容を表示する検索結果表示域34、検索地の索引情報
例えば緯度・経度、基点からのキロ標、区間距離表示等
を表示する索引情報検索域35、夏期・冬期等の種別、
路線選択、地名検索、例えば走行に伴い逐次表示される
状況映像における動画像・連続静止画像の前進、後退・
早送り前進・早送り後退・一時停止・再生速度あるいは
表示地点をスライド調整するスライダー式クリックボタ
ン等を表示している操作域36、地点における全周囲を
表示させたり(「360度」)、3DCGを表示させた
り、通路の上り・下りの切替等を選択する表示制御域3
7、通路等の始点・終点を呼び出す呼出域38、体積・
距離・面積等の計測用の計測指示域39、印刷指示域4
0が区画表示され、また検索対象を具体的に指示する具
体的検索指示域40Aが設けられており、これらに対す
る操作は画面上で移動するポインターに対する例えばマ
ウス・クリック操作によって指示、制御できるようにし
てある。
Next, the search will be described. Display device 15
Each area displayed by is searched and displayed by a click selection instruction with a mouse pointer or the like. That is, on the display screen of the display device 15, as shown in the figure, a real-time or pre-acquired situation video is displayed as a moving picture or a continuous still picture, a situation video display area 31, a map area 3 for displaying a map.
2. A CG image area 33 for displaying CG images, a search result display area 34 for displaying the contents of a search target, index information of a search location, for example, latitude / longitude, a kilometer from a base point, an index for displaying a section distance, etc. Information search area 35, types such as summer and winter,
Route selection, place name search, for example, moving forward / backward of moving images / continuous still images in situation videos that are sequentially displayed as you drive
Fast-forward forward / fast-forward backward / pause / playback speed or operation area 36 displaying slider-type click buttons for slide adjustment of the display point, the entire circumference of the point is displayed ("360 degrees"), and 3DCG is displayed. Display control area 3 for selecting or switching between up and down passages
7. Calling area 38 for calling the start / end points of passages, etc.
Measurement instruction area 39 for measuring distance, area, etc., print instruction area 4
0 is divided and displayed, and a specific search instruction area 40A for specifically instructing a search target is provided, and operations for these can be instructed and controlled by, for example, a mouse click operation on a pointer moving on the screen. There is.

【0025】なおこの表示装置15における画面の配置
例は、これに限定されず、その区画大きさ、夫々の表示
域の位置その他は任意に変更でき、また特に検索・表示
態様が異なることに対応して状況映像表示域31、CG
画像域33がいずれか一方のみとされたり、地図域32
を表示しないものとしたりすることもある。もとより状
況映像表示域31、CG画像域33がいずれか一方とさ
れる場合には、これらによる状況映像あるいはCG画像
は実質的に重ねられているから、それを切り替え表示す
るようにしてもよいのである。
The example of the layout of the screen on the display device 15 is not limited to this, and the size of the section, the position of each display area, etc. can be arbitrarily changed, and particularly, the search / display mode is different. And the situation video display area 31, CG
The image area 33 is only one of them, or the map area 32
May not be displayed. Of course, when the situation video display area 31 and the CG image area 33 are either one, since the situation video or CG image by these is substantially overlapped, it is possible to switch and display them. is there.

【0026】またその検索においては、映像と映像の比
較による検索をも可能とし、比較画像としての検索画像
を何らかの手段(手段は選ばない)で直接外部からの映
像(映像データベース部3、CGデータベース部7等に
存在しない映像)を入力し、それを比較画像として扱う
検索画像入力部12で取得し、次に更新映像データ部1
6で、映像の検索条件から直接に映像データベース部3
内を検索して一致映像を求める。
Further, in the search, it is possible to perform a search by comparing images with each other, and a search image as a comparison image is directly obtained from an external image (image database unit 3, CG database) by some means (any means is selected). Video which does not exist in the section 7 etc.) is input, and it is acquired by the search image input section 12 which handles it as a comparison image, and then the updated video data section 1
6, the video database unit 3 directly from the video search conditions
Search inside for a matching video.

【0027】一方、通常の映像検索において、作業者が
検索の方法や対象を指定するための操作部分として、検
索指定部10等を備えている。
On the other hand, in a normal video search, a search designating section 10 and the like are provided as an operating section for the operator to designate a search method and a target.

【0028】検索においてはその目的や手法別に処理が
分けられる。映像そのもの、映像そのものによる検索、
映像検索部13で処理される。
In the search, the processing is divided according to its purpose and method. Video itself, search by video itself,
It is processed by the video search unit 13.

【0029】映像による映像の検索以外に、映像内及び
CG画像内の対象物を直接クリックする検索の場合や属
性を直接名称等で指定して検索する場合は、対象物の認
識を必要としない場合は映像検索部13を通さずに、も
しはじめに対象物の認識を必要とする場合は、映像検索
部12により対象物を認識した後、直接に属性検索部1
1に入る。
In addition to the video search by video, in the case of a search for directly clicking on a target in the video and the CG image or a search by directly specifying an attribute or the like, it is not necessary to recognize the target. In the case, if it is necessary to recognize the target object first without passing through the video search unit 13, after the target object is recognized by the video search unit 12, the attribute search unit 1 is directly connected.
Enter 1.

【0030】なお映像同士の比較である映像検索は、映
像データベース部3に蓄積保存されている各種の映像同
士、あるいはシステム外から取り入れた映像とを、更新
映像データ部16で比較するのである。例えば映像デー
タベース部3に保存されている全ての映像同士の対比で
あり、これによっての新旧の同一地点の映像の変更部分
を抽出したり、更新要否の判断をしたり、また例えばあ
る道路における事故現場の写真を外部から検索画像入力
部12に取り入れるとき、その事故現場地点が不明であ
るとき、事故現場の状況撮影の映像と蓄積されている映
像データとを対比し、事故現場の地点の特定を行えるよ
うにしているのである。具体的には、事故現場の撮影映
像(静止画、動画を問わない)を装置内に取り込み、被
比較映像と同じプロセスで視点の変更を含め例えばCG
画像化することで映像内の対象物の形状と相対座標を生
成し、これを比較映像から生成したCG画像とを比較す
ることで、三次元同士の比較となって検索を可能にして
いるのである。なおこれは、動画像においても同様に可
能である。
In the video search, which is a comparison of videos, the updated video data unit 16 compares various videos stored and stored in the video database unit 3 or videos taken from outside the system. For example, it is a comparison of all the images stored in the image database unit 3, by which the changed parts of the images at the same old and new points are extracted, whether or not the update is necessary is determined, and, for example, on a certain road. When a picture of the accident scene is externally imported to the search image input unit 12, and the accident scene point is unknown, the situation scene image of the accident scene is compared with the accumulated video data to show the accident scene point. It makes it possible to identify. Specifically, the video taken at the scene of the accident (regardless of whether it is a still image or a moving image) is taken into the device, and the change of the viewpoint including CG is performed in the same process as the compared image.
Since the shape and relative coordinates of the object in the video are generated by imaging, and by comparing this with the CG image generated from the comparison video, it becomes possible to perform a search as a three-dimensional comparison. is there. Note that this is also possible for moving images.

【0031】更に具体的に説明すると、画像内の対象物
をクリック等で指定して検索する場合には、状況映像と
CG画像とが完全に重なった状態で状況映像のみを表示
することとなっていても、例えば実際にクリックするの
は状況映像表示域31内における表示された状況映像中
の対象物であっても、効果として状況映像の背後にある
CG画像中の各部品をクリックしていることになる。す
なわちこれは、状況映像は元々は二次元であっても、三
次元画像表示されることになるCG画像等と同じに扱い
得ることによるのである。
More specifically, when the object in the image is designated by clicking or the like, the situation video and the CG image are completely overlapped and only the situation video is displayed. However, even if, for example, what is actually clicked is the object in the situation image displayed in the situation image display area 31, clicking each part in the CG image behind the situation image as an effect Will be there. That is, this is because the situation video can be handled in the same way as a CG image or the like that is to be displayed as a three-dimensional image even if the situation video is originally two-dimensional.

【0032】また属性検索部11による属性指定の検索
では、CG画像域33に表示される各部品は状況映像表
示域31に表示される対象物に対応しているので、クリ
ックによって対象物を指定すると、検索指定部10を介
して検索対象物に対応する映像・CG画像部品・属性を
検出し、位置あわせ同期部9、表示コントロール部1
4、表示装置15によって表示することができるのであ
る。また、属性を指定した場合は、対象物属性データベ
ース部8により、その属性を持つ部品をCG画像域33
内で検出できるので、その部品及びその部品に重なって
表示されている状況映像表示域31における状況映像中
の対象物を表示できるのである。更には対象物の属性が
対象物属性データベース部8に保存されているので、複
数の属性の組み合わせ、優先順位等の複合で検索を指定
することも可能となっている。
Further, in the search for attribute designation by the attribute retrieval unit 11, since each part displayed in the CG image area 33 corresponds to the object displayed in the situation video display area 31, the object is designated by clicking. Then, the video / CG image parts / attributes corresponding to the search object are detected through the search designation unit 10, and the position alignment synchronization unit 9 and the display control unit 1 are detected.
4. It can be displayed by the display device 15. When an attribute is designated, the object attribute database unit 8 determines the component having the attribute as the CG image area 33.
Since it can be detected inside, it is possible to display the part and the object in the status video in the status video display area 31 which is displayed overlapping with the part. Furthermore, since the attribute of the target object is stored in the target object attribute database unit 8, it is possible to specify a search by combining a plurality of attributes, a combination of priorities and the like.

【0033】別に取り込んだ新規な映像を指定して、映
像データベース部3内に蓄積保存されている映像を検索
するに際しては、前記検索のために別に取り込んだ映像
を比較基準として、映像の視点位置や画角が異なってい
ても、同じ場所で撮影した映像と同一対象物が映ってい
る映像とを複数の三次元対象物から構成される三次元の
映像として捉えて比較すれば、映像データベース部3中
から対応する映像を検索、抽出し、その映像と対応を付
けて検索した映像を表示できるのである。
When a video newly stored separately is designated and a video stored in the video database unit 3 is searched, the video captured separately for the search is used as a comparison reference and the viewpoint position of the video is searched. Even if the angle of view and the angle of view are different, if you compare the image shot at the same place and the image showing the same object as a three-dimensional image composed of multiple three-dimensional objects, the image database section It is possible to search and extract the corresponding video from among the three, and display the searched video in association with the video.

【0034】このとき、映像データベース部3内の映像
は位置あわせ同期部9で三次元化されており、状況映像
と重なるCG画像と完全に対応が付けられるから、取り
込んだ比較基準映像をCG手動作成部4またはCG自動
作成部5でCG画像化し、画像内の複数の静止した対象
物の三次元的位置関係を求め、その位置関係と同じ位置
関係を持つ状況映像あるいはCG画像を検索、抽出する
ことで映像を検索できるのである。あるいは例えば比較
基準映像(別に取り込んだ映像)をMPEG7で記述し
て他の属性で絞り込んだ後、あるいは直接に映像データ
ベース部3内の映像もMPEG7で記述し、映像データ
ベース部3に保存しておくことで、その後、比較基準映
像と同じ記述を持つ状況映像を映像データベース部3内
で検索することによって対応を求めれば検索が完了する
のである。もとより、当然に対応が求まれば位置座標が
取得され、状況映像表示域31内における状況映像の表
示、CG画像域33内のCG画像の表示夫々が可能とな
り、いずれも表示できることになるのである。
At this time, the images in the image database unit 3 are three-dimensionalized by the position alignment synchronization unit 9 and can be perfectly associated with the CG image overlapping with the situation image. A CG image is created by the creating unit 4 or the CG automatic creating unit 5, a three-dimensional positional relationship of a plurality of stationary objects in the image is obtained, and a situation video or CG image having the same positional relationship as the positional relationship is searched and extracted. By doing this, you can search for the video. Alternatively, for example, the comparison reference video (video captured separately) is described in MPEG7 and narrowed down by other attributes, or the video in the video database unit 3 is directly described in MPEG7 and stored in the video database unit 3. Thus, after that, if the situation video having the same description as the comparison reference video is searched in the video database unit 3 for correspondence, the search is completed. Of course, if the correspondence is naturally obtained, the position coordinates are acquired, and it becomes possible to display the situation video in the situation video display area 31 and the CG image in the CG image area 33, respectively. .

【0035】また図1に示すように、以上のように構成
される画像情報検索システムをインターネット等の通信
回線を利用して検索できるようにすることも可能であ
る。すなわち図に示すように、以上のように構成される
画像情報検索システム本体を、サーバー側データ送受信
部45と共にサーバー側主装置とし、検索指定部10に
相当する検索端末41、表示装置15の相当する表示端
末42を備え、データ送受信端末43を有するインター
ネット端末装置を用意しておき、このインターネット端
末装置におけるデータ送受信端末43、上記サーバー側
データ送受信部45を経由してサーバー側主装置と各種
情報を送受信できるようにするのである。
Further, as shown in FIG. 1, the image information search system configured as described above can be searched by using a communication line such as the Internet. That is, as shown in the figure, the main body of the image information search system configured as described above serves as the server-side main device together with the server-side data transmission / reception unit 45, and corresponds to the search terminal 41 and the display device 15 corresponding to the search designation unit 10. An internet terminal device having a display terminal 42 for operating and a data transmitting / receiving terminal 43 is prepared, and the server side main device and various information are passed through the data transmitting / receiving terminal 43 and the server side data transmitting / receiving part 45 in the internet terminal device. To be able to send and receive.

【0036】すなわち実際上の状況映像、これをCG画
像化したCG画像、各種の対象物及びその対象物に関す
る各種の属性データ、地図データ、地図あるいは航空写
真上の地点位置における検索のための索引情報、更には
状況映像作成のための制作過程及び制作過程における各
種データその他の各種情報を電気通信回線(有線、無線
を問わない)あるいはWeb(World wide
web)を通じて提供し、また取得できるようにするこ
とができる。そのため、例えば配信元においては各種情
報を逐次に更新しながら最新情報のものとしてサーバー
上に格納しておき、そのサーバーから各種情報をWeb
上に提供し、Webで結合することで最新の情報データ
を配信可能なものとするのである。
That is, an actual situation image, a CG image obtained by converting it into a CG image, various objects and various attribute data concerning the objects, map data, an index for searching at a point position on a map or aerial photograph. Information, and further, a production process for creating a situation video, various data in the production process, and other various information are provided through a telecommunication line (whether wired or wireless) or Web (World wide).
It can be provided and made available through the web). Therefore, for example, at the distribution source, various information is sequentially updated and stored on the server as the latest information, and the various information is sent from the server to the Web.
The latest information data can be distributed by providing it above and combining it on the Web.

【0037】また本発明システム内の各機能をWebの
配信で結合して全体システムを構築することも可能なも
のである。例えば本発明システムを構成する前記映像デ
ータベース部3、CG作成部4,5、CGデータベース
部7、位置あわせ同期部9、対象物属性データベース部
8、検索指定部10、表示装置15の少なくとも一部を
電気通信回線あるいはWebを介して接続構成するので
あり、これによって、状況映像内の通路及び通路に関す
る情報、関連する対象物及びその属性データその他を電
気通信回線、Webを介して更新し、検索表示するので
ある。
Further, it is possible to construct the entire system by combining the respective functions in the system of the present invention by Web distribution. For example, at least a part of the video database unit 3, the CG creation units 4 and 5, the CG database unit 7, the alignment synchronization unit 9, the object attribute database unit 8, the search designation unit 10, and the display device 15 which configure the system of the present invention. Are configured to be connected via a telecommunications line or the Web, whereby the information about the passages and passages in the situation video, related objects and their attribute data, etc. can be updated and retrieved via the telecommunications line or the Web. It is displayed.

【0038】すなわちこうすることで、例えば道路、河
川、海路、地底路、軌道、空路等である通路に関連する
各種情報の最新データへの逐次更新作業を行うに際して
も、作業者相互等が遠隔地でも、あるいは時間が異なっ
ていても円滑に作業させることができ、しかも簡易に逐
次更新させ、配信可能とさせることとなって、それを利
用者に即時に提供させ得るものとできる。
That is, by doing so, even when performing the sequential update work to the latest data of various information related to passages such as roads, rivers, sea routes, underground routes, trajectories, and air routes, the workers and the like are remote from each other. The work can be smoothly performed even on the ground or when the time is different, and furthermore, it is possible to easily and successively update and deliver the data, which can be immediately provided to the user.

【0039】更に図9には別の実施の形態が示されてお
り、表示装置15における状況映像表示域31内の状況
映像にグリット46をメッシュ状に視覚的にあるいは非
視覚的に重ね合わせて表示したものであり、このグリッ
ト46は状況映像内にCGによって空間にブロックを積
んだように一定の単位長さの間隔で実際の映像上での一
定距離、一定高さを表示するようにしたのであり、映像
が一点に収束される場合にはその間隔が一定比率で狭ま
るように表示される。例えば図示のように状況映像の撮
影位置から一定距離の前方に仮想の矩形の標準距離位置
線を表示し、その四辺から一定間隔毎に適当な単位長さ
の幅方向、高さ方向、進行方向に沿うグリット46を格
子状に表示するものとし、それによって、道路上の距
離、対象物その他の各種物体における面積、体積等の計
測を目視あるいは自動的な計算によって簡単に行うこと
ができると共に、対象物に対する視点変更位置の具体的
な設定をも簡易に行わせることができる。なおこのグリ
ット46は、状況映像表示域31内における状況映像上
に重ねて表示する場合に限らず、CG画像域33内にお
けるCG画像上に表示することも可能であることは勿論
である。
Further, FIG. 9 shows another embodiment in which the grid 46 is visually or non-visually superposed on the situation image in the situation image display area 31 of the display device 15 in a mesh form. This grit 46 is designed to display a constant distance and a constant height on the actual image at intervals of a constant unit length as if the blocks were stacked in space by CG in the situation image. Therefore, when the image is converged on one point, the interval is displayed so as to be narrowed at a constant ratio. For example, as shown in the figure, an imaginary rectangular standard distance position line is displayed in front of a certain distance from the shooting position of the situation video, and the width direction, height direction, and advancing direction of appropriate unit lengths from the four sides at constant intervals. It is assumed that the grids 46 along the line are displayed in a grid pattern, whereby the distance on the road, the area of various objects such as an object, the volume, etc. can be easily measured by visual or automatic calculation. The specific setting of the viewpoint change position for the object can be easily performed. The grit 46 is not limited to being displayed on the situation video in the situation video display area 31 in an overlapping manner, and can be of course displayed on the CG image in the CG image area 33.

【0040】グリット46の作成は、進行方向の空間の
うち、例えば道路幅を規定する位置から垂直上方の所定
高さの領域、この高さで道路の進行方向に少なくとも所
定距離分に亘り並行に沿う天井面の領域、及びその位置
に至る距離分に亘る側壁面の領域、更に各領域の所定距
離分の前方の位置において車両等に垂直な縦の壁面の如
き領域を規定すると共に、当該各領域に対し、図9に示
す複数の所定の実寸毎の四角い枠を格子状の線で囲うC
Gによって画像表示するものである。またグリットサイ
ズ(格子状の各四角い枠の実寸上のサイズ)の間隔は任
意に設定できるようにしておくと共に、上述の各領域
に、車両前方の仮想的なある一点に向って所定距離分に
亘り並行に収束するCGによる3次元のグリット46を
生成して状況映像上に合成出力するようにし、設定後の
グリットサイズに関するデータによって映像上で、グリ
ット46が視覚的なものであれば、ある地点間の距離、
面積、体積、対象物等の大きさ等を目視で計測でき、ま
た非視覚的なものであれば例えば自動計算手段によって
それらを計測し、表示できるようにしてある。
The grit 46 is created by, for example, a region of a predetermined height vertically upward from a position defining the road width in a space in the traveling direction, and at this height parallel to at least a predetermined distance in the traveling direction of the road. The area of the side wall surface along the area along the ceiling surface, the area of the side wall surface over the distance to the position, and the area such as a vertical wall surface perpendicular to the vehicle at a position ahead of each area by a predetermined distance are defined, and For a region, enclose a plurality of square frames for each predetermined size shown in FIG. 9 with a grid line C
The image is displayed by G. The grid size (the actual size of each grid-like square frame) can be set arbitrarily, and in each of the above-mentioned areas, a predetermined distance toward a virtual point in front of the vehicle can be set. If the three-dimensional grit 46 is generated by CG that converges in parallel over the whole and is synthesized and output on the situation image, and if the grit 46 is visual on the image by the data regarding the set grit size, it is present. Distance between points,
Areas, volumes, sizes of objects, etc. can be visually measured, and if non-visual, they can be measured and displayed by, for example, automatic calculation means.

【0041】なおこのようなグリット46表示は、その
原理において、車両に積載されたカメラ位置と道路面及
びその付帯物との関係につき、そのスケールを拡大し、
航空機に積載されたカメラと地上面及びその上の立体構
造物との関係に置き換えることができるのであり、道
路、河川、海路、地底路、軌道、空路等のいずれにも適
用できるのは勿論である。
In this principle, such a grid 46 display has its scale enlarged in relation to the relationship between the position of the camera mounted on the vehicle and the road surface and its incidental objects.
It can be replaced by the relationship between the camera loaded on the aircraft and the ground surface and the three-dimensional structure on it, and it can be applied to any of roads, rivers, sea routes, underground routes, tracks, and air routes. is there.

【0042】次に画像検索、属性検索、その他の検索の
具体的な手順のいくつかを説明するに、本実施の形態に
おける画像情報検索システムおいては、対象である各種
通路における実際に走行したときの周囲の状況を連続的
に撮影した状況映像を、その視点であるカメラ位置とカ
メラの画角情報等をCG画像化して、その映像を再現で
きる情報を映像データベース部3に記録しており、また
CG画像内の対象物はその属性やデータを即時に表示で
きるよう一意に定められる識別子を持っていることを前
提に以下の処理を行うのである。
Next, some specific procedures for image retrieval, attribute retrieval, and other retrieval will be described. In the image information retrieval system according to the present embodiment, the vehicle actually travels on various passages that are objects. A situation video obtained by continuously photographing the surrounding situation at that time is converted into a CG image of the camera position, which is the viewpoint, and the angle of view information of the camera, and the information capable of reproducing the video is recorded in the video database unit 3. Further, the following processing is performed on the assumption that the object in the CG image has an identifier uniquely determined so that its attribute and data can be displayed immediately.

【0043】例えば経度・緯度、キロ標等に基づく位置
情報と関連して検索する場合には、以下の手順による。 (1) 表示装置15に表示された状況映像表示域31、地
図域32、CG画像域33内における当該通路のリアル
タイム動画像あるいは記録した動画像(どちらも静止画
を含む)より対象物をクリックする。 (2) 対象物がクリックされた画像のフレームよりカメラ
の位置、画角等を取得する。 (3) 映像データベース部3より対象物の選択に使用され
たフレームと同一の位置、画角の画像を生成する。 (4) 選択された表示域31,32,33内のクリックさ
れた画面上の位置情報より、CG画像内のその場所の対
象物を検索する。 (5) 検索により得られた対象物の識別子を取得する。 (6) 識別子に一致する属性、データ等を検索結果表示域
34に表示する。
For example, in the case of searching in relation to position information based on longitude / latitude, kilogram, etc., the following procedure is performed. (1) Click the object from the real-time moving image or the recorded moving image (both including still images) of the passage in the situation video display area 31, the map area 32, and the CG image area 33 displayed on the display device 15. To do. (2) Acquire the camera position, angle of view, etc. from the frame of the image in which the object is clicked. (3) An image at the same position and angle of view as the frame used to select the object is generated from the video database unit 3. (4) Based on the position information on the clicked screen in the selected display area 31, 32, 33, the object at that location in the CG image is searched. (5) Acquire the identifier of the object obtained by the search. (6) The attributes, data, etc. that match the identifier are displayed in the search result display area 34.

【0044】また対象物の属性を検索する場合には、以
下の手順による(図7参照)。 (1) 表示装置15に表示された状況映像表示域31、地
図域32、CG画像域33内における当該通路のリアル
タイム動画像あるいは記録した動画像(どちらも静止画
を含む)より対象物をクリックする。 (2) 検索により得られた対象物の識別子を取得する。 (3) 識別子に一致する属性、データ等を検索結果表示域
34に表示する。
Further, when retrieving the attributes of the object, the following procedure is performed (see FIG. 7). (1) Click the object from the real-time moving image or the recorded moving image (both including still images) of the passage in the situation video display area 31, the map area 32, and the CG image area 33 displayed on the display device 15. To do. (2) Acquire the identifier of the object obtained by the search. (3) The attributes, data, etc. that match the identifier are displayed in the search result display area 34.

【0045】また対象物を自由視点によって変更表示
し、検索する場合には、以下の手順による(図4参
照)。 (1) 映像データベース部3内の状況映像を表示し、同時
にその状況映像のフレームのカメラ位置と画角情報とに
より、CG画像化した映像データベース部3内のCG画
像を同一地点、同一画角で生成し表示する。 (2) 状況映像より得られた位置情報によって、状況映像
の位置をCG画像域33内におけるCG画像内に視点変
更制御域33Aにおけるアイコン指示によってマーカ表
示する。 (3) 状況映像表示域31内における状況映像の再生に合
わせ、CG画像も地点、画角情報より生成を繰り返す。 (4) 自由視点の機能が選択されることにより、CG画像
域33で表示されたCG画像内を自由に移動し、自由な
視点でCG画像内を移動でき、視点を変えたCG画像が
同時に生成される。 (5) CG画像内の移動により生成されたCG画像内のの
対象物をクリックする。 (6) 検索により得られた対象物の識別子を取得する。 (7) 識別子に一致する属性、データ等を検索結果表示域
34に表示する。
When the object is changed and displayed from a free viewpoint and is searched, the following procedure is performed (see FIG. 4). (1) The situation video in the video database unit 3 is displayed, and at the same time, the CG image in the video database unit 3 converted into a CG image is displayed at the same point and the same angle of view by the camera position and the view angle information of the frame of the situation video. Generate and display with. (2) The position of the situation video is displayed as a marker in the CG image in the CG image area 33 by the icon instruction in the viewpoint change control area 33A based on the position information obtained from the situation video. (3) The CG image is repeatedly generated from the point and angle of view information in accordance with the reproduction of the situation video in the situation video display area 31. (4) By selecting the function of free viewpoint, it is possible to freely move within the CG image displayed in the CG image area 33 and move within the CG image with a free viewpoint, and the CG image with a changed viewpoint is simultaneously displayed. Is generated. (5) Click the object in the CG image generated by the movement in the CG image. (6) Acquire the identifier of the object obtained by the search. (7) The attributes, data, etc. that match the identifier are displayed in the search result display area 34.

【0046】また状況映像内で表示されている地点にお
ける対象の距離、面積、体積を計算し表示する場合に
は、以下の手順による(図5参照)。 (1) 当該通路のリアルタイム動画像あるいは記録した動
画像(どちらも静止画を含む)を状況映像表示域31に
表示しておき、計測指示域39における距離・面積・体
積の機能を選択した上で、地点その他の対象を必要回ク
リックする。 (2) 対象がクリックされた画像のフレームより視点であ
るカメラの位置、画角等を取得する。 (3) CGデータベース部7によって、対象の指定に使用
されたフレームと同一の位置、画角の画像を生成する。 (4) 選択されたフレーム内のクリックされた画面上の位
置情報によってCG画像内のその場所の対象を特定す
る。距離の場合は2カ所の指定された点と交点をもつC
G画像内の面の1点と他の1点とする。面積・体積の場
合は指定された複数の点により構成される3次元内の面
と3次元内の3次元多角形とする。 (5) 指定された対象の距離、面積、体積を計算し表示す
る。
Further, when calculating and displaying the distance, area, and volume of the object at the point displayed in the situation video, the following procedure is performed (see FIG. 5). (1) A real-time moving image of the passage or a recorded moving image (both including still images) is displayed in the situation video display area 31, and the functions of distance, area, and volume in the measurement instruction area 39 are selected. Then, click the point or other object as many times as you need. (2) The position, angle of view, etc. of the camera, which is the viewpoint, is acquired from the frame of the image in which the target is clicked. (3) The CG database unit 7 generates an image at the same position and angle of view as the frame used to specify the target. (4) The target of the place in the CG image is specified by the position information on the screen clicked in the selected frame. In case of distance, C with two specified points and intersections
One point on the surface in the G image and the other one point. In the case of area / volume, it is a surface in three dimensions formed by a plurality of designated points and a three-dimensional polygon in three dimensions. (5) Calculate and display the distance, area and volume of the specified object.

【0047】またCG画像内で表示されている地点にお
ける対象の距離、面積、体積を計算し表示する場合に
は、以下の手順による(図6参照)。 (1) 当該通路のCG画像をCG画像域33に表示してお
き、計測指示域39における距離・面積・体積の機能を
選択した上で、地点その他の対象を必要回クリックす
る。 (2) CGデータベース部7によって、対象の指定に使用
されたフレームと同一の位置、画角の画像を生成して、
その映像を表示する。 (3) 選択されたフレーム内のクリックされたCG画像の
画面上の位置情報によって対象を特定する。距離の場合
は2カ所の指定された点と交点をもつCG画像内の面の
1点と他の1点とする。面積・体積の場合は指定された
複数の点により構成される3次元内の面と3次元内の3
次元多角形とする。 (4) 指定された対象の距離、面積、体積を計算し表示す
る。
Further, when the distance, area and volume of the object at the point displayed in the CG image are calculated and displayed, the following procedure is performed (see FIG. 6). (1) Display the CG image of the passage in the CG image area 33, select the function of the distance, area, and volume in the measurement instruction area 39, and then click the point or other object as many times as necessary. (2) The CG database unit 7 generates an image at the same position and angle of view as the frame used to specify the target,
Display the image. (3) The target is specified by the positional information on the screen of the clicked CG image in the selected frame. In the case of a distance, one point on the surface in the CG image having two designated points and an intersection point and the other point. In the case of area / volume, a surface in 3D composed of a plurality of specified points and 3 in 3D
Dimensional polygon. (4) Calculate and display the distance, area and volume of the specified target.

【0048】また状況映像における視点を変更表示し、
CG画像も同様に扱うことで検索対象にし、あるいは検
索の入り口とする場合には、以下の手順による(図4参
照)。この場合、連続した映像より得られた空間情報の
映像をテクスチャーとして蓄積すると共に、このテクス
チャーは、視点位置と画角とを指定することによって、
その位置から見た画像を表示できるよう画像処理を行う
ことを前提に記録されているのである。 (1) 当該通路のリアルタイム動画像あるいは記録した動
画像(どちらも静止画を含む)において、カメラ位置の
変更を選択する。 (2) 指定された変更を、量、現在のカメラ位置、画角よ
り変更量を計算する。 (3) 蓄積されたテクスチャーを、変更量によって画像変
換して画像内に張り付ける。 (4) これを繰り返し表示する。
Further, by changing and displaying the viewpoint in the situation video,
When the CG image is treated in the same manner to be a search target or an entrance to the search, the following procedure is performed (see FIG. 4). In this case, the image of the spatial information obtained from the continuous image is accumulated as a texture, and this texture is specified by the viewpoint position and the angle of view.
It is recorded on the premise that image processing is performed so that the image viewed from that position can be displayed. (1) In the real-time moving image of the passage or the recorded moving image (both including a still image), select to change the camera position. (2) Calculate the amount of change for the specified change from the amount, current camera position, and angle of view. (3) The accumulated texture is converted into an image according to the change amount and pasted in the image. (4) Display this repeatedly.

【0049】また状況映像、CG画像、地図等を重ねて
表示する場合には、以下の手順による。 (1) 当該通路のリアルタイム動画像あるいは記録した動
画像(どちらも静止画を含む)の画像の再生によって、
カメラ位置、画角の変化情報をCG画像を表示するCG
画像域33に、同様に地図を地図域32に送る。 (2) 送られた変化情報より、CGデータベース部7によ
ってCG画像を指定された変化情報を基に指定された方
法、すなわち並べてあるいは重ねて生成し、表示する。 (3) 一方、送られた変化情報から得られた地図位置情報
によって地図域32内に地図データベースの当該地点を
指定された方法、すなわち並べてあるいは重ねて表示す
る。 (4) (1) から(4) の内容を繰り返し表示する。
Further, when the situation video, CG image, map and the like are displayed in an overlapping manner, the following procedure is performed. (1) By reproducing the real-time moving image of the passage or the recorded moving image (both including still images),
CG that displays the CG image with information on changes in the camera position and angle of view
Similarly, the map is sent to the image area 33 and the map area 32. (2) From the transmitted change information, a CG image is generated and displayed by a method specified by the CG database unit 7 based on the specified change information, that is, side by side or overlapping. (3) On the other hand, the point of the map database is displayed in the map area 32 by the designated method, that is, side by side or overlapping, according to the map position information obtained from the transmitted change information. (4) Display the contents of (1) to (4) repeatedly.

【0050】また映像データベース部3、CGデータベ
ース部7内における共通する対象物を検索する場合に
は、以下の手順によるもので、例えば「現在地の次の交
差点から50メートル以内にあるコンビニを見つけよ」
とする場合につき説明する(図8参照)。 (1) 検索指定部10で入力された検索内容を属性検索部
11に送る。例えばその検索内容は、検索条件入力域4
0Aで複合属性検索あるいはAI検索を選択し、次の指
定をクリックすることとし、指定の第1としての対象物
を「交差点」、指定の第2の対象物を「コンビニ」、指
定の第3の検索方向を「進行方向そのまま」、指定の第
4の属性距離範囲を「50メートル」、指定の第5の表
示対象を「コンビニ」、指定の第6の表示方法を「全
て」とする。 (2) 属性検索部11及び対象物属性データベース部8に
よって該当するコンビニエンストアを指定された範囲で
検索する。 (3) 表示コントロール部14に検索結果を送り、当該地
点での状況映像を状況映像表示域31に、CG画像をC
G画像域33に、地点周囲の地図を地図域32に、その
属性データを検索結果表示域34に表示する。
When searching for a common object in the video database unit 3 and the CG database unit 7, the following procedure is used. For example, "find a convenience store within 50 meters from the next intersection of the current location". "
The case will be described (see FIG. 8). (1) The search contents input by the search designation unit 10 are sent to the attribute search unit 11. For example, the search content is the search condition input area 4
Select the complex attribute search or AI search with 0A, and click the next designation. The designated first object is the "intersection", the designated second object is the "convenience store", and the designated third. The search direction of "is the same as the traveling direction", the designated fourth attribute distance range is "50 meters", the designated fifth display target is "convenience store", and the designated sixth display method is "all". (2) A corresponding convenience store is searched by the attribute search unit 11 and the object attribute database unit 8 within a specified range. (3) The search result is sent to the display control unit 14, the situation video at the point is displayed in the situation video display area 31, and the CG image is displayed in C.
A map around the point is displayed in the G image area 33, a map area 32 is displayed, and its attribute data is displayed in the search result display area 34.

【0051】[0051]

【発明の効果】本発明は以上のように構成されており、
これがために、道路・河川その他の各種通路における実
際状況の動画像・連続静止画像等の状況映像が有する三
次元情報を、地図・航空写真等の地域図における位置情
報と関連付けることができ、その際、三次元情報中で認
識抽出される各種対象物をCG部品によるCG画像化し
て再構成し、状況映像に含まれる各種対象物のデータベ
ースを構築することで、検索対象を地図上に表示するの
みならず、三次元情報中の対象物における例えば名称・
属性・それらの組合せその他のデータまでに検索、表示
可能にすることができる。
The present invention is configured as described above,
For this reason, it is possible to correlate the three-dimensional information of the situation video such as the moving image of the actual situation / continuous still image on the road / river or other various passages with the position information on the area map such as a map / aerial photograph. At this time, various objects that are recognized and extracted in the three-dimensional information are converted into CG images by CG parts and reconstructed, and a database of various objects included in the situation video is constructed to display search objects on a map. Not only the name of the object in the 3D information,
It is possible to search and display attributes, their combinations, and even other data.

【0052】そしてまた、状況映像を検索信号として、
同種のあるいは同じような対象物が映っている映像をデ
ータベースから検索することができ、しかも従来に比
し、対応する状況映像を簡単に検索できるので、全映像
を位置座標に合わせた状態で自動的に簡単に更新できる
のである。
Further, the situation video is used as a search signal,
You can search the database for videos showing the same or similar objects, and more easily search the corresponding situation video than before, so all videos are automatically adjusted to the position coordinates. Can be easily updated.

【0053】そればかりでなく、道路管理上で不都合で
あった状況映像内の日陰の部分の領域を周囲と同じ明る
さと色温度で表示でき、的確な管理情報の取得に役立て
ることができ、更に同様に、道路管理上で不都合であっ
た車両等の移動体を状況映像から削除し、その空白部分
を他の映像から情報を取得して貼り付けることで車両の
ない道路面を表示でき、道路管理面での原始情報を獲得
できるのである。
Not only that, the shaded area in the situation video which is inconvenient for road management can be displayed with the same brightness and color temperature as the surroundings, which can be useful for obtaining accurate management information. Similarly, by deleting a moving object such as a vehicle, which was inconvenient for road management, from the situation video and pasting the blank portion of the information from other videos and pasting it, a road surface without a vehicle can be displayed. It is possible to acquire the primitive information on the management side.

【0054】また動画像あるいは連続静止画像を従来に
比し2次元から3次元に拡張したことで計測が自由にな
り、同一フレームの状況映像内での更には連続する複数
のフレームをまたぐ三次元計測が可能となり、多種にわ
たる検索条件の組合せによる検索を可能にするのであ
る。しかも地図技術、CG画像技術等を組み合わせて有
効に利用することにより、検索方法が大幅に拡張され、
名称・属性等の組み合わせで、複雑な条件の検索が可能
である。
Further, since the moving image or continuous still image is expanded from two dimensions to three dimensions as compared with the conventional one, measurement can be freely performed, and three-dimensional straddling a plurality of consecutive frames in the same frame situation image. It is possible to measure, and it is possible to search by combining various search conditions. Moreover, by effectively using the combination of map technology, CG image technology, etc., the search method is greatly expanded,
It is possible to search for complicated conditions by combining names and attributes.

【0055】更にはCG画像を基準にすることで、撮影
時の映像の揺れ・回転等を修正することができる利点も
得られるのである。
Furthermore, by using the CG image as a reference, it is possible to obtain the advantage that the shaking and rotation of the image at the time of shooting can be corrected.

【0056】一方、車両等に搭載するカーナビゲーショ
ンシステムとするとき、実際に走行している地点におけ
る周囲の実際上の状況映像、CG画像を表示できるの
で、走行中の周囲状況、すなわち地図のみでは得られな
い実際情景との対比を容易にし、例えば錯綜、複雑な都
市部での交差点その他で方向等を誤ることがないのであ
る。
On the other hand, in the case of a car navigation system mounted on a vehicle or the like, it is possible to display an actual situation image and CG image of the surroundings at a point where the vehicle is actually traveling. This makes it easier to compare with unrealistic scenes, and does not make mistakes in directions such as intricacy, intersections in complicated urban areas, etc.

【0057】また状況映像内の対象物と、その属性デー
タとを電気通信回線あるいはWebを介して検索表示で
きるように、例えば映像データベース部3、CG作成部
4,5、CGデータベース部7、位置あわせ同期部9、
対象物属性データベース部8、検索指定部10、表示装
置15の少なくとも一部は電気通信回線あるいはWeb
を介して接続構成することで、各種情報の最新データへ
の逐次更新作業を遠隔地相互間でも、異時的にでも円滑
に行うことができ、しかも簡易に逐次更新させることで
即時に提供させ得るばかりでなく、利用者は最新データ
を入手できるのである。
Further, the object in the situation image and its attribute data can be searched and displayed via an electric communication line or the Web so that, for example, the image database unit 3, the CG creation units 4, 5, the CG database unit 7, the position. Matching synchronization unit 9,
At least a part of the object attribute database unit 8, the search designation unit 10, and the display device 15 is a telecommunication line or a Web.
By configuring the connection via the above, it is possible to perform the sequential update work of the various information to the latest data smoothly between remote locations and even at different times, and to provide it immediately by performing the sequential update easily. Not only can users get the latest data.

【0058】更に状況映像、属性データ、地図データ、
索引情報、更には状況映像作成のための制作情報等を電
気通信回線を通じて提供ないし取得できるようにし、こ
れらが更新されることで、利用者は、日々に変化する通
路に関連する各種情報を最新のものとして逐次入手可能
なものである。
Further, the situation video, the attribute data, the map data,
By making it possible to provide or acquire index information and production information for situation video creation through a telecommunication line, and updating these, the user can obtain various information related to the passage that changes daily. It is one that can be sequentially obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】同じく陰影補完処理プロセスを説明するチャー
ト図である。
FIG. 2 is a chart diagram similarly illustrating a shadow complementing process.

【図3】同じく表示装置における画面配置例の正面図で
ある。
FIG. 3 is a front view of a screen layout example of the display device.

【図4】同じく対象物のデータを表示すると共に自由視
点の変更指示域が表示された画面例である。
FIG. 4 is an example of a screen on which data for an object is also displayed and a free viewpoint change instruction area is displayed.

【図5】同じく対象の体積、距離、面積等を状況映像表
示域内における指定によって計測する場合の画面例であ
る。
FIG. 5 is an example of a screen when the volume, distance, area, etc. of the target are measured by designation in the situation video display area.

【図6】同じく対象の体積、距離、面積等をCG画像域
内における指定によって計測する場合の画面例図であ
る。
FIG. 6 is a diagram showing an example of a screen when the volume, distance, area, etc. of the target are measured by designation in the CG image area.

【図7】同じくCG画像域内の対象物によって、その属
性、位置、データ等を表示した画面例である。
FIG. 7 is an example of a screen on which the attributes, positions, data, etc. of objects in the CG image area are displayed.

【図8】同じくデータベース部内における対象物を検索
し、表示した場合の画面例である。
FIG. 8 is an example of a screen when an object in the database unit is searched and displayed.

【図9】同じく表示区域内に表示された映像・画像にグ
リットを重ねて表示した場合の画面例である。
FIG. 9 is an example of a screen when grit is superimposed on a video / image that is also displayed in the display area.

【符号の説明】[Explanation of symbols]

1…リアルタイム映像取得部 2…記録映像デ
ータ取得部 3…映像データベース部 4…CG手動作
成部 5…CG自動作成部 6…地図・航空
写真データベース部 7…CGデータベース部 8…対象物属性
データベース部 9…位置あわせ同期部 10…検索指定
部 11…属性検索部 12…検索画像
入力部 13…映像検索部 14…表示コン
トロール部 15…表示装置 16…更新映像
データ部 17…映像補完部 18…移動体抽
出部 21…映像画像入力 22…陰影抽出 23…テクスチャー分析保存 24…基準色温
度抽出 25…周囲色温度抽出 26…3D陰影
補完 27…補正情報を持つフレーム選択 28…画像切り
取り 29…画像貼り付け補完 30A…補正映
像出力 30B…補正映像出力 31…状況映像表示域 32…地図域 33…CG画像域 33A…視点変
更制御域 34…検索結果表示域 35…索引情報
検索域 36…操作域 37…表示制御
域 38…呼出域 39…計測指示
域 40…印刷指示域 40A…検索条
件入力域 41…検索端末 42…表示端末 43…データ送受信端末 45…サーバー
側データ送受信部 46…グリット
1 ... Real-time video acquisition unit 2 ... Recorded video data acquisition unit 3 ... Video database unit 4 ... CG manual creation unit 5 ... CG automatic creation unit 6 ... Map / aerial photo database unit 7 ... CG database unit 8 ... Object attribute database unit 9 ... Positioning synchronization unit 10 ... Search designation unit 11 ... Attribute search unit 12 ... Search image input unit 13 ... Video search unit 14 ... Display control unit 15 ... Display device 16 ... Update video data unit 17 ... Video complement unit 18 ... Move Body extraction unit 21 ... Video image input 22 ... Shade extraction 23 ... Texture analysis save 24 ... Reference color temperature extraction 25 ... Ambient color temperature extraction 26 ... 3D shadow complement 27 ... Frame selection with correction information 28 ... Image clipping 29 ... Image pasting Supplementation 30A ... Corrected video output 30B ... Corrected video output 31 ... Situation video display area 32 ... Map area 33 ... CG image area 33A ... Viewpoint change control area 34 ... Search result display area 35 ... Index information search area 36 ... Operation area 37 ... Display control area 38 ... Call area 39 ... Measurement instruction area 40 ... Print instruction area 40A ... Search condition input area 41 ... Search terminal 42 Display terminal 43 Data transmission / reception terminal 45 Server side data transmission / reception unit 46 Grit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 17/40 G06T 17/40 G 17/50 17/50 G08G 1/0969 G08G 1/0969 Fターム(参考) 2F029 AA02 AC13 AC14 5B050 AA06 BA07 BA08 BA11 BA17 BA18 CA07 CA08 DA02 EA09 EA20 EA24 EA27 EA30 FA02 FA05 FA13 FA19 GA08 5B057 AA13 AA16 BA02 BA24 BA26 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE08 CE11 CE16 CH08 CH18 DA07 DA16 DB02 DB06 DB09 DC09 5B075 ND20 ND23 NR02 NR20 PQ02 PQ13 UU14 UU40 5H180 AA01 CC04 FF22 FF27 FF32 FF38 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 17/40 G06T 17/40 G 17/50 17/50 G08G 1/0969 G08G 1/0969 F term (reference) ) 2F029 AA02 AC13 AC14 5B050 AA06 BA07 BA08 BA11 BA17 BA18 CA07 CA08 DA02 EA09 EA20 EA24 EA27 EA30 FA02 FA05 FA13 FA19 GA08 5B057 AA13 AA16 BA02 BA24 BA26 CA08 CA12 CA16 CA08 DB12 CE16 DA16 CE16 CH01 5B075 ND20 ND23 NR02 NR20 PQ02 PQ13 UU14 UU40 5H180 AA01 CC04 FF22 FF27 FF32 FF38

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】 検索すべき通路状況を当該通路を移動し
ながら撮影することによって状況映像を取得して表示
し、状況映像内の対象物と、対象物に予め作成、登録さ
せておいた属性データとを相互に検索表示できるように
したことを特徴とする画像情報検索システム。
1. A situation video is acquired and displayed by photographing a passage situation to be searched while moving along the passage, and an object in the situation video and an attribute created and registered in advance in the object. An image information retrieval system characterized in that data and data can be mutually retrieved and displayed.
【請求項2】 検索すべき通路状況を当該通路を移動し
ながら撮影することによって状況映像を取得して表示す
る一方、この状況映像中に撮影されている各種の対象物
をCG(コンビュータグラフィックス)画像化して表示
しておき、状況映像内あるいはCG画像内の対象物と、
対象物に予め作成、登録させておいた属性データとを相
互に検索表示できるようにしたことを特徴とする画像情
報検索システム。
2. A situation video is acquired and displayed by photographing a passage situation to be searched while moving through the passage, and various objects photographed in the situation video are displayed on a CG (Converter Graphics). ) It is displayed in the form of an image, and the object in the situation video or CG image is displayed.
An image information search system characterized in that it is possible to mutually search and display attribute data that has been created and registered in advance on an object.
【請求項3】 検索すべき通路状況を当該通路を移動し
ながら撮影することによって状況映像を取得し、この状
況映像中に撮影されている各種の対象物をCG画像化し
て表示する一方、当該通路の地図あるいは航空写真を表
示しておき、CG画像内、地図あるいは航空写真内の対
象物と、対象物に予め作成、登録させておいた属性デー
タとを相互に検索表示できるようにしたことを特徴とす
る画像情報検索システム。
3. A situation video is obtained by photographing a passage situation to be searched while moving along the passage, and various objects photographed in the situation video are displayed as CG images while being displayed. A route map or aerial photograph is displayed so that the object in the CG image, the map or aerial photograph and the attribute data created and registered in advance for the object can be searched and displayed. Image information retrieval system characterized by.
【請求項4】 通路は、道路、河川、海路、地底路、軌
道、空路等である請求項1乃至3のいずれかに記載の画
像情報検索システム。
4. The image information search system according to claim 1, wherein the passage is a road, a river, a sea route, an underground route, an orbit, an air route, or the like.
【請求項5】 状況映像は動画像あるいは連続静止画像
のものとしてある請求項1乃至4のいずれかに記載の画
像情報検索システム。
5. The image information retrieval system according to claim 1, wherein the situation video is a moving image or a continuous still image.
【請求項6】 状況映像はリアルタイム映像、予め取得
作成した記録映像の少なくともいずれかとしてある請求
項1乃至5のいずれかに記載の画像情報検索システム。
6. The image information retrieval system according to claim 1, wherein the situation video is at least one of a real-time video and a recorded video acquired in advance.
【請求項7】 表示された状況映像の地点位置を地図あ
るいは航空写真上に表示すると共に、地点位置の緯度・
経度・高度あるいは緯度・経度のみ、基準地から距離、
地点名称の少なくともいずれかの索引情報を備えている
請求項1乃至6のいずれかに記載の画像情報検索システ
ム。
7. The point position of the displayed situation video is displayed on a map or aerial photograph, and the latitude / longitude of the point position is displayed.
Only longitude / altitude or latitude / longitude, distance from the reference point,
The image information search system according to any one of claims 1 to 6, comprising index information of at least one of spot names.
【請求項8】 状況映像を保存記録する映像データベー
ス部と、状況映像をCG画像化するCG作成部と、CG
画像化されたデータを保存記録するCGデータベース部
と、映像データベース部内の状況映像及びCGデータベ
ース部内のCG画像両者を対応させる位置あわせ同期部
と、CGデータベース部内に記録されているCG画像に
おける各種対象物の属性データを保存記録する対象物属
性データベース部と、検索方法、検索対象を指定する検
索指定部と、状況映像、CG画像、検索結果を表示する
表示装置とを備えて成ることを特徴とする画像情報検索
システム。
8. A video database section for storing and recording the status video, a CG creating section for converting the status video into a CG image, and a CG
A CG database section for storing and recording imaged data, a position synchronization section for associating both the situation video in the video database section and the CG image in the CG database section, and various objects in the CG image recorded in the CG database section An object attribute database section for storing and recording object attribute data, a search specification section for specifying a search method and a search object, and a display device for displaying a situation video, a CG image, and a search result. Image information retrieval system to do.
【請求項9】 表示装置は、状況映像表示域、地図域、
CG画像域を区画表示し、状況映像を表示する状況映像
表示域内における表示映像と、CG画像を表示するCG
画像域内におけるCG画像とは相互に対応し、また地図
あるいは航空写真を表示する地図域内における地図ある
いは航空写真上の地点に対応している請求項8に記載の
画像情報検索システム。
9. The display device comprises a situation video display area, a map area,
The CG image area is divided and displayed, and the status video is displayed. The display video in the status video display area and the CG that displays the CG image
9. The image information retrieval system according to claim 8, which corresponds to a CG image in the image area and corresponds to a point on the map or aerial photograph in the map area for displaying the map or aerial photograph.
【請求項10】 状況映像における表示に、地点が対応
するように同期したCG画像と同一地点、同一視角のC
G画像を並べて、あるいは位置と対象物とが合致するよ
うに重ねて同時にあるいは選択により単独で表示し、C
G画像内で表示された対象物を直接に選択指定すること
で、その対象物の属性やデータを画面に表示し、あるい
は同時に地点の緯度、経度を表示するようにしてある請
求項1乃至9のいずれかに記載の画像情報検索システ
ム。
10. The C at the same point and the same viewing angle as the CG image synchronized so that the point corresponds to the display in the situation video.
G images are displayed side by side, or overlapped so that the position and the object match each other, or displayed simultaneously or independently, and C
10. By directly selecting and designating the object displayed in the G image, the attribute and data of the object are displayed on the screen, or simultaneously the latitude and longitude of the point are displayed. The image information retrieval system described in any of 1.
【請求項11】 状況映像内における対象物の動きに、
地点を含むように同期して動くようにCG画像を自由視
点で表示し、あるいは状況映像内の対象物の位置をCG
画像内に表示し、あるいは選択によって同期せずにCG
画像を単独で自由視点で表示し、CG画像内の対象物を
直接に選択指定を指定することで、その対象物の属性や
データを画面に表示するようにしてある請求項1乃至1
0のいずれかに記載の画像情報検索システム。
11. The movement of the object in the situation image,
The CG image is displayed from a free viewpoint so as to move synchronously so as to include the point, or the position of the object in the situation video is CG.
Display in the image or CG without synchronization depending on selection
An image is independently displayed from a free viewpoint, and an attribute or data of the target object in the CG image is displayed on the screen by directly selecting and designating the target object.
The image information retrieval system according to any one of 0.
【請求項12】 状況映像内あるいはCG画像内の対象
を指定することで、距離・面積・体積を計測し、それら
を画面に表示するようにしてある請求項1乃至11のい
ずれかに記載の画像情報検索システム。
12. The distance, area, or volume is measured by designating an object in the situation video or CG image, and these are displayed on the screen. Image information retrieval system.
【請求項13】 状況映像をCG画像と同様に、状況映
像内における視点を変更して表示し、あるいはCG画像
を状況映像と同様に扱い、両者を区別なく検索対象と
し、あるい検索の入り口とする請求項1乃至12に記載
の画像情報検索システム。
13. A situation video is displayed in the same manner as a CG image by changing the viewpoint in the situation video, or a CG image is treated in the same way as a situation video, and both are treated as search targets without distinction. The image information search system according to claim 1.
【請求項14】 状況映像で表示された地点の動きに同
期して表示される地図あるいは航空写真をCG画像と並
べてあるいは重ねて表示するようにしてある請求項1乃
至13に記載の画像情報検索システム。
14. The image information retrieval according to claim 1, wherein the map or aerial photograph displayed in synchronization with the movement of the point displayed in the situation video is displayed side by side or overlaid with the CG image. system.
【請求項15】 検索指定部は検索方法、検索対象を指
定するのであり、状況映像表示域、地図域、CG画像域
の少なくともいずれかで対象物の一部または複数を含む
検索条件を指定してそれらの条件を満足する対象物を検
索できるようにしてある請求項8乃至14のいずれかに
記載の画像情報検索システム。
15. The search designation unit designates a search method and a search target, and designates a search condition including a part or a plurality of objects in at least one of a situation video display area, a map area, and a CG image area. The image information retrieval system according to any one of claims 8 to 14, wherein an object satisfying those conditions can be retrieved.
【請求項16】 検索指定部は検索方法、検索対象を指
定するのであり、別に取得した新規映像を比較対象とし
て、その新規映像と同一の場所で撮影した映像データベ
ース部内の状況映像、あるいはCGデータベース部内の
CG画像を検索対象とし、更には地図あるいは航空写真
上の位置を検索対象としている請求項8乃至15のいず
れかに記載の画像情報検索システム。
16. The search designation unit designates a search method and a search target, and a situation video in a video database unit or a CG database taken at the same place as the new video, which is a separately acquired new video as a comparison target. The image information search system according to any one of claims 8 to 15, wherein a CG image in the department is a search target, and further a position on a map or an aerial photograph is a search target.
【請求項17】 別に取得した新規映像のデータは映像
データベース部内の状況映像あるいはCGデータベース
部内のCG画像と比較し、対応させることで、新規映像
のデータは状況映像データあるいCG画像から三次元座
標を取得し、取得された座標により映像データベース部
内の状況映像を更新し、映像データベース部に更新デー
タとして記録保存する更新映像データ部を備えている請
求項1乃至16のいずれかに記載の画像情報検索システ
ム。
17. The newly acquired video data is compared with the status video stored in the video database section or the CG image stored in the CG database section, and made to correspond to the three-dimensional data from the status video data or the CG image. The image according to any one of claims 1 to 16, further comprising: an updated video data unit that acquires coordinates, updates the situation video in the video database unit based on the acquired coordinates, and records and stores the updated status data in the video database unit. Information retrieval system.
【請求項18】 更新データは、座標を同じくする並列
データとして並列表示あるいは切り替え表示とする請求
項17に記載の画像情報検索システム。
18. The image information retrieval system according to claim 17, wherein the updated data is displayed in parallel or in parallel as parallel data having the same coordinates.
【請求項19】 状況映像内で表示されている移動体画
像を削除し、削除された部分の移動体に隠されていた空
白部分の映像は他の映像フレームから三次元的に貼り付
けて補完し、表示するようにした映像補完部を備える請
求項1乃至18のいずれかに記載の画像情報検索システ
ム。
19. The moving body image displayed in the situation image is deleted, and the image of the blank portion hidden by the deleted portion of the moving body is three-dimensionally pasted from another image frame to complement it. The image information search system according to any one of claims 1 to 18, further comprising a video complementing unit configured to display.
【請求項20】 状況映像内で表示されている対象物の
陰部分のみを抽出し、陰部分の明るさ、色温度を周囲と
同じ程度にして周囲との境界を目立たなくするようにし
た映像補完部を備える請求項1乃至19のいずれかに記
載の画像情報検索システム。
20. An image in which only the shaded portion of the object displayed in the situation image is extracted, and the brightness and color temperature of the shaded portion are set to the same level as the surroundings so that the boundary with the surroundings is inconspicuous. The image information search system according to claim 1, further comprising a complementing unit.
【請求項21】 状況映像内の対象物と、その属性デー
タとを電気通信回線あるいはWebを介して検索表示で
きるようにした請求項1乃至20のいずれかに記載の画
像情報検索システム。
21. The image information retrieval system according to claim 1, wherein the object in the situation video and its attribute data can be retrieved and displayed via an electric communication line or the Web.
【請求項22】 映像データベース部、CG作成部、C
Gデータベース部、位置あわせ同期部、対象物属性デー
タベース部、検索指定部、表示装置の少なくとも一部は
電気通信回線あるいはWebを介して接続構成されてい
る請求項8乃至21のいずれかに記載の画像情報検索シ
ステム。
22. A video database unit, a CG creation unit, C
22. The G database unit, the alignment synchronization unit, the object attribute database unit, the search designation unit, and at least a part of the display device are connected via an electric communication line or the Web. Image information retrieval system.
【請求項23】 状況映像、CG画像、各種の対象物及
びその対象物に関する各種の属性データ、地図データ、
地図あるいは航空写真上の地点位置における検索のため
の索引情報、状況映像作成のための制作過程及び制作過
程における各種データその他の各種情報を電気通信回線
を通じて提供ないし取得可能なものとしてある請求項1
乃至22のいずれかに記載の画像情報検索システム。
23. Situation video, CG image, various objects and various attribute data concerning the objects, map data,
The index information for searching at a point position on a map or an aerial photograph, the production process for creating a situation video, various data in the production process, and various other information can be provided or acquired through a telecommunication line.
23. The image information retrieval system according to any one of 22 to 22.
【請求項24】 表示された状況映像には、実際の状況
での距離・面積・体積を計測可能とする一定間隔のグリ
ットを視覚的にあるいは非視覚的に重ねて表示してある
請求項1乃至23のいずれかに記載の画像情報検索シス
テム。
24. In the displayed situation video, grids at regular intervals that allow measurement of distance, area, and volume in an actual situation are visually or non-visually overlapped and displayed. 24. The image information search system according to any one of 23 to 23.
JP2002145543A 2002-01-25 2002-05-21 Image information searching system Pending JP2003287434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002145543A JP2003287434A (en) 2002-01-25 2002-05-21 Image information searching system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002-17363 2002-01-25
JP2002017363 2002-01-25
JP2002145543A JP2003287434A (en) 2002-01-25 2002-05-21 Image information searching system

Publications (1)

Publication Number Publication Date
JP2003287434A true JP2003287434A (en) 2003-10-10

Family

ID=29253216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002145543A Pending JP2003287434A (en) 2002-01-25 2002-05-21 Image information searching system

Country Status (1)

Country Link
JP (1) JP2003287434A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device
WO2005071619A1 (en) * 2004-01-21 2005-08-04 Campus Create Co., Ltd. Image generation method
JP2006030208A (en) * 2004-06-30 2006-02-02 Navteq North America Llc Method of collecting information on geographical data base used for navigation system
JP2006078357A (en) * 2004-09-10 2006-03-23 Alpine Electronics Inc Navigation system and navigation method
JP2007156754A (en) * 2005-12-02 2007-06-21 Aisin Aw Co Ltd Intervehicular communication system
JP2007206034A (en) * 2006-02-06 2007-08-16 Denso Corp Map display for vehicle
JP2008516352A (en) * 2004-10-13 2008-05-15 シーメンス アクチエンゲゼルシヤフト Apparatus and method for lighting simulation and shadow simulation in augmented reality system
JP2008139148A (en) * 2006-12-01 2008-06-19 Denso Corp Communication-type navigation system, vehicle navigation device, and center device
WO2008078790A1 (en) * 2006-12-27 2008-07-03 Waro Iwane Cv tag video display device provided with layer generating and selecting functions
JP2008217713A (en) * 2007-03-07 2008-09-18 Nippon Telegr & Teleph Corp <Ntt> Image retrieval method, device and program
JP2009015730A (en) * 2007-07-06 2009-01-22 Location View:Kk Image display system with streoscopic measure display function and program of image display with stereoscopic measure display function
JP2009134719A (en) * 2007-10-30 2009-06-18 Navteq North America Llc System and method of revealing occluded object in image dataset
JP2010039278A (en) * 2008-08-06 2010-02-18 Contents Co Ltd Image output system, image output device, image output method and program
JP2010210257A (en) * 2009-03-06 2010-09-24 Sony Corp Navigation device and navigation method
JP2011510378A (en) * 2008-01-15 2011-03-31 グーグル インコーポレイテッド 3D annotation for street view data
US8301372B2 (en) 2004-06-30 2012-10-30 Navteq North America Llc Method of operating a navigation system using images
JP2012221106A (en) * 2011-04-06 2012-11-12 Nippon Hoso Kyokai <Nhk> Image modification device and program thereof
WO2013008584A1 (en) * 2011-07-14 2013-01-17 株式会社エヌ・ティ・ティ・ドコモ Object display device, object display method, and object display program
JP2013182523A (en) * 2012-03-02 2013-09-12 Hitachi Plant Technologies Ltd Image processing device, image processing system, and image processing method
JP2015523624A (en) * 2012-05-07 2015-08-13 本田技研工業株式会社 A method for generating a virtual display surface from a video image of a landscape based on a road
WO2018167966A1 (en) * 2017-03-17 2018-09-20 マクセル株式会社 Ar display device and ar display method
US10281293B2 (en) 2004-06-30 2019-05-07 Here Global B.V. Method of operating a navigation system using images
JP2019134324A (en) * 2018-01-31 2019-08-08 キヤノン株式会社 Image processing apparatus, image processing method, program, and printing system
JP2019139680A (en) * 2018-02-15 2019-08-22 株式会社デンソー Virtual environment creation device
JP2020142792A (en) * 2017-03-17 2020-09-10 マクセル株式会社 AR display device
WO2023145401A1 (en) * 2022-01-26 2023-08-03 パナソニックホールディングス株式会社 Traffic flow measurement system and traffic flow measurement method

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device
WO2005071619A1 (en) * 2004-01-21 2005-08-04 Campus Create Co., Ltd. Image generation method
GB2427520A (en) * 2004-01-21 2006-12-27 Campus Create Co Ltd Image generation method
US10281293B2 (en) 2004-06-30 2019-05-07 Here Global B.V. Method of operating a navigation system using images
JP2006030208A (en) * 2004-06-30 2006-02-02 Navteq North America Llc Method of collecting information on geographical data base used for navigation system
US8301372B2 (en) 2004-06-30 2012-10-30 Navteq North America Llc Method of operating a navigation system using images
JP2012084172A (en) * 2004-06-30 2012-04-26 Navteq North America Llc Method of collecting information on geographical database used for navigation system
US8359158B2 (en) 2004-06-30 2013-01-22 Navteq B.V. Method of operating a navigation system using images
JP2006078357A (en) * 2004-09-10 2006-03-23 Alpine Electronics Inc Navigation system and navigation method
JP2008516352A (en) * 2004-10-13 2008-05-15 シーメンス アクチエンゲゼルシヤフト Apparatus and method for lighting simulation and shadow simulation in augmented reality system
JP2007156754A (en) * 2005-12-02 2007-06-21 Aisin Aw Co Ltd Intervehicular communication system
JP2007206034A (en) * 2006-02-06 2007-08-16 Denso Corp Map display for vehicle
JP2008139148A (en) * 2006-12-01 2008-06-19 Denso Corp Communication-type navigation system, vehicle navigation device, and center device
US8352181B2 (en) 2006-12-01 2013-01-08 Denso Corporation Navigation system, in-vehicle navigation apparatus and center apparatus
JP2008165331A (en) * 2006-12-27 2008-07-17 Kazuo Iwane Cv tag video display unit having layer generation and selection function
WO2008078790A1 (en) * 2006-12-27 2008-07-03 Waro Iwane Cv tag video display device provided with layer generating and selecting functions
US8218943B2 (en) 2006-12-27 2012-07-10 Iwane Laboratories, Ltd. CV tag video image display device provided with layer generating and selection functions
JP2008217713A (en) * 2007-03-07 2008-09-18 Nippon Telegr & Teleph Corp <Ntt> Image retrieval method, device and program
JP2009015730A (en) * 2007-07-06 2009-01-22 Location View:Kk Image display system with streoscopic measure display function and program of image display with stereoscopic measure display function
JP2009134719A (en) * 2007-10-30 2009-06-18 Navteq North America Llc System and method of revealing occluded object in image dataset
US9471597B2 (en) 2008-01-15 2016-10-18 Google Inc. Three-dimensional annotations for street view data
JP2014006917A (en) * 2008-01-15 2014-01-16 Google Inc Three-dimensional annotations for street view data
US10540794B2 (en) 2008-01-15 2020-01-21 Google Llc Three-dimensional annotations for street view data
JP2011510378A (en) * 2008-01-15 2011-03-31 グーグル インコーポレイテッド 3D annotation for street view data
JP2015005298A (en) * 2008-01-15 2015-01-08 グーグル インコーポレイテッド Three-dimensional annotations for street view data
JP2010039278A (en) * 2008-08-06 2010-02-18 Contents Co Ltd Image output system, image output device, image output method and program
JP2010210257A (en) * 2009-03-06 2010-09-24 Sony Corp Navigation device and navigation method
US9404762B2 (en) 2009-03-06 2016-08-02 Sony Corporation Navigation apparatus and navigation method
US10378913B2 (en) 2009-03-06 2019-08-13 Sony Corporation Navigation apparatus and navigation method
JP2012221106A (en) * 2011-04-06 2012-11-12 Nippon Hoso Kyokai <Nhk> Image modification device and program thereof
JP2013025326A (en) * 2011-07-14 2013-02-04 Ntt Docomo Inc Object display device, object display method and object display program
WO2013008584A1 (en) * 2011-07-14 2013-01-17 株式会社エヌ・ティ・ティ・ドコモ Object display device, object display method, and object display program
US9153202B2 (en) 2011-07-14 2015-10-06 Ntt Docomo, Inc. Object display device, object display method, and object display program
CN103262127B (en) * 2011-07-14 2015-12-09 株式会社Ntt都科摩 Object display device and object display method
CN103262127A (en) * 2011-07-14 2013-08-21 株式会社Ntt都科摩 Object display device, object display method, and object display program
JP2013182523A (en) * 2012-03-02 2013-09-12 Hitachi Plant Technologies Ltd Image processing device, image processing system, and image processing method
JP2015523624A (en) * 2012-05-07 2015-08-13 本田技研工業株式会社 A method for generating a virtual display surface from a video image of a landscape based on a road
WO2018167966A1 (en) * 2017-03-17 2018-09-20 マクセル株式会社 Ar display device and ar display method
JPWO2018167966A1 (en) * 2017-03-17 2019-12-12 マクセル株式会社 AR display device and AR display method
JP2020142792A (en) * 2017-03-17 2020-09-10 マクセル株式会社 AR display device
US11880909B2 (en) 2017-03-17 2024-01-23 Maxell, Ltd. AR display apparatus and AR display method
JP2019134324A (en) * 2018-01-31 2019-08-08 キヤノン株式会社 Image processing apparatus, image processing method, program, and printing system
JP7022609B2 (en) 2018-01-31 2022-02-18 キヤノン株式会社 Image processing equipment, image processing methods, programs, and printing systems
JP2019139680A (en) * 2018-02-15 2019-08-22 株式会社デンソー Virtual environment creation device
WO2023145401A1 (en) * 2022-01-26 2023-08-03 パナソニックホールディングス株式会社 Traffic flow measurement system and traffic flow measurement method

Similar Documents

Publication Publication Date Title
JP2003287434A (en) Image information searching system
US8818076B2 (en) System and method for cost-effective, high-fidelity 3D-modeling of large-scale urban environments
US8000895B2 (en) Navigation and inspection system
US8036678B2 (en) Real-time geographic information system and method
CN109891195A (en) For using visually target system and method in initial navigation
CN105628034B (en) Navigation map update method and equipment
CN105973236A (en) Indoor positioning or navigation method and device, and map database generation method
Ciampa Pictometry Digital Video Mapping
JP4210309B2 (en) Image data display system with map information and image data display program with map information
KR20040024624A (en) System for constructing and browsing geographic information using video data and method thereof
CN114419231B (en) Traffic facility vector identification, extraction and analysis system based on point cloud data and AI technology
CN108388995A (en) A kind of method for building up of road asset management system and establish system
JP3156646B2 (en) Search-type landscape labeling device and system
KR100685790B1 (en) System and Method for Real Image based Navigation
JP2002251618A (en) Image map, device and method for producing the same
WO2008082423A1 (en) Navigation and inspection system
JP3156645B2 (en) Information transmission type landscape labeling device and system
JP3053172B2 (en) Distance reference type landscape labeling device and system
WO2008072429A1 (en) System for displaying image data associated with map information
JP3114862B2 (en) An interactive landscape labeling system
JP3753306B2 (en) Mobile navigation system
JP2003337947A (en) Method and device for image display, and storage medium recorded with image display method
Pomortseva et al. Processing of geodesic data obtained with the help of UAVS
van Essen Maps Get Real: Digital Maps evolving from mathematical line graphs to virtual reality models
JPH1132250A (en) Verbal guiding type sight labeling device and system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060808