JP2003337947A - Method and device for image display, and storage medium recorded with image display method - Google Patents

Method and device for image display, and storage medium recorded with image display method

Info

Publication number
JP2003337947A
JP2003337947A JP2002146874A JP2002146874A JP2003337947A JP 2003337947 A JP2003337947 A JP 2003337947A JP 2002146874 A JP2002146874 A JP 2002146874A JP 2002146874 A JP2002146874 A JP 2002146874A JP 2003337947 A JP2003337947 A JP 2003337947A
Authority
JP
Japan
Prior art keywords
image
camera
reproduced
display
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002146874A
Other languages
Japanese (ja)
Inventor
Kazuo Iwane
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWANE KENKYUSHO KK
Original Assignee
IWANE KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWANE KENKYUSHO KK filed Critical IWANE KENKYUSHO KK
Priority to JP2002146874A priority Critical patent/JP2003337947A/en
Publication of JP2003337947A publication Critical patent/JP2003337947A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To make a mark, etc., of an object correspond to a map of the circumference in an image, to display a moving picture, etc., of a reproduced image of a three-dimensional shape of the object changing as a camera moves, and to display changes in camera direction and camera position with marks, etc., in the image. <P>SOLUTION: Objects 22,..., etc., are specified on an image display and while the objects 22,..., etc., are traced, features of the objects 22,... including changes in relative angle, direction, and distance between the camera and objects 22,..., etc., are detected; and image frames having correspondence relation with the objects 22,..., etc., and image data of the features are retrieved from databases 13 to 33, etc., to constitute reproduced images 26 (26a,...) including two-dimensional and three-dimensional shapes by time-series changes. Then the reproduced images 16,..., etc., are displayed in a necessary area on the image display 16, etc., constratively in sequence as a moving picture or a group of successive still pictures based upon a necessary size standard and name and property data on the reproduced images 26, etc., are also displayed. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、たとえば道路や建
造物、河川等の状況検索や、上空の航空機等からの地上
等の状況検索、あるいは他の飛行物体等の機種乃至状況
検索等のために使用する画像表示に関するシステムであ
って、たとえば道路上あるいは河川近傍を走行する車両
に搭載されたカメラ(車載ビデオカメラ)の位置、ビデ
オ映像内の任意の対象物の位置、形状等の検索、もしく
は航空機等に搭載されたカメラ(空撮ビデオカメラ)の
位置、地上等のビデオ映像内の任意の対象物の位置、形
状、周囲状況の検索等、平常時、緊急時、乃至その他の
安全性や被害状況等への監視維持に際して利用するのに
好適な画像表示方法、画像表示装置、及び画像表示方法
を記録した記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is, for example, for searching the status of roads, buildings, rivers, etc., searching the status of the ground, etc. from an aircraft in the sky, or searching for the model or status of other flying objects. A system related to image display used for, for example, the position of a camera (vehicle-mounted video camera) mounted on a vehicle traveling on the road or near a river, search for the position, shape, etc. of an arbitrary object in a video image, Or the position of a camera (aerial video camera) mounted on an aircraft, the position of any object in the video image such as the ground, the shape, the surrounding condition search, etc. in normal times, emergency, or other safety The present invention relates to an image display method, an image display device, and a storage medium recording the image display method, which are suitable for use in monitoring and maintaining the damage situation.

【0002】[0002]

【従来の技術】近年、自動車などによる走行に際しナビ
ゲーションシステムで表示される地図検索の案内に従う
ことで目的地に容易に到達できるなどの利便性の故に数
多くの車両にカーナビゲーションシステムが搭載される
ようになっている。また、一般的なナビゲーションシス
テムには、GPSによる位置検索で自らの位置を画像表
示された地図上にほぼ正確にプロットできるようにして
あるとともに、地図上には各種設備、設置されている信
号機その他が表示され、システムによっては鳥瞰図を表
示できるようになっている。
2. Description of the Related Art In recent years, many vehicles are equipped with a car navigation system for convenience such that a destination can be easily reached by following a map search guide displayed by the navigation system when driving a car. It has become. In addition, in a general navigation system, it is possible to plot its own position almost accurately on a map on which images are displayed by GPS position search, and various equipment, traffic lights installed on the map, etc. Is displayed, and depending on the system, a bird's-eye view can be displayed.

【0003】一方、道路・河川などを管理する道路・河
川管理事務所では管内の道路等の実態を把握し、その適
切な管理を図るため本出願人が提案しているたとえば特
許第3099103号公報による道路・河川等の現況ビ
デオ検索装置が使用されている。この検索装置では、実
際に道路等を走行することで、逐次撮影して得られた道
路の周囲状況に関する動画像・連続した静止画像等を、
その任意地点におけるものとして表示することで直ち
に、たとえば平常時の状況等を検索し画像表示できるよ
うにするとともに、その地点における各種施設の状況、
管理用各種施設図・記録その他をも関連表示できるよう
にしたものである。
On the other hand, at a road / river management office that manages roads / rivers, etc., the present applicant has proposed, for example, to grasp the actual conditions of roads in the jurisdiction and to manage them appropriately. For example, Japanese Patent No. 3099103. The current video search device for roads, rivers, etc. is used. With this search device, by actually traveling on a road, moving images and continuous still images related to the surrounding conditions of the road, which are sequentially captured,
By displaying it as that at any point, you can immediately search for the situation in normal times and display an image, and at the same time, check the status of various facilities at that point,
It is also possible to display related facility maps, records, etc. for management.

【0004】また、その検索や画像表示する際に、道路
の実際の画像や建物を表示するのみならずそれらとあわ
せて、画像内の別の領域にたとえば特定の対象物等をコ
ンピュータグラフィックスで画像表示する機能を付け加
え、大幅に、機能拡張を図り、利便性をあげたシステム
が、本出願人が特願2002−017363号公報にお
いて提案されている。
Further, when the search or image display is performed, not only the actual image of the road and the building are displayed but also together with them, a specific object or the like is displayed by computer graphics in another area in the image. A system in which the function of displaying an image is added and the function is greatly expanded to improve convenience is proposed by the applicant in Japanese Patent Application No. 2002-017363.

【0005】[0005]

【発明が解決しようとする課題】ところが上述した従来
のナビゲーションシステムあるいは、所謂現況ビデオ検
索装置では、カメラ自体が移動するため画像に写ってい
るある一点にある建物や物体など、ビデオ映像の中の対
象物は、時々刻々その位置と形状を変えるので、方向を
変えて形状が変化していく過程を同時に、あるいは時間
推移と共に同じ条件で観察することが困難であった。ま
た、カメラ位置やカメラ方向を表示することができない
ばかりでなく、ビデオ映像はカメラの方向で時々刻々変
化するので、地図とは違い、ビデオ映像の地図から映像
内で直接的に対象物の距離や面積や体積を計測すること
はできず、しかもそのビデオ映像内の任意の対象物の3
次元形状を計算してそれを3次元画像として表示するこ
とは出来なかった。
However, in the above-mentioned conventional navigation system or so-called present-day video search apparatus, the camera itself moves, so that a building or an object in a certain point in the image is displayed in the video image. Since the object changes its position and shape from moment to moment, it is difficult to observe the process of changing the shape by changing the direction at the same time or under the same condition with time transition. In addition to not being able to display the camera position and camera direction, the video image changes from moment to moment depending on the direction of the camera. , Area and volume cannot be measured, and 3 of any object in the video image can be measured.
It was not possible to calculate the 3D shape and display it as a 3D image.

【0006】そこで、本発明は、ビデオ映像が時々刻々
変化しても、映像が表示されている画面内に周辺の地図
を画像表示して任意乃至特段に指定した対象物に対応す
る印等を常に画像内の地図と対応するようにし、かつカ
メラ移動とともに時系列的に変化する対象物に対応し継
続する3次元形状の再現画像の動画もしくは連続的な静
止画の一群として対比的に順次に表示させることを可能
とし、更に対象物に対応する印乃至再生画像の画像表示
を伴う地図の表示領域、及び対象物の追跡に対応する3
次元形状の再現画像の表示領域を別々に並べ分けて、も
しくは重ねて表示することをも可能ならしめ、しかもカ
メラ方向とカメラ位置が変化しても、その変化の状況
(距離の認識及び変化を含む)を所要の画像もしくは所
要の演算で求め印や数字文字等の属性データとして画像
表示し、もって上記の課題を解決する画像表示方法、画
像表示装置、及び画像表示方法を記録した記憶媒体を提
供することを目的とする。
Therefore, according to the present invention, even if the video image changes moment by moment, a map of the surrounding area is displayed as an image on the screen where the image is displayed, and a mark or the like corresponding to an arbitrary or specially designated object is displayed. It always corresponds to the map in the image, and it corresponds to the object that changes in time series with the movement of the camera, and continues as a group of continuous moving images or a moving image of a three-dimensional reproduced image that continues. 3 that corresponds to the display area of the map that is capable of being displayed, and further includes the mark corresponding to the object or the image display of the reproduced image, and the object.
It is also possible to separately display or overlap the display areas of the three-dimensional shape reproduction image, and even if the camera direction and camera position change, the change situation (distance recognition and change Image display method, an image display device, and a storage medium storing the image display method for solving the above problems. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、本発明の画像処理方法は、外界を一または複数のカ
メラで撮影したビデオ映像の画像表示上において任意の
位置の一または複数の対象物22,51,72,73,
74,75,76…等を名称や属性で指定するか、ある
いはマウスで四角く囲うか、一点位置をクリックする
か、もしくはライトペンやタッチパネルで指定すること
で、当該対象物22…等の周囲の存在を除外しつつ上記
カメラと当該対象物22…等との相対角度や方向の変
化、及び距離の変化を含めて当該対象物22…等を追跡
しながら対象物22…等の各画像フレームの特徴、もし
くは当該対象物22等の各構成部品の特徴を時系列的に
順次に検出し、かつ各種複数の特徴に関する画像データ
が豊富に保存されたデータベース13乃至33等から当
該対象物22…等の各画像フレームの特徴、もしくは各
構成部品の特徴の連続的な変化にも対応関係のある画像
フレーム、乃至特徴の画像データを順次に検索し、この
検索結果に対応してパターンマッチングのとれた当該対
象物22…等に対応する2次元乃至3次元形状を含む再
現画像26a,26b,26c,26d等を時系列的な
変化毎に順次に構成するとともに、当該再現画像26a
…等を含む各画像フレーム、もしくは当該特徴の画像デ
ータを上記画像表示上16,36,67等、もしくは通
信回線等を介し他の画像表示上(図示せず)の所要の領
域上に所要の大きさ基準の設定に符合させ動画もしくは
連続的な静止画の一群として対比的に順次に表示し、か
つ必要に応じ当該再現画像26(26a…)等に付随乃
至生成した名称や属性データをも所要の領域に表示する
ことを要点とする。また、本発明の方法は、上記データ
ベース13乃至33等に保存される各種特徴の画像デー
タには、あらかじめ各種再生対象物の各画像フレーム、
もしくは各種構成部品に対応する特徴の画像データに各
属性データが関連付けられてあり、少なくとも一つの特
徴の画像データに対し上述のパターンマッチングがとれ
た場合には、当該各属性データに基づき即時に当該対象
物22…等に対応する2次元乃至3次元形状を含む再現
画像26…等を構成し、当該再現画像26…等の上述の
画像表示を行うことを要点とする。また、本発明の方法
は、上記データベース13乃至33等に保存される各種
特徴の画像データには、あらかじめ各種再現対象物、各
種直線、各種曲線、各種角、各種エッジ、各種平面、各
種曲面等の要素から成るものが含められるとともに、特
に各特徴の画像データ間の組合せ、組立て、結合関係を
も明確にした各属性データが関連付けられてあり、少な
くとも一組以上の特徴の画像データの組合せ等に対し上
述のパターンマッチングがとれた場合には、当該各属性
データにより即時に一または複数の対象物22…等に対
応する2次元乃至3次元形状を含む再現画像26…等を
構成し、当該再現画像26…等の上述の画像表示を行う
ことを要点とする。また、本発明の方法は、上記パター
ンマッチングがとれた上記対象物22…等に対応する2
次元乃至3次元形状を含む再現画像26…等を、上記カ
メラ移動に伴う視線方向の変動があっても、2次元乃至
3次元形状の演算形成に伴う当該対象物22…等のさま
ざまな視点からの2次元乃至3次元形状を含む再現画像
26(26a…)等の上述の画像表示を行うことを要点
とする。また、本発明の方法は、複数のカメラを用いて
上記対象物の空間分布及び時間的分布を有する画像デー
タを求めるとともに、少なくとも視差情報と時間差情報
により当該対象物22…等に対応する3次元形状を含む
再現画像26…等を生成し、もって当該再現画像26…
等の3次元モデルを生成し上述の画像表示を行うことを
要点とする。また、本発明の方法は、上記再現画像26
…等は、時系列的な変化とともに、上述の動画もしくは
連続的な静止画の一群として対比的に順次に表示し、か
つ上記画像表示上16,36,67等もしくは上記他の
画像表示上には、必要に応じ上記対象物22…等の周囲
の地図23乃至71等を画像表示するとともに、当該対
象物22…等を当該地図23乃至71等内の対応する位
置に所要の印24等で、もしくは上記パターンマッチン
グに基づく当該再現画像26…等で画像表示し、更に必
要に応じ上記地図23乃至67等の表示領域と上記再現
画像26…等の表示領域とを対比的に分けるか、もしく
は、双方を重ね合わせることを要点とする。また、本発
明の方法は、上記画像表示上もしくは上記他の画像表示
上から指定する上記対象物22…等のうち、複数の点を
指定することで当該既知の点と上記カメラとの位置関係
を演算するとともに、当該演算アルゴリズムをも上記デ
ータベースに保存しておいて、他の点について指定した
場合に、当該演算アルゴリズムを利用して任意の対象物
22…等のうち各相互の点、及び距離を演算し、かつ当
該対象物22…等の全面もしくは一部の構成部品の面の
面積や体積を演算計測することを要点とする。また、本
発明の方法は、上記カメラ移動に伴う上記再現画像26
…等の動画もしくは連続的な静止画の一群として対比的
に順次に表示させたものに関して、当該カメラ位置、カ
メラ方向、カメラ移動速度を所要の演算により求め当該
事項を所要の印乃至数字文字等で画像表示することを要
点とする。また、本発明の方法は、上記画像表示上もし
くは上記他の画像表示上において、上述の再現画像26
…等の動画もしくは連続的な静止画の一群として対比的
に順次に表示させる領域、あるいは上記再現画像26…
等の名称や属性データを表示する領域、もしくは上記カ
メラの位置、カメラ方向、カメラ移動速度を表示する領
域を所要の操作乃至指定に応じて任意に設定できること
を要点とする。また、本発明の方法は、対象物22…等
を指定する場合には、上記マウス等で当該対象物22…
等よりも広い領域範囲もしくは狭い領域範囲を選択指定
しても、当該対象物22…等のみ抽出して認識すること
ができることを要点とする。また、本発明の方法は、上
記対象物22…等もしくはそれらの一部を指定した場合
に、各々を結んでできる形状、及び形状の位置、距離、
面積、もしくは体積を含む属性データ、及びこれらの2
次元乃至3次元形状を所要の相関の演算により求めた再
現画像26…等を上述の如く画像表示することを要点と
する。また、本発明の方法は、上記画像上に建造物等の
対象物22…等の3次元物体のCG画像を構成し、景観
シミュレーションとしてカメラ移動とともに当該CG画
像を順次時系列的に更新して上記画像表示上もしくは上
記他の画像表示上のビデオ映像や地図23乃至71上
等、乃至所要の領域に画像表示することを要点とする。
一方、本発明の画像表示装置は、外界を撮影する一また
は複数のカメラと、当該カメラが撮影した時系列的に変
化するビデオ映像を電気信号に変換し随時入力する入力
部11と、画像から任意の一または複数の対象物22,
51,72等を指定する指定部(図示せず)と、当該対
象物22,51,72等以外の存在を切り取り上記対象
物22,51,72等のみ抽出する画像切取部12と、
当該対象物22等の各画像フレーム、乃至各構成部品毎
の特徴の画像データを画像蓄積部13(即ちデータベー
ス)に豊富に保存された複数の各画像フレーム、乃至特
徴の画像データとの相関関係を計算しパターンマッチン
グした画像フレーム、乃至特徴の画像データを求めると
ともに、必要に応じ新たな画像フレーム乃至特徴の画像
データを上記画像蓄積部13に追加保存する相関計算部
14と、当該相関計算部14で求められた画像フレーム
乃至特徴の画像データに基づき上記対象物22等に対応
する2次元乃至3次元形状を含む再現画像26等を生成
する3次元画像構成部15と、当該ビデオ映像や地図2
3乃至71等を画像表示する他、当該再現画像の動画も
しくは連続的な静止画の一群として対比的に順次に出力
する出力表示部16と、当該出力表示部16内で当該再
現画像26等の表示領域25等を設定する設定部(図示
せず)とを備え、上記3次元画像構成部15で生成され
た再現画像26等を当該設定部で設定した上記出力表示
部16内の所要の表示領域に所要の大きさ基準で上述の
如く順次に画像表示し、かつ必要に応じ当該再現画像2
6等に付随乃至生成する名称、及び属性データをも当該
設定部で設定した同一もしくは他の所要の表示領域の所
要位置に表示することを要点とする。また、本発明の画
像表示装置は、外界を撮影する一または複数のカメラ
と、当該カメラが撮影した時系列的に変化するビデオ映
像を電気信号に変換し随時入力する入力部31と、当該
ビデオ映像の画像から任意の一または複数の対象物2
2、51、72等を指定する指定部(図示せず)と、当
該対象物22,51,72等以外の存在を除外し当該対
象物22,51等の全体もしくは各構成部品の特徴を比
較用画像として生成する比較用画像生成部32と、各種
再現対象物や各種構成部品毎の特徴の画像データが豊富
に保存されたデータベース33と、当該データベース3
3を比較検索することで比較用部品の画像フレーム乃至
特徴の画像データを生成する比較用部品生成部34と、
上記対象物51等の比較用画像データと当該比較用部品
生成部34で生成した比較用部品の特徴の画像データと
の比較検索を行って上記対象物22,51等に対応する
2次元乃至3次元形状を含む再現部品画像を特定すると
ともに、必要に応じ当該再現部品画像に付随する名称、
及び属性データを検索もしくは生成し、かつ当該再現部
品画像の画像表示に関し固定すべき位置を求める部品特
定部35と、上記ビデオ映像及び地図23乃至71等を
画像表示する他、当該再現部品画像を当該地図22乃至
71等において固定すべき位置に画像表示する出力表示
部36とを備え、上記再現部品画像の組織体を上記出力
表示部36内の地図23乃至71等の固定すべき位置に
所要の印や数字文字、もしくは2次元乃至3次元形状の
動画もしくは連続的な静止画の一群として対比的に時系
列的に順次に画像表示し、かつ必要に応じ当該動画もし
くは連続的な静止画に付随乃至生成する名称、及び属性
データをも上記出力表示部36内の所要の位置に表示す
ることを要点とする。また、本発明の画像表示装置は、
外界を撮影する一または複数のカメラと、当該時系列的
に変化するビデオ映像の電気信号を入力する映像入力装
置61と、当該カメラが撮影した時系列的に変化するビ
デオ映像を電気信号に変換し記録し再生する映像記録再
生出力装置62と、当該時系列的に変化するビデオ映像
の中から任意の一または複数の対象物22,51,72
…等を周囲の不要の存在を除外して指定できる対象物指
定装置63と、当該ビデオ映像及び地図23乃至71等
を重ねて、あるいは同時比較的に分けて所要の表示画面
に表示させる映像地図表示装置64と、当該再現画像の
名称、及び属性データを検索もしくは生成し記録し再生
する属性記録再生装置65と、当該対象物72…等に対
応する各種画像フレーム、もしくは各種構成部品毎の特
徴の画像データが豊富に保存されたデータベース(図示
せず)の中から対応する画像フレーム、乃至特徴の画像
データを比較検索して上記対象物72…等に対応する2
次元乃至3次元形状を含む再現画像を生成する対象物検
索指定装置66と、上記対象物72…等に対応する上記
2次元乃至3次元形状を含む再現画像の動画もしくは連
続的な静止画の一群として対比的に順次にロックオン表
示するロックオン表示部67とを備え、上記ビデオ映像
及び地図を重ねて表示した、もしくは同時対比的に分け
て表示した表示画面上の上記対象物22,51,72…
等の存在位置に対応する位置に必要に応じ所要の印等を
表示するとともに、上記ロックオン表示部67に上記対
象物22,51,72…等に対応する上記再現画像を上
述の如く順次に表示し、かつ必要に応じ上記表示画面上
の所要の位置もしくは当該ロックオン表示部67内の所
要の位置に当該再現画像に付随乃至生成する名称、及び
属性データをも表示することを要点とする。更に、本発
明の方法及び装置は、上記対象物22,51,72等の
映像上の大きさや視線角度と上記画像蓄積部乃至データ
ベースに豊富に保存された各種再現対象物、もしくは各
種特徴の画像データとの大きさや視線角度とを同一に合
わせる検索調整部(図示せず)を備え、上記大きさや視
線角度の統一のとれた上記対象物22,51,72等に
対応する2次元乃至3次元形状を含む再現画像を比較検
索し生成し、当該再現画像を上述の如く順次に画像表示
することを要点とする。更に、本発明の方法及び装置
は、上記ビデオ映像内の数点72等を地図上と対応さ
せ、これを時系列的な変化とともに追跡して地図上の座
標を読み取り、読みとった数点72等の座標からカメラ
位置、カメラ方向、カメラ速度を演算して求めるととも
に、当該ビデオ映像と当該地図を同一座標系、もしくは
所要の視線角度を有する所要の座標系に変換する変換手
段(図示せず)を備え、いずれかの座標系を有する地図
上の対応する位置に、上記対象物22,51,72等を
示す印乃至視線角度に対応する2次元乃至3次元形状を
含む再現画像を上述の如く順次に表示し、かつ必要に応
じ当該再現画像に付随乃至生成する名称、属性データを
も所要の位置に表示することを要点とする。更に、本発
明の方法及び装置は、上記一または複数もしくは代表の
カメラ位置、カメラ方向、及びカメラ移動速度を外界と
の関係で演算し求める演算手段(図示せず)を備え、上
記地図23乃至71上の対応する位置に、カメラ位置及
びカメラ方向を示す印乃至数字文字を表示することを要
点とする。更に、本発明の方法及び装置は、上記一また
は複数もしくはそれぞれのカメラ位置と地上面とその任
意の位置にある対象との関係を演算するのに、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cosθ(tan-1(h/y)−θ)} …(1) もしくは v=f{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(2) により求め、yはカメラ真下から対象物までの距離、v
はカメラ内でのCCD面における対象物の長さ、θはカ
メラの伏角であることを要点とする。更に、本発明の方
法及び装置は、上記一または複数もしくは代表のカメラ
位置、もしくはカメラにより撮影したビデオ映像と、地
図上の対象物等との対応関係を演算し明確にするのに、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan-1(h/y)−θ)} …(3) あるいは v=f・{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(4) もしくは v={(f/sinθ)・y・sinβ) /(h・cos(β―θ))} …(5) u=x・(f/y)・(cosβ/cos(β―θ)) …(6) 但し、β=arcTan(h/y) により求め、yはカメラ真下から対象物までの距離、v
はカメラ内でのCCD面における対象物の長さ、xは対
象物とカメラを結ぶ線分に直角方向の長さ、uはカメラ
内でのCCD面における横方向の長さ、θはカメラの伏
角であることを要点とする。更に、本発明の方法及び装
置は、上記対象物等の高さ頂点ZとCCD面上に写る当
該対象物の像の高さ頂点Wとの関係を演算し明確にする
のに、 W={(f/sin(θ+(π/2))・Z・sinγ)} /{y・cos(γ―(θ+(π/2)))} …(7) 但し、γ=arcTan(y/z) により求め、fはレンズの焦点距離、θはカメラの伏
角、またφ=θ+(π/2)、φはレンズとカメラ交軸
上の対象物とを結ぶ線分の当該結合位置の垂線との成す
角度、εはβ+(π/2)、yはZに対応したものであ
り、かつ、対象物等の高さ寸法とCCD面上に写る当該
対象物の像の高さ寸法iとの関係を演算し明確にするの
に、 i={(f/sinθ+(π/2))・h・sin(β+(π/2))} /{y・cos(β+(π/2)−(θ+(π/2)))} …(8) 但し、β=arcTan(y/z) により求め、hはカメラの位置の高さ寸法、その他、
f、θ等は上述の式(7)の場合と同様のものであり、
更に、CCD面上で対象物の高さH+Zに対応する像の
投影を演算し明確にするのに、 上記W―i={[(f/sin(θ+(π/2))・Z・sinγ)] /[y・cos(γ―(θ+(π/2)))]} −{[(f/sin(θ+(π/2))・h・sin(β+(π/2))] /[y・cos(β−θ)]} …(9) さらに i’―W’=(i−W)/cosδ …(10) 但し、δ=arcTan{(t−u)/(i−W)} により求め、i’はiの他の部分乃至同列位置にある他
の当該対象物の高さ寸法、W’はWの他の部分の高さ頂
点乃至同列位置にある他の対象物の高さ頂点を示すもの
であり、必要に応じ上述の式(7)、式(8)、式
(9)、もしくは式(10)の何れか一または複数、も
しくは全てを用いて上記対象物と当該対象物に対応する
2次元乃至3次元の形状を含む再生画像の比較検索を行
うことをも可能にしたことを要点とする。更に、本発明
の方法及び装置は、CCD面に写る上記対象物から横に
延びる部分の像tの位置を演算し明確にするのに、 t=S(f/Z)・{cosγ/cos(γ―θ―(π/2))} …(11) により求め、Sは当該対象物から横に延びる部分であ
り、この式(11)を用いることで上記対象物と当該対
象物に対応する2次元乃至3次元の形状を含む再生画像
の比較検索を行うことを可能にしたことを要点とする。
更に、本発明の方法及び装置は、上記式(1)から上記
式(11)までのうち、必要に応じ何れか一または複数
の数式、もしくは全ての数式(1)〜(11)を上記属
性データに加えたことを要点とする。更に、本発明の方
法及び装置は、上記対象物が、道路、標識、河川、運
河、建造物、各種施設、各種設備、車両、二輪車、航空
機、船体、あるいは移動中の車両、二輪車、航空機、船
体、もしくはその他の動作機能のある構造体であること
を要点とする。他方、本発明の方法及び装置は、自ら上
記所要の地図23乃至71等に対する上記一または複数
の対象物22,51,72…等に対応する上述の再現画
像の表示状況、及び、必要に応じ名称、及び属性デー
タ、カメラ位置、カメラ方向、カメラ移動速度をも含め
てWeb配信を可能とするとともに、クライアントから
の要求によっても上記地図23乃至71等に対する上述
の再現画像の上述の如き表示状況、並びに、当該地図2
3乃至71等に対し指示された任意の対象物22,5
1,72…等を示す印乃至数字文字や当該再現画像に付
随乃至生成する上記名称、及び、属性データ等の表示状
況の配信を可能とすることを要点とする。更に他方、本
発明の記録媒体は、少なくとも、上述の演算アルゴリズ
ム、式(1)から式(11)、並びに、一または複数の
カメラで撮影した一または複数の対象物22,51,7
2等の構成部品である比較用部品を呼び出すステップ
と、豊富な複数種の特徴の画像データが保存されたデー
タベースから当該比較用部品の対応部分に係る特徴の画
像データを検索するステップと、上記比較用部品と当該
特徴の画像データが対応するか否かを判定するステップ
と、当該双方が対応しない場合に所定の比較用部品の呼
び出しが終了したか否かを判定するステップと、当該呼
び出しが終了しない場合に所定の部品に対する処理が終
了したか否かを判定するステップと、当該所定の部品に
対する処理が終了していない場合に次の比較用部品を指
定するステップと、上述の双方が対応する場合に特定の
対象物22,51、もしくは72等として認識するステ
ップと、次の部品を特定するステップと、上記対象物2
2等における比較用画像の所定部分の処理が終了したか
否かを判定するステップと、当該処理が終了した場合に
認識結果である対象物22等に係る2次元乃至3次元形
状を含む再現画像の動画もしくは連続的な静止画の一群
として対比的に順次に出力するステップとを含むことを
要点とする。
In order to achieve the above object, the image processing method of the present invention provides one or a plurality of objects at arbitrary positions on the image display of a video image taken by one or a plurality of cameras. Things 22, 51, 72, 73,
74, 75, 76, etc. are specified by name or attribute, or surrounded by a square with a mouse, click a one-point position, or specify with a light pen or touch panel, and the surroundings of the target object 22 ... While excluding the existence of each of the image frames of the target object 22 ... While tracking the target object 22 ... Including the change in the relative angle and direction between the camera and the target object 22 ... The object 22, etc. are detected from the databases 13 to 33, etc. in which the characteristics or the characteristics of each component such as the object 22 are sequentially detected in time series, and the image data relating to the plurality of various characteristics are abundantly stored. Of the image frames, or the image data having the correspondence relationship with the continuous change of the characteristics of the respective component parts, or the image data of the features are sequentially searched, and the search is performed according to the search result. 2D to reproduce image 26a including a three-dimensional shape corresponding to the object 22 ... and the like well-over down matching, 26b, 26c, etc. with sequentially constituting each time-series change of 26 d, the reproduced image 26a
Each image frame including ..., or image data of the feature is required on the image display 16, 36, 67 or the like, or on a required area on another image display (not shown) via a communication line or the like. A name or attribute data that is displayed in accordance with the setting of the size standard and is sequentially displayed as a moving image or a group of continuous still images in contrast with each other, and if necessary, also associated with or generated in the reproduced image 26 (26a ...) The point is to display in the required area. Further, according to the method of the present invention, the image data of various characteristics stored in the databases 13 to 33 and the like are stored in advance in the respective image frames of various reproduction objects.
Alternatively, if each attribute data is associated with the image data of the characteristic corresponding to each component, and the above-mentioned pattern matching is performed on the image data of at least one characteristic, the attribute data is immediately changed based on the attribute data. The main point is to construct a reproduced image 26 including a two-dimensional or three-dimensional shape corresponding to the target object 22 and the like and display the above-described image of the reproduced image 26 and the like. In addition, according to the method of the present invention, the image data of various characteristics stored in the databases 13 to 33 and the like includes various reproduction objects, various straight lines, various curves, various angles, various edges, various planes, various curved surfaces, etc. in advance. In addition to the combination of the elements, the attribute data that clarify the combination, the assembly, and the connection relationship between the image data of each feature are associated with each other, and the combination of the image data of at least one set or more, etc. On the other hand, when the above-mentioned pattern matching is obtained, the reproduction image 26 including a two-dimensional or three-dimensional shape corresponding to one or a plurality of objects 22 ... The main point is to perform the above-described image display of the reproduced image 26 ... Further, the method of the present invention corresponds to the object 22 ...
The reproduced image 26 including a three-dimensional to three-dimensional shape is viewed from various viewpoints such as the target object 22 which is associated with the calculation of the two-dimensional to three-dimensional shape even if the line-of-sight direction changes due to the movement of the camera. The main point is to perform the above-mentioned image display of the reproduced image 26 (26a ...) And the like including the two-dimensional to three-dimensional shape. Further, the method of the present invention obtains image data having a spatial distribution and a temporal distribution of the object using a plurality of cameras, and at least three-dimensional corresponding to the object 22 ... etc. by parallax information and time difference information. A reproduced image 26 including a shape is generated, and thus the reproduced image 26 is generated.
The main point is to generate a three-dimensional model such as the above and display the above-mentioned image. In addition, the method of the present invention uses the reproduced image 26 described above.
, Etc. are sequentially and sequentially displayed as a group of the above-mentioned moving images or continuous still images with time-series changes, and are displayed on the image display 16, 36, 67, etc. or on the other image display. Displays an image of the surrounding maps 23 to 71 etc. of the above-mentioned objects 22 ... etc. as necessary and displays the objects 22 ... etc. at the corresponding positions in the maps 23 to 71 etc. with the required marks 24 etc. Alternatively, the reproduced image 26 is displayed on the basis of the pattern matching, and the display areas of the maps 23 to 67 and the reproduced image 26 are compared with each other, if necessary. , The point is to overlap both. In the method of the present invention, the positional relationship between the known point and the camera is specified by designating a plurality of points on the object 22 ... Etc. designated on the image display or the other image display. When the above calculation algorithm is also stored in the database and other points are specified, the calculation algorithm is used to calculate the mutual points among arbitrary objects 22 ... The point is to calculate the distance and to calculate and measure the area or volume of the entire surface of the target object 22 ... In addition, the method of the present invention uses the reproduced image 26 accompanying the movement of the camera.
With regard to moving images such as ... or those sequentially displayed as a group of continuous still images, the camera position, camera direction, and camera moving speed are obtained by the required calculations, and the relevant items are given marks or numeric characters. The point is to display an image with. In addition, the method of the present invention uses the above-described reproduced image 26 on the image display or the other image display.
Areas to be sequentially displayed as a moving image such as ... Or a group of continuous still images, or the reproduced image 26 ...
The point is that the area for displaying the name and attribute data of the above, or the area for displaying the camera position, the camera direction, and the camera moving speed can be arbitrarily set according to a required operation or designation. Further, according to the method of the present invention, when the target object 22 ... Is designated, the target object 22 ...
The main point is that even if an area range that is wider or narrower than, for example, is selected and specified, only the target objects 22 ... Can be extracted and recognized. In addition, the method of the present invention, when the above-mentioned objects 22 ... Or the like or a part of them is designated, the shape formed by connecting them, the position of the shape, the distance,
Attribute data including area or volume, and these 2
The main point is to display the reproduced images 26, etc., which are obtained by calculating the required correlations for the three-dimensional to three-dimensional shapes, as described above. Further, the method of the present invention constructs a CG image of a three-dimensional object such as a target object 22 such as a building on the above image, and sequentially updates the CG image in time series as the camera moves as a landscape simulation. The main point is to display an image on the video image on the image display or the other image display, on the maps 23 to 71, or in a required area.
On the other hand, the image display device of the present invention includes one or a plurality of cameras for photographing the outside world, an input unit 11 for converting a time-sequentially changing video image photographed by the camera into an electric signal and inputting it at any time, and an image. Any one or more objects 22,
A designation unit (not shown) for designating 51, 72, etc., and an image clipping unit 12 for clipping the existence other than the target objects 22, 51, 72, etc., and extracting only the target objects 22, 51, 72, etc.
Correlation with each image frame of the object 22 or the like, or a plurality of image frames in which the image data of the characteristics of each component is abundantly stored in the image storage unit 13 (that is, the database) or the image data of the characteristics. And a pattern matching image frame or feature image data are calculated, and a new image frame or feature image data is additionally stored in the image storage unit 13 if necessary, and the correlation calculation unit A three-dimensional image forming unit 15 for generating a reproduced image 26 or the like including a two-dimensional or three-dimensional shape corresponding to the target object 22 or the like based on the image frame or the image data of the characteristic obtained in 14, and the video image or map. Two
3 to 71 and the like are displayed as an image, and the output display unit 16 that sequentially outputs the reproduced image as a moving image or a group of continuous still images, and the reproduced image 26 and the like in the output display unit 16. A setting unit (not shown) for setting the display area 25 and the like, and a required display in the output display unit 16 in which the reproduction image 26 and the like generated by the three-dimensional image forming unit 15 is set by the setting unit. Images are sequentially displayed in the area on the basis of a required size as described above, and the reproduced image 2 is displayed if necessary.
The main point is to display the names and attribute data associated with or generated in 6 and the like at the required positions in the same or other required display areas set by the setting unit. Further, the image display device of the present invention includes one or a plurality of cameras for photographing the outside world, an input unit 31 for converting time-sequentially changing video images photographed by the cameras into electric signals and inputting them at any time, and the video. Any one or more objects 2 from the video image
A designation unit (not shown) that designates 2, 51, 72, etc. is compared with the features of the entire subject 22, 51, etc. or each component excluding the existence other than the subject 22, 51, 72, etc. A comparison image generation unit 32 that generates a reference image, a database 33 that abundantly stores image data of various reproduction objects and characteristics of various components, and the database 3
A comparison component generation unit 34 that generates an image frame of the comparison component or image data of characteristics by performing a comparative search of 3;
The comparison image data of the object 51 or the like and the image data of the characteristic of the comparison part generated by the comparison part generating unit 34 are compared and searched to obtain two-dimensional to three-dimensional images corresponding to the objects 22, 51 or the like. A reproduction part image including a three-dimensional shape is specified, and a name attached to the reproduction part image, if necessary,
And the component specifying unit 35 that searches or generates attribute data and finds a position to be fixed for the image display of the reproduced component image, displays the video image and the maps 23 to 71, and the reproduced component image. An output display unit 36 for displaying an image at a position to be fixed on the maps 22 to 71 and the like is provided, and the tissue of the reproduced component image is required at a position to be fixed on the maps 23 to 71 and the like in the output display unit 36. Mark or number character, or as a group of moving images or continuous still images in two-dimensional or three-dimensional shape, the images are sequentially and sequentially displayed in time series, and if necessary, the moving images or continuous still images are displayed. The main point is to display the associated or generated names and the attribute data at the required positions in the output display unit 36. Further, the image display device of the present invention,
One or a plurality of cameras for photographing the outside world, a video input device 61 for inputting an electric signal of the time-sequentially changing video image, and a time-sequentially changing video image captured by the camera to an electric signal. A video recording / reproducing output device 62 for recording and reproducing, and one or a plurality of arbitrary objects 22, 51, 72 from the time-sequentially changing video images.
A video map for displaying the target video image and the maps 23 to 71, etc., on the target display screen 63 or the like, which is capable of designating ... etc. by excluding unnecessary surroundings, or at the same time relatively dividedly and displayed on a required display screen. A display device 64, a name of the reproduced image, and an attribute recording / reproducing device 65 that retrieves or generates, records and reproduces attribute data, and various image frames corresponding to the target object 72, etc., or features of various components. 2 corresponding to the target object 72, etc. by comparing and searching corresponding image frames or image data of features from a database (not shown) in which abundant image data of 2 are stored.
A target object search and designation device 66 for generating a reproduced image including a three-dimensional to three-dimensional shape, and a group of moving images or continuous still images of a reproduced image including the two-dimensional to three-dimensional shape corresponding to the target object 72. And a lock-on display unit 67 for sequentially performing lock-on display as a comparison, and the objects 22, 51, on the display screen on which the video image and the map are displayed in an overlapping manner or are simultaneously displayed separately. 72 ...
Required marks are displayed at positions corresponding to existing positions, etc., and the reproduced images corresponding to the objects 22, 51, 72, etc. are sequentially displayed on the lock-on display section 67 as described above. The main point is to display and, if necessary, also display a name attached to or generated in the reproduction image and attribute data at a required position on the display screen or a required position in the lock-on display unit 67. . Furthermore, the method and apparatus of the present invention can be applied to the image sizes and line-of-sight angles of the objects 22, 51, 72 and the like, and various reproducible objects or images of various characteristics that are abundantly stored in the image storage unit or the database. A two-dimensional or three-dimensional object corresponding to the objects 22, 51, 72, etc. having the same size and line-of-sight angle, provided with a search adjustment unit (not shown) that matches the size and line-of-sight angle with data The main point is that the reproduced images including the shapes are comparatively searched and generated, and the reproduced images are sequentially displayed as described above. Furthermore, the method and apparatus of the present invention make several points 72 etc. in the above video image correspond to the map, and track these with time-series changes to read the coordinates on the map, and read the several points 72 etc. Converting means (not shown) for calculating the camera position, the camera direction, and the camera speed from the coordinates of, and converting the video image and the map into the same coordinate system or a required coordinate system having a required line-of-sight angle. And a reproduced image including a two-dimensional or three-dimensional shape corresponding to the mark or the line-of-sight angle indicating the object 22, 51, 72 or the like at a corresponding position on the map having any coordinate system as described above. The main point is that the names and the attribute data that are sequentially displayed and, if necessary, associated or generated with the reproduced image are displayed at required positions. Further, the method and apparatus of the present invention comprises a calculating means (not shown) for calculating and calculating the one or more or a representative camera position, the camera direction, and the camera moving speed in relation to the outside world, and the maps 23 to 23. The point is to display a mark or numeral character indicating the camera position and the camera direction at the corresponding position on 71. Furthermore, the method and apparatus of the present invention calculates v = f · y · sin (tan −1 −1) by calculating the relationship between the one or more or each of the camera positions, the ground surface, and the object at any position. (H / y)) / sin θ / {h · cos θ (tan −1 (h / y) −θ)} (1) or v = f {tan ((π / 2) −θ) −tan ((π / 2) -θ-tan -1 (y / h))} (2), where y is the distance from directly under the camera to the object, v
Is the length of the object on the CCD surface in the camera, and θ is the dip angle of the camera. Furthermore, the method and apparatus of the present invention can calculate and clarify the correspondence between the above-mentioned one or more camera positions or a video image captured by the camera and an object on the map. f · y · sin (tan −1 (h / y)) / sin θ / {h · cos (tan −1 (h / y) −θ)} (3) or v = f · {tan ((π / 2) -θ) -tan ((π / 2) -θ-tan −1 (y / h))} (4) or v = {(f / sin θ) · y · sin β) / (h · cos ( β-θ))} (5) u = x · (f / y) · (cos β / cos (β-θ)) (6) where β = arcTan (h / y) and y is the camera Distance from beneath to the object, v
Is the length of the object on the CCD surface in the camera, x is the length in the direction perpendicular to the line segment connecting the object and the camera, u is the lateral length of the CCD surface in the camera, and θ is the camera The main point is that it is a dip. Furthermore, the method and apparatus of the present invention calculate and clarify the relationship between the height apex Z of the object or the like and the height apex W of the image of the object on the CCD surface. (F / sin (θ + (π / 2)) · Z · sinγ)} / {y · cos (γ− (θ + (π / 2)))} (7) where γ = arcTan (y / z) F is the focal length of the lens, θ is the dip angle of the camera, and φ = θ + (π / 2), φ is the perpendicular of the connecting position of the line segment connecting the lens and the object on the camera intersecting axis. Angle, ε corresponds to β + (π / 2), y corresponds to Z, and the relationship between the height dimension of the target object and the height dimension i of the image of the target object on the CCD surface. I = {(f / sin θ + (π / 2)) · h · sin (β + (π / 2))} / {y · cos (β + (π / 2)-(θ + (Π / )))} (8) where, beta = determined by arcTan (y / z), h is the height of the position of the camera, other
f, θ, etc. are the same as in the case of the above formula (7),
Further, in order to calculate and clarify the projection of the image corresponding to the height H + Z of the object on the CCD surface, the above Wi-{= [(f / sin (θ + (π / 2)) · Z · sinγ )] / [Y · cos (γ− (θ + (π / 2)))]}-{[(f / sin (θ + (π / 2)) · h · sin (β + (π / 2))] / [Y · cos (β−θ)]} (9) Further, i′−W ′ = (i−W) / cos δ (10) where δ = arcTan {(t−u) / (i−W) }, I'is the height dimension of the other target object at the other part of i or the same row position, and W'is the height apex of the other part of W or the height of the other object at the same row position. The above-mentioned target object is represented by using any one or a plurality or all of the above-mentioned formula (7), formula (8), formula (9), or formula (10), as necessary. To the object It is also essential to be able to perform a comparative search of a reproduced image including a corresponding two-dimensional to three-dimensional shape. In order to calculate and clarify the position of the image t of the extending portion, t = S (f / Z) · {cosγ / cos (γ-θ- (π / 2))} (11) This is a portion that extends laterally from the target object, and by using this formula (11), it is possible to perform a comparative search between the target object and a reproduced image including a two-dimensional to three-dimensional shape corresponding to the target object. What you have done is the main point.
Furthermore, the method and apparatus of the present invention use any one or more mathematical expressions, or all mathematical expressions (1) to (11) from the above expressions (1) to (11) as the attribute. The point is that it is added to the data. Further, the method and apparatus of the present invention, the object is a road, a sign, a river, a canal, a building, various facilities, various equipment, a vehicle, a motorcycle, an aircraft, a hull, or a moving vehicle, a motorcycle, an aircraft, The main point is that it is a hull or a structure with other operating functions. On the other hand, the method and apparatus according to the present invention itself display the reproduced image corresponding to the one or more target objects 22, 51, 72, ... For the required maps 23 to 71, etc., and if necessary, Web distribution including name and attribute data, camera position, camera direction, and camera moving speed is possible, and the above-mentioned display status of the above-mentioned reproduced image on the maps 23 to 71 and the like is also requested by the client. , And the map 2
Arbitrary objects 22 and 5 instructed to 3 to 71 etc.
The main point is to enable distribution of the display status such as marks or numerical characters indicating 1, 72, ..., The name associated with or generated in the reproduced image, and the attribute data. On the other hand, the recording medium of the present invention has at least the above-mentioned calculation algorithm, equations (1) to (11), and one or more objects 22, 51, 7 photographed by one or more cameras.
A step of calling a comparative part which is a component such as 2; a step of retrieving the image data of the feature relating to the corresponding part of the comparative part from a database in which abundant image data of a plurality of types of features are stored; A step of determining whether or not the comparison part and the image data of the feature correspond, a step of determining whether or not the calling of the predetermined comparison part is completed when the both do not correspond, and the call Both of the above steps correspond to the step of determining whether or not the processing for the predetermined component has ended if not ended, the step of designating the next comparison part if the processing for the predetermined part has not ended, In the case of doing, the step of recognizing the specific object 22, 51, or 72, etc., the step of specifying the next part, and the object 2
And a reproduction image including a two-dimensional or three-dimensional shape of the target object 22 or the like which is a recognition result when the processing of a predetermined portion of the comparison image in the second or the like is completed, And the step of sequentially outputting the moving images or a series of continuous still images as a group.

【0008】上記のような本発明の画像表示方法にあっ
ては、ビデオ映像の画像表示上において任意の位置の一
または複数の対象物22,51,72等を指定して上記
カメラと当該一または複数の対象物22等との相対角度
や方向の変化、及び距離の変化を含め、かつ当該対象物
22等を追跡しながら当該対象物22等の各画像フレー
ムの特徴、もしくは当該対象物22等の各構成部品の特
徴を時系列的に順次に検出する。データベース13乃至
33等から当該対象物22等の各画像フレームの特徴、
もしくは各構成部品の特徴の連続的な変化にも対応関係
のある特徴の画像データを順次に検索する。この検索結
果に対応して当該対象物22等に対応する2次元乃至3
次元形状を含む再現画像の各画像フレーム等を上記時系
列的な変化毎に順次に構成するとともに、再現画像を含
む各画像フレーム等を上記画像表示16乃至33あるい
は67上、もしくは通信回線等を介し他の画像表示上
(図示せず)の所要の領域上に所要の大きさ基準の動画
もしくは連続的な静止画の一群として対比的に順次に表
示し、かつ必要に応じ当該再現画像に付随乃至生成した
名称や属性データの所要の領域への表示も行える。ま
た、本発明の方法にあっては、上記データベース13乃
至33等に保存される各種特徴の画像データには、あら
かじめ各種再生対象物の各画像フレーム、もしくは各種
構成部品に対応する特徴の画像データに名称や各属性デ
ータが関連付けられてあるため、上述の検索処理が進め
られた場合には、当該特徴の画像データに付随乃至生成
された各属性データの認識に基づき当該対象物22,5
1,72等に対応する2次元乃至3次元形状を含む再現
画像の画像フレーム等を構成し、当該再現画像の上述の
画像表示を行える。また、本発明の方法にあっては、上
記データベース13乃至33等に保存される各種特徴の
画像データには、あらかじめ各種再現対象物、各種直
線、各種曲線、各種角、各種エッジ、各種平面、各種曲
面等の要素、もしくは特に各特徴の画像データ間の組合
せ関係をも含む各属性データが関連付けられてあるた
め、当該各属性データを参照することで、一または複数
の対象物22,51,72等に対応する2次元乃至3次
元形状を含む再現画像の画像フレーム等を構成し、当該
再現画像の上述の画像表示を行える。また、本発明の方
法にあっては、上記一または複数の対象物22,51,
72等に対応する2次元乃至3次元形状を含む再現画像
に、上記カメラ移動に伴う視線方向の変動があっても、
当該対象物22等のさまざまな視点からの2次元乃至3
次元形状の再現画像の上述の画像表示を行える。また、
本発明の方法は、一または複数の対象物22,51,7
2等の空間分布及び時間的分布を有する画像データを求
め、少なくとも視差情報と時間差情報により当該対象物
22等に対応する3次元形状を含む再現画像の画像デー
タ等を生成し、もって当該再現画像の3次元モデルを生
成し上述の画像表示を行える。また、本発明の方法にあ
っては、上記画像表示上16乃至36あるいは67等も
しくは上記他の画像表示上には、必要に応じ上記指定し
た一または複数の対象物22,51,72等の周囲の地
図23乃至71等を画像表示させるとともに、当該対象
物22等を当該地図23乃至71等内の対応する位置に
所要の印で、もしくは上記パターンマッチングに基づく
2次元乃至3次元形状の再現画像で表示し、更に必要に
応じ上記地図23等の表示領域と上記再現画像の表示領
域67等とを対比的に分けるか、もしくは双方を重ね合
わせることが行える。また、本発明の方法にあっては、
対象物22,51,72等のうち、複数の点を指定する
ことで当該既知の点と上記カメラとの位置関係を演算す
るとともに、当該演算アルゴリズムをも上記データベー
スに保存し、他の点について指定した場合にも、当該演
算アルゴリズムを利用して任意の対象物22等のうち各
相互の点、及び距離を演算し、かつ当該対象物22等の
全面もしくは一部の構成部品の面の面積や体積の演算計
測が行える。また、本発明の方法にあっては、上記動画
もしくは連続的な静止画の一群として対比的に順次に表
示させたものに関して、当該カメラ位置、カメラ方向、
カメラ移動速度を所要の演算により求め、当該事項を所
要の印乃至数字文字での画像表示が行える。また、本発
明の方法にあっては、動画もしくは連続的な静止画の一
群として対比的に順次に表示させる領域、あるいは上記
対象物22,51,72等に対応する再現画像の名称や
属性データを表示する領域、もしくは上記カメラの位
置、カメラ方向、カメラ移動速度を表示する領域の所要
の操作乃至指定に応じた任意の設定が行える。また、本
発明の方法にあっては、対象物22,51,72等を指
定する場合には、当該対象物22等よりも広い領域範囲
もしくは狭い領域範囲を選択指定しても、当該対象物2
2等のみ抽出して認識することが行える。また、本発明
の方法にあっては、上記任意の対象物22,51,72
等もしくはそれらの一部を結んでできる形状、及び形状
の位置、距離、面積、もしくは体積を含む属性データ、
及びこれらの2次元乃至3次元形状を含む上記再現画像
の画像表示が行える。また、本発明の方法にあっては、
上記対象物22,51,72等の3次元物体のCG画像
を構成し、景観シミュレーションとしてカメラ移動とと
もに当該CG画像を順次時系列的に更新しビデオ映像や
地図23乃至71上、もしくは所要の領域への画像表示
が行える。一方、本発明の画像表示装置にあっては、特
に、指定部(図示せず)で出力表示部16内の画像から
任意の対象物22,51,72等を指定し、画像切取部
12で当該指定した対象物22,51,72等以外の存
在を切り取り上記対象物22等のみ抽出し、相関計算部
14で画像蓄積部33に保存された複数の各画像フレー
ム、乃至特徴の画像データとの相関関係を求め、3次元
画像構成部15で対象物22等に対応する2次元乃至3
次元形状の再現画像を生成し、かつ出力表示部16に当
該ビデオ映像や地図21等を画像表示する他、当該再現
画像の動画もしくは連続的な静止画の一群として対比的
に順次に出力するが、この際に設定部(図示せず)を介
し当該出力表示部16内で当該再現画像の表示領域を設
定する。従って、当該再現画像を当該設定部で設定した
上記出力表示部16内の所要の表示領域に所要の大きさ
基準で上述の如く順次に画像表示し、かつ必要に応じ当
該再現画像に付随乃至生成する名称、及び属性データを
も当該設定部で設定した同一もしくは他の所要の表示領
域の所要位置への表示が行える。また、本発明の画像表
示装置にあっては、特に、指定部(図示せず)で出力部
36内の画像から任意の対象物22,51,72等を指
定し、比較用画像生成部32で当該対象物22,51等
の全体もしくは各構成部品の特徴を比較用画像として生
成し、比較用部品生成部34でデータベース33を比較
検索することで比較用部品の特徴の画像データを生成
し、かつ部品特定部35で上記対象物22,51等の比
較用画像データと当該比較用部品生成部34で生成され
た比較用部品の特徴の画像データとの比較検索を行って
上記対象物22,51等に対応する2次元乃至3次元形
状を含む再現部品画像を特定し、必要に応じ当該再現部
品画像に付随する名称、及び属性データをも検索もしく
は生成し、続いて出力部36への固定すべき位置を求め
る。従って2次元乃至3次元形状を含む再現部品画像の
組織体を上記出力部36内の地図の固定すべき位置に所
要の印や数字文字、もしくは2次元乃至3次元形状の動
画乃至連続的な静止画の一群として対比的に時系列的に
順次に画像表示し、かつ必要に応じ当該動画もしくは連
続的な静止画に付随乃至生成する名称、及び属性データ
をも表示することが行える。また、本発明の画像表示装
置にあっては、特に、映像記録再生出力装置62でビデ
オ映像を電気信号に変換し記録し再生し、映像入力装置
61で当該ビデオ映像の電気信号を入力し、かつ映像地
図指定装置64で当該ビデオ映像及び地図を重ねて、あ
るいは同時比較的に分けて所要の表示画面に表示させ、
しかる上で、対象物指定装置63で当該ビデオ映像の中
から任意の対象物22,51,72等を指定し、かつ対
象検索指定装置66でデータベース(図示せず)の中か
ら対応する特徴の画像フレーム、乃至特徴の画像データ
を比較検索して上記対象物22,51等に対応する2次
元乃至3次元形状を含む再現画像を生成するとともに、
属性記録再生装置65で上記再現画像の名称、及び属性
データを検索もしくは生成し記録し再生し、同時に、ロ
ックオン表示部67に上記対象物22,51等に対応す
る上記再現画像の動画もしくは連続的な静止画の一群と
して対比的に順次にロックオン表示するたため、従って
上記ビデオ映像、及び地図を重ねて表示した、もしくは
同時対比的に分けて表示した表示画面上の上記対象物2
2,51等の存在位置に対応する位置に必要に応じ所要
の印等を表示し、かつロックオン表示部67に上記対象
物22,51等に対応する再現画像を上述の如く順次に
表示し、かつ上記表示画面上の所要の位置もしくは当該
ロックオン表示部67内の所要の位置に当該再現画像に
付随乃至生成する名称や属性データの画像表示が行え
る。更に、本発明の方法及び装置にあっては、検索調整
部(図示せず)で上記対象物22,51,72等の映像
上の大きさや視線角度と上記データベース13乃至33
等に豊富に保存された各種再現対象物もしくは各種特徴
の画像データとの大きさや視線角度とを同一に合わせる
め、上記大きさや視線角度の統一のとれた対象物22等
に対応する2次元乃至3次元形状を含む再現画像を比較
検索し生成し、当該再現画像を上述の如く順次に画像表
示することが行える。更に、本発明の方法及び装置にあ
っては、上記ビデオ映像内の数点72,73,74,7
5,76等を地図71上等と対応させ、これを時系列的
な変化とともに追跡して地図71上等の座標を読み取
り、読みとった数点の座標からカメラ位置、カメラ方
向、カメラ速度を演算して求めるとともに、当該ビデオ
映像と当該地図71等を同一座標系、もしくは所要の視
線角度を有する所要の座標系に変換することができるた
め、いずれかの座標系を有する地図71上等の対応する
位置に、当該対象物22,51,72等を示す印乃至視
線角度に対応する2次元乃至3次元形状を含む再現画像
を上述の如く順次に表示し、かつ必要に応じ当該再現画
像に付随乃至生成する名称、及び属性データをも所要の
位置に表示することが行える。更に、本発明の方法及び
装置にあっては、一または複数もしくは代表のカメラ位
置及びカメラ方向を外界との関係で演算し求めるため、
上記地図23,71上等の対応する位置に、カメラ位置
及びカメラ方向を示す印A等、乃至数字文字等を表示す
ることが行える。更に、本発明の方法及び装置にあって
は、上記一または複数もしくは代表のカメラ位置を演算
するのに、上述の式(1)もしくは式(2)を用いて演
算するため、処理時間が短く、かつ正確なカメラ位置を
求めることが可能である。更に、本発明の方法及び装置
にあっては、上記一または複数もしくは代表のカメラ位
置、もしくはカメラにより撮影したビデオ映像と、地図
上の対象物等との対応関係を演算し明確にするのに、上
述の式(3)乃至式(4)、もしくは式(5)及び式
(6)を用いて演算するため、上述と同じく、処理時間
が短く、かつ正確なカメラ位置、もしくは地図と各対象
物の正確な対応関係を求めることが可能である。更に、
本発明の方法及び装置にあっては、上記対象物等の高さ
頂点ZとCCD面上に写る当該対象物の像の高さ頂点W
との関係を演算し明確にするのに、上記式(7)を用
い、かつ、対象物等の高さ寸法とCCD面上に写る当該
対象物の像の高さ寸法iとの関係を演算し明確にするの
に、上記式(8)を用い、更に、CCD面上で対象物の
高さH+Zに対応する像の投影を演算し明確にするの
に、上記式(9)もしくは上記式(10)を用い、更
に、CCD面に写る上記対象物から横に延びる部分の像
tの位置を演算し明確にするのに、上記式(11)を用
いるため、各々の演算を短時間で行うことがが可能で、
必要に応じこれらの上記式(1)乃至上記式(11)を
適宜用いることで、上記対象物と当該対象物に対応する
2次元乃至3次元の形状を含む再生画像の比較検索を行
うことをも可能にする。更に、本発明の方法及び装置に
あっては、上記式(1)から上記式(11)までのう
ち、必要に応じ何れか一または複数の数式、もしくは全
ての数式(1)〜(11)を上記属性データに加えるた
め、当該属性データを参照し解読することで、上述の比
較検索が効率良く、かつ容易に行うことが可能である。
更に、本発明の方法及び装置にあっては、上記対象物
が、道路、標識、河川、運河、建造物、各種施設、各種
設備、車両、二輪車、航空機、船体、あるいは移動中の
車両、二輪車、航空機、船体、もしくはその他の動作機
能のある構造体であるため、多くの対象物に対応する2
次元乃至3次元の再生画像を構成し、かつ上述の画像表
示を行うことが可能である。他方、本発明の方法及び装
置にあっては、自ら上記所要の地図23,71等に対す
る上記一または複数の対象物22,51,72等に対応
する上述の再現画像の表示状況、及び、必要に応じ名
称、及び属性データ、カメラ位置、カメラ方向、カメラ
速度をも含めてWeb配信を行うことが可能であり、逆
に、クライアントからの要求によっても上記地図23,
71等に対する上述の再現画像の上述の如き表示状況、
及び、当該地図23,71等に対し指示された任意の対
象物22,51,72,73,74,75,76等を示
す印乃至数字文字や当該再現画像に付随乃至生成する上
記名称、及び属性データ等の表示状況の配信を行うこと
が可能である。更に他方、本発明の記憶媒体にあって
は、少なくとも、上述の演算アルゴリズム、式(1)か
ら式(11)までを記録し、並びに、一または複数のカ
メラで撮影した一または複数の対象物22,51,72
等の構成部品である比較用部品を呼び出し、豊富な複数
種の特徴の画像データが保存されたデータベース13乃
至33等から当該比較用部品の対応部分に係る特徴の画
像データを検索し、上記比較用部品と当該特徴の画像デ
ータが対応するか否かを判定して、かつ当該双方が対応
しない場合に所定の比較用部品の呼び出しが終了したか
否かを判定する。また、当該呼び出しが終了しない場合
に所定の部品に対する処理が終了したか否かを判定し
て、当該所定の部品に対する処理が終了していない場合
に次の比較用部品を指定し、上述の双方が対応する場合
に特定の対象物像22,51,72等として認識し、次
の部品を特定する。しかし対象物22,51等における
比較用画像の所定部分の処理が終了したか否かを判定し
て、当該処理が終了した場合には認識結果である対象物
22,51等に係る2次元乃至3次元形状を含む再現画
像の動画もしくは連続的な静止画の一群として対比的に
順次に出力することを可能にする。
In the image display method of the present invention as described above, one or a plurality of objects 22, 51, 72, etc., at arbitrary positions on the image display of the video image are designated and the camera and the image display device are selected. Alternatively, the characteristics of each image frame of the target object 22 or the like, or the characteristics of the target object 22 or the like, including changes in the relative angle and direction with respect to the plurality of target objects 22 and the like, and changes in the distance, and tracking the target object 22 or the like. Etc., the characteristics of each component, etc. are sequentially detected in time series. The characteristics of each image frame of the target object 22 or the like from the databases 13 to 33,
Alternatively, the image data of the feature having a correspondence relationship with the continuous change of the feature of each component is sequentially searched. Two-dimensional to three-dimensional corresponding to the target object 22 or the like corresponding to this search result
Each image frame or the like of the reproduced image including the dimensional shape is sequentially configured for each time series change, and each image frame or the like including the reproduced image is displayed on the image displays 16 to 33 or 67 or on the communication line or the like. Through the other image display (not shown), it is sequentially displayed as a group of moving images of a required size or a series of continuous still images on a required area, and is attached to the reproduced image as needed. It is also possible to display the generated name and attribute data in a required area. Further, in the method of the present invention, the image data of various characteristics stored in the databases 13 to 33, etc., includes the image data of the characteristics corresponding to each image frame of each reproduction object or each component in advance. Since the name and each attribute data are associated with each other, when the above-described search processing is performed, the target object 22, 5 is recognized based on the recognition of each attribute data attached to or generated in the image data of the feature.
It is possible to configure an image frame or the like of a reproduced image including a two-dimensional or three-dimensional shape corresponding to 1, 72 or the like and perform the above-described image display of the reproduced image. Further, in the method of the present invention, the image data of various characteristics stored in the databases 13 to 33 and the like includes various reproduction objects, various straight lines, various curves, various angles, various edges, various planes, in advance. Elements such as various curved surfaces, or in particular, each attribute data including a combination relation between image data of each feature are associated with each other. Therefore, by referring to each attribute data, one or a plurality of objects 22, 51, An image frame or the like of a reproduced image including a two-dimensional or three-dimensional shape corresponding to 72 or the like can be configured and the above-described image display of the reproduced image can be performed. Further, in the method of the present invention, the one or more objects 22, 51,
Even if the reproduced image including the two-dimensional or three-dimensional shape corresponding to 72 or the like changes in the line-of-sight direction due to the camera movement,
2D to 3 from various viewpoints of the object 22
The above-mentioned image display of the reproduced image of the three-dimensional shape can be performed. Also,
The method of the present invention comprises one or more objects 22, 51, 7
Image data having a spatial distribution and a temporal distribution such as 2 is obtained, and image data of a reproduced image including a three-dimensional shape corresponding to the target object 22 and the like is generated based on at least parallax information and time difference information, and thus the reproduced image. It is possible to generate a three-dimensional model of the above and display the above-mentioned image. In addition, in the method of the present invention, one or a plurality of the specified objects 22, 51, 72, etc. specified above may be displayed on the image display 16 to 36 or 67 or the other image display as needed. The surrounding maps 23 to 71 and the like are displayed as images, and the target 22 and the like are reproduced at the corresponding positions in the maps 23 to 71 and the like with a required mark or the two-dimensional to three-dimensional shape based on the above pattern matching. It can be displayed as an image, and if necessary, the display area of the map 23 or the like and the display area 67 of the reproduced image or the like can be contrasted or both can be overlapped. Further, in the method of the present invention,
Of the objects 22, 51, 72, etc., the positional relationship between the known point and the camera is calculated by designating a plurality of points, and the calculation algorithm is also stored in the database, regarding other points. Even when specified, the respective calculation points are used to calculate the mutual points and distances of the arbitrary target object 22 and the like, and the area of the entire surface of the target object 22 or the like or the surface of some component parts And volume calculation can be performed. Further, in the method of the present invention, the camera position, camera direction,
The camera moving speed is obtained by a required calculation, and the relevant item can be displayed as an image with a required mark or numeral character. Further, in the method of the present invention, a region to be sequentially displayed as a moving image or a group of continuous still images, or the name or attribute data of a reproduced image corresponding to the object 22, 51, 72 or the like. Can be arbitrarily set according to a required operation or designation of the area for displaying, or the area for displaying the camera position, camera direction, and camera moving speed. Further, in the method of the present invention, when the target objects 22, 51, 72, etc. are designated, even if the area range wider or narrower than the target object 22, etc. is selected and designated, the target object 22, 51, 72, etc. Two
Only 2 etc. can be extracted and recognized. Further, in the method of the present invention, the above-mentioned arbitrary objects 22, 51, 72
Etc. or a shape formed by connecting a part of them, and attribute data including the position, distance, area, or volume of the shape,
Also, the reproduced image including the two-dimensional or three-dimensional shape can be displayed. Further, in the method of the present invention,
A CG image of a three-dimensional object such as the target object 22, 51, 72 is constructed, and the CG image is sequentially updated in time series as the camera moves as a landscape simulation, and the video image or maps 23 to 71, or a required area. Image can be displayed. On the other hand, in the image display device of the present invention, in particular, the designation unit (not shown) designates an arbitrary object 22, 51, 72 or the like from the image in the output display unit 16, and the image cutting unit 12 Existences other than the specified target objects 22, 51, 72, etc. are cut out and only the target object 22, etc. are extracted, and a plurality of image frames stored in the image storage unit 33 in the correlation calculation unit 14 or image data of features Of the two-dimensional to three-dimensional image corresponding to the object 22 or the like in the three-dimensional image construction unit 15
In addition to generating a three-dimensional shape reproduced image and displaying the video image and the map 21 on the output display unit 16, the reproduced image is sequentially output as a moving image or a group of continuous still images in comparison. At this time, the display area of the reproduced image is set in the output display unit 16 via the setting unit (not shown). Therefore, the reproduced image is sequentially displayed on the required display area in the output display unit 16 set by the setting unit with the required size as described above, and is attached or generated to the reproduced image as necessary. The name and the attribute data to be displayed can also be displayed at the required position in the same or another required display area set by the setting unit. Further, in the image display device of the present invention, in particular, the designation unit (not shown) designates an arbitrary object 22, 51, 72 or the like from the image in the output unit 36, and the comparison image generation unit 32. Then, the features of the entire object 22, 51 or the like or each component is generated as a comparison image, and the comparison component generation unit 34 performs a comparative search on the database 33 to generate the image data of the feature of the comparison component. In addition, the part specifying unit 35 performs a comparative search between the comparison image data of the objects 22, 51 and the like and the image data of the characteristics of the comparison part generated by the comparison part generating unit 34 to perform the search. , 51, etc., the reproduced part image including a two-dimensional to three-dimensional shape is specified, and if necessary, the name and attribute data associated with the reproduced part image are also retrieved or generated, and then output to the output unit 36. Find the position to fix That. Therefore, the tissue of the reproduced part image including the two-dimensional or three-dimensional shape is placed at the position to be fixed on the map in the output unit 36, and the required mark or numeral character, or the two-dimensional or three-dimensional moving image or continuous stillness is obtained. As a group of images, the images can be sequentially displayed in time series in contrast, and if necessary, the name and attribute data associated with or generated in the moving image or the continuous still image can be displayed. Further, in the image display device of the present invention, in particular, the video recording / reproducing output device 62 converts the video image into an electric signal for recording and reproduction, and the video input device 61 inputs the electric signal of the video image, In addition, the video map and the map are superposed on the video map designating device 64, or simultaneously displayed in a relatively divided manner on a required display screen,
Then, the object specifying device 63 specifies an arbitrary object 22, 51, 72, etc. from the video image, and the object search specifying device 66 specifies the corresponding feature from the database (not shown). The image frame or the image data of the feature is compared and searched to generate a reproduced image including a two-dimensional or three-dimensional shape corresponding to the object 22, 51 or the like.
The attribute recording / reproducing device 65 retrieves or generates the name and attribute data of the reproduced image and records and reproduces the reproduced image, and at the same time, the lock-on display section 67 displays a moving image or a continuous image of the reproduced image corresponding to the object 22, 51 or the like. Since the lock-on display is performed sequentially as a group of typical still images, the object 2 is displayed on the display screen on which the video image and the map are displayed in an overlapping manner or are simultaneously displayed separately.
Required marks are displayed at positions corresponding to existing positions of 2, 51, etc., and reproduced images corresponding to the objects 22, 51, etc. are sequentially displayed on the lock-on display section 67 as described above. In addition, an image of the name or attribute data attached to or generated in the reproduced image can be displayed at a required position on the display screen or a required position in the lock-on display section 67. Further, in the method and apparatus of the present invention, the search adjusting unit (not shown) and the size of the object 22, 51, 72 or the like on the image or the line-of-sight angle and the databases 13 to 33 are used.
In order to match the size and line-of-sight angle with the image data of various reproduced objects or various characteristics that are abundantly stored in the two-dimensional corresponding to the object 22 and the like having the same size and line-of-sight angle. A reproduced image including a three-dimensional shape can be comparatively searched and generated, and the reproduced image can be sequentially displayed as described above. Further, in the method and apparatus of the present invention, several points 72, 73, 74, 7 in the above video image are included.
5, 76, etc. are made to correspond to the map 71 etc., and this is tracked along with changes in time series to read the coordinates on the map 71 etc., and calculate the camera position, camera direction, and camera speed from the coordinates of several points read. Since the video image and the map 71 or the like can be converted into the same coordinate system or the required coordinate system having the required line-of-sight angle, the correspondence on the map 71 or the like having any coordinate system can be obtained. The reproduced images including the two-dimensional or three-dimensional shapes corresponding to the marks or the line-of-sight angles indicating the target objects 22, 51, 72, etc. are sequentially displayed at the positions to be displayed, and the reproduced images are attached to the reproduced images as necessary. The generated name and the attribute data can also be displayed at desired positions. Furthermore, in the method and apparatus of the present invention, one or more or a representative camera position and camera direction are calculated and obtained in relation to the external environment,
At the corresponding positions on the maps 23, 71, etc., it is possible to display a mark A or the like indicating the camera position and the camera direction, or numeric characters. Furthermore, in the method and apparatus of the present invention, the above-mentioned equation (1) or equation (2) is used to calculate the above-mentioned one or more or representative camera positions, so that the processing time is short. Moreover, it is possible to obtain an accurate camera position. Furthermore, in the method and apparatus of the present invention, it is necessary to calculate and clarify the correspondence relationship between one or more or a representative camera position or a video image taken by the camera and an object on a map. Since the calculation is performed using the above formulas (3) to (4), or the formulas (5) and (6), the processing time is short and the camera position is accurate, or the map and each target are similar to the above. It is possible to find the exact correspondence of objects. Furthermore,
In the method and apparatus of the present invention, the height apex Z of the object or the like and the height apex W of the image of the object on the CCD surface.
The above equation (7) is used to calculate and clarify the relationship with and the relationship between the height dimension of the target object and the height dimension i of the image of the target object on the CCD surface is calculated. In order to clarify, the above formula (8) is used, and in order to calculate and clarify the projection of the image corresponding to the height H + Z of the object on the CCD surface, the above formula (9) or the above formula is used. (10) is used, and since the above equation (11) is used to calculate and clarify the position of the image t of the portion that extends laterally from the object on the CCD surface, each calculation can be performed in a short time. Can be done,
By appropriately using the above formulas (1) to (11) as necessary, it is possible to perform a comparative search between the object and a reproduced image including a two-dimensional to three-dimensional shape corresponding to the object. Also enables. Further, in the method and apparatus of the present invention, any one or a plurality of formulas (1) to (11) among the formulas (1) to (11), or all the formulas (1) to (11), as required. Is added to the attribute data, the above-mentioned comparison search can be performed efficiently and easily by referring to and decoding the attribute data.
Further, in the method and apparatus of the present invention, the object is a road, a sign, a river, a canal, a building, various facilities, various equipment, a vehicle, a motorcycle, an aircraft, a hull, or a moving vehicle, a motorcycle. , An aircraft, a hull, or any other structure that has operational functions, it can handle many objects. 2
It is possible to construct a three-dimensional to three-dimensional reproduced image and perform the above-mentioned image display. On the other hand, in the method and apparatus of the present invention, the display status of the above-mentioned reproduced image corresponding to the one or more target objects 22, 51, 72, etc. with respect to the required maps 23, 71, etc. It is possible to perform Web distribution including the name and attribute data, the camera position, the camera direction, and the camera speed according to the above, and conversely, even if the client requests the map 23,
The above-mentioned display status of the reproduced image for 71 etc.,
And a mark or numeral character indicating an arbitrary object 22, 51, 72, 73, 74, 75, 76, etc. designated for the map 23, 71 or the like, or the name attached to or generated in the reproduced image, and It is possible to distribute the display status of attribute data and the like. Furthermore, on the other hand, in the storage medium of the present invention, at least one or a plurality of objects recorded with at least the above-mentioned arithmetic algorithm, Expressions (1) to (11), and taken by one or a plurality of cameras. 22, 51, 72
The comparison parts which are the constituent parts of the comparison parts are called, and the image data of the characteristics related to the corresponding parts of the comparison parts are searched from the databases 13 to 33 etc. in which the image data of abundant plural kinds of characteristics are stored, and the comparison is performed. It is determined whether or not the parts for image and the image data of the feature correspond, and if both do not correspond, it is determined whether or not the calling of the predetermined comparison part is completed. Further, when the call is not completed, it is determined whether or not the process for the predetermined part is completed, and when the process for the predetermined part is not completed, the next comparison part is designated, Is recognized as a specific object image 22, 51, 72, etc., and the next part is specified. However, it is determined whether or not the processing of the predetermined portion of the comparison image in the objects 22, 51, etc. is completed, and if the processing is completed, the two-dimensional or This makes it possible to sequentially output a moving image of a reproduced image including a three-dimensional shape or a group of continuous still images in contrast to each other.

【0009】[0009]

【発明の実施の形態】[発明の概要]本発明の概要は、
時系列的かつリアルタイムでのビデオ映像を画像入力す
るとともに、当該ビデオ映像から一または複数の対象物
を指定して名称や属性データを関連付けて記録し、ビデ
オ映像と地図とを重ねあわせ、あるいは同時対比的に分
けて画像表示するとともに、ビデオ映像内の対象物を画
像表示上の地図の対応点との位置関係が一致するように
対応させる一方で、ビデオ映像の画像表示上には対象物
の2次元乃至3次元画像を時系列的に変化する動画もし
くは連続的な静止画の一群として対比的に順次に表示さ
せ、他方で、たとえば地図とビデオ映像を重ね合わせ、
マウスなどで各点を指定することで所要の演算によりそ
の囲む範囲内の対象物の面積や体積や距離を求め、かつ
カメラの位置、カメラ方向、カメラ移動速度などをも求
め、特に、上記3次元画像の表示形体として、画像内の
別の場所に、カメラ移動とともに、さまざまな角度の分
解写真(即ちたとえば斜視画像)のように同時対比的
に、あるいは連続的に一つに重ね合わせリアルタイムに
更新(即ち動画的に)する如くに、もしくはめくり絵の
ようにロックオンして画像表示するというものである。
BEST MODE FOR CARRYING OUT THE INVENTION [Outline of the Invention]
Input time-series and real-time video images, specify one or more objects from the video images, and record the names and attribute data in association with each other. The images are displayed separately in contrast, and the objects in the video image are made to correspond so that the positional relationship with the corresponding points on the map on the image display matches, while the objects are displayed on the image display of the video image. Two-dimensional to three-dimensional images are sequentially displayed as a group of moving images or continuous still images that change in time series, and on the other hand, for example, a map and a video image are superimposed,
By designating each point with a mouse or the like, the area, volume, and distance of the target object within the enclosed range are obtained by the required calculation, and the position of the camera, the camera direction, the camera moving speed, etc. are also obtained. As a display feature of a three-dimensional image, it can be moved to another place in the image at the same time, simultaneously with the movement of the camera, in parallel as in a decomposed photograph at various angles (that is, for example, a perspective image), or continuously superimposed on one another in real time. The image is displayed as if it is updated (that is, in a moving image) or locked on like a flip-over picture.

【0010】以下、本発明の第1の実施の形態を図1乃
至図3を参照し説明する。図1に本実施の形態に係る画
像表示装置の主要部の構成を示し、かかる画像表示装置
は、一または複数のカメラ(図示せず)、入力部11、
指定部(図示せず)、画像切取部12、画像蓄積部(デ
ータベース)13、相関計算部14、3次元画像構成部
15、及び、出力表示部16を図示の如く電気的に接続
して構成されている。
A first embodiment of the present invention will be described below with reference to FIGS. 1 to 3. FIG. 1 shows the configuration of the main part of the image display device according to the present embodiment. The image display device includes one or a plurality of cameras (not shown), an input unit 11,
A designation unit (not shown), an image cutout unit 12, an image storage unit (database) 13, a correlation calculation unit 14, a three-dimensional image construction unit 15, and an output display unit 16 are electrically connected as shown in the figure. Has been done.

【0011】一または複数のカメラは、たとえば所定の
車両の屋根上や荷台コンテナ乃至ボックスの屋根上等の
所定位置に所定の配列で設置されるもので、たとえば車
両内の所要の操作、もしくは基地局の所要の操作に応じ
て例えば電動駆動により高さ及び撮影方向を任意に変更
することが可能であり、周囲の外界の建造物、河川等の
状況、各種施設、各種標識、各種信号機や送電に関する
各鉄塔等の設備、あるいは一般家屋や道路等を撮影(追
跡撮影を含む)する。また、カメラはたとえば焦点の検
出により対象物までの距離の計測、撮影に関する三角測
量法等により自分のカメラ位置(もしくは代表のカメラ
位置)の計測、2次元対象物や3次元対象物の2次元形
状や3次元形状の計測等の目的に使用される。
The one or a plurality of cameras are installed in a predetermined arrangement on a roof of a predetermined vehicle or on a roof of a cargo container container or a box, for example, and are required to operate in a vehicle or to operate a base. Depending on the required operation of the station, it is possible to arbitrarily change the height and the shooting direction by electric drive, for example, the surrounding external buildings, the situation of rivers, various facilities, various signs, various traffic signals and power transmission. Photograph equipment (including tracking photography) of equipment such as steel towers, general houses, roads, etc. In addition, the camera measures the distance to the object by detecting the focus, measures the camera position of itself (or a representative camera position) by a triangulation method for photographing, and the two-dimensional object of the two-dimensional object or the three-dimensional object. It is used for the purpose of measuring shapes and three-dimensional shapes.

【0012】入力部11は、カメラが撮影した時系列的
に変化するビデオ映像を電気信号に変換し随時入力する
もので、当該ビデオ映像には、外界の映像範囲において
全ての物体状況が輝度、濃度、コントラスト等のカラー
画像のビデオ信号が含まれている。
The input unit 11 converts a video image captured by a camera, which changes in time series, into an electric signal and inputs the electrical signal at any time. In the video image, all the object situations in the external image range are luminance, Video signals of color images such as density and contrast are included.

【0013】指定部(図示せず)は、自車両内のたとえ
ばプロセッサを含む画像処理装置の出力表示部16や基
地局の画像処理装置に備わる出力表示部(図示せず)上
において任意の位置の一または複数の対象物の名称や属
性で指定するか、あるいはマウスで四角く囲うか、一点
位置をクリックするか、もしくはライトペンやタッチパ
ネルで指定することで、一または複数の対象物のその視
線角度をも定め対応点決定(マッチング)を行い当該対
象物を指定することができる。また、指定に関しては、
マウス等で当該対象物よりも広い領域範囲もしくは狭い
領域範囲を選択指定しても、当該対象物のみ指定するこ
とが可能である。
The designation unit (not shown) is located at an arbitrary position on the output display unit 16 of the image processing apparatus including a processor in the vehicle or on the output display unit (not shown) of the image processing apparatus of the base station. The line of sight of one or more objects can be specified by specifying the name or attribute of one or more objects, enclosing with a mouse in a square, clicking a single point position, or specifying with a light pen or touch panel. The target can be specified by determining the angle and performing corresponding point determination (matching). Also, regarding the designation,
It is possible to specify only the target object by selecting and specifying a wider range range or a narrower range range than the target object with a mouse or the like.

【0014】画像切取部12は、たとえば上述の2台の
カメラによる三角測量法、もしくは2台以上のITVカ
メラによる二眼ステレオ画像法、乃至三眼ステレオ画像
法等により指定部が指定したビデオ映像内の所要の一ま
たは複数の対象物を立体視するとともに、当該対象物の
たとえば輪郭のエッジを抽出することで、対象物以外の
存在に係る電気信号を切り取り(消滅)、もって当該対
象物の画像のみ検出するとともに、当該対象物の全体、
もしくは各構成部品の各種直線、各種曲線、各種角、各
種エッジ、各種平面、各種曲面等の各要素をも検出す
る。また、画像切取部12、もしくは中央演算処理装置
及び画像切取部12との関係で起動する別段の追跡機能
によりカメラ移動及びカメラ方向の変化をも含め当該対
象物を追跡し当該対象物の撮影を継続することが可能で
ある。
The image clipping unit 12 is a video image designated by the designating unit by, for example, the triangulation method using the two cameras described above, the twin-lens stereo image method using two or more ITV cameras, or the three-lens stereo image method. By stereoscopically viewing one or more required objects in the object and extracting, for example, the edge of the object, for example, the edge of the contour, the electric signal related to the existence other than the object is cut (disappeared), and thus the object Only the image is detected, and the entire target object,
Alternatively, each element such as various straight lines, various curves, various angles, various edges, various planes, various curved surfaces of each component is also detected. Further, the image cropping unit 12 or a separate tracking function activated in relation to the central processing unit and the image cropping unit 12 tracks the target object including the movement of the camera and the change of the camera direction, and captures the target object. It is possible to continue.

【0015】画像蓄積部(データベース)13には、外
界の各種建造物、各種河川等の状況、各種標識、各種信
号機や送電に関する各鉄塔等の設備、あるいは各種一般
家屋や道路等の各種対象物の各種構成部品の特徴(即ち
各種構成部品の各種直線、各種曲線、各種角、各種エッ
ジ、各種平面、各種曲面等、並びに、それらのたとえば
任意角度に回転させた状態の各種直線、各種曲線、各種
角、各種エッジ、各種平面、各種曲面等)のデータ、即
ち画像のイメージデータ乃至画像の構成データ、並び
に、各種特徴の画像データに対する名称、属性データ等
が豊富に保存されている。尚、対象物の名称や属性デー
タが入力された場合には後述する相関計算部14の検索
速度を高めることが可能であり、属性データには特徴の
分類に関する名目データ、その他、たとえば製造年月
日、経年年数、所有者、管理者、過去の鑑査履歴、修復
履歴、増改・修復の予定、交換の予定等や、あるいは画
像蓄積部13内の各特徴の画像データの組合せ生成(組
織体)に関するデータ、もしくは対象物を結んでできる
形状、及び形状の位置、距離、面積、もしくは体積が含
められる。
The image storage unit (database) 13 has various structures in the outside world, various rivers, various signs, various signals, equipment such as various towers related to power transmission, and various objects such as general houses and roads. Features of various components (that is, various straight lines, various curves, various angles, various edges, various flat surfaces, various curved surfaces, etc. of those various components, and various straight lines, various curves, etc. in the state of being rotated at an arbitrary angle, Various angles, various edges, various planes, various curved surfaces, etc., that is, image data of images or image configuration data of images, names of image data of various characteristics, attribute data, and the like are abundantly stored. When the name of the object or the attribute data is input, it is possible to increase the search speed of the correlation calculation unit 14, which will be described later, and the attribute data includes the nominal data related to the classification of the feature and other information such as the manufacturing date. Date, age, owner, manager, past inspection history, repair history, schedule of replacement / repair, replacement schedule, etc., or generation of a combination of image data of each feature in the image storage unit 13 (organization ), Or the shape formed by connecting the objects, and the position, distance, area, or volume of the shape are included.

【0016】相関計算部14は、当該対象物の各画像フ
レームの特徴乃至各構成部品毎の特徴と画像蓄積部13
に豊富に保存された上述の複数の画像フレーム乃至特徴
の画像データとの相関関係(検索調整部による比較対象
の拡大、縮小、回転角変化(視線方向変化)等の処理後
の相関関係をも含む)を計算しパターンマッチングした
画像フレーム乃至特徴の画像データを検索し求める一方
で、必要に応じ新たな対象物に係る新たな画像フレーム
乃至構成部品の特徴を反映した新たな画像フレーム乃至
特徴の画像データの画像蓄積部13への保存をも行う。
また、相関計算部14は、たとえば新たな一または複数
の対象物もしくはそれらの一部を検索し求めた場合に、
各々を結んでできる形状、及び形状の位置、距離、面
積、もしくは体積をも計算し求め属性データとして画像
蓄積部13へ保存させることをも行う。
The correlation calculation unit 14 is a feature of each image frame of the object or a feature of each component and the image storage unit 13.
Correlation with the above-mentioned plurality of image frames or the image data of the feature stored in abundance (including correlation after processing such as enlargement, reduction, rotation angle change (gaze direction change) of the comparison target by the search adjustment unit) (Including) and searching for the image data of the image frame or feature that has been subjected to the pattern matching, and if necessary, a new image frame or feature of the new image frame or feature that reflects the feature of the component The image data is also stored in the image storage unit 13.
Further, when the correlation calculation unit 14 retrieves and obtains one or more new objects or a part of them, for example,
The shape formed by connecting them and the position, distance, area, or volume of the shape are also calculated and stored in the image storage unit 13 as the obtained attribute data.

【0017】また、たとえば相関計算部14に付随す
る、もしくは中央演算処理装置等で起動する別途構成し
たカメラ位置演算機能によりたとえば三角測量法や二眼
乃至三眼ステレオ画像法等を用いてカメラ位置、カメラ
方向、カメラ移動速度等を演算し求めることが可能であ
る他、たとえば相関計算部14の計算機能で、次の画像
フレームあるいは一定時間後の画像フレームとの相関関
係を計算し、次の画像フレームから最も相関係数の高い
部分と前の画像フレームの近い部分との関係を調べ、順
次基準画像(即ち再生画像)を新規画像(新規再生画
像)に変更することでも対象物を追跡するためのカメラ
方向の変更制御に寄与することが可能で、これにより対
象物を正確に追跡することができる。
Further, for example, a camera position calculation function associated with the correlation calculation unit 14 or activated by a central processing unit or the like is separately used, for example, by using a triangulation method or a binocular or trinocular stereo image method. , The camera direction, the camera moving speed, and the like can be calculated and obtained. In addition, for example, the calculation function of the correlation calculation unit 14 calculates a correlation with the next image frame or an image frame after a fixed time, and The object is also tracked by examining the relationship between the part having the highest correlation coefficient from the image frame and the part close to the previous image frame, and sequentially changing the reference image (that is, the reproduced image) to a new image (new reproduced image). Therefore, it is possible to contribute to the control of changing the camera direction for the purpose of tracking the object accurately.

【0018】尚、相関計算部14は、少なくとも一つの
特徴の画像データに対し上述のパターンマッチングがと
れた場合には、当該特徴の画像データに付随乃至生成さ
れた各属性データ(即ち対象物の全特徴の各画像データ
の組合せ、組立て、乃至結合関係のデータ)に基づき即
時に一または複数の対象物に対応する2次元乃至3次元
形状を含む再現画像の画像フレームを構成することが可
能であり、かつ複数のカメラを用いて一または複数の対
象物の空間分布及び時間的分布を有する画像データを求
め、少なくとも視差情報と時間差情報により当該一また
は複数の対象物に対応する3次元形状を含む再現画像の
画像データを生成することも可能であり、更に対象物の
うち、複数の点の指定と既知の点とカメラとの位置関係
を所定の演算アルゴリズムにより求め、これにより任意
の対象物のうち各相互の点、及び距離を求めることも可
能である。
When the above-described pattern matching is performed on the image data of at least one feature, the correlation calculation unit 14 adds each attribute data (that is, the target object) attached or generated to the image data of the feature. It is possible to instantly construct an image frame of a reproduced image including a two-dimensional or three-dimensional shape corresponding to one or a plurality of objects based on a combination of each image data of all features, assembly, or connection relation data). Image data having a spatial distribution and a temporal distribution of one or a plurality of objects is obtained using a plurality of cameras, and a three-dimensional shape corresponding to the one or the plurality of objects is obtained by at least parallax information and time difference information. It is also possible to generate image data of a reproduced image including the specified image, and further, to specify a plurality of points on the object and to calculate the positional relationship between the known points and the camera by a predetermined calculation algorithm. Determined by the rhythm, thereby each cross of any object point, and it is also possible to determine the distance.

【0019】また、相関計算部14は、特に、座標系の
演算手段(図示せず)をも備え、ビデオ映像内の数点を
地図上と対応させ、これを時系列的な変化とともに追跡
した結果に対応し地図上の座標系を求め、数点の座標か
らカメラ位置、カメラ方向、カメラ速度を演算し求める
以外に、ビデオ映像と地図を同一座標系、もしくは各種
の視線角度を有する所要の座標系に変換し画像表示する
ことが可能である。
Further, the correlation calculation section 14 is also provided with a coordinate system calculation means (not shown), and several points in the video image are made to correspond to those on the map, and these are tracked along with changes in time series. In addition to finding the coordinate system on the map corresponding to the result and calculating the camera position, camera direction, and camera speed from the coordinates of several points, the video image and the map must have the same coordinate system or various line-of-sight angles. It is possible to convert to a coordinate system and display an image.

【0020】更に、相関計算部14の演算機能(図示せ
ず)は、一または複数もしくは代表のカメラ位置を演算
するのに、yはカメラ真下から対象物までの距離、vは
カメラ内でのCCD面における対象物の長さ、θはカメ
ラの伏角とした場合、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan−1(h/y)−θ)} …(1) もしくは v=f{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(2) により求めることが可能である。また、一または複数も
しくは代表のカメラ位置、もしくはカメラにより撮影し
たビデオ映像と、地図上の対象物等との対応関係を演算
し明確にするのに、yはカメラ真下から対象物までの距
離、vはカメラ内でのCCD面における対象物の長さ、
xは対象物とカメラを結ぶ線分に直角方向の長さ、uは
カメラ内でのCCD面における横方向の長さ、θはカメ
ラの伏角であるとした場合、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan-1(h/y)−θ)} …(3) あるいは v=f・{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(4) もしくは v={(f/sinθ)・y・sinβ) /(h・cos(β―θ))} …(5) u=x・(f/y)・(cosβ/cos(β―θ)) …(6) 但し、β=arcTan(h/y) により求めることが可能である。また、対象物等の高さ
頂点ZとCCD面上に写る当該対象物の像の高さ頂点W
との関係を演算し明確にするのに、fはレンズの焦点距
離、θは即ちφ=θ+(π/2)、φはレンズとカメラ
交軸上の対象物とを結ぶ線分の当該結合位置の垂線との
成す角度、εはβ+(π/2)、yはZに対応したもの
である場合、 W={(f/sin(θ+(π/2))・Z・sinγ)} /{y・cos(γ―(θ+(π/2)))} …(7) 但し、γ=arcTan(y/z) により求めることが可能である。また、対象物等の高さ
寸法とCCD面上に写る当該対象物の像の高さ寸法iと
の関係を演算し明確にするのに、hはカメラの位置の高
さ寸法、その他、f、θ等は上述の式(7)の場合と同
様のものである場合、 i={(f/sinθ+(π/2))・h・sin(β+(π/2))} /{y・cos(β+(π/2)−(θ+(π/2)))} …(8) 但し、β=arcTan(y/z) により求めることが可能である。また、CCD面上にお
ける対象物の高さH+Zに対応する像の投影を演算し明
確にするのに、上述したW、及び上述したiを用いて、 上記W―i={[(f/sin(θ+(π/2))・Z・sinγ)] /[y・cos(γ―(θ+(π/2)))]} −{[(f/sin(θ+(π/2))・h・sin(β+(π/2))) /[y・cos(β−θ)]} …(9) さらに i’―W’=(i−W)/cosδ …(10) 但し、δ=arcTan{(t−u)/(i−W)} により求めることが可能である。更に、CCD面に写る
上記対象物から横に延びる部分の像tの位置を演算し明
確にするのに、Sは当該対象物から横に延びる部分であ
る場合、 t=S(f/Z)・{cosγ/(cosγ―θ―(π/2))} …(11) により求めることが可能である。
Furthermore, a calculation function (not shown) of the correlation calculation unit 14 calculates one or a plurality of or representative camera positions, y is the distance from directly under the camera to the object, and v is the inside of the camera. When the angle of the object on the CCD surface, θ is the dip angle of the camera, v = f · y · sin (tan −1 (h / y)) / sin θ / {h · cos (tan−1 (h / y ) −θ)} (1) or by v = f {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (2) It is possible to ask. Further, in order to calculate and clarify the correspondence between one or a plurality of or representative camera positions, or the video image taken by the camera and the target object on the map, y is the distance from directly below the camera to the target object, v is the length of the object on the CCD surface in the camera,
x is the length in the direction perpendicular to the line segment connecting the object and the camera, u is the lateral length on the CCD surface in the camera, and θ is the dip angle of the camera: v = f · y · sin (Tan −1 (h / y)) / sin θ / {h · cos (tan −1 (h / y) −θ)} (3) or v = f · {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (4) or v = {(f / sin θ) · y · sin β) / (h · cos (β−θ)) } (5) u = x (f / y)  (cos β / cos (β-θ)) (6) However, β = arcTan (h / y) can be obtained. In addition, the height apex Z of the object or the like and the height apex W of the image of the object on the CCD surface.
In order to calculate and clarify the relationship with, f is the focal length of the lens, θ is φ = θ + (π / 2), φ is the connection of the line segment connecting the lens and the object on the camera intersection axis. When the angle formed by the perpendicular of the position, ε corresponds to β + (π / 2), and y corresponds to Z, W = {(f / sin (θ + (π / 2)) · Z · sinγ)} / {Y · cos (γ− (θ + (π / 2)))} (7) However, it is possible to obtain by γ = arcTan (y / z). Further, in order to calculate and clarify the relationship between the height dimension of the object and the height dimension i of the image of the object on the CCD surface, h is the height dimension of the position of the camera, and , Θ, etc. are the same as in the case of the above formula (7), i = {(f / sin θ + (π / 2)) · h · sin (β + (π / 2))} / {y · cos (β + (π / 2)-(θ + (π / 2)))} (8) However, β = arcTan (y / z) can be obtained. Further, in order to calculate and clarify the projection of the image corresponding to the height H + Z of the object on the CCD surface, the above W and i described above are used, and the above Wi = {[(f / sin (Θ + (π / 2)) · Z · sin γ)] / [y · cos (γ− (θ + (π / 2)))]}-{[(f / sin (θ + (π / 2)) · h * Sin ((beta) + ((pi) / 2))) / [y * cos ((beta)-(theta))]} ... (9) Furthermore, i'-W '= (iW) / cos (delta) ... (10) However, (delta) = arcTan. It can be obtained by {(t−u) / (i−W)}. Furthermore, in order to calculate and clarify the position of the image t of the part extending laterally from the object on the CCD surface, when S is the part extending laterally from the object, t = S (f / Z) -{Cosγ / (cosγ-θ- (π / 2))} (11) can be obtained.

【0021】必要に応じ上述の式(7)、式(8)、式
(9)、式(10)、もしくは式(11)を用いて上記
対象物と当該対象物に対応する2次元乃至3次元の形状
を含む再生画像の比較検索を行うが可能となる。そし
て、上記式(1)から上記式(11)までのうち、必要
に応じ何れか一または複数の数式、もしくは全ての数式
(1)〜(11)上記属性データに加え、対象物の比較
検索の際に利用することもできる。
If necessary, the above-mentioned object and two-dimensional to three-dimensional corresponding to the object are expressed by using the above-mentioned expression (7), expression (8), expression (9), expression (10) or expression (11). It becomes possible to perform a comparative search of reproduced images including a three-dimensional shape. Then, one or a plurality of mathematical expressions, or all mathematical expressions (1) to (11) among the expressions (1) to (11) are added in addition to the attribute data, and a comparative search of the object is performed. It can also be used at the time of.

【0022】3次元画像構成部15は、相関計算部14
で計算し検索し求められた各種画像フレーム乃至各種特
徴の画像データ、及び属性データに基づき上記対象物に
対応する2次元乃至3次元形状の再現画像を組立てて生
成する。そして3次元画像構成部15は、対象物に対応
する2次元乃至3次元形状の再現画像を組立てて生成す
る場合、後述する設定部により設定した領域内、もしく
はあらかじめ設定された領域内において所要の大きさ基
準に対応する大きさの2次元乃至3次元形状の再現画像
を組立てる。尚、対象物に係る画像を後述する地図上の
対応する位置に表示させる場合には、当該対象物の存在
を示す所要の印や数字文字等を生成乃至選択する処理を
も行う。
The three-dimensional image construction unit 15 includes a correlation calculation unit 14
Based on the image data of the various image frames or the various characteristics obtained by the calculation and the search and the attribute data, the reconstructed image of the two-dimensional or three-dimensional shape corresponding to the object is assembled and generated. Then, when the three-dimensional image construction unit 15 assembles and generates a two-dimensional to three-dimensional shape reproduction image corresponding to the object, the three-dimensional image construction unit 15 requires a predetermined area within a region set by a setting unit described later or within a preset region. A reproduced image of a two-dimensional or three-dimensional shape having a size corresponding to the size reference is assembled. When displaying the image of the target object at a corresponding position on the map described later, a process of generating or selecting a required mark or numeral character indicating the existence of the target object is also performed.

【0023】出力表示部16は、上記カメラが撮影した
周囲の外界の建造物、河川等の状況、各種標識、各種信
号機や送電に関する各鉄塔等の設備、あるいは一般家屋
や道路等を画像表示する他、周囲の地図をも設定部(図
示せず:たとえば指定部の構成と基本的に等しい構成を
採用しても良い)で設定した所定の領域、もしくは全体
の領域、もしくはあらかじめ設定された領域に画像表示
し、かつ3次元画像構成部15で生成された2次元乃至
3次元形状を含む再現画像を同じく上記地図の対応する
位置にたとえば所定の印乃至数字文字等に変換し表示し
たり、当該2次元乃至3次元形状の再現画像を当該設定
部で設定した所定の領域、もしくはあらかじめ設定され
た領域に動画もしくは2次元乃至3次元形状の連続的な
静止画の一群として対比的に順次に、もしくはめくり絵
のように順次に画像表示し、かつ必要に応じ当該再現画
像に付随乃至生成した名称や属性データをも所要の領域
に表示する。尚、出力表示部16は、必要に応じ設定部
(図示せず)の機能で、もしくはあらかじめの設定に基
づいて上記地図の表示領域と上記対象物の再現画像の表
示領域とを対比的に分けるか、もしくは双方を重ね合わ
せ画像表示することが可能である。
The output display unit 16 displays an image of the surrounding structures, rivers, etc. taken by the camera, various signs, equipment such as various signals and power transmission towers, general houses, roads, etc. In addition, a predetermined area set by a setting unit (not shown: a structure basically the same as that of the designating unit may be adopted) is also set for the surrounding map, or the entire region or a preset region. , And the reproduced image including the two-dimensional or three-dimensional shape generated by the three-dimensional image forming unit 15 is also displayed at the corresponding position on the map after being converted into, for example, a predetermined mark or numeral character. The reproduced image of the two-dimensional to three-dimensional shape is a moving image or a group of continuous still images of a two-dimensional to three-dimensional shape in a predetermined area set by the setting unit or a preset area. Sequentially in contradistinction, or sequentially displaying images as picture turning, and also the name and the attribute data associated to generate the reproduced image as necessary to display the required area. The output display unit 16 contrastively divides the display region of the map and the display region of the reproduced image of the object based on the function of a setting unit (not shown) or based on a preset setting as necessary. Alternatively, it is possible to display both images by superimposing them.

【0024】一方、出力表示部16に画像表示する上述
の画像は、通信回線等を介したとえば基地局等の画像表
示装置の出力表示部(図示せず)において画像表示させ
ることが可能であり、対象物の指定や各種の操作や各種
処理について当該基地局の画像表示装置側で行ったり、
当該基地局の画像表示装置側からの指示で本例の画像表
示装置に当該処理等を行わせることも可能である。
On the other hand, the above-mentioned image displayed on the output display section 16 can be displayed on an output display section (not shown) of an image display device such as a base station via a communication line. The designation of the target object and various operations and various processes are performed on the image display device side of the base station,
It is also possible to cause the image display device of this example to perform the processing or the like by an instruction from the image display device side of the base station.

【0025】次に、本実施の形態に係る画像表示装置の
使用の一例について説明する。先ずカメラを起動し出力
表示部16にビデオ映像の画像表示を行わせ、指定部を
介しビデオ映像内の所定の対象物を指定し、かつ出力表
示部16の画像内で所要の領域に周辺の地図を画像表示
させ、この地図上と対応させ、地図上での対象物と対応
点との対応関係を指定乃至設定する。尚、対象物を指定
する際には、たとえば、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan−1(h/y)−θ)} …(1) もしくは v=f{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(2) により対象物の輪郭等を求めることが可能である。続い
て、一旦地図と対象物の対応関係を指定した後は、画像
切取部12もしくは上述の追跡機能による自動認識で、
その数点を自動追跡し、対応関係を継続する。ビデオ映
像内の対象物を時々刻々の変化とともに追跡すること
で、数点に関する軌跡が出来あがる。次に、カメラ位置
演算機能等によりその数点の軌跡から、時々刻々変化す
るカメラ位置及び対象物からカメラまでの距離を演算で
求め、カメラ位置が求まれば、演算により地図と対象物
等の映像が同一座標系で表現できる。即ち、時々刻々変
化する映像に対応する地図が表示できることになる。ま
た、カメラ位置演算機能等により刻一刻と移動するカメ
ラの移動距離からカメラの移動速度を計測し具体的な数
字(Km/h)等で画像表示する。また、カメラの位置
と移動速度がわかることにより、一台のカメラでも、地
図と画像との3点以上の点の対応する座標が分かってい
れば、たとえば相関計算部14、カメラ位置演算機能等
によりその他の任意の点間の相互の距離、面積、体積な
ども計算により求めることができる。
Next, an example of use of the image display device according to this embodiment will be described. First, the camera is activated to cause the output display section 16 to display an image of a video image, a predetermined object in the video image is designated through the designation section, and a peripheral area is displayed in a required area in the image of the output display section 16. A map is displayed as an image, and the map is made to correspond to this map, and the correspondence between the object and the corresponding point on the map is designated or set. When designating the target object, for example, v = f · y · sin (tan −1 (h / y)) / sin θ / {h · cos (tan−1 (h / y) −θ)} ... (1) or v = f {tan ((π / 2) -θ) -tan ((π / 2) -θ-tan -1 (y / h))} ... (2) It is possible to ask. Then, once the correspondence between the map and the object is specified, the image cutout unit 12 or the automatic recognition by the above-mentioned tracking function
Automatically track the few points and continue the correspondence. By tracking the object in the video image with the momentary changes, a trajectory for several points is created. Next, the camera position calculation function or the like is used to calculate the camera position that changes from moment to moment and the distance from the object to the camera by calculation. If the camera position is calculated, the map and the object are calculated. Images can be expressed in the same coordinate system. That is, it is possible to display a map corresponding to an image that changes every moment. Further, the moving speed of the camera is measured from the moving distance of the moving camera by the camera position calculating function or the like, and the image is displayed with a specific number (Km / h). Further, by knowing the position and moving speed of the camera, if the coordinates corresponding to three or more points of the map and the image are known even with one camera, for example, the correlation calculation unit 14, the camera position calculation function, etc. The mutual distance, area, volume, and the like between other arbitrary points can also be calculated by.

【0026】続いて、図2に示すように、本画像表示装
置の出力表示部16の画像表示の一例として、画面全体
20のうち、領域21はカメラからのビデオ映像を画像
表示する領域であり、領域23は領域21に表示されて
いる場所と対応する位置を含む本例で使用する車両(図
示せず)の付近の地図が示される領域であり、ここで
は、相関計算部14が計算し求めた車両の位置が地図内
において矢印Aで表示されている。また領域21には実
際のビデオ映像と地図を重ね合わせた画面ともなってお
り、また相関計算部14が計算し求めた対象物22A,
22Bの位置が領域23内において星印(3次元画像構
成部15の一部機能で生成乃至選択されたもの)24
a,24b等で表わされている。2つの対象物22A,
22B等の2点の位置と図示しない第3の点とをあわせ
て少なくとも3箇所の点を指示することにより、地図
と、ビデオ映像上との位置関係の対応付けがなされる。
これにより、即ち地図(領域23)上のカメラ位置及び
対象物22A,22Bの位置とビデオ映像(領域21)
上との位置関係を対応付けることが可能になり、その結
果が画像表示されている。
Next, as shown in FIG. 2, as an example of image display of the output display section 16 of the image display apparatus, an area 21 of the entire screen 20 is an area for displaying a video image from a camera. The area 23 is an area in which a map around the vehicle (not shown) used in this example including the position corresponding to the place displayed in the area 21 is displayed, and here, the correlation calculation unit 14 calculates The obtained vehicle position is indicated by arrow A in the map. The area 21 also serves as a screen on which an actual video image and a map are superimposed, and the target object 22A calculated by the correlation calculation unit 14 is calculated.
The position of 22B is an asterisk (generated or selected by a partial function of the three-dimensional image construction unit 15) 24 in the region 23.
It is represented by a, 24b and the like. Two objects 22A,
By specifying at least three points by combining the positions of two points such as 22B and the third point (not shown), the positional relationship between the map and the video image is associated.
As a result, that is, the camera position on the map (region 23) and the positions of the objects 22A and 22B and the video image (region 21)
It is possible to associate the positional relationship with the top, and the result is displayed as an image.

【0027】ここで、領域21内のたとえば対象物22
Aもしくは22Bの周りを四角い領域でマウスなどのポ
インティング装置により囲む、あるいは、この対象物2
2Aもしくは22Bをマウスでクリックするだけでも良
いが、これらにより対象物22Aもしくは22Bを指定
すると、たとえば領域25a,25bに領域21内で矩
形で囲んで示した対象物22A,22Bの拡大画像(3
次元画像構成部15が生成した再現画像)26A,26
Bが表示される。再現画像を構成する場合、即ち相関計
数部14の演算機能で、たとえば、 W={(f/sin(θ+(π/2))・Z・sinγ)} /{y・cos(γ―(θ+(π/2)))} …(7) 但し、γ=arcTan(y/z) i={(f/sinθ+(π/2))・h・sin(β+(π/2))} /{y・cos(β+(π/2)−(θ+(π/2)))} …(8) 但し、β=arcTan(y/z) 上記W―i={[(f/sin(θ+(π/2))・Z・sinγ)] /[y・cos(γ―(θ+(π/2)))]} −{[(f/sin(θ+(π/2))・h・sin(β+(π/2))) /[y・cos(β+(π/2)−(θ+(π/2)))]} …(9) もしくは i’―W’=(i−W)/cosδ …(10) 但し、δ=arcTan{(t−u)/(i−W)} t=S(f/Z)・{cosγ/(cosγ―θ―(π/2))} …(11) によりCCD面に映る対象物の像の輪郭等を数値的に明
確にし、この結果に対応し2次元乃至3次元形状を含む
再現画像の比較検索、もしくは生成を行うことが可能で
ある。
Here, for example, the object 22 in the area 21
Around A or 22B in a square area with a pointing device such as a mouse, or this object 2
2A or 22B may be simply clicked with the mouse, but if the object 22A or 22B is designated by these, for example, enlarged images (3) of the objects 22A and 22B surrounded by a rectangle in the area 21 in the areas 25a and 25b (3
Reproduced image generated by the three-dimensional image construction unit 15) 26A, 26
B is displayed. When constructing a reproduced image, that is, with the calculation function of the correlation counter 14, for example, W = {(f / sin (θ + (π / 2)) · Z · sinγ)} / {y · cos (γ− (θ + (Π / 2)))} (7) where γ = arcTan (y / z) i = {(f / sin θ + (π / 2)) · h · sin (β + (π / 2))} / { y · cos (β + (π / 2) − (θ + (π / 2)))} (8) where β = arcTan (y / z) where Wi = {[(f / sin (θ + (π / 2)) · Z · sin γ)] / [y · cos (γ− (θ + (π / 2)))]}-{[(f / sin (θ + (π / 2)) · h · sin (β + (Π / 2))) / [y · cos (β + (π / 2)-(θ + (π / 2)))]} (9) or i′−W ′ = (i−W) / cosδ ... (10) However, δ = arcTan {( −u) / (i−W)} t = S (f / Z) · {cosγ / (cosγ−θ− (π / 2))} (11) The contour of the image of the object reflected on the CCD surface, etc. Is numerically clarified, and it is possible to perform comparative search or generation of a reproduced image including a two-dimensional or three-dimensional shape corresponding to this result.

【0028】上述の演算に基づいて、対象物22A,2
2Bの画像の大きさや形状、傾き等が計測されるが、対
象物22A,22Bに対応する拡大画像26A,26B
の画像表示はあらかじめ設定された大きさ基準に統一さ
れる。更に車両の移動、即ちカメラ移動の進行に伴って
対象物22A,22Bの位置と向きは変わるが、その状
態は上述の追跡機能により追跡されるため、ビデオ映像
が時系列的に変化しても、方向を換えるカメラの映像範
囲外となる相対的な位置関係になるまでその時系列的な
変化に対応し続けた拡大画像(即ち再現画像)26A,
26Bの画像表示が行われる。尚、対象物22A,22
Bを矩形で囲むとき、既述した通り矩形は必ずしも対象
物22A,22Bを覆い尽くすような十分な大きさでな
くても良く、即ちたとえば領域21の対象物22Aを破
線で示した矩形のように、対象物22A(22B)より
小さい領域を矩形で囲んでも良く、あるいは単なるマウ
スクリックでも良い。
Based on the above calculation, the objects 22A, 2
The size, shape, inclination, etc. of the 2B image are measured, but the enlarged images 26A, 26B corresponding to the objects 22A, 22B are measured.
The image display of is standardized according to a preset size standard. Further, the positions and orientations of the objects 22A and 22B change as the vehicle moves, that is, the camera moves. However, since the state is tracked by the tracking function described above, even if the video image changes in time series. , An enlarged image (that is, a reproduced image) 26A that continuously responds to the time-series change until the relative positional relationship is outside the image range of the camera whose direction is changed.
The image display of 26B is performed. Incidentally, the objects 22A, 22
When B is surrounded by a rectangle, the rectangle does not necessarily have to be large enough to cover the objects 22A and 22B as described above, that is, the object 22A in the region 21 is represented by a broken line. In addition, a region smaller than the object 22A (22B) may be surrounded by a rectangle, or may be simply a mouse click.

【0029】また、対象物22A,22Bをたとえばク
リック等で指定すると、相関計算部14による演算もし
くは属性データに含まれる情報により対象物22A,2
2Bの表面積や体積を求めることができることは既に述
べた通りであるが、あるいはカメラ位置演算機能の応用
により領域23内で、たとえば2点の星印24a及び2
4b等をマウスでクリックし相互間の距離を測定するこ
ともできる。更に、領域21内で、動物体ではなく、か
つ一般家屋等の固定物体とも異なり、たとえば対向車線
を走行する他の車両等の移動物体をマウス等でクリック
することによっても、その移動物体をも追跡し、たとえ
ば領域25に移動物体の拡大画像(即ち再現画像)を所
定の大きさ基準で時系列的な変化とともに追跡し画像表
示することも可能である。
When the objects 22A, 22B are designated by clicking, for example, the objects 22A, 2B are calculated by the correlation calculation unit 14 or by the information contained in the attribute data.
The surface area and volume of 2B can be obtained as described above, or by applying the camera position calculation function, for example, two star marks 24a and 2 in the area 23.
4b or the like can be clicked with a mouse to measure the distance between them. Further, in the area 21, unlike a fixed object such as a general house, which is not a moving object, for example, by clicking a moving object such as another vehicle traveling in an oncoming lane with a mouse or the like, the moving object is also moved. It is also possible to track and display, for example, an enlarged image (that is, a reproduced image) of a moving object in the area 25 along with a time series change on the basis of a predetermined size and display the image.

【0030】尚、領域23の地図内において、対象物2
2A、22Bの位置は、地図を平面とした場合、カメラ
の伏角とカメラの高さおよびレンズの焦点距離より求め
ることも可能であり、たとえば領域25内における拡大
画像26Aの下側の位置には、相関計算部14の演算機
能に基づいて拡大画像26の画素数(200×15
0)、傾き(61.5°)等を表示したり、あるいは対
象物22A等の実際の寸法を数字等で表示することも可
能である。
In the map of the area 23, the object 2
The positions of 2A and 22B can also be obtained from the dip angle of the camera, the height of the camera, and the focal length of the lens when the map is a plane. , The number of pixels of the enlarged image 26 (200 × 15) based on the calculation function of the correlation calculation unit 14.
It is also possible to display 0), the inclination (61.5 °), or the like, or to display the actual size of the object 22A or the like with numbers or the like.

【0031】一方、図3に示すように、カメラ移動とと
もに対象物22Aを追跡しながら画像表示を行う場合、
画面全体20には、図2に示した状態から一定時間経過
後の状態が画像表示されるものとなり、領域21には車
両の走行による接近で対象物22Aの表示サイズが相対
的に大きくなっている。たとえば、しかる状態で対象物
22Aの周りを矩形の領域で再度囲んだ場合には、領域
(地図の領域)23の地図上での対応する位置27に、
対象物22Aを示す星印24aが表示されるとともに、
もう一方の対象物22Bは地図外に位置するため地図か
ら消えるものとなる。カメラ位置の移動に伴い、車両を
示す矢印Aの位置も道路上の前方の位置に変わるが、本
例の場合、新たな領域25内には撮影の方向(視線角
度)が変わることにより対象物22Aの見える角度が変
わる様子がたとえば4段階に連続して視線角度を変えた
拡大画像(即ち再生画像)26a,26b,26c,2
6dとして画像表示されている。尚、視線方向の異なる
拡大画像(即ち再現画像)のロックオン表示、即ち画像
表示にも、上述の式(1)乃至式(11)が利用される
ものである。
On the other hand, as shown in FIG. 3, when displaying an image while tracking the object 22A as the camera moves,
On the entire screen 20, a state after a certain time has elapsed from the state shown in FIG. 2 is displayed as an image, and the display size of the target object 22A becomes relatively large in the area 21 due to the approach of the vehicle running. There is. For example, when the object 22A is surrounded by a rectangular area again in a proper state, the area (map area) 23 is located at a corresponding position 27 on the map.
A star 24a indicating the object 22A is displayed,
Since the other object 22B is located outside the map, it disappears from the map. With the movement of the camera position, the position of the arrow A indicating the vehicle also changes to the position on the road ahead. For example, the view angle of 22A is changed. For example, enlarged images (that is, reproduced images) 26a, 26b, 26c, 2 in which the line-of-sight angle is continuously changed in four stages.
The image is displayed as 6d. Note that the equations (1) to (11) described above are also used for lock-on display, that is, image display of enlarged images (that is, reproduced images) with different gaze directions.

【0032】他方、図4に示すように、カメラ移動とと
もに対象物22Bを追跡しながら画像表示を行う場合、
画面全体20の中で、たとえば上述の領域25に対応す
る、もしくは領域25付近に対応する領域28側に、所
要の時系列的に変化するカメラの撮影方向をも矢印28
a,28b,28c,28d,28eで順次に表示すと
ともに、画面全体20の中で、地図を表示する領域23
をたとえば下方側の所要の位置へ移し、移動後の領域2
3の上方側における右側の位置に、たとえば矢印28a
の視線方向から映した対象物22Bに対応する3次元形
状を有する拡大画像(即ち再現画像)を表示する所要の
領域29Aを設け、かつこの領域29A内に当該3次元
形状の拡大画像(即ち再現画像)29aを画像表示し、
更に領域29Aの並行の左側に、時系列的に矢印28
b,28c,28d,28eの視線方向から順時に映し
た対象物22Bに対応する3次元形状を有する拡大画像
(即ち再現画像)を表示する領域29B,29C,29
D,29Eを所定の間隔を有しつつ順次に設定しなが
ら、当該領域29B,29C,29D,29Eに上記矢
印28b,28c,28d,28eの方向から撮影し向
きの異なる対象物22Bの時系列的に変化する3次元形
状を有する拡大画像(即ち再現画像)29b,29c,
29d,29eが順次に画像表示される。
On the other hand, as shown in FIG. 4, when displaying an image while tracking the object 22B as the camera moves,
In the entire screen 20, for example, on the side of the area 28 corresponding to the above-mentioned area 25 or near the area 25, the required shooting direction of the camera which changes in time series is also indicated by the arrow 28.
The area 23 for displaying a map on the entire screen 20 while sequentially displaying a, 28b, 28c, 28d, 28e.
Is moved to a desired position on the lower side, for example, and the area 2 after movement is moved.
3 on the right side of the upper side, for example, the arrow 28a
A required area 29A for displaying an enlarged image (that is, a reproduced image) having a three-dimensional shape corresponding to the object 22B reflected from the line-of-sight direction is provided, and an enlarged image (that is, a reproduced image) of the three-dimensional shape is provided in this area 29A. Image) 29a is displayed as an image,
Further, on the left side in parallel with the area 29A, the arrow 28 is chronologically arranged.
Areas 29B, 29C, 29 for displaying an enlarged image (that is, a reproduced image) having a three-dimensional shape corresponding to the target object 22B that is projected in the forward direction from the line-of-sight direction of b, 28c, 28d, 28e.
While sequentially setting D and 29E with a predetermined interval, the time series of the target object 22B that is photographed in the directions of the arrows 28b, 28c, 28d, and 28e in the regions 29B, 29C, 29D, and 29E and has different directions. Images (that is, reproduced images) 29b, 29c, which have a three-dimensional shape that changes dynamically
29d and 29e are sequentially displayed as images.

【0033】次に、本発明の第2の実施の形態を図5乃
至図8を参照し説明する。図5に本実施の形態に係る画
像表示装置の主要部の構成を示し、かかる画像表示装置
は、一または複数のカメラ(図示せず)、入力部31、
指定部(図示せず)、比較用画像生成部32、データベ
ース33、比較用部品生成部34、部品特定部35、及
び、出力部36を図示の如く電気的に接続して構成され
ている。尚、カメラ、入力部31、指定部、データベー
ス33、及び出力部(即ち出力表示部)36の構成につ
いては第1の実施の形態で説明したものと基本的に等し
いものであるので詳しい説明は省略する。
Next, a second embodiment of the present invention will be described with reference to FIGS. FIG. 5 shows a configuration of a main part of the image display device according to the present embodiment. The image display device includes one or a plurality of cameras (not shown), an input unit 31,
A designation unit (not shown), a comparison image generation unit 32, a database 33, a comparison component generation unit 34, a component identification unit 35, and an output unit 36 are electrically connected as illustrated. Note that the configurations of the camera, the input unit 31, the designation unit, the database 33, and the output unit (that is, the output display unit) 36 are basically the same as those described in the first embodiment, so a detailed description will be given. Omit it.

【0034】比較用画像生成部32は、指定部で指定し
た対象物以外の存在を除外しつつ当該対象物の全体もし
くは各構成部品の特徴(第1の実施の形態の場合と技術
思想的には少なくとも略同様)の画像データを比較用画
像として生成するもので、当該比較用画像には2次元乃
至3次元形状の画像を含むものであり、当該比較用画像
を後述する部品特定部35へ転送する。
The comparison image generating unit 32 excludes the existence of objects other than the object designated by the designating unit, and features of the entire object or each component (in terms of technical idea in the first embodiment). Image data is generated as a comparison image, and the comparison image includes an image having a two-dimensional or three-dimensional shape. Forward.

【0035】比較用部品生成部34は、各種再現対象物
や各種構成部品毎の特徴(第1の実施の形態の場合と技
術思想的には少なくとも略同様)の画像データが豊富に
保存されたデータベース33を検索することで比較用部
品の特徴の画像データを生成するもので、当該比較用部
品には2次元乃至3次元形状の再生画像を含むものであ
り、当該比較用部品の画像データを後述する部品特定部
35へ転送する。
The comparative part generator 34 has abundantly stored image data of the characteristics (at least about the same technical concept as in the case of the first embodiment) of each object to be reproduced or each component. Image data of a characteristic of the comparative part is generated by searching the database 33, and the comparative part includes a reproduced image of a two-dimensional or three-dimensional shape. It is transferred to the component specifying unit 35 described later.

【0036】部品特定部35は、検索処理の機能を有す
る検索35A、認識処理の機能を有する認識35B、特
定処理の機能を有する特定35C、及び、固定の機能を
有する固定35Dを備えて構成されているものである。
即ち検索35Aは、比較画像生成部32が生成した上記
対象物の比較用画像の特徴の画像データが入力される一
方で、比較用部品生成部34が生成した各種の比較用部
品の特徴の画像データが順次に入力されるとともに、双
方の画像データの比較検索を行う。認識35Bは、検索
35Aの比較検索の状態を監視するとともに、比較検索
の結果を認識し、かつ双方の画像データが一致する場合
に、一致を示す情報とともに当該一致する双方の画像デ
ータ、あるいは一致を示す情報とともに一致した比較用
部品の特徴の画像データを特定35Cへ転送する。特定
35Cは、認識35Bから一致を示す情報、及び、少な
くとも一致する比較用部品の画像データ(比較用部品の
特徴の画像データ)に基づいて上記対象物に対応する2
次元乃至3次元形状を含む再現部品画像を特定するとと
もに、特定の旨を示す情報を固定35Dへ出力する。固
定35Dは、当該再現部品画像の画像表示に関し固定す
べき領域及び位置を求め、当該再現部品画像の画像デー
タ(画像フレーム)とともに、出力部36に対し固定
(即ち画像表示)すべき領域及び位置を示す情報を出力
部36に出力し、もって出力部36の対応する位置に当
該再現部品画像を2次元乃至3次元形状を含む、即ち具
体的には3次元のCG画像(即ち再現画像)を動画もし
くは連続的な静止画の一群として対比的に順次に、もし
くはめくり絵のように順次に画像表示させる。
The component specifying unit 35 is provided with a search 35A having a search processing function, a recognition 35B having a recognition processing function, a specification 35C having a specific processing function, and a fixed 35D having a fixed function. It is what
That is, in the search 35A, the image data of the characteristics of the comparison image of the object generated by the comparison image generation unit 32 is input, while the images of the characteristics of various comparison components generated by the comparison component generation unit 34 are input. The data is sequentially input, and a comparative search of both image data is performed. The recognition 35B monitors the state of the comparative search of the search 35A, recognizes the result of the comparative search, and, when the image data of both match, the information indicating the match and the image data of both the match or the match. The image data of the characteristic of the matching comparison part is transferred to the specification 35C together with the information indicating. The identification 35C corresponds to the object based on the information indicating the match from the recognition 35B and at least the image data of the matching comparison parts (image data of the characteristics of the comparison parts).
A reproduced part image including a three-dimensional shape or a three-dimensional shape is specified, and information indicating the specification is output to the fixed 35D. The fixing 35D obtains an area and a position to be fixed with respect to the image display of the reproduction component image, and the area and position to be fixed (that is, image display) to the output unit 36 together with the image data (image frame) of the reproduction component image. Is output to the output unit 36, so that the reproduced component image includes a two-dimensional or three-dimensional shape at a corresponding position of the output unit 36, that is, specifically, a three-dimensional CG image (that is, a reproduced image). As a group of moving images or continuous still images, the images are sequentially displayed in contrast to each other or sequentially like a flipping picture.

【0037】また、部品特定部35は、たとえば特定3
5Cにより特定された再現部品画像に付随乃至生成した
名称、属性データをも固定35Dへ転送するものであ
り、この場合、出力部36の所要の位置(固定35Dに
よる設定位置)に当該名称、属性データをも表示させ
る。そして部品特定部35は一または複数の対象物もし
くはそれらの一部の検索を特定した場合に、各々を結ん
でできる形状、及び形状の位置、距離、面積、もしくは
体積をも計算し求め属性データとしてデータベース33
への保存をも実行する。尚、たとえば新たな一または複
数の対象物もしくはそれらの新たな一部を検索し求めた
場合に、当該新たな各々を結んでできる形状、及び形状
の位置、距離、面積、もしくは体積をも計算し求め属性
データに含める処理をも実行することが可能である。
Further, the parts specifying section 35 is, for example, specified 3
The name and attribute data attached to or generated in the reproduced part image specified by 5C are also transferred to the fixed 35D. In this case, the name and attribute are set at a required position of the output unit 36 (position set by the fixed 35D). Display data as well. When the part specifying unit 35 specifies a search for one or a plurality of objects or a part of them, it also calculates the shape formed by connecting them and the position, distance, area, or volume of the shape, and obtains the attribute data. As database 33
Also save to. In addition, for example, when a new one or a plurality of objects or a new part of them are searched for and obtained, the shape formed by connecting the new objects and the position, distance, area, or volume of the shape are also calculated. It is also possible to execute the process of including it in the requested attribute data.

【0038】また、部品特定部35は、中央演算処理装
置及び比較用画像生成部32との関係をも含め起動する
別段の追跡機能(図示せず)をも備え、この追跡機能に
よりカメラ移動、及びカメラ方向の変化をも含め当該対
象物を追跡し当該対象物の撮影を継続することが可能で
ある。一方、部品特定部35にも、第1の実施の形態で
示した検索調整部(図示せず)の機能をも備え、比較検
索の効率向上を図っているものであるが、また、次の画
像フレームあるいは一定時間後の画像フレームとの相関
を特定し、次の画像フレームから、最も相関係数の高い
部分を前の画像フレームの近い部分を調べ、順次基準画
像(即ち再生画像)を新規画像(新規再生画像)に変更
することでもカメラ方向を変更することに寄与すること
が可能で、これによっても対象物を追跡することが可能
である。
The component specifying unit 35 also has a separate tracking function (not shown) which is activated including the relationship with the central processing unit and the comparison image generating unit 32. Also, it is possible to track the target object including the change of the camera direction and continue shooting the target object. On the other hand, the component specifying unit 35 also has the function of the search adjusting unit (not shown) shown in the first embodiment to improve the efficiency of comparison search. The correlation with the image frame or the image frame after a certain period of time is specified, and from the next image frame, the part having the highest correlation coefficient is examined in the part close to the previous image frame, and the reference image (that is, the reproduced image) is newly added in sequence. Changing to an image (newly reproduced image) can also contribute to changing the camera direction, which also makes it possible to track an object.

【0039】また、部品特定部35の演算機能(図示せ
ず)は、一または複数もしくは代表のカメラ位置を演算
するのに、yはカメラ真下から対象物までの距離、vは
カメラ内でのCCD面における対象物の長さ、θはカメ
ラの伏角とした場合、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan−1(h/y)−θ)} …(1) もしくは v=f{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(2) により求めることが可能である。また、一または複数も
しくは代表のカメラ位置、もしくはカメラにより撮影し
たビデオ映像と、地図上の対象物等との対応関係を演算
し明確にするのに、yはカメラ真下から対象物までの距
離、vはカメラ内でのCCD面における対象物の長さ、
xは対象物とカメラを結ぶ線分に直角方向の長さ、uは
カメラ内でのCCD面における横方向の長さ、θはカメ
ラの伏角であるとした場合、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan-1(h/y)−θ)} …(3) あるいは v=f・{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(4) もしくは v={(f/sinθ)・y・sinβ) /(h・cos(β―θ))} …(5) u=x・(f/y)・(cosβ/cos(β―θ)) …(6) 但し、β=arcTan(h/y) により求めることが可能である。また、対象物等の高さ
頂点ZとCCD面上に写る当該対象物の像の高さ頂点W
との関係を演算し明確にするのに、fはレンズの焦点距
離、θは即ちφ=θ+(π/2)、φはレンズとカメラ
交軸上の対象物とを結ぶ線分の当該結合位置の垂線との
成す角度、εはβ+(π/2)、yはZに対応したもの
とした場合、 W={(f/sin(θ+(π/2))・Z・sinγ)} /{y・cos(γ―(θ+(π/2)))} …(7) 但し、γ=arcTan(y/z) により求めることが可能である。また、対象物等の高さ
寸法とCCD面上に写る当該対象物の像の高さ寸法iと
の関係を演算し明確にするのに、hはカメラの位置の実
際の高さ寸法、その他、f、θ等は上述の式(7)の場
合と同様のものである場合、 i={(f/sinθ+(π/2))・h・sin(β+(π/2))} /{y・cos(β+(π/2)−(θ+(π/2)))} …(8) 但し、β=arcTan(y/z) により求めることが可能である。また、CCD面上にお
ける対象物の高さH+Zに対応する像の投影を演算し明
確にするのに、上述したW、及び上述したiを用いて、 上記W―i={[(f/sin(θ+(π/2))・Z・sinγ)] /[y・cos(γ―(θ+(π/2)))]} −{[(f/sin(θ+(π/2))・h・sin(β+(π/2))) /[y・cos(β−θ)]} …(9) さらに i’―W’=(i−W)/cosδ …(10) 但し、δ=arcTan{(t−u)/(i−W)} により求めることが可能である。更に、CCD面に写る
上記対象物から横に延びる部分の像tの位置を演算し明
確にするのに、Sは当該対象物から横に延びる部分であ
る場合、 t=S(f/Z)・{cosγ/(cosγ―θ―(π/2))} …(11) により求めることが可能である。
Further, the calculation function (not shown) of the component specifying unit 35 calculates one or a plurality of or representative camera positions, y is the distance from directly under the camera to the object, and v is the inside of the camera. When the angle of the object on the CCD surface, θ is the dip angle of the camera, v = f · y · sin (tan −1 (h / y)) / sin θ / {h · cos (tan−1 (h / y ) −θ)} (1) or by v = f {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (2) It is possible to ask. Further, in order to calculate and clarify the correspondence between one or a plurality of or representative camera positions, or the video image taken by the camera and the target object on the map, y is the distance from directly below the camera to the target object, v is the length of the object on the CCD surface in the camera,
x is the length in the direction perpendicular to the line segment connecting the object and the camera, u is the lateral length on the CCD surface in the camera, and θ is the dip angle of the camera: v = f · y · sin (Tan −1 (h / y)) / sin θ / {h · cos (tan −1 (h / y) −θ)} (3) or v = f · {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (4) or v = {(f / sin θ) · y · sin β) / (h · cos (β−θ)) } (5) u = x (f / y)  (cos β / cos (β-θ)) (6) However, β = arcTan (h / y) can be obtained. In addition, the height apex Z of the object or the like and the height apex W of the image of the object on the CCD surface.
In order to calculate and clarify the relationship with, f is the focal length of the lens, θ is φ = θ + (π / 2), φ is the connection of the line segment connecting the lens and the object on the camera intersection axis. An angle formed by the perpendicular of the position, ε is β + (π / 2), and y is Z. W = {(f / sin (θ + (π / 2)) · Z · sinγ)} / {Y · cos (γ− (θ + (π / 2)))} (7) However, it is possible to obtain by γ = arcTan (y / z). Moreover, in order to calculate and clarify the relationship between the height dimension of the target object and the height dimension i of the image of the target object on the CCD surface, h is the actual height dimension of the position of the camera, and others. , F, θ, etc. are the same as in the case of the above equation (7), i = {(f / sin θ + (π / 2)) · h · sin (β + (π / 2))} / { y · cos (β + (π / 2) − (θ + (π / 2)))} (8) However, β = arcTan (y / z) can be obtained. Further, in order to calculate and clarify the projection of the image corresponding to the height H + Z of the object on the CCD surface, the above W and i described above are used, and the above Wi = {[(f / sin (Θ + (π / 2)) · Z · sin γ)] / [y · cos (γ− (θ + (π / 2)))]}-{[(f / sin (θ + (π / 2)) · h * Sin ((beta) + ((pi) / 2))) / [y * cos ((beta)-(theta))]} ... (9) Furthermore, i'-W '= (iW) / cos (delta) ... (10) However, (delta) = arcTan. It can be obtained by {(t−u) / (i−W)}. Furthermore, in order to calculate and clarify the position of the image t of the part extending laterally from the object on the CCD surface, when S is the part extending laterally from the object, t = S (f / Z) -{Cosγ / (cosγ-θ- (π / 2))} (11) can be obtained.

【0040】本実施の形態においても、必要に応じ上述
の式(7)、式(8)、式(9)、式(10)、もしく
は式(11)を用いて上記対象物と当該対象物に対応す
る2次元乃至3次元の形状を含む再生画像の比較検索を
行うが可能となる。そして、上記式(1)から上記式
(12)までのうち、対象物の検出の際に利用する、即
ち必要に応じ何れか一または複数の数式、もしくは全て
の数式(1)〜(11)を上記属性データに加え、対象
物の比較検索の際に利用することもできる。
Also in the present embodiment, if necessary, the above-mentioned object and the object can be obtained by using the above-mentioned formula (7), formula (8), formula (9), formula (10) or formula (11). It is possible to perform a comparative search of a reproduced image including a two-dimensional to three-dimensional shape corresponding to the. Then, of the above formulas (1) to (12), it is used when detecting an object, that is, any one or a plurality of formulas, or all the formulas (1) to (11) as required. In addition to the above-mentioned attribute data, it can also be used at the time of comparative search of objects.

【0041】また、対象物に対応する比較用部品の特定
を行う具体的構成には、図6に示すように、一方では、
比較用画像生成部32のメモリIm1に対象物の入力画
像を一旦記憶した上で画像変換部Im2で入力画像の二
次元形状を含む画像データへの変換を行い部品特定部3
5内の部品特定装置41へ転送し、他方では、比較用部
品生成部34のメモリM1に部品、即ち比較用部品(三
次元形状)の画像データを一旦記憶した上で投影部Ma
で当該部品の3Dから2Dへの投影(さまざまな多方向
の投影を含む)を行った画像データの生成を行いデータ
ベース33の各記憶領域M2…のうち所要の記憶領域へ
の記録を行う。尚、比較用部品の画像データの生成を行
いデータベース33の各記憶領域M2…へ記録する場合
には、あらかじめに多種に亘る各種比較用部品の画像デ
ータをたとえば各分類毎に記録しておく場合も含まれ
る。かくて、2次元形状を含む画像データへの変換を行
った入力画像の部品特定装置41への転送がなされる場
合には、部品特定装置41がデータベース33の各記憶
領域M2…のうち所要の記憶領域から順次に比較用部品
の画像データを取り出して当該入力画像との一致の有無
の比較検索を行い、一致する比較用部品の画像データを
上述の部品特定部35内の認識35B乃至特定35Cへ
転送することになる。
Further, as shown in FIG. 6, a specific configuration for identifying the comparison part corresponding to the object is as follows.
The input image of the object is once stored in the memory Im1 of the comparison image generation unit 32, and then the image conversion unit Im2 converts the input image into image data including a two-dimensional shape, and the component identification unit 3
5, the image data of the component, that is, the comparison component (three-dimensional shape) is temporarily stored in the memory M1 of the comparison component generation unit 34, and then the projection unit Ma
Then, image data is generated by projecting the part from 3D to 2D (including projection in various multi-directions), and recording is performed in a required storage area of each storage area M2 of the database 33. When the image data of the comparative parts are generated and recorded in each storage area M2 of the database 33, when the image data of various kinds of comparative parts are recorded in advance for each classification, for example. Is also included. Thus, when the input image converted into the image data including the two-dimensional shape is transferred to the component identifying device 41, the component identifying device 41 selects a required one of the storage areas M2 ... Of the database 33. The image data of the comparative parts are sequentially fetched from the storage area, a comparison search for matching with the input image is performed, and the image data of the matching comparative parts are identified 35B to 35C in the above-described part specifying unit 35. Will be transferred to.

【0042】次に、本実施の形態に係る画像表示装置の
使用の一例について説明する。尚、本例の場合、カメラ
を搭載し走行する車両(図示せず)の左側を当該車両よ
りも高い速度で並行の前方に走行してゆくたとえば一般
車両の走行移動する状態をも含むビデオ映像内から対象
物を指定する場合について説明する。
Next, an example of use of the image display device according to this embodiment will be described. In the case of the present example, a video image including a state in which the left side of a vehicle (not shown) equipped with a camera and traveling in parallel forward at a speed higher than that of the vehicle, for example, the traveling movement of a general vehicle is also included. A case of designating an object from inside will be described.

【0043】先ずカメラを起動し出力部36にビデオ映
像の画像表示を行わせ、図7(A)に示すように、ビデ
オ映像内のある領域(対象物51、樹木52及び一般車
両53を含む領域)54をたとえばマウス等のポインテ
ィング装置により矩形で囲みロックオン表示する部分と
して指定し、かつ領域54内で、特に検索し特定し固定
し観察(拡大画像、即ち再現画像の生成)を行いたい対
象物をたとえば道路標識51として選定する場合には、
道路標識51の周囲を図6の点線で示すように矩形で囲
む。
First, the camera is activated to cause the output section 36 to display an image of a video image, and as shown in FIG. 7A, an area (object 51, tree 52 and general vehicle 53 is included in the video image. It is desired to specify (area) 54 as a portion to be locked-on displayed by enclosing it in a rectangle with a pointing device such as a mouse, and to particularly search, identify, and fix within area 54 to perform observation (enlarged image, that is, reproduction image). When selecting an object as the road sign 51, for example,
The road sign 51 is surrounded by a rectangle as shown by the dotted line in FIG.

【0044】尚、対象物を指定する場合には、たとえ
ば、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan-1(h/y)−θ)} …(3) あるいは v=f・{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(4) もしくは v={(f/sinθ)・y・sinβ) /(h・cos(β―θ))} …(5) u=x・(f/y)・(cosβ/cos(β―θ)) …(6) 但し、β=arcTan(h/y) を用いて対象物の輪郭等を検出することが可能である。
When designating an object, for example, v = f · y · sin (tan −1 (h / y)) / sin θ / {h · cos (tan −1 (h / y) − θ)} (3) or v = f · {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (4) or v = {(F / sin θ) · y · sin β) / (h · cos (β−θ))} (5) u = x · (f / y) · (cos β / cos (β−θ))… ( 6) However, β = arcTan (h / y) can be used to detect the contour or the like of the object.

【0045】一方、入力部31には、カメラを介し時間
の経過とともに変化するビデオ映像が入力されて、少な
くともたとえば瞬間的に出力部36には、時間の経過と
ともに図7(A)〜(C)に示すように、領域54内の
道路標識51の背景にある樹木52が時間経過とともに
図示左側に遷移し、一般車両53が時間経過とともに図
示右側に遷移し、対象物である道路標識51のみがカメ
ラ方向の追跡変化とともに追跡されて領域54の中央に
固定的(視線角度は相違する)な状態にロックオン画像
として画像表示されるものとなる。
On the other hand, a video image that changes with the passage of time is input to the input unit 31, and at least, for example, the output unit 36 is instantaneously input to the output unit 36 with the passage of time as shown in FIGS. ), The tree 52 in the background of the road sign 51 in the area 54 shifts to the left side in the drawing over time, and the general vehicle 53 shifts to the right side in the drawing over time, only the road sign 51 that is the object. Is tracked along with the tracking change in the camera direction, and is displayed as a lock-on image in a fixed state (the line-of-sight angle is different) in the center of the area 54.

【0046】しかし、実際には、上述の対象物(道路標
識)51の指定により、即ち比較用画像生成部32が、
図7(D)に示すように、樹木52及び一般車両53を
互いに逆方向を向く所定ベクトルを有するオプティカル
フローとして検出し、この樹木52及び一般車両53の
映像を取り除いて、道路標識51の映像のみ0ベクトル
であって、少なくとも輪郭及び平面を検出した比較用画
像として部品特定部35へ転送することになり、この結
果、部品特定部35の検索35A、認識35B、特定3
5C、固定35Dの各処理を経て、図7(E)に示すよ
うに、出力部36の所要の領域に道路標識51に対応す
る3DCG画像が画像表示されるものとなる。
However, in actuality, by the designation of the above-mentioned object (road sign) 51, that is, the comparison image generation unit 32,
As shown in FIG. 7 (D), the tree 52 and the general vehicle 53 are detected as an optical flow having a predetermined vector that is directed in the opposite direction, the images of the tree 52 and the general vehicle 53 are removed, and the image of the road sign 51 is removed. Only the vector is 0, and the image is transferred to the component identifying unit 35 as a comparison image in which at least the contour and the plane are detected. As a result, the component identifying unit 35 searches 35A, recognizes 35B, and identifies 3
After each processing of 5C and fixed 35D, as shown in FIG. 7E, a 3DCG image corresponding to the road sign 51 is displayed as an image in a required area of the output unit 36.

【0047】尚、道路標識51の輪郭等を求める場合に
は、 W={(f/sin(θ+(π/2))・Z・sinγ)} /{y・cos(γ―(θ+(π/2)))} …(7) 但し、γ=arcTan(y/z) i={(f/sinθ+(π/2))・h・sin(β+(π/2))} /{y・cos(β+(π/2)−(θ+(π/2)))} …(8) 但し、β=arcTan(y/z) 上記W―i={[(f/sin(θ+(π/2))・Z・sinγ)] /[y・cos(γ―(θ+(π/2)))]} −{[(f/sin(θ+(π/2))・h・sin(β+(π/2))) /[y・cos(β−θ)]} …(9) さらに i’―W’=(i−W)/cosδ …(10) 但し、δ=arcTan{(t−u)/(i−W)} t=S(f/Z)・{cosγ/(cosγ―θ―(π/2))} …(11) によりCCD面に映る対象物の像の輪郭等を数値的に明
確にし、この結果に対応し2次元乃至3次元形状を含む
再現画像の比較検索、もしくは生成を行う際の一つの基
準とすることができる。
When obtaining the contour of the road sign 51, W = {(f / sin (θ + (π / 2)) · Z · sinγ)} / {y · cos (γ− (θ + (π / 2)))} (7) where γ = arcTan (y / z) i = {(f / sin θ + (π / 2)) · h · sin (β + (π / 2))} / {y · cos (β + (π / 2)-(θ + (π / 2)))} (8) where β = arcTan (y / z) where W−i = {[(f / sin (θ + (π / 2 )) · Z · sin γ)] / [y · cos (γ− (θ + (π / 2)))]}-{[(f / sin (θ + (π / 2)) · h · sin (β + (π / 2))) / [y · cos (β−θ)]} (9) Furthermore, i′−W ′ = (i−W) / cos δ (10) where δ = arcTan {(t−u) / (I-W)} t = S (f / Z) cosγ / (cosγ-θ- (π / 2))} (11) The numerical outline of the image of the object on the CCD surface is clarified by (11), and a two-dimensional or three-dimensional shape is included corresponding to this result. It can be used as one reference when performing comparative search or generation of reproduced images.

【0048】また、上述の式(3)から(12)までに
利用される各種変数を変更することでも、図7(F)に
示すように、たとえば図示しない入力装置の操作により
特に固定35Dの起動を介し道路標識51の角度を変更
し正面がら観察した状態を3DCG画像として画像表示
することも可能である。
Further, by changing the various variables used in the above equations (3) to (12), as shown in FIG. 7F, for example, the fixed 35D can be operated by operating an input device (not shown). It is also possible to change the angle of the road sign 51 through activation and display the state observed from the front as a 3DCG image.

【0049】次に、本実施の形態の画像表示装置の処理
動作を図8に示すフローチャートを参照し説明する。先
ずカメラを起動し出力部36にビデオ映像の画像表示を
行わせ、図7(A)に示すように、特定の領域(対象物
51、樹木52及び一般車両53を含む領域)54を指
定し、かつ領域54内で、特に検索し特定し固定し観察
(拡大画像、即ち再現画像の生成)を行いたい対象物と
して道路標識51を指定しておく。しかる状態で、ステ
ップS1において、比較用画像生成部34を起動し道路
標識51の構成部品である比較用部品、即ち比較用画像
の画像データを呼び出し、かつステップS2において、
部品特定部35の検索35Aを起動し豊富な複数種の特
徴の画像データが保存されたデータベース33から比較
用部品生成部34の起動を介して転送されてくる当該比
較用部品、即ち比較用画像の画像データの対応部分に係
る特徴の画像データを検索する。しかる後、ステップS
3において、部品特定部35の起動を介し上記比較用画
像(比較用部品)の画像データとデータベース33から
取り出した所要の特徴の画像データとが対応するか否か
を判定する。
Next, the processing operation of the image display device of the present embodiment will be described with reference to the flowchart shown in FIG. First, the camera is activated to cause the output unit 36 to display a video image as an image, and as shown in FIG. 7A, a specific area (area including the target object 51, the tree 52 and the general vehicle 53) 54 is designated. In addition, the road sign 51 is designated in the area 54 as an object to be searched, specified, fixed and observed (enlarged image, that is, a reproduced image) to be observed. In a suitable state, in step S1, the comparison image generation unit 34 is activated to call the comparison component that is a component of the road sign 51, that is, the image data of the comparison image, and in step S2,
The comparison component, that is, the comparison image, which is transferred from the database 33 in which the search 35A of the component identification unit 35 is activated and the image data of abundant plural types of features is stored and the comparison component generation unit 34 is activated. The image data of the feature related to the corresponding portion of the image data of is searched. After that, step S
3, it is determined whether or not the image data of the comparison image (comparison component) and the image data of the required feature retrieved from the database 33 correspond to each other through the activation of the component identification unit 35.

【0050】ステップS3において、YES即ち双方が
対応すると判定した場合には、ステップS4において、
認識35Bが起動し今回の特徴の画像データが対象物で
ある道路標識51に対応する画像データであると認識
し、かつステップS5において、特定35Cが起動し今
回の特徴の画像データの内容が道路標識51に対応する
部品であることを特定し、しかる上で、ステップS6に
おいて、比較用画像の所定部分の処理が終了したか否か
を判定する。ここでNO即ち終了ではないと判定した場
合には、ステップS1に戻るが、YES即ち終了である
と判定した場合には、ステップS7において、固定35
Dの起動を介し出力部36の所定の領域に、図7(F)
に示すように、今回の認識結果、即ち道路標識51に対
応する3DCGの画像(3次元の再現画像)を画像表示
し本フローを終了する。
If YES in step S3, that is, if it is determined that they correspond to each other, in step S4,
The recognition 35B is activated and recognizes that the image data of the feature this time is image data corresponding to the target road sign 51, and in step S5, the specification 35C is activated and the content of the image data of the feature this time is road. The component corresponding to the marker 51 is specified, and then, in step S6, it is determined whether or not the processing of the predetermined portion of the comparison image is completed. If NO, that is, if it is determined not to end, the process returns to step S1, but if YES, that is, to end, in step S7, the fixed value 35 is set.
Through the activation of D, a predetermined area of the output unit 36 is displayed in FIG.
As shown in, the present recognition result, that is, the image of the 3DCG (three-dimensional reproduction image) corresponding to the road sign 51 is displayed as an image, and the present flow ends.

【0051】しかし、ステップS3において、NO即ち
双方の画像データが対応しないと判定した場合には、ス
テップS8へ移り、比較用部品生成部34もしくは部品
特定部35の起動によりデータベース33から取り出す
所定の比較用部品が終了したか否かを判定する。ここで
NO即ち終了ではないと判定した場合には、ステップS
1に戻るが、YES即ち終了であると判定した場合に
は、ステップS9に移り対象物である道路標識51の各
構成部品の全ての処理が終了したか否かを判定する。判
定の結果、NO即ち全ての処理が終了ではないと判定し
た場合には、一旦ステップS10に移り、次部品の指定
を行ってからステップS1へ戻るが、YES即ち全ての
処理が終了であると判定した場合には、ステップS11
において、対応部品なしを確定した後、本フローを終了
する。
However, if it is determined NO in step S3, that is, if the two image data do not correspond to each other, the process proceeds to step S8, and a predetermined part to be retrieved from the database 33 by activating the comparative part generating part 34 or the part specifying part 35. It is determined whether or not the comparison part is finished. If NO is determined here, that is, the process is not finished, the step S
Returning to step 1, if YES, that is, if it is determined that the process has ended, then the procedure advances to step S9, and it is determined whether or not all processing of each component of the road sign 51, which is the object, has been completed. If the result of the determination is NO, that is, if it is determined that all the processes have not been completed, the process proceeds to step S10, the next part is designated, and then the process returns to step S1, but if YES, that is, all the processes are completed. If determined, step S11
In, the flow ends after it is determined that there is no corresponding component.

【0052】尚、本発明に係るたとえばフレキシブルデ
ィスクやCD−ROM等、もしくはシリンダ等のデータ
ベース等の記憶媒体には、上述の演算式(1)から(1
1)、及び他の演算アルゴリズム(第1の実施の形態で
用いる演算アルゴリズムも含む)、並びに、本例の画像
処理方法を具体化する上述のステップS1からステップ
S11までのプログラムが記録されているものである。
The storage medium such as a flexible disk, a CD-ROM or the like according to the present invention, or a database such as a cylinder or the like is stored in the above-mentioned arithmetic expressions (1) to (1).
1) and other arithmetic algorithms (including the arithmetic algorithm used in the first embodiment), and the above-described programs from step S1 to step S11 that embody the image processing method of this example are recorded. It is a thing.

【0053】次に、本発明の第3の実施の形態を図9乃
至図12を参照し説明する。図9に本実施の形態に係る
画像表示装置の主要部の構成を示し、かかる画像表示装
置は、一または複数のカメラ(図示せず)、映像入力装
置61、映像記録再生出力装置62、対象物指定装置6
3、映像地図表示装置64、属性記録再生装置65、対
象物検索指定装置66、及び、画像のロックオン表示部
67を含む図示しない出力表示部(航空機内及び基地局
内にも設置)を図示の如く電気的に接続して構成されて
いる。尚、本実施の形態ではたとえば航空機としてヘリ
コプタや飛行機等に適用した場合を例に説明し、第一の
実施の形態と同様の部分については詳しい説明を省略す
る。
Next, a third embodiment of the present invention will be described with reference to FIGS. FIG. 9 shows the configuration of the main part of the image display device according to the present embodiment. The image display device includes one or a plurality of cameras (not shown), a video input device 61, a video recording / reproducing output device 62, and a target. Object designation device 6
3, a video map display device 64, an attribute recording / reproducing device 65, an object search designation device 66, and an output display unit (not shown) including an image lock-on display unit 67 (also installed in the aircraft and the base station) As described above, they are electrically connected. In the present embodiment, the case where the present invention is applied to, for example, a helicopter or an airplane as an aircraft will be described as an example, and detailed description of the same parts as those in the first embodiment will be omitted.

【0054】一または複数のカメラは、たとえば航空機
の胴体の底面側において操縦室に近い前方側の位置に所
要の配列関係で配設されて、たとえば航空機内の所要の
操作もしくは基地局の所要の操作に応じて例えば電動駆
動により高さ及び撮影方向を、少なくとも水平方向、も
しくは水平方向よりも所定角度上方の方向の周囲から地
上乃至海面の方向を含む任意の位置に向け、そのカメラ
方向を任意に変更させることが可能となっている。
The one or more cameras are arranged, for example, at a front side position near the cockpit on the bottom side of the fuselage of the aircraft in a required arrangement relationship, for example, for a required operation in the aircraft or a required base station. Depending on the operation, for example, the height and shooting direction are electrically driven to at least the horizontal direction, or an arbitrary position including the direction from the ground to the sea surface from the periphery of the direction at a predetermined angle above the horizontal direction, and the camera direction is arbitrary. It is possible to change to.

【0055】映像入力装置61は、カメラが撮影した映
像を電気信号に変換し順次時系列的に複数の画像データ
を生成するもので、画像データには、輝度、濃度、コン
トラスト等のカラー画像のビデオ信号が含まれる。
The video input device 61 converts a video image captured by the camera into an electrical signal and sequentially generates a plurality of image data in time series. The image data includes color images such as brightness, density and contrast. Video signal is included.

【0056】映像記録再生装置62は、ビデオ信号をビ
デオメモリに一旦記録するとともに走査し出力表示装置
(図示せず)にビデオ映像を出力させる。尚、映像記録
再生装置62には、マスク処理部及びウィンドウ表示部
等が備えられている。
The video recording / reproducing device 62 temporarily records the video signal in the video memory and scans it to output the video image to the output display device (not shown). The video recording / reproducing device 62 is provided with a mask processing unit, a window display unit, and the like.

【0057】対象物指定装置63は、第1の実施の形態
で説明した指定部と同様の構成であり、たとえば基地局
の画像表示装置にも備えられるもので、何れかの操作指
定に基づいてビデオ映像内から任意に複数の対象物(空
中の飛行物体や海上の船体でも良い)を指定することが
可能であり、一度対象物を指定した後は、当該対象物を
追跡するのに必要なデータの生成にも寄与する。
The object designating device 63 has the same structure as the designating unit described in the first embodiment, and is also provided in the image display device of the base station, for example, and is based on any operation designation. It is possible to arbitrarily specify multiple objects (may be flying objects in the air or hulls on the sea) from the video image, and once the objects are specified, it is necessary to track the objects. It also contributes to the generation of data.

【0058】映像地図表示装置64は、対象物指定装置
63が対象物を指定した際に、カメラの視線方向に対応
する地図を出力表示部に画像表示するとともに、座標系
の演算手段(図示せず)をも備え、ビデオ映像内の数点
を地図上と対応させ、これを時系列的な変化とともに追
跡した結果に基づいて地図上の座標系を求め、かつビデ
オ映像と地図を同一座標系、もしくは視線角度を有する
所要の座標系に変換し画像表示させる処理、及び地図の
ズームによる拡大表示等の処理をも行える。
The video map display device 64 displays a map corresponding to the line-of-sight direction of the camera on the output display section when the object specifying device 63 specifies the object, and also calculates the coordinate system (not shown). () Is also provided, and several points in the video image are made to correspond to the map, and the coordinate system on the map is obtained based on the result of tracking these with time-series changes. Alternatively, it is possible to perform processing such as converting into a required coordinate system having a line-of-sight angle and displaying an image, and processing such as enlarged display by zooming a map.

【0059】属性記録再生装置65は、対象物の特徴の
分類に関する名目データ、その他、たとえば製造年月
日、経年年数、所有者、管理者、過去の鑑査履歴、修復
履歴、増改・修復の予定、交換の予定等や、あるいは画
像蓄積部13内の各特徴の画像データの組合せ生成、組
立て形成、もしくは結合関係(即ち組織体の構成)に関
するデータ、もしくは対象物を結んでできる形状、及び
形状の位置、距離、面積、もしくは体積が含められる属
性データが記録されており、対象物が指定された場合に
対象物検索指定装置66からの要求に応じて当該対象物
に関する名称や当該属性データを読み出し対象物検索指
定装置66へ転送する一方で、必要に応じ当該属性デー
タの内容を出力表示部の表示領域内の所要の位置、もし
くはロックオン表示部67内の所要の位置に表示させ
る。
The attribute recording / reproducing apparatus 65 stores nominal data relating to the classification of the characteristics of the object, and other information such as manufacturing date, age, owner, manager, past inspection history, repair history, and revision / repair. Schedules, exchange schedules, etc., or data relating to combination generation of image data of each feature in the image storage unit 13, assembly formation, or connection relation (that is, structure of tissue), or shape formed by connecting objects, and The attribute data including the position, distance, area, or volume of the shape is recorded, and when the object is designated, the name and the attribute data regarding the object are requested in response to a request from the object search designating device 66. Is read out and transferred to the object search and designation device 66, while the content of the attribute data is displayed at a required position in the display area of the output display unit or a lock-on display, if necessary. And displays the required position in the 67.

【0060】対象物検索指定装置66は、当該対象物の
各画像フレームの特徴乃至各構成部品毎の特徴に対し、
複数種の対象物に関する複数種の画像フレーム乃至特徴
の画像データが豊富に保存されたデータベース(図示せ
ず:画像蓄積部13と同一でも良い)から当該対象物に
対応する相関関係(検索調整部による比較対象の拡大、
縮小、回転角変化(視線方向変化)等の処理後の相関関
係をも含む)を必要に応じ計算しパターンマッチングし
た画像フレーム乃至特徴の画像データを検索し求め、当
該画像データ、即ち2次元乃至3次元形状を含む再現画
像をロックオン表示部67に動画もしくは連続的な静止
画の一群として対比的に順次に、もしくはめくり絵のよ
うに順次に時系列的に画像表示させる一方で、必要に応
じ新たな対象物に係る新たな画像フレーム乃至新たな構
成部品の特徴を反映した新たな特徴の画像データのデー
タベースへの保存をも行う。また、対象物検索指定装置
66は、各種相関関係の計算に関する計算部(図示せ
ず)をも備え、上述の処理の他、たとえば新たな一また
は複数の対象物もしくはそれらの一部を検索し求めた場
合に、新たに各々を結んでできる形状、及び形状の位
置、距離、面積、もしくは体積をも計算し求め、これを
対応する属性データに含めてデータベースへ保存する処
理をも行える。
The object retrieval designating device 66 determines the characteristics of each image frame of the object or the characteristics of each component,
Correlation (search adjustment unit) corresponding to the target from a database (not shown: may be the same as the image storage unit 13) that abundantly stores image data of a plurality of types of image frames or features relating to the plurality of types of targets. Expansion of comparison target,
If necessary, the image data of the image frame or the characteristic image that has been subjected to the pattern matching is searched for, and the image data, that is, the two-dimensional image Reproduced images including a three-dimensional shape are displayed on the lock-on display unit 67 as a moving image or a group of continuous still images in a sequential manner in contrast or in a time-sequential manner like a flipping picture. Accordingly, the image data of the new image frame relating to the new object or the image data of the new feature reflecting the feature of the new component is also stored in the database. Further, the target object search designating device 66 also includes a calculation unit (not shown) for calculating various correlations, and in addition to the above-described processing, for example, searches for one or more new target objects or a part thereof. When it is obtained, it is also possible to perform a process of calculating and obtaining the shape newly formed by connecting each and the position, distance, area, or volume of the shape, including this in the corresponding attribute data, and storing it in the database.

【0061】また、対象物検索指定装置66は、たとえ
ば中央演算処理装置等で起動する別途構成したカメラ位
置演算機能(図示せず)によりたとえば三角測量法や二
眼乃至三眼ステレオ画像法等を用いてカメラ位置、カメ
ラ方向、カメラ移動速度等を演算し求めることが可能で
あり、たとえばカメラで撮影した実際の映像上に現れる
地上の各点のCCD面の対応する点の縦方向の位置は、
三角関数の形でそれぞれ対応付けることが可能でるとと
もに、横方向についてはカメラとの距離の比例関係で表
わすことが可能で、これによりカメラが高さがどの位置
で、地図上のどこにあるかを計算により求めることも可
能である。また、次の画像フレームあるいは一定時間後
の画像フレームとの相関関係を計算し、次の画像フレー
ムから最も相関係数の高い部分と前の画像フレームの近
い部分との関係を調べ、順次基準画像(即ち再生画像)
を新規画像(新規再生画像)に変更することでもカメラ
方向の変更制御に寄与することが可能で、これにより対
象物を正確に追跡させることが可能である。
Further, the object retrieval designating device 66 uses, for example, a triangulation method or a binocular or trinocular stereo image method by a separately-configured camera position operation function (not shown) activated by a central processing unit or the like. It is possible to calculate and obtain the camera position, the camera direction, the camera moving speed, etc., for example, the vertical position of the corresponding point on the CCD surface of each point on the ground that appears on the actual image taken by the camera. ,
Not only can they be associated with each other in the form of trigonometric functions, but they can also be expressed in the lateral direction by the proportional relationship with the distance to the camera, which allows the camera to calculate where the height is and where it is on the map. It is also possible to obtain by. In addition, the correlation with the next image frame or the image frame after a fixed time is calculated, and the relation between the portion having the highest correlation coefficient from the next image frame and the portion close to the previous image frame is checked, and the reference image is sequentially displayed. (That is, reproduced image)
It is also possible to contribute to the control of changing the camera direction by changing to a new image (new reproduced image), which allows the object to be accurately tracked.

【0062】また、対象物検索指定装置66は、第1の
実施の形態で説明した相関計算部14と同様に、少なく
ともたとえば地上の対象物の一つの特徴の画像データに
対し上述のパターンマッチングがとれた場合には、当該
特徴の画像データに付随乃至生成された各属性データ
(即ち対象物の全特徴の各画像データの組合せ、組立
て、乃至結合関係のデータ)に基づき即時に一または複
数の対象物に対応する2次元乃至3次元形状を含む再現
画像の画像フレームを構成することが可能であり、かつ
複数のカメラを用いて地上等の一または複数の対象物の
空間分布及び時間的分布を有する画像データを求め、少
なくとも視差情報と時間差情報により当該地上等の一ま
たは複数の対象物に対応する3次元形状を含む再現画像
の画像データを生成することも可能であり、更に地上等
の対象物のうち、複数の点の指定と既知の点とカメラと
の位置関係を所定の演算アルゴリズムにより求め、これ
により地上等の任意の対象物のうち各相互の点、及び距
離を求めることも可能である。
Further, the object retrieval designating device 66, similar to the correlation calculation unit 14 described in the first embodiment, performs the above-mentioned pattern matching on at least image data of one feature of the object on the ground. If it is obtained, one or a plurality of data are immediately generated based on the attribute data associated with or generated by the image data of the feature (that is, the data of the combination, the assembly, or the connection relation of the image data of all the features of the object). It is possible to construct an image frame of a reproduced image including a two-dimensional or three-dimensional shape corresponding to an object, and a spatial distribution and a temporal distribution of one or a plurality of objects such as the ground using a plurality of cameras. And generating image data of a reproduced image including a three-dimensional shape corresponding to one or a plurality of objects such as the ground based on at least parallax information and time difference information. It is also possible to specify a plurality of points among the objects on the ground, etc., and obtain the positional relationship between the known points and the camera by a predetermined calculation algorithm, thereby It is also possible to find mutual points and distances.

【0063】また、対象物検索指定装置66は、特に、
座標系の演算手段(図示せず)をも備え、ビデオ映像内
の数点を地図上と対応させ、これを時系列的な変化とと
もに追跡することで地図上の座標系を求め、数点の座標
からカメラ位置(たとえば空撮映像と同じ位置関係にな
るカメラ位置はたとえば偏微分漸近法で求め得る)、カ
メラ方向、カメラ速度を演算し求める以外に、ビデオ映
像と地図を同一座標系、もしくは所要の視線角度を有す
る所要の座標系に変換し画像表示することが可能であ
る。このため、たとえば航空機の姿勢が変化してもロッ
クオン表示部67を含む出力表示部には、常時変化のな
い地図及び地上等の対象物に対応する印や3次元形状を
含む再生画像の画像表示を継続することが可能である。
Further, the object retrieval designating device 66, in particular,
Coordinate system calculation means (not shown) is also provided, and several points in the video image are made to correspond to the map, and the coordinate system on the map is obtained by tracking this along with changes in time series. In addition to calculating the camera position from the coordinates (for example, the camera position that has the same positional relationship as the aerial image can be obtained by, for example, the partial differential asymptotic method), the camera direction, and the camera speed, the video image and the map have the same coordinate system, or It is possible to convert the image into a required coordinate system having a required line-of-sight angle and display the image. Therefore, for example, the output display unit including the lock-on display unit 67 does not always change even when the attitude of the aircraft changes, and the image of the reproduced image including the mark and the three-dimensional shape corresponding to the object such as the map and the ground is constantly changed. It is possible to continue the display.

【0064】また、対象物検索指定装置66の演算機能
(図示せず)は、一または複数もしくは代表のカメラ位
置を演算するのに、yはカメラ真下から対象物までの距
離、vはカメラ内でのCCD面における対象物の長さ、
θはカメラの伏角とした場合に、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan−1(h/y)−θ)} …(1) もしくは v=f{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(2) 但し、β=arcTan(h/y) により求めることが可能でありる。また、一または複数
もしくは代表のカメラ位置、もしくはカメラにより撮影
したビデオ映像と、地図上の対象物等との対応関係を演
算し明確にするのに、yはカメラ真下から対象物までの
距離、vはカメラ内でのフィルム面における対象物の長
さ、xは対象物とカメラを結ぶ線分に直角方向の長さ、
uはカメラ内でのCCD面における横方向の長さ、θは
カメラの伏角であるとした場合、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan-1(h/y)−θ)} …(3) あるいは v=f・{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(4) もしくは v={(f/sinθ)・y・sinβ) /(h・cos(β―θ))} …(5) u=x・(f/y)・(cosβ/cos(β―θ)) …(6) 但し、β=arcTan(h/y) により求めることが可能である。また、対象物等の高さ
頂点ZとCCD面上に写る当該対象物の像の高さ頂点W
との関係を演算し明確にするのに、fはレンズの焦点距
離、θは即ちφ=θ+(π/2)、φはレンズとカメラ
交軸上の対象物とを結ぶ線分の当該結合位置の垂線との
成す角度、εはβ+(π/2)、yはZに対応したもの
とした場合、 W={(f/sin(θ+(π/2))・Z・sinγ)} /{y・cos(γ―(θ+(π/2)))} …(7) 但し、γ=arcTan(y/z) により求めることが可能である。また、対象物等の高さ
寸法とCCD面上に写る当該対象物の像の高さ寸法iと
の関係を演算し明確にするのに、hはカメラ位置の高さ
寸法、その他、f、θ等は上述の式(7)の場合と同様
のものである場合、 i={(f/sinθ+(π/2))・h・sin(β+(π/2))} /{y・cos(β+(π/2)−(θ+(π/2)))} …(8) 但し、β=arcTan(y/z) により求めることが可能である。また、CCD面上にお
ける対象物の高さH+Zに対応する像の投影を演算し明
確にするのに、上述したW、及び上述したiを用いて、 上記W―i={[(f/sin(θ+(π/2))・Z・sinγ)] /[y・cos(γ―(θ+(π/2)))]} −{[(f/sin(θ+(π/2))・h・sin(β+(π/2))) /[y・cos(β−θ)]} …(9) さらに i’―W’=(i−W)/cosδ …(10) 但し、δ=arcTan{(t−u)/(i−W)} により求めることが可能である。更に、CCD面に写る
上記対象物から横に延びる部分の像tの位置を演算し明
確にするのに、Sは当該対象物から横に延びる部分であ
る場合、 t=S(f/Z)・{cosγ/(cosγ―θ―(π/2))} …(11) により求めることが可能である。
Further, an arithmetic function (not shown) of the object retrieval designating device 66 calculates one or a plurality of or representative camera positions, y is the distance from directly under the camera to the object, and v is in the camera. The length of the object on the CCD surface at
When θ is the dip angle of the camera, v = f · y · sin (tan −1 (h / y)) / sin θ / {h · cos (tan−1 (h / y) −θ)} (1 ) Or v = f {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (2) where β = arcTan (h / y ). Further, in order to calculate and clarify the correspondence between one or a plurality of or representative camera positions, or the video image taken by the camera and the target object on the map, y is the distance from directly below the camera to the target object, v is the length of the object on the film surface in the camera, x is the length in the direction perpendicular to the line segment connecting the object and the camera,
Where u is the lateral length of the CCD surface in the camera and θ is the dip angle of the camera, v = f · y · sin (tan −1 (h / y)) / sin θ / {h · cos (Tan −1 (h / y) −θ)} (3) or v = f · {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (4) or v = {(f / sin θ) · y · sin β) / (h · cos (β−θ))} (5) u = x · (f / y) · (cos β / Cos (β−θ)) (6) However, β = arcTan (h / y) can be obtained. In addition, the height apex Z of the object or the like and the height apex W of the image of the object on the CCD surface.
In order to calculate and clarify the relationship with, f is the focal length of the lens, θ is φ = θ + (π / 2), φ is the connection of the line segment connecting the lens and the object on the camera intersection axis. An angle formed by the perpendicular of the position, ε is β + (π / 2), and y is Z. W = {(f / sin (θ + (π / 2)) · Z · sinγ)} / {y · cos (γ− (θ + (π / 2)))} (7) However, γ = arcTan (y / z) can be obtained. Further, in order to calculate and clarify the relationship between the height dimension of the object or the like and the height dimension i of the image of the object imaged on the CCD surface, h is the height dimension of the camera position, and f, When θ and the like are the same as those in the above formula (7), i = {(f / sin θ + (π / 2)) · h · sin (β + (π / 2))} / {y · cos (Β + (π / 2)-(θ + (π / 2)))} (8) However, β = arcTan (y / z) can be obtained. Further, in order to calculate and clarify the projection of the image corresponding to the height H + Z of the object on the CCD surface, the above W and i described above are used, and the above Wi = {[(f / sin (Θ + (π / 2)) · Z · sin γ)] / [y · cos (γ− (θ + (π / 2)))]}-{[(f / sin (θ + (π / 2)) · h * Sin ((beta) + ((pi) / 2))) / [y * cos ((beta)-(theta))]} ... (9) Furthermore, i'-W '= (iW) / cos (delta) ... (10) However, (delta) = arcTan. It can be obtained by {(t−u) / (i−W)}. Furthermore, in order to calculate and clarify the position of the image t of the part extending laterally from the object on the CCD surface, when S is the part extending laterally from the object, t = S (f / Z) -{Cosγ / (cosγ-θ- (π / 2))} (11) can be obtained.

【0065】本実施の形態においても、必要に応じ上述
の式(7)、式(8)、式(9)、式(10)、もしく
は式(11)を用いて上記対象物と当該対象物に対応す
る2次元乃至3次元の形状を含む再生画像の比較検索を
行うことも可能である。そして、上記式(1)から上記
式(11)までのうち、対象物の検出の際に利用する、
即ち必要に応じ何れか一または複数の数式、もしくは全
ての数式(1)〜(11)を上記属性データに加え、こ
の属性データを比較することで対象物の比較検索を行う
こともできる。
Also in this embodiment, if necessary, the above-mentioned object and the object can be obtained by using the above-mentioned formula (7), formula (8), formula (9), formula (10) or formula (11). It is also possible to perform a comparative search of reproduced images including two-dimensional to three-dimensional shapes corresponding to. Then, it is used in the detection of the object among the above equations (1) to (11),
That is, any one or a plurality of mathematical expressions or all mathematical expressions (1) to (11) may be added to the attribute data as needed, and the attribute data may be compared to perform a comparative search of the object.

【0066】次に、本実施の形態に係る画像表示装置の
使用の一例について説明する。先ず空撮映像と地図71
の対応についてであるが、地図71の正面視全体像はた
とえば映像地図表示装置64で、図10(A)に示すよ
うに、直角の四角い枠のように地図71の座標系を基準
化(正面視表示)し対象物の位置合わせをしていない状
態で画像表示される。そこで、次にカメラ方向の光軸方
向は図10(A)に示す画面中央に位置し、地図71と
の対応はまず、映像記録再生装置62で、その光軸方向
について実画面(ビデオ映像;即ち航空機の姿勢に対応
するカメラ撮影による実際上の視線角度を有するビデオ
映像)と地図71との対応関係を座標系の演算により求
める。即ち対象物指定装置63により光軸上の地図71
上の各指定された点(特定点72,73,74,75,
76)と、映像上の点(特定点72,73,74,7
5,76)の対応関係を明確にする。
Next, an example of use of the image display device according to this embodiment will be described. First, aerial image and map 71
Regarding the correspondence of No. 1, the front view whole image of the map 71 is, for example, on the video map display device 64, as shown in FIG. Image is displayed) and the image is displayed without aligning the object. Therefore, the optical axis direction of the camera direction is next located at the center of the screen shown in FIG. 10A, and the correspondence with the map 71 is first made by the video recording / reproducing device 62 in the real screen (video image; That is, the correspondence between the map 71 and the video image having the actual line-of-sight angle taken by the camera corresponding to the attitude of the aircraft is calculated by the calculation of the coordinate system. That is, the map 71 on the optical axis by the object designation device 63
Each specified point above (specific points 72, 73, 74, 75,
76) and points on the image (specific points 72, 73, 74, 7
5, 76) should be clarified.

【0067】尚、CCD面、及び地図71上の各点を指
定するのにも、たとえば、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan-1(h/y)−θ)} …(3) あるいは v=f・{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(4) もしくは v={(f/sinθ)・y・sinβ) /(h・cos(β―θ))} …(5) u=x・(f/y)・(cosβ/cos(β―θ)) …(6) 但し、β=arcTan(h/y) により求めることが可能である。この結果として、ビデ
オ映像を画像表示した状態が図10(B)であり、所要
の視線角度を有する変形的な地図71がカメラ投影に係
る視線角度に対応し画像表示される。これにより、映像
上の指定された各点72…と地図71上の指定された各
点72…がまず重ね合わせ(位置合わせ)される。
To specify each point on the CCD plane and the map 71, for example, v = fy · sin (tan −1 (h / y)) / sin θ / {h · cos (tan −1 (h / y) −θ)} (3) or v = f · {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h) )} (4) or v = {(f / sin θ) · y · sin β) / (h · cos (β−θ))} (5) u = x · (f / y) · (cos β / cos (Β-θ)) (6) However, it is possible to obtain by β = arcTan (h / y). As a result, the state in which the video image is displayed as an image is shown in FIG. 10B, and the deformable map 71 having the required line-of-sight angle is displayed as the image corresponding to the line-of-sight angle related to the camera projection. As a result, the designated points 72 on the image and the designated points 72 on the map 71 are first superposed (positioned).

【0068】続いて、対象物指定装置63及び映像地図
表示装置64で、図10(C)に示すように、地図71
を航空機の姿勢及び高度を勘案し光軸方向の補正(正面
からの視線角度の考慮)を行って地図71の主に下側の
部分を手前に引くように全体的に傾ける演算、即ち映像
地図表示装置64で、光学中心を別位置(正面視的視線
角度を含む)の所定方向からの視線方向に固定したま
ま、所要の演算で、垂直線即ち地図71の輪郭の補正を
保ちながら距離方向即ち正面からの視線角度及び高度の
設定に伴い地図71を傾け、かつ対象物指定装置63
で、垂直線上即ち正面からの視線角度を伴う他の1点以
上の対象物(乃至特定点)72,73,74,75,7
6を探して位置あわせをする。即ち指定した対象物72
〜76の位置合わせを含む地図71の仰角合わせを行な
うわけである。更に、映像地図表示装置64で、垂直線
以外のところでの対象物72等の一点以上で、各対象物
72…の位置あわせをすることで、座標系の演算手段で
座標系の回転を求め、映像と地図71は重ね合わせ可能
となる。即ち図10(C)に示すように、カメラ横回転
合わせを行なうわけである。
Subsequently, in the object designation device 63 and the video map display device 64, as shown in FIG.
Is calculated by correcting the direction of the optical axis in consideration of the attitude and altitude of the aircraft (considering the line-of-sight angle from the front) and tilting the map 71 mainly so that the lower part is pulled toward you, that is, a video map. On the display device 64, the optical center is fixed to the line-of-sight direction from a predetermined direction at another position (including the line-of-sight line-of-sight angle in front view), and the vertical direction, that is, the contour of the map 71 is corrected by a necessary calculation, and the distance direction That is, the map 71 is tilted according to the setting of the line-of-sight angle from the front and the altitude, and the object designation device 63
And other one or more objects (or specific points) 72, 73, 74, 75, 7 on the vertical line, that is, with the line-of-sight angle from the front.
Find 6 and align. That is, the designated object 72
The elevation angle alignment of the map 71 including the alignments of ~ 76 is performed. Further, in the image map display device 64, the rotation of the coordinate system is obtained by the calculation means of the coordinate system by aligning each of the target objects 72 ... At one or more points other than the vertical line. The image and the map 71 can be superimposed. That is, as shown in FIG. 10 (C), the lateral rotation alignment of the camera is performed.

【0069】尚、地図71の回転とともに各対象物72
…の位置合わせを行うのにも、 W={(f/sin(θ+(π/2))・Z・sinγ)} /{y・cos(γ―(θ+(π/2)))} …(7) 但し、γ=arcTan(y/z) i={(f/sinθ+(π/2))・h・sin(β+(π/2))} /{y・cos(β+(π/2)−(θ+(π/2)))} …(8) 但し、β=arcTan(y/z) 上記W―i={[(f/sin(θ+(π/2))・Z・sinγ)] /[y・cos(γ―(θ+(π/2)))]} −{[(f/sin(θ+(π/2))・h・sin(β+(π/2))) /[y・cos(β−θ)]} …(9) さらに i’―W’=(i−W)/cosδ …(10) 但し、δ=arcTan{(t−u)/(i−W)} t=S(f/Z)・{cosγ/(cosγ―θ―(π/2))} …(11) を応用し用いることで対応することが可能である。
It should be noted that each object 72 is rotated along with the rotation of the map 71.
In order to perform the alignment of ..., W = {(f / sin (θ + (π / 2)) · Z · sinγ)} / {y · cos (γ− (θ + (π / 2)))} (7) where γ = arcTan (y / z) i = {(f / sin θ + (π / 2)) · h · sin (β + (π / 2))} / {y · cos (β + (π / 2) ) − (Θ + (π / 2)))} (8) where β = arcTan (y / z) where W−i = {[(f / sin (θ + (π / 2)) · Z · sinγ) ] / [Y · cos (γ− (θ + (π / 2)))]}-{[(f / sin (θ + (π / 2)) · h · sin (β + (π / 2))) / [ y · cos (β−θ)] ... (9) Furthermore, i′−W ′ = (i−W) / cos δ ... (10) where δ = arctan {(t−u) / (i−W)} t = S (f / Z) · {cosγ / (cosγ-θ- ( / 2))} (11) can correspond to that by using the application of.

【0070】この結果、図10(D)に示すように、対
象物指定装置63及び映像地図表示装置64で、カメラ
から地図71の実際のカメラ方向乃至擬似的カメラ方向
と傾斜する地図71との関係を模式的に示した地図71
とカメラ位置の関係を設定した画像を表示することが可
能であるが、この場合、カメラと地図71の各対象物7
2…等を結ぶ複数のカメラ視線を表示することも可能で
あり、かくて、時間の経過とともにカメラは移動して、
その際にも、上記式(3)から式(11)を用いて応用
することで対応する地図71上の各対象物72…等の点
と、映像上の点72…等の対応関係を表示することが可
能であり、基本的には図10(D)は図10(C)との
対応関係を明確にしている。
As a result, as shown in FIG. 10D, in the object designating device 63 and the image map display device 64, the map 71 is tilted from the camera to the actual camera direction or the pseudo camera direction of the map 71. Map 71 schematically showing the relationship
It is possible to display an image in which the relationship between the camera and the camera position is set. In this case, the camera and each object 7 of the map 71 are displayed.
It is also possible to display the line of sight of multiple cameras connecting 2 ..., etc. Thus, the cameras move over time,
Also in this case, by applying the equations (3) to (11), the corresponding points of the respective objects 72, etc. on the map 71 and the points 72, etc. on the image are displayed. Basically, FIG. 10D clarifies the correspondence with FIG. 10C.

【0071】即ち最初の1枚のマニュアルの画像フレー
ムと2枚目以降の画像フレームで上述のように、各対象
物72…の位置あわせを行ない、更に後続の画像フレー
ムでは対応する少なくとも3点以上の対象物72…の追
跡で、映像地図表示装置64等の演算機能(図示せず:
上記式(1)から式(11)を含む)による地図71の
位置あわせを自動的に行なえば良いことになるが、たと
えば図11(A)に示すような地図71の座標系を初期
状態として、図11(B)に示すように、カメラの光学
的中心を地図71の中心と合わせて、地図71を垂直に
立て、このとき対象物指定装置63及び映像地図制御装
置64で、地図71上の各対象物72…の各点と、地図
71上のカメラの光学的中心の点との対応関係を明確に
して、ロックオン表示部67に上述の画像をロックオン
表示する。また、この際には、属性記録再生装置65の
起動を介したとえばロックオン表示部67の一部に対象
物72…等の名称、及び属性データをも表示させること
が可能である。
That is, as described above, the positions of the respective objects 72 ... Are aligned in the first one manual image frame and the second and subsequent image frames, and in the subsequent image frames, at least three corresponding points are set. Of the object 72 ... of the image map display device 64 or the like (not shown:
The position of the map 71 may be automatically adjusted according to the formulas (1) to (11) above. For example, the coordinate system of the map 71 shown in FIG. As shown in FIG. 11B, the optical center of the camera is aligned with the center of the map 71, and the map 71 is erected vertically. At this time, the object designation device 63 and the video map control device 64 are used to display the map 71 on the map 71. .. and the point of the optical center of the camera on the map 71 are clarified, and the lock-on display section 67 lock-on-displays the above-described image. At this time, the names of the target objects 72 ... And the attribute data can also be displayed on a part of the lock-on display section 67, for example, by starting the attribute recording / reproducing device 65.

【0072】続いて、図11(C)に示すように、映像
地図表示装置64で、カメラの高度を考慮し地図71の
下方を手前に引く要領で地図71を傾け、地図71の垂
直線の対応を維持しながら、画面水平軸を中心に地図を
倒し、垂直軸上の対象物72…等の位置を合わせる。そ
して映像地図表示装置64で、図11(D)に示すよう
に、地図71の座標系を垂直軸を中心として回転させ、
かつ垂直線から離れた地点の各対応物72…等の対応関
係を取り、地図71の水平面を合わせる。これらの処理
ステップを経ることで、マニュアルで最初の地図71と
ビデオ映像との位置合わせを行なうことが可能である。
Then, as shown in FIG. 11C, the image map display device 64 tilts the map 71 in such a manner that the lower part of the map 71 is drawn to the front in consideration of the altitude of the camera, and the vertical line of the map 71 is displayed. While maintaining the correspondence, the map is tilted around the horizontal axis of the screen and the positions of the objects 72, ... Are aligned on the vertical axis. Then, in the video map display device 64, as shown in FIG. 11D, the coordinate system of the map 71 is rotated about the vertical axis,
Further, the correspondences of the respective counterparts 72, ... At a point distant from the vertical line are taken, and the horizontal plane of the map 71 is matched. By going through these processing steps, it is possible to manually align the first map 71 with the video image.

【0073】更に、このとき、地図71上の位置と、映
像上の各対象物72…等の位置との対応関係が取れてい
るので、上述の演算によりカメラ位置は既知となり、こ
れによりカメラが移動した場合でも、演算機能により地
図71の移動量を求めることが可能であり、従って地図
71の移動量と移動方向を認知することも可能である。
しかし、あるいは、1枚目の画像フレームと2枚目の画
像フレームの対応関係を自動的に行ない、計算でカメラ
位置を求め、2枚目以降の画像データを自動的に求める
ということもできる。このとき、カメラにより撮影した
ビデオ映像と、地図71上の対象物72…等との対応関
係を明確にする必要がある。
Further, at this time, since the correspondence between the position on the map 71 and the position of each target object 72, etc. on the image is obtained, the camera position is known by the above calculation, and the camera Even when the map 71 moves, it is possible to obtain the amount of movement of the map 71 by the calculation function, and thus it is possible to recognize the amount of movement and the direction of movement of the map 71.
However, it is also possible to automatically perform the correspondence between the first image frame and the second image frame, calculate the camera position, and automatically obtain the image data for the second and subsequent images. At this time, it is necessary to clarify the correspondence between the video image captured by the camera and the objects 72, ... On the map 71.

【0074】この場合、図12に示す関係をもとに、た
とえば一または複数もしくは代表のカメラ位置、もしく
はカメラにより撮影したビデオ映像と、地図上の対象物
等との対応関係を明確にするのに、yをカメラ真下から
対象物までの距離、vをカメラ内でのCCD面における
対象物の長さ、xを対象物72…等とカメラを結ぶ線分
に直角方向の長さ、uをカメラ内でのCCD面における
横方向の長さ、θをカメラの伏角とした場合、上述の式
(1)乃至式(6)、もしくは式(7)乃至式(12)
を適宜用いて演算し求めることも可能であることは既に
述べた通りである。
In this case, on the basis of the relationship shown in FIG. 12, for example, the correspondence relationship between one or a plurality of or representative camera positions or video images taken by the cameras and objects on the map is clarified. Where y is the distance from directly below the camera to the object, v is the length of the object on the CCD surface in the camera, x is the length in the direction perpendicular to the line segment connecting the object 72 ... When θ is a dip angle of the camera in the lateral direction of the CCD surface in the camera, the above-mentioned formulas (1) to (6) or (7) to (12) are used.
As described above, it is also possible to calculate and obtain by appropriately using.

【0075】尚、図12で、点Rは、カメラ中心の光軸
の先端が地図平面にあたる点、mは光学中心Oから点R
までの線分、rは光学中心Oから点Rまでの線分(Y
軸)、点Pは線分r上に定めたある点(対象物)、点H
はカメラ真下の点、hは光学中心Oから点Hまでの距離
(線分)、yは点Hから点Pまでの線分、bは点P及び
点Rまでの線分、BはCCD面上で点Hに対応する点、
eは光学中心Oから点Bまでの距離(線分)、vはCC
D面上で線分yに対応する線分の像、dは線分bに対応
する線分の像、cはCCD面上で線分rに対応する線分
の像、FはCCD面の中心、fはCCD面から光学中心
Oまでの距離(線分)である。
In FIG. 12, a point R is a point where the tip of the optical axis of the camera center corresponds to the map plane, and m is a point R from the optical center O.
, R is the line segment from the optical center O to the point R (Y
Axis), point P is a certain point (object) defined on the line segment r, point H
Is a point directly under the camera, h is a distance (line segment) from the optical center O to the point H, y is a line segment from the point H to the point P, b is a line segment from the points P and R, and B is a CCD surface. The point corresponding to point H above,
e is the distance (line segment) from the optical center O to the point B, v is CC
The image of the line segment corresponding to the line segment y on the D surface, d the image of the line segment corresponding to the line segment b, c the image of the line segment corresponding to the line segment r on the CCD surface, and F the image of the line segment corresponding to the line segment r. The center, f is the distance (line segment) from the CCD surface to the optical center O.

【0076】まとめると、カメラが空撮の場合、地上の
3点以上の地点の既知の物体を認識することにより、実
際のカメラ位置を知ることができ、それにより更に空中
の飛行物体等を矩形枠でくくって飛行中の飛行物体等が
どんな種類の飛行機であるか等を認識し特定し追跡する
ことができ、これは第1及び第2の実施の形態において
も同様である。
In summary, when the camera is aerial, the actual camera position can be known by recognizing known objects at three or more points on the ground. It is possible to recognize, identify, and track what kind of airplane the flying object is flying by enclosing it with a frame, and this is the same in the first and second embodiments.

【0077】次に、本発明の第4の実施の形態に係る画
像表示装置について概略的に説明する。先ず上述の第1
乃至第3の何れかの画像表示方法、及び画像表示装置を
採用するとともに、インターネットに加入することで、
自ら側、即ちカメラ及び本例の画像表示装置を搭載する
車両乃至航空機側から、もしくは本例の画像表示装置を
設置する基地局等側からURLを指定し、もってADS
L乃至ISDN、もしくは衛星回線乃至地上波デジタル
放送等の回線及びプロバイダを介し、本画像処理装置が
生成するビデオ映像及び地図(対象物の表示を含む)の
ロックオン画像(必要に応じ名称、属性データ、カメラ
位置、カメラ方向、カメラ移動速度を含む)の画像デー
タ(たとえば3次元の再現画像等)の所望の端末局の出
力表示部(ディスプレイ)にたとえばリアルタイムにW
eb配信することが可能である。また、逆に、クライア
ントからの本例の画像表示装置(車両搭載型、航空機搭
載型、乃至基地局設置型)のURLを指定することで
も、本例の画像表示装置が生成するビデオ映像及び対象
物を含む地図の画像データ(上述に同じ)を上記クライ
アント側の端末局のディスプレイに配信したえばリアル
タイムに画像表示することも可能である。
Next, an image display device according to the fourth embodiment of the present invention will be schematically described. First, the first
Through adopting any one of the third image display method and the image display device and joining the Internet,
The URL is specified from the self side, that is, from the vehicle or aircraft side on which the camera and the image display device of this example are installed, or from the base station or the like side on which the image display device of this example is installed.
Lock-on image (name and attribute if necessary) of video image and map (including display of target object) generated by this image processing apparatus via L or ISDN, or line and provider such as satellite line or terrestrial digital broadcast W, for example, in real time on the output display unit (display) of the desired terminal station of image data (including data, camera position, camera direction, camera moving speed) (for example, a three-dimensional reproduction image).
eb distribution is possible. Conversely, by specifying the URL of the image display device (vehicle-mounted type, aircraft-mounted type, or base station-installed type) of this example from the client, the video image and the target generated by the image display device of this example are also specified. If image data of a map including objects (same as above) is delivered to the display of the terminal station on the client side, it is possible to display an image in real time.

【0078】尚、本発明に係る記録媒体には、第1、乃
至第3、及び第4の実施の形態で説明した画像表示方法
の具体的内容のアルゴリズム、並びに、上述した各種演
算アルゴリズム、式(1)から式(11)等を記録して
も良いことは勿論である。
In the recording medium according to the present invention, the algorithm of the concrete contents of the image display method described in the first to third and fourth embodiments, and the various calculation algorithms and expressions described above. It goes without saying that the formula (11) and the like from (1) may be recorded.

【0079】次に、図13乃至図19を参照し第1乃至
第4の実施の形態で最初に計測する対象物とCCD面に
映る当該対象物の像との関係について説明する。尚、本
例ではカメラ(図示せず)を対象物である道路面PRに向
けた場合を想定し説明する。先ず図13に示すように、
たとえば、カメラのCCD面cmを所定の高さhの位置
で所定角度下方へ傾け、カメラ中心の光軸lpの先端を
道路PR上の点Rに合わせる。この場合、道路PR上
で、カメラ真下の道路PR上の点Hから点Rに向う線分
HRはY軸に一致する。また道路PR上で、カメラから
線分HR上のある点Pを指定するとともに、点Pから線
分HRに対し左方向の直角方向を向いて所定距離分離れ
た位置に点Qを指定する。この場合、線分PQはx軸に
平行となる。また一方で、道路PR上で、演算に使用す
る意味で点Rから線分線分HRに対し左方向の直角方向
を向いて所定距離分離れた位置に点Eを指定する。そし
て、CCD面cmから光学中心Oを通り点Rに至る線分
を線分lとし、かつCCD面cmから光学中心Oを通り
点Pに至る線分を線分nとする。尚、線分lと線分HR
との成す角度はθであり、線分mと線分HRとの成す角
度はβであり、線分lと線分nとの成す角度はβ−θで
ある。一方、CCD面cm上には、線分HP、即ち線分
Yに対応する線分の像u(同図の符号81に示す)が写
ることになる。また、図14に示すように、CCD面c
m上には、線分hにおいて点Hに対応する位置から所定
角度で光軸lpに向く線分の像v(線分HRに対応)が
写ることになる。
Next, with reference to FIGS. 13 to 19, the relationship between the first object to be measured in the first to fourth embodiments and the image of the object on the CCD surface will be described. In this example, description will be made assuming that a camera (not shown) is aimed at the road surface PR which is an object. First, as shown in FIG.
For example, the CCD surface cm of the camera is tilted downward at a predetermined height h by a predetermined angle, and the tip of the optical axis lp at the center of the camera is aligned with the point R on the road PR. In this case, on the road PR, the line segment HR from the point H on the road PR directly below the camera to the point R coincides with the Y axis. Further, on the road PR, a certain point P on the line segment HR is designated from the camera, and a point Q is designated at a position separated from the point P by a predetermined distance in the left-right direction to the line segment HR. In this case, the line segment PQ is parallel to the x axis. On the other hand, on the road PR, a point E is designated at a position separated by a predetermined distance from the point R in a direction to the left of the line segment HR in the sense of being used for calculation. Then, a line segment from the CCD surface cm to the optical center O to the point R is defined as a line segment l, and a line segment from the CCD surface cm to the optical center O to the point P is defined as a line segment n. In addition, line segment l and line segment HR
Is θ, the angle between the line segment m and the line segment HR is β, and the angle between the line segment 1 and the line segment n is β-θ. On the other hand, a line segment HP, that is, a line segment image u (indicated by reference numeral 81 in the figure) corresponding to the line segment Y appears on the CCD surface cm. Also, as shown in FIG. 14, the CCD surface c
On m, the image v of the line segment (corresponding to the line segment HR) is projected from the position corresponding to the point H on the line segment h toward the optical axis lp at a predetermined angle.

【0080】また、図15に示すように、Y軸回りに傾
く場合、点Rを通るX軸に平行な軸回りに傾く場合、及
び双方の軸回りに各所要分合成的に傾く場合があるが、
その場合、CCD面cm上には、線分Yの像v、及び、
線分PQ(線分x)の像uの長さが変化して写ることに
なる。しかしながらその場合でも光軸と地上面の交点R
の位置(映像と地図の位置)を合わせたまま、光軸回り
に映像を回転させることで、図14、図17によって説
明するように座標変換することができる。また、図16
に示すように、道路PR上に格子状の座標を仮想的に設
定するとともに、上記線分y、及び線分xを真上から撮
影すると、CCD面cm上には、図16(A)に示すよ
うに、1平面上の中心側に上記線分yの像u、及び線分
xが真正面から視線方向の変化のない状態で写り、また
図16(B)に示すように、カメラに所定高さh等を与
えて道路cmの前方を撮影した場合には、道路cm上の
仮想的な格子状の座標が道路cmの前方へ向け収束する
ように変化するとともに、線分の像uも遠近法的な関係
から道路cmの幅に対応して相似的に短い線分の像uと
なる。尚、図16(A)、(B)において、座標(0,
0)はカメラのCCD面cmの位置を示している。
Further, as shown in FIG. 15, there is a case where it is tilted around the Y axis, a case where it is tilted about an axis parallel to the X axis passing through the point R, and a case where it is tilted synthetically by the required amount around both axes. But,
In that case, on the CCD surface cm, the image v of the line segment Y, and
The length of the image u of the line segment PQ (line segment x) changes and appears. However, even in that case, the intersection R of the optical axis and the ground surface
By rotating the image around the optical axis while keeping the position (the position of the image and the map) aligned, the coordinate conversion can be performed as described with reference to FIGS. In addition, FIG.
As shown in FIG. 16, when grid-like coordinates are virtually set on the road PR and the line segment y and the line segment x are photographed from directly above, the CCD plane cm is shown in FIG. As shown, the image u of the line segment y and the line segment x appear on the center side of one plane without any change in the line-of-sight direction from the front, and as shown in FIG. When the front of the road cm is photographed by giving the height h and the like, the virtual grid-like coordinates on the road cm change so as to converge toward the front of the road cm, and the line segment image u also changes. Due to the perspective, the image u is similar to the short line segment corresponding to the width of the road cm. In addition, in FIGS. 16A and 16B, the coordinates (0,
0) indicates the position of the CCD surface cm of the camera.

【0081】一方、図17に示すように、光学中心Oか
らY軸に沿って所定角度上方を向く線分llを想定する
とともに、点Pから垂直上方で光学的中心Oの高さに一
致する線分h2、及び線分h2の頂点から更に垂直上方
で線分llに到達する線分h3を設定し、かつ線分h3
の頂点、即ち線分llに到達する点Zから水平の左方向
の直角方向(X軸に平行)を向いて所定距離分離れた位
置(点Xの真上の位置)に点Sを指定した場合、CCD
面cm上には、線分の像vの延長上に線分h2に対応す
る線分の像、及び線分h3に対応する線分の像Wが写る
とともに、線分の像Wの先端から線分の像uに平行な線
分の像tが写ることになる。尚、線分llとh3の成す
角度γ、線分lとh2との成す角度φ、及び、線分nと
線分h2から垂直下方へ延びる線分との成す角度εは、
既に記述した式(5)、式(6)、式(7)、式(8)
において利用されるものである。
On the other hand, as shown in FIG. 17, a line segment 11 pointing upward at a predetermined angle along the Y axis from the optical center O is assumed, and the height of the optical center O coincides vertically upward from the point P. The line segment h2 and the line segment h3 that reaches the line segment ll vertically above the line segment h2 are set, and the line segment h3 is set.
The point S is designated at a position (directly above the point X) separated by a predetermined distance from the point Z reaching the apex of the line, ie, the point Z, in the horizontal right direction (parallel to the X axis). If CCD
On the surface cm, an image of the line segment corresponding to the line segment h2 and an image W of the line segment corresponding to the line segment h3 are projected on the extension of the image v of the line segment, and from the tip of the image W of the line segment. An image t of a line segment parallel to the image u of the line segment is captured. The angle γ formed by the line segments 11 and h3, the angle φ formed by the line segments 1 and h2, and the angle ε formed by the line segment n and the line segment extending vertically downward from the line segment h2 are
Expression (5), Expression (6), Expression (7), Expression (8) already described
Is used in.

【0082】また、図18に示すように、道路PR上
に、点S及び点Xを結ぶ線分を設定する場合、CCD面
cm上には、線分の像uの先端と線分の像tの先端とを
結ぶ間に点線で示す線分の像i’及び線分の像W’が一
直線状に写ることになる。図19(A)に示すように、
線分の像u、線分の像tの長さが変化して、図19
(B)に示すように、線分の像u、線分の像t、線分の
像i、及び線分の像Wの方向や長さ等が変化して写るこ
とは言うまでもない。
As shown in FIG. 18, when a line segment connecting the points S and X is set on the road PR, the tip of the image u of the line segment and the image of the line segment are displayed on the CCD surface cm. A line segment image i ′ and a line segment image W ′ indicated by a dotted line are linearly imaged while connecting to the tip of t. As shown in FIG. 19 (A),
The lengths of the line segment image u and the line segment image t change, and
Needless to say, as shown in (B), the image u of the line segment, the image t of the line segment, the image i of the line segment, and the direction W of the image W of the line segment are changed.

【0083】以上のように、CCD面cmに写る像は、
上述の式(1)から式(11)を適宜用いることで、そ
の位置を演算し求めることができ、これをもって比較検
索を行って対象物に対応する2次元乃至3次元形状を含
む再現画像の特定乃至生成を行うことをも可能とするも
のである。
As described above, the image reflected on the CCD surface cm is
By appropriately using the above equations (1) to (11), the position can be calculated and obtained, and by using this, a comparative search is performed and a reproduced image including a two-dimensional or three-dimensional shape corresponding to the object is obtained. It is also possible to specify or generate.

【0084】[0084]

【発明の効果】本発明は、以上のように構成されている
ために、ビデオ映像が時々刻々変化しても、画像内に周
辺の地図を画像表示して任意乃至特段に指定した対象物
22…等に対応する印等を常に地図の対応点に一致さ
せ、かつカメラ移動とともに時系列的に変化する対象物
22…等に対応し3次元形状の再現画像の動画もしくは
連続的な静止画の一群として対比的に順次に表示させる
ようにしたから、たとえば平常時や緊急時、もしくは災
害時等に道路や建造物、河川等の状況検索や、上空の航
空機等からの地上等の状況検索等を行うのに好適であっ
て、しかも、対象物22…等に対応する印乃至再生画像
の画像表示を伴う画像上の地図の表示領域と、対象物2
2…等を追跡して得られる3次元形状の再現画像のロッ
クオン表示のための表示領域とを別々に並べ分けて、も
しくは重ねて表示することをも可能にしたため、現地の
状況を極めて見やすく、かつわかり易く画像表示するこ
とができるとともに、車載用乃至空撮用のカメラ方向と
カメラ位置が変化してもその変化の状況を所要の演算で
求め所要の印や数字文字等の属性データで画像表示でき
る関係で、より詳しく視察方向を含め現地の状況を容易
に理解することが可能で、現地の安全対策や被害状況等
への対応を速やかに判断させ、適切な支援を図ることを
可能ならしめる。
Since the present invention is configured as described above, even if the video image changes from moment to moment, a peripheral map is displayed in the image as an image and the target 22 designated arbitrarily or specially. A mark or the like corresponding to ... etc. is always matched with the corresponding point on the map, and a moving image of a three-dimensional shape reproduced image or a continuous still image corresponding to the object 22 etc. that changes in time series with the movement of the camera is displayed. Since it was displayed sequentially as a group in contrast, for example, during normal times, emergencies, disasters, etc., the situation search of roads, buildings, rivers, etc. And the display area of the map on the image accompanied by the image display of the mark or the reproduced image corresponding to the target object 22 ...
It is also possible to separately display or overlap the display area for lock-on display of the three-dimensional shape reproduction image obtained by tracking 2 etc., so it is extremely easy to see the local situation In addition, the image can be displayed in an easy-to-understand manner, and even if the camera direction and camera position for in-vehicle use or aerial photography changes, the situation of the change is calculated by the required calculation, and the image is created using the required attribute data such as marks and numbers. If the information can be displayed, it is possible to easily understand the local situation including the inspection direction in more detail, and to promptly judge the local safety measures and response to damage situation, etc., and provide appropriate support. Close.

【0085】即ち、これは本発明において、ビデオ映像
の一または複数の対象物22,51,72…等を指定し
てカメラと対象物22…等との相対角度や方向の変化、
及び距離の変化を含め当該対象物22…等を追跡しなが
ら対象物22…等の各画像フレーム、もしくは各構成部
品の特徴を検出するとともに、対象物22…等に対応関
係のある特徴の画像データを順次に検索して対象物22
…等に対応する2次元乃至3次元形状を含む再現画像を
構成し、この再現画像を画像内の地図23乃至71等の
対応点と一致させ画像表示するようにしたからであり、
これによって、たとえば平常時の状況と災害時等の状況
とを速やかに比較し詳しく確認することができるのであ
り、従って、たとえば認識のない地域の状況であっても
容易にわかり易く現地の画像情報を得ることができ、社
会的な利用価値が高いのである。
That is, in the present invention, this is a change in the relative angle and direction between the camera and the objects 22 ..., By designating one or more objects 22, 51, 72 ,.
And the characteristic of each image frame such as the object 22 ... Is detected while tracking the object 22 ... Etc. including the change of the distance, and an image of a characteristic having a correspondence relationship with the object 22 ... Search for data sequentially and search for target 22
This is because a reproduced image including a two-dimensional or three-dimensional shape corresponding to ... Is constructed, and the reproduced image is displayed by matching with corresponding points on the maps 23 to 71 in the image.
This makes it possible to quickly compare and check in detail the situation during normal times and the situation during a disaster, for example. It can be obtained and has a high social utility value.

【0086】また、データベース13乃至33等に保存
される各種特徴の画像データには、あらかじめ各種再生
対象物の各画像フレーム、もしくは各種構成部品に対応
する特徴の画像データに名称や各属性データが関連付け
られてあるため、当該各属性データの認識に基づき対象
物22,51,72…等に対応する2次元乃至3次元形
状を含む再現画像を極短時間に構成することが可能で、
現地における対応を速やかにする利点がある。
Further, in the image data of various characteristics stored in the databases 13 to 33 and the like, in advance, each image frame of various reproduction objects, or the image data of characteristics corresponding to various constituent parts has the name and each attribute data. Since they are associated with each other, it is possible to construct a reproduced image including two-dimensional or three-dimensional shapes corresponding to the objects 22, 51, 72, ... In a very short time based on the recognition of the respective attribute data.
It has the advantage of promptly responding locally.

【0087】また、データベース13乃至33等に保存
される各種特徴の画像データには、あらかじめ各種再現
対象物、各種直線、各種曲線、各種角、各種エッジ、各
種平面、各種曲面等の要素、もしくは特に各特徴の画像
データ間の組合せ関係をも含む各属性データが関連付け
られてあるため、当該各属性データを参照することで、
極めて多くの対象物22,51,72…等の3次元形状
の再生画像を得ることが可能で、非常に広域にわたって
極めて具体的な画像観察を行うことができる。
The image data of various characteristics stored in the databases 13 to 33 and the like include elements such as various reproduction objects, various straight lines, various curves, various angles, various edges, various planes, various curved surfaces, or the like in advance. In particular, since each attribute data including the combination relation between the image data of each feature is associated with each other, by referring to each attribute data,
It is possible to obtain reconstructed images of three-dimensional shapes such as an extremely large number of objects 22, 51, 72, ...

【0088】また、対象物22,51,72…等に対応
する2次元乃至3次元形状を含む再現画像に、上記カメ
ラ移動に伴う視線方向の変動があっても、当該対象物2
2…等のさまざまな視点からの2次元乃至3次元形状の
再現画像の上述の画像表示を行えるため、利用する車両
や航空機の移動に規制を与えることがなく、極めて利便
性が高い。
Further, even if the reproduced image including the two-dimensional to three-dimensional shapes corresponding to the objects 22, 51, 72, ...
Since the above-mentioned image display of a reproduced image of a two-dimensional or three-dimensional shape from various viewpoints such as 2 ...

【0089】また、対象物22,51,72…等の空間
分布及び時間的分布を有する画像データを求め、少なく
とも視差情報と時間差情報により当該対象物22…等に
対応する3次元形状を含む再現画像の画像データ等を生
成し、もって当該再現画像の3次元モデルを生成し上述
の画像表示を行えるため、非常にわかり易い画像を得る
ことが可能である。
Further, image data having a spatial distribution and a temporal distribution of the objects 22, 51, 72, etc. is obtained, and at least the three-dimensional shape corresponding to the objects 22, etc. is reproduced by the parallax information and the time difference information. Since image data of an image or the like is generated, and a three-dimensional model of the reproduced image is generated and the above-described image display can be performed, a very easy-to-understand image can be obtained.

【0090】また、画像表示上16乃至36あるいは6
7等、もしくは通信回線を介する他の基地局等の画像表
示上には、必要に応じ指定した対象物22,51,72
…等の周囲の地図23乃至71等を画像表示させるとと
もに、当該対象物22…等を当該地図23乃至71等内
の対応する位置に所要の印で、もしくは2次元乃至3次
元形状の再現画像で画像表示し、かつ地図23乃至71
等の表示領域と上記再現画像の表示領域67等とを対比
的に分けたり、重ね合わせたりることが可能であるた
め、初めて使用する者であっても容易に要領良く使用す
ることが可能で、使用者を困惑させたりすることがな
く、非常に使い勝手が良い。
In addition, 16 to 36 or 6 on the image display
7 or the like, or another base station or the like via a communication line, on the image display, objects 22, 51, 72 designated as necessary are displayed.
The surrounding maps 23 to 71 and the like are displayed as images, and the target object 22 and the like is reproduced at a corresponding position in the maps 23 to 71 and the like with a required mark or a two-dimensional to three-dimensional shape reproduction image. The image is displayed on the screen, and the map is 23 to 71.
Since it is possible to compare or overlap the display area such as the display area with the display area 67 of the reproduced image, or the like, even a first-time user can easily and properly use the display area. , It is very easy to use and does not confuse the user.

【0091】また、対象物22,51,72…等のう
ち、複数の点を指定し既知の点とカメラ位置との位置関
係を演算させ、この演算アルゴリズムをも同様の他の位
置関係の計測に利用するため、任意の対象物22…等の
うち各相互の点、及び距離の演算、かつ対象物22…等
の全面もしくは一部の構成部品の面の面積や体積の演算
計測も容易に行えるようになり、観察者に現地の状況を
より詳しく認識させることが可能となる。
Further, among the objects 22, 51, 72, etc., a plurality of points are designated and the positional relationship between the known points and the camera position is calculated, and this arithmetic algorithm is used to measure other similar positional relationships. Therefore, it is possible to easily calculate the mutual points and distances of arbitrary objects 22 ... And the like, and easily calculate and measure the area or volume of the entire surface of the objects 22 ... This will enable the observer to recognize the local situation in more detail.

【0092】また、上記動画もしくは連続的な静止画の
一群として対比的に順次に表示させたものに関して、カ
メラ位置、カメラ方向、カメラ移動速度を所要の演算に
より求め、当該事項を所要の印乃至数字文字等で画像表
示が行えるため、観察者に現地の状況を把握させるため
の移動を行わせるのに、極めて効率良く支援することが
できる。
Further, with respect to the moving picture or a group of continuous still pictures which are sequentially displayed as a group, the camera position, the camera direction, and the camera moving speed are obtained by a required calculation, and the relevant matters are marked with a required mark. Since the images can be displayed with numeric characters and the like, it is possible to extremely efficiently assist the observer in moving to grasp the local situation.

【0093】また、上記動画もしくは連続的な静止画の
一群として対比的に順次に表示させる領域、あるいは対
象物22,51,72…等に対応する再現画像の名称や
属性データを表示する領域、もしくはカメラの位置、カ
メラ方向、カメラ移動速度を表示する領域を、所要の操
作乃至指定に応じて任意に設定できるため、観察者にと
って極めてわかり易い設定を行えるとともに、現地の作
業性を支援する機能ともなり得、非常に利用し易い利点
がある。
Further, a region where the moving image or a group of continuous still images is sequentially displayed in contrast, or a region where the name and attribute data of the reproduced image corresponding to the objects 22, 51, 72 ... Alternatively, since the area for displaying the camera position, camera direction, and camera moving speed can be set arbitrarily according to the required operation or designation, it is possible to make settings that are extremely easy for the observer to understand and also to support the workability at the site. It has the advantage of being very easy to use.

【0094】また、対象物22,51,72…等を指定
する場合には、対象物22…等よりも広い領域範囲もし
くは狭い領域範囲を選択指定しても、当該対象物22…
等のみ抽出して認識することが可能であるため、使用す
る車両や航空機が揺れる中でも非常に操作性が良く、あ
るいは基地局側で同様の選択指定を行うとしても細かい
操作を必要とせず、非常に利用し易い利点がある。
Further, when the objects 22, 51, 72, etc. are designated, even if the area range wider or narrower than the objects 22, etc. is selected and designated, the objects 22 ,.
Since it is possible to extract and recognize only such as, etc., it has very good operability even when the vehicle or aircraft used is shaking, or even if the same selection and designation is made on the base station side, detailed operation is not required, Has the advantage of being easy to use.

【0095】また、任意の対象物22,51,72…
等、もしくはそれらの一部を結んでできる形状、及び形
状の位置、距離、面積、もしくは体積を含む属性データ
の画像表示、及び、これらの総体的な2次元乃至3次元
形状を含む再現画像の画像表示が行えるため、広い領域
にわたって状況の把握を行うことが可能で、利便性が良
く、使い勝手が良い利点がある。
Further, arbitrary objects 22, 51, 72 ...
Etc., or a shape formed by connecting a part of them, and an image display of attribute data including the position, distance, area, or volume of the shape, and a reproduction image including these two-dimensional to three-dimensional shapes as a whole. Since the image can be displayed, the situation can be grasped over a wide area, and there are advantages that it is convenient and easy to use.

【0096】また、対象物22,51,72…等の3次
元物体のCG画像を構成し、景観シミュレーションとし
てカメラ移動とともに当該CG画像を順次時系列的に更
新しビデオ映像や地図23乃至71上、もしくは所要の
領域への画像表示が行えるため、画面に映る対象物22
…等が非常に見易い。
Further, CG images of three-dimensional objects such as the objects 22, 51, 72, ... , Or because the image can be displayed in the required area, the object 22
… Easy to see.

【0097】一方、本発明の画像表示装置によれば、特
に、指定部(図示せず)で出力表示部16内の画像から
任意の対象物22,51,72…等を指定し、画像切取
部12で当該指定した対象物22,51,72…等以外
の存在を切り取り上記対象物22等のみ抽出し、相関計
算部14で画像蓄積部33に保存された複数の各画像フ
レーム、乃至特徴の画像データとの相関関係を求め、3
次元画像構成部15で対象物22…等に対応する2次元
乃至3次元形状の再現画像を生成し、かつ出力表示部1
6に当該ビデオ映像や地図23乃至71等を画像表示す
る他、設定部(図示せず)で設定した領域に当該再現画
像の動画もしくは連続的な静止画の一群として対比的に
順次に出力できるように構成したため、当該再現画像を
出力表示部16内の所要の表示領域に所要の大きさ基準
で統一して上述の如く順次に画像表示することが可能と
なり画像が見易く分かり易い他、当該再現画像の名称、
及び属性データをも一旦設定した同一もしくは他の所要
の表示領域の所要位置への表示が行えるものとなり、利
用回数が嵩む程に最も利用し易い設定を見出すことがで
き、この観点からも使い勝手が良く、使用者に馴染み易
い利点がある。
On the other hand, according to the image display device of the present invention, in particular, an arbitrary object 22, 51, 72 ... Is designated from the image in the output display section 16 by the designation section (not shown), and the image is cut off. The unit 12 cuts out the existence other than the designated target objects 22, 51, 72, etc., and extracts only the target object 22 or the like, and the plurality of image frames or the features stored in the image storage unit 33 by the correlation calculation unit 14. Correlation with the image data of
The three-dimensional image construction unit 15 generates a two-dimensional to three-dimensional shape reproduction image corresponding to the target object 22 ... And the output display unit 1
In addition to displaying the video image and maps 23 to 71 and the like on the image 6, it is possible to sequentially output the moving image of the reproduced image or a group of continuous still images in a region set by a setting unit (not shown) in contrast to each other. With this configuration, it is possible to unify the reproduced image in the required display area in the output display unit 16 according to the required size standard and sequentially display the images as described above. Image name,
Also, the attribute data can be displayed at the required position in the same or other required display area once set, and the most usable setting can be found as the number of times of use increases. It is good and has the advantage that it is easily familiar to the user.

【0098】また、本発明の画像表示装置によれば、特
に、指定部(図示せず)で画像から対象物22,51,
72…等を指定し、比較用画像生成部32で当該対象物
22,51…等の特徴を比較用画像として生成し、比較
用部品生成部34でデータベース33を比較検索し比較
用部品の特徴の画像データを生成し、かつ部品特定部3
5で対象物22,51…等の比較用画像データと比較用
部品の特徴の画像データとの比較検索を行って対象物2
2,51…等に対応する2次元乃至3次元形状を含む再
現部品画像を特定し、必要に応じ再現部品画像の名称、
及び属性データを検索乃至生成し、かつ出力部36への
固定すべき位置を求め画像表示を行うとともに、必要に
応じ再生部品画像の名称、及び属性データをも表示する
ため、各部の処理を独立的に高機能化し、より高精度な
再現画像を構成して画像表示することが可能となる他、
上述と同じく、画像が見易く分かり易いとともに、当該
再現画像の名称、及び属性データをも確認することがで
き、現場の利用に際し信頼性の向上を図ることが可能で
ある。
Further, according to the image display device of the present invention, in particular, the object 22, 51,
72, etc. are specified, the features of the objects 22, 51, etc. are generated as comparison images by the comparison image generation unit 32, and the comparison component search unit 34 searches the database 33 for comparison to determine the features of the comparison components. Image data of the
5, the comparative image data of the objects 22, 51, ...
2, 51, ..., Reproduction part images including a two-dimensional or three-dimensional shape are specified, and the names of the reproduction part images
In addition to searching and generating attribute data, obtaining a position to be fixed to the output unit 36 and displaying an image, and displaying the name of the remanufactured component image and the attribute data as necessary, the processing of each unit is independent. It becomes possible to construct a highly accurate reproduced image and display the image in addition to
Similar to the above, the image is easy to see and understand, and the name and attribute data of the reproduced image can be confirmed, so that it is possible to improve reliability when using the site.

【0099】また、本発明の画像表示装置によれば、特
に、映像記録再生出力装置62で外界の像を電気信号に
変換し記録し再生し、映像入力装置61でも外界の像を
電気信号に変換し入力し、かつ映像地図指定装置64で
出力表示部(図示せず)上に地図と重ねて、あるいは同
時比較的に地図と分けた領域に画像表示させ、しかる上
で、対象物指定装置63で画像中から対象物22,5
1,72…等を指定し、かつ対象検索指定装置66でデ
ータベース(図示せず)の中から対応する特徴の画像フ
レーム、乃至特徴の画像データを比較検索して対象物2
2,51…等に対応する2次元乃至3次元形状を含む再
現画像を生成しロックオン表示部67に画像表示すると
ともに、属性記録再生装置65で再現画像の名称、及び
属性データを検索乃至生成し記録し再生するように構成
したため、ロックオン表示部67を固定的かつ専用的に
扱い、現場の観察において、再生画像を探す動きが一切
不要であり、諸々の作業中にも、自らの記憶習性に基づ
いて、あるいは無意識的に迷うことなく再生画像のロッ
クオン表示位置に視線を向けることが可能で、この点使
い勝手が良く、他の諸々の作業に差し支えるような状況
は発生し得ず、利便性に優れる利点がある。
Further, according to the image display device of the present invention, in particular, the image recording / reproducing output device 62 converts the image of the external world into an electric signal for recording and reproduction, and the image input device 61 also converts the external image into an electric signal. It is converted and input, and the image map designating device 64 superimposes it on a map on an output display unit (not shown), or simultaneously displays an image in an area relatively separated from the map. The object in the image at 63,2,5
1, 72, etc. are designated, and the target search designation device 66 performs comparative search for image frames of the corresponding features or image data of the features from a database (not shown) to search for the target object 2
A reproduced image including a two-dimensional or three-dimensional shape corresponding to 2, 51, etc. is generated and displayed on the lock-on display section 67, and the attribute recording / reproducing device 65 retrieves or generates a name of the reproduced image and attribute data. Since it is configured to record and reproduce, the lock-on display unit 67 is fixedly and exclusively handled, and no movement to search for a reproduced image is required during site observation. It is possible to direct the line of sight to the lock-on display position of the playback image based on the habit or without unknowingly getting rid of it, which is convenient in this respect, and a situation that hinders other tasks cannot occur. , It has the advantage of convenience.

【0100】更に、本発明の方法及び装置によれば、検
索調整部(図示せず)で対象物22,51,72…等の
映像上の大きさや視線角度とデータベース13乃至33
等内の各種再現対象物もしくは各種特徴の画像データと
の大きさや視線角度とを同一に合わせるめ、非常に効率
良く、対象物22…等に対応する2次元乃至3次元形状
を含む再現画像を比較検索し生成することができ、処理
速度の向上を図ることができる。
Further, according to the method and apparatus of the present invention, the search adjusting unit (not shown) and the size and the line-of-sight angle of the objects 22, 51, 72, ...
By matching the size and line-of-sight angle with the image data of various reproduced objects or various features in the same, it is possible to very efficiently reproduce images including two-dimensional or three-dimensional shapes corresponding to the object 22 ... It can be comparatively searched and generated, and the processing speed can be improved.

【0101】更に、本発明の方法及び装置によれば、ビ
デオ映像内の数点72,73,74,75,76等を地
図71上と対応させ、これを時系列的な変化とともに追
跡することで地図71上の座標を読み取り、数点の座標
からカメラ位置、カメラ方向、カメラ移動速度を演算し
求めるとともに、ビデオ映像と地図71を同一座標系、
もしくは所要の視線角度を有する所要の座標系に変換で
きるため、いずれかの座標系を有する地図71上の対応
する位置に、対象物22,51,72…等を示す印乃至
視線角度に対応する2次元乃至3次元形状を含む再現画
像を上述の如く画像表示でき、従って航空機等の姿勢の
変化、飛行方向の変化があっても常に一定の座標系にあ
る地図71上で当該再現画像を観察することが可能で、
現場即ち地上等の状況を容易にわかり易く認識すること
が可能で、機能的に非常に優れたものを提供することが
できる。
Further, according to the method and apparatus of the present invention, several points 72, 73, 74, 75, 76, etc. in the video image are made to correspond to the map 71, and these are tracked along with changes in time series. The coordinates on the map 71 are read with and the camera position, camera direction, and camera moving speed are calculated from the coordinates of several points, and the video image and the map 71 are in the same coordinate system.
Alternatively, since it can be converted into a required coordinate system having a required line-of-sight angle, it corresponds to a mark or line-of-sight angle indicating the objects 22, 51, 72 ... At corresponding positions on the map 71 having any of the coordinate systems. A reproduced image including a two-dimensional or three-dimensional shape can be displayed as described above. Therefore, the reproduced image is always observed on the map 71 having a constant coordinate system even if the attitude of the aircraft or the flight direction changes. It is possible to
It is possible to easily recognize the situation at the site, that is, on the ground and the like, and to provide a very functionally excellent one.

【0102】更に、本発明の方法及び装置によれば、一
または複数もしくは代表のカメラ位置及びカメラ方向を
外界との関係で演算し求めるため、画像上の地図23,
71上等の対応する位置に、カメラ位置及びカメラ方向
を示す印、乃至数字文字等を表示することが可能で、走
行経路、乃至飛行経路を選定するのにも役立つ利点があ
る。
Further, according to the method and apparatus of the present invention, one or a plurality of or representative camera positions and camera directions are calculated and obtained in relation to the outside world, and therefore, the map 23 on the image,
It is possible to display a mark indicating a camera position and a camera direction, a numeral character, or the like at a corresponding position on 71 or the like, which is also useful for selecting a travel route or a flight route.

【0103】更に、本発明の方法及び装置によれば、上
記一または複数もしくは代表のカメラ位置を演算するの
に、上述の式(1)もしくは式(2)を用いて演算する
ため、処理時間が短く、かつ正確なカメラ位置を求める
ことが可能で、現地での利用に対する信頼性が高い。
Further, according to the method and apparatus of the present invention, the above-mentioned equation (1) or equation (2) is used to compute the above-mentioned one or a plurality of or representative camera positions. It has a short and accurate camera position and is highly reliable for local use.

【0104】更に、本発明の方法及び装置によれば、上
記一または複数もしくは代表のカメラ位置、もしくはカ
メラにより撮影したビデオ映像と、地図上の対象物等と
の対応関係を演算し明確にするのに、上述の式(3)乃
至式(4)、もしくは式(5)及び式(6)を用いて演
算するため、上述と同じく、処理時間が短く、かつ正確
なカメラ位置、もしくは地図と各対象物の正確な対応関
係を求めることが可能であり、現地での信頼性が高い。
Further, according to the method and apparatus of the present invention, the correspondence relationship between the one or more or a representative camera position or the video image photographed by the camera and the object on the map is calculated and clarified. However, since the calculation is performed using the above formulas (3) to (4), or the formulas (5) and (6), the processing time is short and the accurate camera position or the map is obtained as described above. It is possible to obtain an accurate correspondence relationship for each object, and it is highly reliable locally.

【0105】更に、本発明の方法及び装置によれば、上
記対象物等の高さ頂点ZとCCD面cm上に写る当該対
象物の像の高さ頂点Wとの関係を演算し明確にするの
に、上記式(7)を用い、かつ、対象物等の高さ寸法と
CCD面cm上に写る当該対象物の像の高さ寸法iとの
関係を演算し明確にするのに、上記式(8)を用い、更
に、CCD面cm上で対象物の高さH+Zに対応する像
の投影を演算し明確にするのに、上記式(9)もしくは
上記式(10)を用い、更に、CCD面cmに写る上記
対象物から横に延びる部分の像tの位置を演算し明確に
するのに、上記式(11)を用いるため、各々の演算を
短時間で行うことがが可能で、必要に応じこれらの上記
式(1)乃至上記式(11)を適宜用いることで、上記
対象物と当該対象物に対応する2次元乃至3次元の形状
を含む再生画像の比較検索についても短時間で、かつ容
易に行うことができ、現地での信頼性を向上させる。
Further, according to the method and apparatus of the present invention, the relationship between the height apex Z of the object or the like and the height apex W of the image of the object on the CCD surface cm is calculated and clarified. In order to calculate and clarify the relationship between the height dimension of the target object and the height dimension i of the image of the target object on the CCD surface cm, the above equation (7) is used. Using equation (8), and further using equation (9) or equation (10) above to calculate and clarify the projection of the image corresponding to the height H + Z of the object on the CCD plane cm, , Since the above formula (11) is used to calculate and clarify the position of the image t of the portion extending laterally from the object on the CCD surface cm, each calculation can be performed in a short time. By appropriately using the above formulas (1) to (11) as necessary, the above object and the object In a short time for even a comparison search of the reproduced image containing the corresponding 2-dimensional or 3-dimensional shape, and can be easily performed, thereby improving the reliability of the field.

【0106】更に、本発明の方法及び装置によれば、上
記式(1)から上記式(11)までのうち、必要に応じ
何れか一または複数の数式、もしくは全ての数式(1)
〜(11)を上記属性データに加えるため、当該属性デ
ータを参照し解読することで、上述の比較検索が効率良
く、かつ容易に行うことが可能である。
Furthermore, according to the method and apparatus of the present invention, any one or more of the expressions (1) to (11), or all the expressions (1), as required.
Since (11) to (11) are added to the attribute data, the comparison search can be efficiently and easily performed by referring to and decoding the attribute data.

【0107】更に、本発明の方法及び装置によれば、上
記対象物が、道路、標識、河川、運河、建造物、各種施
設、各種設備、車両、二輪車、航空機、船体、あるいは
移動中の車両、二輪車、航空機、船体、もしくはその他
の動作機能のある構造体であるため、多くの対象物に対
応する2次元乃至3次元の再生画像を構成し、かつ上述
の画像表示を行うことが可能であり、利用範囲を広範囲
に広げることが可能で、信頼性及び利便性が高く、社会
的利用価値が高い。
Further, according to the method and apparatus of the present invention, the object is a road, a sign, a river, a canal, a building, various facilities, various facilities, a vehicle, a motorcycle, an aircraft, a hull, or a moving vehicle. , A two-wheeled vehicle, an aircraft, a hull, or any other structure having an operation function, it is possible to construct a two-dimensional to three-dimensional reproduced image corresponding to many objects and to display the above-mentioned image. Yes, it can be widely used, has high reliability and convenience, and has high social utility value.

【0108】他方、本発明の方法及び装置によれば、自
ら側から地図23,71上等の対象物22,51,72
…等に対応する再現画像の表示状況、及び、必要に応じ
名称、及び属性データ、カメラ位置、カメラ方向、カメ
ラ速度をも含めてWeb配信を行えるとともに、逆に、
クライアントからの要求によっても地図23,71上の
再現画像の表示状況、及び、名称や属性データ等の配信
を行えるように構成したため、複数の端末局の出力表示
部(図示せず)に現地の状況を配信し多くの人に情報提
供を行える利点がある他、多くの人が観察する分、多く
の情報を受けることも可能となり適切な対応への助けを
受けることができるようになる利点もある。
On the other hand, according to the method and apparatus of the present invention, the object 22, 51, 72 on the map 23, 71 or the like is viewed from the self side.
The display status of the reproduced image corresponding to ... and the like, and if necessary, the name and attribute data, the camera position, the camera direction, the camera speed, and the like can be delivered on the Web, and vice versa.
Since the display status of the reproduced images on the maps 23 and 71 and the distribution of the name and attribute data can be distributed also by the request from the client, the output display units (not shown) of the plurality of terminal stations can display the local images. In addition to the advantage of being able to deliver the situation and provide information to many people, the fact that many people observe can also receive a lot of information and help to respond appropriately is there.

【0109】更に他方、本発明の記憶媒体によれば、少
なくとも、本発明に係る上述の演算アルゴリズム、式
(1)から式(11)、並びに、一または複数のカメラ
で撮影した一または複数の対象物22,51,72等の
構成部品である比較用部品を呼び出すステップ、豊富な
複数種の特徴の画像データが保存されたデータベース1
3乃至33等から当該比較用部品の対応部分に係る特徴
の画像データを検索するステップ、上記比較用部品と当
該特徴の画像データが対応するか否かを判定するステッ
プ、かつ当該双方が対応しない場合に所定の比較用部品
の呼び出しが終了したか否かを判定するステップ、当該
呼び出しが終了しない場合に所定の部品に対する処理が
終了したか否かを判定するステップ、当該所定の部品に
対する処理が終了していない場合に次の比較用部品を指
定するステップ、上述の双方が対応する場合に特定の対
象物像22,51,72…等として認識し次の部品を特
定するステップ、対象物22,51…等における比較用
画像の所定部分の処理が終了したか否かを判定するステ
ップ、当該処理が終了した場合には認識結果である対象
物22,51…等に係る2次元乃至3次元形状を含む再
現画像の動画もしくは連続的な静止画の一群として対比
的に順次に出力するステップを含めてあるため、この記
憶媒体を配付することで、多くの地域で、及び、多くの
観察者が本発明の技術思想による画像表示方法を利用す
ることが可能となり社会的な有益性を高めることが効率
的に行える。
On the other hand, according to the storage medium of the present invention, at least the above-mentioned arithmetic algorithm according to the present invention, equations (1) to (11), and one or more images photographed by one or more cameras. Steps for calling comparison parts, which are constituent parts of the objects 22, 51, 72, etc., database 1 in which image data of abundant multiple types of characteristics are stored
3 to 33, etc., a step of retrieving the image data of the feature relating to the corresponding part of the comparison part, a step of determining whether or not the comparison part and the image data of the feature correspond, and the both do not correspond. In this case, a step for determining whether or not the calling of the predetermined comparison part has ended, a step for determining whether or not the processing for the predetermined part has ended if the calling has not ended, and a process for the predetermined part If not completed, the step of designating the next comparative part, the step of recognizing as the specific object images 22, 51, 72, etc. when both of the above correspond and specifying the next part, the object 22 , 51, etc., a step of determining whether or not the processing of a predetermined portion of the comparison image has been completed, and when the processing is completed, the objects 22, 51, etc., which are recognition results. Since it includes a step of sequentially outputting a moving image of a reproduced image including such a two-dimensional to three-dimensional shape or a group of continuous still images in a sequential manner, by distributing this storage medium, in many regions, Also, many observers can use the image display method according to the technical idea of the present invention, and the social benefit can be efficiently increased.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態に係る画像表示装置
の主要部を示すブロック図である。
FIG. 1 is a block diagram showing a main part of an image display device according to a first embodiment of the present invention.

【図2】第1の実施の形態の画像表示装置を用い対象物
の画像表示方法の前段の状態を説明する説明図である。
FIG. 2 is an explanatory diagram illustrating a state of a former stage of an image display method of an object using the image display device according to the first embodiment.

【図3】第1の実施の形態の画像表示装置を用い対象物
の画像表示方法の後段の状態を説明する説明図である。
FIG. 3 is an explanatory diagram illustrating a latter stage state of an image display method for an object using the image display apparatus according to the first embodiment.

【図4】第1の実施の形態の画像表示装置を用いもう一
方の対象物の画像表示方法の状態を説明する説明図であ
る。
FIG. 4 is an explanatory diagram illustrating a state of an image display method of another object using the image display device according to the first embodiment.

【図5】本発明の第2の実施の形態に係る画像表示装置
の主要部を示すブロック図である。
FIG. 5 is a block diagram showing a main part of an image display device according to a second embodiment of the present invention.

【図6】第2の実施の形態の画像表示装置のうち対象物
の比較用画像と複数の比較用部品との比較検索を実行す
る部分を示すブロック図である。
FIG. 6 is a block diagram showing a part of the image display device according to the second embodiment which executes a comparative search between a comparative image of an object and a plurality of comparative parts.

【図7】第2の実施の形態の画像表示装置を用いた画像
表示方法の具体例を説明する説明図である。
FIG. 7 is an explanatory diagram illustrating a specific example of an image display method using the image display device according to the second embodiment.

【図8】第2の実施の形態の画像表示装置による画像表
示方法を実際に行わせる処理を示すフローチャートであ
る。
FIG. 8 is a flowchart showing a process of actually performing an image display method by the image display device of the second embodiment.

【図9】本発明の第3の実施の形態の画像表示装置の主
要部を示すブロック図である。
FIG. 9 is a block diagram showing a main part of an image display device according to a third embodiment of the present invention.

【図10】第3の実施の形態の画像表示装置を用いた画
像表示方法の1つの具体例を説明する説明図である。
FIG. 10 is an explanatory diagram illustrating one specific example of an image display method using the image display device according to the third embodiment.

【図11】第3の実施の形態の画像表示装置を用いた画
像表示方法のもう1つの具体例を説明する説明図であ
る。
FIG. 11 is an explanatory diagram illustrating another specific example of the image display method using the image display device according to the third embodiment.

【図12】第3の実施の形態の画像表示装置に用いられ
るカメラCCD面と地図平面との撮影上の関係を説明す
る説明図である。
FIG. 12 is an explanatory diagram illustrating a photographing relationship between a camera CCD surface and a map plane used in the image display device according to the third embodiment.

【図13】上記各実施の形態で行う対象物とCCD面に
写る当該対象物の像との関係の第1段階を説明するため
の説明図である。
FIG. 13 is an explanatory diagram for explaining the first stage of the relationship between the target object and the image of the target object on the CCD surface performed in each of the above-described embodiments.

【図14】上記各実施の形態で行う対象物とCCD面に
写る当該対象物の像との関係の第2段階を説明するため
の説明図である。
FIG. 14 is an explanatory diagram for explaining a second stage of the relationship between the object and the image of the object reflected on the CCD surface, which is performed in each of the above embodiments.

【図15】上記各実施の形態で行う対象物とCCD面に
写る当該対象物の像との関係の第3段階を説明するため
の説明図である。
FIG. 15 is an explanatory diagram for explaining a third stage of the relationship between the object and the image of the object reflected on the CCD surface, which is performed in each of the embodiments.

【図16】同図(A)は道路上に仮想的に設定した座標
と対象物を真上から撮影した関係を説明する説明図、同
図(B)は所定高さ位置にあるカメラが道路前方を撮影
し道路上の遠方に向け収束する仮想的に設定した座標と
対象物との関係を説明する説明図である。
16 (A) is an explanatory view for explaining the relationship between the coordinates virtually set on the road and the object photographed from directly above, and FIG. 16 (B) shows the camera at a predetermined height position on the road. It is explanatory drawing explaining the relationship of the target and the virtually set coordinate which image | photographs the front and converges toward the distance on the road.

【図17】上記各実施の形態で行う対象物とCCD面に
写る当該対象物の像との関係の第4段階を説明するため
の説明図である。
FIG. 17 is an explanatory diagram for explaining a fourth stage of the relationship between the target object and the image of the target object on the CCD surface performed in each of the above-described embodiments.

【図18】上記各実施の形態で行う対象物とCCD面に
写る当該対象物の像との関係の第5段階を説明するため
の説明図である。
FIG. 18 is an explanatory diagram for explaining a fifth step of the relationship between the object and the image of the object reflected on the CCD surface, which is performed in each of the embodiments.

【図19】CCD面に写る像が変化する場合を説明する
説明図である。
FIG. 19 is an explanatory diagram illustrating a case where an image reflected on the CCD surface changes.

【符号の説明】[Explanation of symbols]

A…矢印 11…入力部 12…画像切
取部 13…画像蓄積部 14…相関計
算部 15…3次元画像構成部 16…出力表
示部 20…画面全体 21…領域 22A…対象物 22B…対象
物 22a…拡大画像(再生画像) 22b…拡大
画像(再生画像) 22c…拡大画像(再生画像) 22d…拡大
画像(再生画像) 23…領域 24a…星印
(対象物) 24b…星印(対象物) 25…領域 26…拡大画像(再生画像) 26a…拡大
画像(再生画像) 26b…拡大画像(再生画像) 26c…拡大
画像(再生画像) 26d…拡大画像(再生画像) 27…位置 28…領域 28a…矢印 28b…矢印 28c…矢印 28d…矢印 28e…矢印 29A…領域 29B…領域 29C…領域 29D…領域 29E…領域 29a…拡大
画像(再現画像) 29b…拡大画像(再現画像) 29c…拡大
画像(再現画像) 29d…拡大画像(再現画) 29e…拡大
画像(再現画像) 31…入力部 32…比較用
画像生成部 33…データベース 34…比較用
部品生成部 35…部品特定部 35A…検索 35B…認識 35C…特定 35D…固定 36…出力部 Im1…メモリ Im2…画像
変換部 M1…メモリ Ma…投影部 M2…記憶領域 41…部品特定装置 51…対象物(道路標識) 52…樹木 53…一般車両 54…領域 61…映像入力装置 62…映像記
録再生出力装置 63…対象物指定装置 64…映像地
図表示装置 65…属性記録再生装置 66…対象物
検索指定装置 67…ロックオン表示部 71…地図 72…対象物
(特定点) 73…対象物(特定点) 74…対象物
(特定点) 75…対象物(特定点) 76…対象物
(特定点) c…線分の像 d…線分の像 e…線分 f…線分 h…線分 h2…線分 h3…線分 i…線分の像 i’…線分の像 l…線分 m…線分 n…線分 r…線分 t…線分の像 u…線分の像 v…線分の像 x…線分 y…線分 cm…CCD面 es…結像面 lp…光軸 ll…線分 B…点 E…点 F…中心 H…点 O…光学中心 P…点 Q…点 R…点 S…点 W…線分の像 W’…線分の像 Z…点 HR…線分 PQ…線分 PR…道路
A ... Arrow 11 ... Input part 12 ... Image cutout part 13 ... Image storage part 14 ... Correlation calculation part 15 ... Three-dimensional image composition part 16 ... Output display part 20 ... Whole screen 21 ... Area 22A ... Object 22B ... Object 22a ... Enlarged image (reproduced image) 22b ... Enlarged image (reproduced image) 22c ... Enlarged image (reproduced image) 22d ... Enlarged image (reproduced image) 23 ... Area 24a ... Star mark (target object) 24b ... Star mark (target object) 25 ... Area 26 ... Enlarged image (reproduced image) 26a ... Enlarged image (reproduced image) 26b ... Enlarged image (reproduced image) 26c ... Enlarged image (reproduced image) 26d ... Enlarged image (reproduced image) 27 ... Position 28 ... Region 28a ... arrow 28b ... arrow 28c ... arrow 28d ... arrow 28e ... arrow 29A ... area 29B ... area 29C ... area 29D ... area 29E ... area 29a ... enlarged image (reproduction image) 29b ... enlargement Image (reproduced image) 29c ... Enlarged image (reproduced image) 29d ... Enlarged image (reproduced image) 29e ... Enlarged image (reproduced image) 31 ... Input unit 32 ... Comparison image generation unit 33 ... Database 34 ... Comparison component generation unit 35 ... Component identification part 35A ... Search 35B ... Recognition 35C ... Identification 35D ... Fixed 36 ... Output part Im1 ... Memory Im2 ... Image conversion part M1 ... Memory Ma ... Projection part M2 ... Storage area 41 ... Component identification device 51 ... Object ( Road sign) 52 ... Tree 53 ... General vehicle 54 ... Area 61 ... Video input device 62 ... Video recording / reproducing output device 63 ... Object designation device 64 ... Video map display device 65 ... Attribute recording / playing device 66 ... Object retrieval designation device 67 ... Lock-on display part 71 ... Map 72 ... Target (specific point) 73 ... Target (specific point) 74 ... Target (specific point) 75 ... Target (specific point) 76 Target (specific point) c ... Image of line segment d ... Image of line segment e ... Line segment f ... Line segment h2 ... Line segment h3 ... Line segment i ... Image of line segment i '... Line segment Image l ... Line segment m ... Line segment n ... Line segment r ... Line segment t ... Line segment image u ... Line segment image v ... Line segment image x ... Line segment y ... Line segment cm ... CCD surface es ... Connection Image plane lp ... Optical axis ll ... Line segment B ... Point E ... Point F ... Center H ... Point O ... Optical center P ... Point Q ... Point R ... Point S ... Point W ... Line segment image W ′ ... Line segment Image Z ... Point HR ... Line segment PQ ... Line segment PR ... Road

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 外界を一または複数のカメラで撮影した
ビデオ映像の画像表示上において任意の位置の一または
複数の対象物を名称や属性で指定するか、あるいはマウ
スで四角く囲うか、一点位置をクリックするか、もしく
はライトペンやタッチパネルで指定することで、当該対
象物周囲の存在を除外しつつ上記カメラと当該対象物と
の相対角度や方向の変化、及び距離の変化を含めて当該
対象物を追跡しながら当該対象物の各画像フレームの特
徴、もしくは当該対象物の各構成部品の特徴を時系列的
に順次に検出し、かつ各種複数の特徴に関する画像デー
タが豊富に保存されたデータベースから当該対象物の各
画像フレームの特徴、もしくは各構成部品の特徴の連続
的な変化にも対応関係のある画像フレーム、乃至特徴の
画像データを順次に検索し、この検索結果に対応してパ
ターンマッチングのとれた当該対象物に対応する2次元
乃至3次元形状を含む再現画像を時系列的な変化毎に順
次に構成するとともに、当該再現画像を含む各画像フレ
ーム、もしくは当該特徴の画像データを上記画像表示
上、もしくは通信回線等を介し他の画像表示上の所要の
領域上に所要の大きさ基準の設定に符合させ動画もしく
は連続的な静止画の一群として対比的に順次に表示し、
かつ必要に応じ当該再現画像に付随乃至生成した名称や
属性データをも所要の領域に表示することを特徴とする
画像表示方法。
1. One or a plurality of objects at arbitrary positions on an image display of a video image taken by one or a plurality of cameras in the outside world are designated by names or attributes, or are surrounded by a square with a mouse, or a single point position By clicking or by specifying with a light pen or touch panel, the target including the change in the relative angle and direction between the camera and the target and the change in distance while excluding the presence of the target surroundings. A database in which the features of each image frame of the target object or the features of each component of the target object are sequentially detected in time series while tracking an object, and abundantly stored image data relating to various features. From the image frame of the target object, or the image frame having the corresponding relation to the continuous change of the feature of each component, or the image data of the feature in order. A reproduced image including a two-dimensional or three-dimensional shape corresponding to the target object that is searched and pattern-matched corresponding to the search result is sequentially configured for each time series change, and the reproduced image is included. Match each image frame or image data of the feature to the required area on the above image display or other image display via communication line etc. to match the setting of the required size standard. Are displayed sequentially as a group of
An image display method characterized in that the name and the attribute data generated or attached to the reproduced image are also displayed in a required area as needed.
【請求項2】 上記データベースに保存される各種特徴
の画像データには、あらかじめ各種再生対象物の各画像
フレーム、もしくは各種構成部品に対応する特徴の画像
データに各属性データが関連付けられてあり、少なくと
も一つの特徴の画像データに対し上述のパターンマッチ
ングがとれた場合には、当該各属性データに基づき即時
に当該対象物に対応する2次元乃至3次元形状を含む再
現画像を構成し、当該再現画像の上述の画像表示を行う
ことを特徴とする請求項1記載の画像表示方法。
2. The image data of various characteristics stored in the database has respective attribute data associated with each image frame of various reproduction objects or image data of characteristics corresponding to various constituent parts in advance. When the above-described pattern matching is performed on the image data of at least one feature, a reproduction image including a two-dimensional or three-dimensional shape corresponding to the target object is immediately constructed based on the attribute data, and the reproduction is performed. The image display method according to claim 1, wherein the image is displayed as described above.
【請求項3】 上記データベースに保存される各種特徴
の画像データには、あらかじめ各種再現対象物、各種直
線、各種曲線、各種角、各種エッジ、各種平面、各種曲
面等の要素から成るものが含められるとともに、特に各
特徴の画像データ間の組合せ、組立て、結合関係をも明
確にした各属性データが関連付けられてあり、少なくと
も一組以上の特徴の画像データの組合せ等に対し上述の
パターンマッチングがとれた場合には、当該各属性デー
タにより即時に当該一または複数の対象物に対応する2
次元乃至3次元形状を含む再現画像を構成し、当該再現
画像の上述の画像表示を行うことを特徴とする請求項1
または2記載の画像表示方法。
3. The image data of various characteristics stored in the database includes data including various reproduction objects, various straight lines, various curves, various angles, various edges, various planes, various curved surfaces, and the like in advance. In addition, each attribute data that clarifies the combination, assembly, and connection relationship between the image data of each feature is associated, and the pattern matching described above is performed for at least one set of the image data combinations of the feature and the like. If it is taken, the attribute data immediately corresponds to the one or more objects 2
A reproduced image including a three-dimensional shape or a three-dimensional shape is configured, and the above-described image display of the reproduced image is performed.
Alternatively, the image display method described in 2.
【請求項4】 上記パターンマッチングがとれた上記対
象物に対応する2次元乃至3次元形状を含む再現画像
を、上記カメラ移動に伴う視線方向の変動があっても、
2次元乃至3次元形状の演算形成に伴う当該対象物のさ
まざまな視点からの2次元乃至3次元形状を含む再現画
像の上述の画像表示を行うことを特徴とする請求項1乃
至3の何れか記載の画像表示方法。
4. A reproduced image including a two-dimensional or three-dimensional shape corresponding to the object that has been subjected to the pattern matching, even if there is a change in the line-of-sight direction due to the movement of the camera,
4. The above-mentioned image display of a reproduced image including a two-dimensional to three-dimensional shape from various viewpoints of the object involved in the calculation and formation of the two-dimensional to three-dimensional shape. Image display method described.
【請求項5】 複数のカメラを用いて上記対象物の空間
分布及び時間的分布を有する画像データを求めるととも
に、少なくとも視差情報と時間差情報により当該対象物
に対応する3次元形状を含む再現画像を生成し、もって
当該再現画像の3次元モデルを生成し上述の画像表示を
行うことを特徴とする請求項1乃至4の何れか記載の画
像表示方法。
5. An image data having a spatial distribution and a temporal distribution of the object is obtained by using a plurality of cameras, and a reproduced image including a three-dimensional shape corresponding to the object is obtained by at least parallax information and time difference information. 5. The image display method according to claim 1, wherein the image display is performed by generating a three-dimensional model of the reproduced image.
【請求項6】 上記再現画像は、時系列的な変化ととも
に、上述の動画もしくは連続的な静止画の一群として対
比的に順次に表示し、かつ上記画像表示上もしくは上記
他の画像表示上には、必要に応じ上記対象物の周囲の地
図を画像表示するとともに、当該対象物を当該地図内の
対応する位置に所要の印で、もしくは上記パターンマッ
チングに基づく当該再現画像で画像表示し、更に必要に
応じ上記地図の表示領域と上記再現画像の表示領域とを
対比的に分けるか、もしくは当該双方を重ね合わせるこ
とを特徴とする請求項1乃至5の何れか記載の画像表示
方法。
6. The reproduced image is sequentially and sequentially displayed as a group of the moving image or a series of continuous still images with a time series change, and is displayed on the image display or the other image display. Is an image display of a map around the object as needed, and an image display of the object at a corresponding position in the map with a required mark or a reproduced image based on the pattern matching. 6. The image display method according to claim 1, wherein the display area of the map and the display area of the reproduced image are compared with each other as necessary, or both are overlapped.
【請求項7】 上記画像表示上もしくは上記他の画像表
示上から指定する上記対象物のうち、複数の点を指定す
ることで当該既知の点と上記カメラとの位置関係を演算
するとともに、当該演算アルゴリズムをも上記データベ
ースに保存しておいて、他の点について指定した場合
に、当該演算アルゴリズムを利用して任意の対象物のう
ち各相互の点、及び距離を演算し、かつ当該対象物の全
面もしくは一部の構成部品の面の面積や体積を演算計測
することを特徴とする請求項1乃至6の何れか記載の画
像表示方法。
7. The positional relationship between the known point and the camera is calculated by designating a plurality of points on the object designated on the image display or on the other image display, and The calculation algorithm is also stored in the above database, and when other points are specified, the calculation algorithm is used to calculate each mutual point and distance among arbitrary objects, and the target object. 7. The image display method according to claim 1, wherein the area or volume of the entire surface or the surface of a part of the component parts is calculated and measured.
【請求項8】 上記カメラ移動に伴う上記再現画像の動
画もしくは連続的な静止画の一群として対比的に順次に
表示させたものに関して、当該カメラ位置、カメラ方
向、カメラ移動速度を所要の演算により求め当該事項を
所要の印乃至数字文字で画像表示することを特徴とする
請求項1乃至7の何れか記載の画像表示方法。
8. A camera position, a camera direction, and a camera moving speed are calculated by a necessary calculation for a moving image of the reproduced image or a group of continuous still images which are sequentially displayed as a group due to the camera movement. The image display method according to any one of claims 1 to 7, wherein the requested item is displayed as an image with a required mark or numeral character.
【請求項9】 上記画像表示上もしくは上記他の画像表
示上において、上述の再現画像の動画もしくは連続的な
静止画の一群として対比的に順次に表示させる領域、あ
るいは上記再現画像の名称や属性データを表示する領
域、もしくは上記カメラの位置、カメラ方向、カメラ移
動速度を表示する領域を所要の操作乃至指定に応じて任
意に設定できることを特徴とする請求項1乃至8の何れ
か記載の画像表示方法。
9. On the image display or on the other image display, an area to be sequentially displayed as a moving image of the reproduction image or a group of continuous still images, or a name or attribute of the reproduction image. 9. The image according to claim 1, wherein an area for displaying data, or an area for displaying the position of the camera, the direction of the camera, and the moving speed of the camera can be arbitrarily set according to a required operation or designation. Display method.
【請求項10】 上記対象物を指定する場合には、上記
マウス等で当該対象物よりも広い領域範囲もしくは狭い
領域範囲を選択指定しても、当該対象物のみ抽出して認
識することができることを特徴とする請求項1乃至9の
何れか記載の画像表示方法。
10. When designating the target object, even if the user selects and designates an area range wider or narrower than the target object with the mouse or the like, only the target object can be extracted and recognized. The image display method according to any one of claims 1 to 9, wherein:
【請求項11】 上記対象物もしくはそれらの一部を指
定した場合に、各々を結んでできる形状、及び形状の位
置、距離、面積、もしくは体積を含む属性データ、及び
これらの2次元乃至3次元形状を所要の相関の演算によ
り求めた再現画像を上述の如く画像表示することを特徴
とする請求項1乃至10の何れか記載の画像表示方法。
11. When the objects or a part of the objects are designated, shapes formed by connecting the objects and attribute data including a position, a distance, an area, or a volume of the shapes, and their two-dimensional to three-dimensional shapes. The image display method according to any one of claims 1 to 10, wherein the reproduced image obtained by calculating a required correlation is displayed as described above.
【請求項12】 上記画像上に上記対象物の3次元物体
のCG画像を構成し、景観シミュレーションとしてカメ
ラ移動とともに当該CG画像を順次時系列的に更新して
上記画像表示上もしくは上記他の画像表示上のビデオ映
像や地図上、乃至所要の領域に画像表示することを特徴
とする請求項1乃至11の何れか記載の画像表示方法。
12. A CG image of a three-dimensional object of the object is constructed on the image, and the CG image is sequentially updated in time series as the camera moves as a landscape simulation so as to be displayed on the image display or other images. The image display method according to any one of claims 1 to 11, wherein an image is displayed on a video image on a display, a map, or a required area.
【請求項13】 外界を撮影する一または複数のカメラ
と、当該カメラが撮影した時系列的に変化するビデオ映
像を電気信号に変換し随時入力する入力部と、当該出力
表示部内の画像から任意の一または複数の対象物を指定
する指定部と、当該対象物以外の存在を切り取り上記対
象物のみ抽出する画像切取部と、当該対象物の各画像フ
レーム、乃至各構成部品毎の特徴の画像データを画像蓄
積部(即ちデータベース)に豊富に保存された複数の各
画像フレーム、乃至特徴の画像データとの相関関係を計
算しパターンマッチングした画像フレーム、乃至特徴の
画像データを求めるとともに、必要に応じ新たな画像フ
レーム乃至特徴の画像データを上記画像蓄積部に追加保
存する相関計算部と、当該相関計算部で求められた画像
フレーム乃至特徴の画像データに基づき上記対象物に対
応する2次元乃至3次元形状を含む再現画像を生成する
3次元画像構成部と、当該ビデオ映像や地図を画像表示
する他、当該再現画像の動画もしくは連続的な静止画の
一群として対比的に順次に出力する出力表示部と、当該
出力表示部内で当該再現画像の表示領域を設定する設定
部とを備え、 上記3次元画像構成部で生成された再現画像を当該設定
部で設定した上記出力表示部内の所要の表示領域に所要
の大きさ基準で上述の如く順次に画像表示し、かつ必要
に応じ当該再現画像に付随乃至生成する名称、及び属性
データをも当該設定部で設定した同一もしくは他の所要
の表示領域の所要位置に表示することを特徴とする画像
表示装置。
13. One or a plurality of cameras for photographing the outside world, an input section for converting a time-sequentially changing video image photographed by the camera into an electric signal and inputting it at any time, and an arbitrary image from the output display section. A designation unit for designating one or more objects, an image cropping unit that crops out the existence other than the target object and extracts only the target object, each image frame of the target object, or an image of characteristics of each component. Data is stored in the image storage unit (ie, database) in abundance, and a pattern matching image frame or characteristic image data is calculated by calculating the correlation with each image frame or characteristic image data. Correspondingly, a correlation calculation unit that additionally stores image data of a new image frame or feature in the image storage unit, and an image frame or feature obtained by the correlation calculation unit. A three-dimensional image forming unit that generates a reproduced image including a two-dimensional to three-dimensional shape corresponding to the object based on the image data, a video image and a map of the reproduced image, and a moving image of the reproduced image or a continuous image. An output display unit that sequentially outputs as a group of still images in contrast, and a setting unit that sets a display area of the reproduction image in the output display unit, and reproduces the reproduction image generated by the three-dimensional image forming unit. Images are sequentially displayed in the required display area in the output display unit set by the setting unit on the basis of the required size as described above, and, if necessary, the name and attribute data associated with or generated in the reproduced image are also displayed. An image display device displaying at a required position of the same or another required display area set by the setting unit.
【請求項14】 外界を撮影する一または複数のカメラ
と、当該カメラが撮影した時系列的に変化するビデオ映
像を電気信号に変換し随時入力する入力部と、当該出力
部内の画像から任意の一または複数の対象物を指定する
指定部と、当該対象物以外の存在を除外し当該対象物の
全体もしくは各構成部品の特徴を比較用画像として生成
する比較用画像生成部と、各種再現対象物や各種構成部
品毎の特徴の画像データが豊富に保存されたデータベー
スと、当該データベースを比較検索することで比較用部
品の画像フレーム乃至特徴の画像データを生成する比較
用部品生成部と、上記対象物の比較用画像データと当該
比較用部品生成部で生成した比較用部品の特徴の画像デ
ータとの比較検索を行って上記対象物に対応する2次元
乃至3次元形状を含む再現部品画像を特定するととも
に、必要に応じ当該再現部品画像に付随する名称、及び
属性データを検索もしくは生成し、かつ当該再現部品画
像の画像表示に関し固定すべき位置を求める部品特定部
と、上記ビデオ映像及び地図を画像表示する他、当該再
現部品画像を当該地図において固定すべき位置に画像表
示する出力表示部とを備え、 上記再現部品画像の組織体を上記出力表示部内の地図の
固定すべき位置に所要の印や数字文字、もしくは2次元
乃至3次元形状の動画もしくは連続的な静止画の一群と
して対比的に時系列的に順次に画像表示し、かつ必要に
応じ当該動画もしくは連続的な静止画に付随乃至生成す
る名称、及び属性データをも上記出力表示部内の所要の
位置に表示することを特徴とする画像表示装置。
14. One or a plurality of cameras for photographing the outside world, an input section for converting a time-sequentially changing video image photographed by the camera into an electrical signal and inputting it at any time, and an arbitrary image from the output section. A designation unit that designates one or more target objects, a comparison image generation unit that excludes the existence of other than the target object and generates the characteristics of the entire target object or each component as a comparison image, and various reproduction targets. A database that abundantly stores image data of features of each object or various component parts, and a comparison component generation unit that generates image frames or image data of features of the comparison component by comparing and searching the database. The comparison image data of the object and the image data of the characteristics of the comparison part generated by the comparison part generation unit are compared and searched to include a two-dimensional to three-dimensional shape corresponding to the object. A part specifying unit that specifies the reproduced part image, searches or generates the name and attribute data attached to the reproduced part image as necessary, and obtains a position to be fixed with respect to the image display of the reproduced part image, In addition to displaying the video image and the map as an image, an output display unit that displays the reproduced component image at a position to be fixed on the map is provided, and the organization of the reproduced component image is fixed on the map in the output display unit. The required marks, numbers and characters, or moving images of two-dimensional or three-dimensional shape or a series of continuous still images are displayed in chronological order in sequence as images, and if necessary, the moving images or continuous images are displayed. An image display device characterized in that the name and attribute data associated with or generated by a typical still image are also displayed at required positions in the output display section.
【請求項15】 外界を撮影する一または複数のカメラ
と、当該時系列的に変化するビデオ映像の電気信号を入
力する映像入力装置、もしくは当該カメラが撮影した時
系列的に変化するビデオ映像を電気信号に変換し記録し
再生する映像記録再生出力装置と、当該時系列的に変化
するビデオ映像の中から任意の一または複数の対象物を
周囲の不要の存在を除外して指定できる対象物指定装置
と、当該ビデオ映像及び地図を重ねて、あるいは同時比
較的に分けて所要の表示画面に表示させる映像地図表示
装置と、当該対象物の名称、及び属性データを検索もし
くは生成し記録し再生する属性記録再生装置と、当該対
象物等に対応する各種画像フレーム、もしくは各種構成
部品毎の特徴の画像データが豊富に保存されたデータベ
ースの中から対応する画像フレーム、乃至特徴の画像デ
ータを比較検索して上記対象物に対応する2次元乃至3
次元形状を含む再現画像を生成する対象物検索指定装置
と、上記対象物に対応する上記2次元乃至3次元形状を
含む再現画像の動画もしくは連続的な静止画の一群とし
て対比的に順次にロックオン表示するロックオン表示部
とを備え、 上記ビデオ映像及び地図を重ねて表示した、もしくは同
時対比的に分けて表示した表示画面上の上記対象物の存
在位置に対応する位置に必要に応じ所要の印等を表示す
るとともに、上記ロックオン表示部に上記対象物に対応
する上記再現画像を上述の如く順次に表示し、かつ必要
に応じ上記表示画面上の所要の位置もしくは当該ロック
オン表示部内の所要の位置に当該再現画像に付随乃至生
成する名称、及び属性データをも表示することを特徴と
する画像表示装置。
15. One or a plurality of cameras for photographing the outside world, an image input device for inputting an electric signal of the time-sequentially changing video image, or a time-sequentially changing video image photographed by the camera. A video recording / reproducing output device for converting to an electric signal for recording and reproducing, and an object capable of designating one or more arbitrary objects from the time-sequentially changing video image by excluding unnecessary surroundings. A video map display device that displays a specified device and the video image and map on the required display screen in a superimposed or simultaneous manner, and retrieves or generates, records, and reproduces the name and attribute data of the object. Corresponding from the attribute recording / reproducing device and a database in which various image frames corresponding to the target object or the image data of the characteristics of various component parts are abundantly stored. 2D to 3D corresponding to the object by comparing and retrieving image frames or image data of features
A target object search and designation device for generating a reproduced image including a three-dimensional shape, and a sequential or comparatively locked as a group of moving images or continuous still images of a reproduced image including the two-dimensional to three-dimensional shape corresponding to the object. It is equipped with a lock-on display section for on-display, and is required at a position corresponding to the existing position of the object on the display screen on which the video image and the map are displayed in an overlapping manner or are displayed in parallel contrast. Is displayed, the reproduced images corresponding to the object are sequentially displayed on the lock-on display section as described above, and, if necessary, a desired position on the display screen or the lock-on display section. An image display device, which also displays the name and attribute data associated with or generated in the reproduced image at the required position of.
【請求項16】 更に、上記対象物の映像上の大きさや
視線角度と上記データベースに豊富に保存された各種再
現対象物、もしくは各種特徴の画像データとの大きさや
視線角度とを同一に合わせる検索調整部を備え、 上記大きさや視線角度の統一のとれた上記対象物に対応
する2次元乃至3次元形状を含む再現画像を比較検索し
生成し、当該再現画像を上述の如く順次に画像表示する
ことを特徴とする請求項1乃至15の何れか記載の画像
表示方法、及び画像表示装置。
16. A search for matching the size and line-of-sight angle of the object with the size and line-of-sight angle of the various reproduction objects or image data of various characteristics that are abundantly stored in the database. An adjustment unit is provided, a reproduction image including a two-dimensional or three-dimensional shape corresponding to the object having the same size and line-of-sight angle is comparatively searched and generated, and the reproduction image is sequentially displayed as described above. 16. The image display method and the image display device according to claim 1.
【請求項17】 更に、上記ビデオ映像内の数点を地図
上と対応させ、これを時系列的な変化とともに追跡して
地図上の座標を読み取り、読みとった数点の座標からカ
メラ位置、カメラ方向、カメラ速度を演算して求めると
ともに、当該ビデオ映像と当該地図を同一座標系、もし
くは所要の視線角度を有する所要の座標系に変換する変
換手段を備え、 いずれかの座標系を有する地図上の対応する位置に、上
記対象物を示す印乃至視線角度に対応する2次元乃至3
次元形状を含む再現画像を上述の如く順次に表示し、か
つ必要に応じ当該再現画像に付随乃至生成する名称、属
性データをも所要の位置に表示することを特徴とする請
求項1乃至16の何れか記載の画像表示方法、及び画像
表示装置。
17. Further, a plurality of points in the video image are made to correspond to a map, which is tracked along with a time-series change to read the coordinates on the map, and the camera position and the camera are determined from the read coordinates of the several points. A direction and camera speed are calculated and obtained, and a conversion means for converting the video image and the map into the same coordinate system or a required coordinate system having a required line-of-sight angle is provided. 2D to 3 corresponding to the mark or line-of-sight angle indicating the object at the corresponding position of
17. The reproduced images including the dimensional shape are sequentially displayed as described above, and if necessary, the names and attribute data associated or generated with the reproduced images are also displayed at required positions. An image display method and an image display device.
【請求項18】 更に、上記一または複数もしくは代表
のカメラ位置、カメラ方向、及びカメラ移動速度を外界
との関係で演算し求める演算手段を備え、 上記地図上の対応する位置に、カメラ位置及びカメラ方
向を示す印乃至数字文字を表示することを特徴とする請
求項1乃至17の何れか記載の画像表示方法、及び画像
表示装置。
18. Further, there is provided computing means for computing and obtaining the one or more or a representative camera position, a camera direction, and a camera moving speed in relation to the outside world, and the camera position and the camera position are provided at corresponding positions on the map. The image display method and the image display apparatus according to claim 1, wherein a mark or a numeral character indicating a camera direction is displayed.
【請求項19】 上記一または複数もしくはそれぞれの
カメラ位置とカメラ正面(光軸の地上面への投影軸上)
の観測対象の位置関係を演算するのに、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cosθ(tan-1(h/y)−θ)} …(1) もしくは v=f{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(2) により求め、 yはカメラ真下から対象物までの距離、vはカメラ内で
のCCD面における対象物の長さ、θはカメラの伏角で
あることを特徴とする請求項1乃至18の何れか記載の
画像表示方法、及び画像表示装置。
19. The one or more or each of the camera positions and the front of the camera (on the projection axis of the optical axis onto the ground plane).
In calculating the positional relationship of the observation target of, v = fy · sin (tan −1 (h / y)) / sin θ / {h · cos θ (tan −1 (h / y) −θ)} ... (1) or v = f {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (2), and y is directly below the camera. 19. The image display method and image according to claim 1, wherein v is a length of the object on the CCD surface in the camera, and θ is a dip angle of the camera. Display device.
【請求項20】 上記一または複数もしくはそれぞれの
カメラ位置と地上面とその任意の位置にある対象との関
係を演算し、もしくはカメラにより撮影したビデオ映像
と、地図上の対象物等との対応関係を演算し明確にする
のに、 v=f・y・sin(tan-1(h/y)) /sinθ/{h・cos(tan-1(h/y)−θ)} …(3) あるいは v=f・{tan((π/2)−θ) −tan((π/2)−θ−tan-1(y/h))} …(4) もしくは v={(f/sinθ)・y・sinβ) /(h・cos(β―θ))} …(5) u=x・(f/y)・(cosβ/cos(β―θ)) …(6) 但し、β=arcTan(h/y) により求め、 yはカメラ真下から対象物までの距離、vはカメラ内で
のCCD面における対象物の長さ、xは対象物とカメラ
を結ぶ線分に直角方向の長さ、uはカメラ内でのCCD
面における横方向の長さ、θはカメラの伏角であること
を特徴とする請求項1乃至19の何れか記載の画像表示
方法、及び画像表示装置。
20. Correlation between a video image captured by the camera or the relationship between the position of one or more or each of the cameras, the ground surface and an object at an arbitrary position thereof, and an object on the map. In order to calculate and clarify the relationship, v = f · y · sin (tan −1 (h / y)) / sin θ / {h · cos (tan −1 (h / y) −θ)} (3 ) Or v = f · {tan ((π / 2) −θ) −tan ((π / 2) −θ−tan −1 (y / h))} (4) or v = {(f / sin θ ) .Y.sin.beta.) / (H.cos (.beta .-. Theta.))} (5) u = x. (F / y). (Cos β / cos (β-θ)) (6) where β = arcTan (h / y), where y is the distance from directly under the camera to the object, and v is the length of the object on the CCD surface in the camera. x is the object and the line segment orthogonally length connecting the camera, u is a CCD in the camera
20. The image display method and the image display device according to claim 1, wherein a horizontal length of the plane, θ is a dip angle of the camera.
【請求項21】 対象物等の高さ頂点ZとCCD面上に
写る当該対象物の像の高さ頂点Wとの関係を演算し明確
にするのに、 W={(f/sin(θ+(π/2))・Z・sinγ)} /{y・cos(γ―(θ+(π/2)))} …(7) 但し、γ=arcTan(y/z) により求め、 fはレンズの焦点距離、θはカメラの伏角、またφ=θ
+(π/2)、φはレンズとカメラ交軸上の対象物とを
結ぶ線分の当該結合位置の垂線との成す角度、εはβ+
(π/2)、yはZに対応したものであり、 かつ、対象物等の高さ寸法とCCD面上に写る当該対象
物の像の高さ寸法iとの関係を演算し明確にするのに、 i={(f/sinθ+(π/2))・h・sin(β+(π/2))} /{y・cos(β+(π/2)−(θ+(π/2)))} …(8) 但し、β=arcTan(y/z) により求め、 hはカメラの位置の高さ寸法、その他、f、θ等は上述
の式(7)の場合と同様のものであり、 更に、CCD面上における対象物の高さH+Zに対応す
る像の投影を演算し明確にするのに、 上記W―i={[(f/sin(θ+(π/2))・Z・sinγ)] /[y・cos(γ―(θ+(π/2)))]} −{[(f/sin(θ+(π/2))・h・sin(β+(π/2))) /[y・cos(β−θ)]} …(9) さらに i’―W’=(i−W)/cosδ …(10) 但し、δ=arcTan{(t−u)/(i−W)} により求め、 必要に応じ上述の式(7)、式(8)、式(9)、もし
くは式(10)を用いて上記対象物と当該対象物に対応
する2次元乃至3次元の形状を含む再生画像の比較検索
を行うことをも可能にしたことを特徴とする請求項1乃
至20の何れか記載の画像表示方法、及び画像表示装
置。
21. To calculate and clarify the relationship between the height apex Z of an object or the like and the height apex W of the image of the object on the CCD surface, W = {(f / sin (θ + (Π / 2)) · Z · sin γ)} / {y · cos (γ− (θ + (π / 2)))} (7) where γ = arcTan (y / z), and f is the lens Focal length, θ is the dip angle of the camera, and φ = θ
+ (Π / 2), φ is the angle formed by the perpendicular of the line segment connecting the lens and the object on the camera intersection axis, and ε is β +
(Π / 2), y corresponds to Z, and the relationship between the height dimension of the target object and the height dimension i of the image of the target object on the CCD surface is calculated and clarified. However, i = {(f / sin θ + (π / 2)) · h · sin (β + (π / 2))} / {y · cos (β + (π / 2)-(θ + (π / 2))) )} (8) where β = arcTan (y / z), h is the height of the camera position, and f, θ, etc. are the same as in the case of the above formula (7). Further, in order to calculate and clarify the projection of the image corresponding to the height H + Z of the object on the CCD surface, the above Wi-{= ([f / sin (θ + (π / 2)) · Z · sin γ)] / [y · cos (γ− (θ + (π / 2)))]}-{[(f / sin (θ + (π / 2)) · h · sin (β + (π / 2))) / [Y ・ cos ( β−θ)]} (9) Further, i′−W ′ = (i−W) / cos δ (10) where δ = arcTan {(t−u) / (i−W)} According to the above equation (7), equation (8), equation (9), or equation (10), comparing the reconstructed image including the object and the two-dimensional or three-dimensional shape corresponding to the object. 21. The image display method and image display device according to claim 1, wherein the image display method is also capable of performing a search.
【請求項22】 CCD面に写る上記対象物から横に延
びる部分の像tの位置を演算し明確にするのに、 t=S(f/Z)・{cosγ/(cosγ―θ―(π/2))} …(11) により求め、 Sは当該対象物から横に延びる部分であり、この式(1
2)を用いることで上記対象物と当該対象物に対応する
2次元乃至3次元の形状を含む再生画像の比較検索を行
うことを可能にすることを特徴とする請求項1乃至21
の何れか記載の画像表示方法、及び画像表示装置。
22. In order to calculate and clarify the position of the image t of the portion extending laterally from the object on the CCD surface, t = S (f / Z) · {cosγ / (cosγ−θ− (π / 2))} (11), S is a portion that extends laterally from the object, and
22. The use of 2) makes it possible to perform a comparative search between the target object and a reproduced image including a two-dimensional or three-dimensional shape corresponding to the target object.
An image display method and an image display device.
【請求項23】 上記式(1)から上記式(11)まで
のうち、必要に応じ何れか一または複数の数式、もしく
は全ての数式(1)〜(11)を上記属性データに加え
たことを特徴とする請求項1乃至22の何れか記載の画
像処理方法、及び画像処理装置。
23. Any one or a plurality of mathematical formulas among the formulas (1) to (11), or all the mathematical formulas (1) to (11) are added to the attribute data. An image processing method and an image processing apparatus according to any one of claims 1 to 22.
【請求項24】 上記対象物が、道路、標識、河川、運
河、建造物、各種施設、各種設備、車両、二輪車、航空
機、船体、あるいは移動中の車両、二輪車、航空機、船
体、もしくはその他の動作機能のある構造体であること
を特徴とする請求項1乃至23の何れか記載の画像表示
方法、及び画像表示装置。
24. The object is a road, a sign, a river, a canal, a building, various facilities, various facilities, a vehicle, a motorcycle, an aircraft, a hull, or a moving vehicle, a motorcycle, an aircraft, a hull, or other 24. The image display method and the image display device according to claim 1, wherein the image display method is a structure having an operation function.
【請求項25】 自ら上記所要の地図に対する上記一ま
たは複数の対象物に対応する上述の再現画像の表示状
況、及び、必要に応じ名称、属性データ、カメラ位置、
カメラ方向、カメラ移動速度をも含めてWeb配信を可
能とするとともに、クライアントからの要求によっても
上記地図に対する上述の再現画像の上述の如き表示状
況、及び、当該地図に対し指示された任意の対象物を示
す印乃至数字文字や当該再現画像に付随乃至生成する上
記名称、属性データ等の表示状況の配信を可能とするこ
とを特徴とする請求項1乃至24の何れか記載の画像表
示方法、及び画像表示装置。
25. A display status of the reproduced image corresponding to the one or more objects on the required map, and a name, attribute data, camera position, if necessary,
Web distribution is possible including the camera direction and camera movement speed, and the display status of the above-described reproduced image on the map as described above and any target instructed to the map are also requested by the client. The image display method according to any one of claims 1 to 24, characterized in that it is possible to distribute a display situation such as a mark or a numerical character indicating an object, the name or attribute data attached to or generated in the reproduced image, and the like. And an image display device.
【請求項26】 少なくとも、上述の演算アルゴリズ
ム、式(1)から式(11)、並びに、一または複数の
カメラで撮影した一または複数の対象物の構成部品であ
る比較用部品を呼び出すステップと、豊富な複数種の特
徴の画像データが保存されたデータベースから当該比較
用部品の対応部分に係る特徴の画像データを検索するス
テップと、上記比較用部品と当該特徴の画像データが対
応するか否かを判定するステップと、当該双方が対応し
ない場合に所定の比較用部品の呼び出しが終了したか否
かを判定するステップと、当該呼び出しが終了しない場
合に所定の部品に対する処理が終了したか否かを判定す
るステップと、当該所定の部品に対する処理が終了して
いない場合に次の比較用部品を指定するステップと、上
述の双方が対応する場合に特定の対象物像として認識す
るステップと、次の部品を特定するステップと、上記対
象物における比較用画像の所定部分の処理が終了したか
否かを判定するステップと、当該処理が終了した場合に
認識結果である対象物に係る2次元乃至3次元形状を含
む再現画像の動画もしくは連続的な静止画の一群として
対比的に順次に出力するステップとを含むことを特徴と
する画像表示方法を記録した記憶媒体。
26. At least a step of calling the above-mentioned arithmetic algorithm, expressions (1) to (11), and a comparative part which is a constituent part of one or more objects photographed by one or more cameras. , A step of retrieving the image data of the feature related to the corresponding part of the comparison part from a database storing abundant image data of a plurality of types of features, and whether or not the comparison part corresponds to the image data of the feature And a step for determining whether or not the calling of the predetermined comparison part has ended when both of them do not correspond, and whether or not the processing for the predetermined part has ended if the calling does not end. If both of the above correspond, the step of determining if In that case, the step of recognizing as a specific object image, the step of specifying the next part, the step of determining whether or not the processing of the predetermined portion of the comparison image in the object has ended, and the processing ends And a step of outputting the moving image of the reproduced image including the two-dimensional or three-dimensional shape of the target object as a recognition result or a series of continuous still images in comparison with each other in order. Storage medium recording method.
JP2002146874A 2002-05-21 2002-05-21 Method and device for image display, and storage medium recorded with image display method Pending JP2003337947A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002146874A JP2003337947A (en) 2002-05-21 2002-05-21 Method and device for image display, and storage medium recorded with image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002146874A JP2003337947A (en) 2002-05-21 2002-05-21 Method and device for image display, and storage medium recorded with image display method

Publications (1)

Publication Number Publication Date
JP2003337947A true JP2003337947A (en) 2003-11-28

Family

ID=29705728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002146874A Pending JP2003337947A (en) 2002-05-21 2002-05-21 Method and device for image display, and storage medium recorded with image display method

Country Status (1)

Country Link
JP (1) JP2003337947A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101762629B1 (en) * 2016-04-01 2017-08-14 주식회사 탑코어시스템 User view visualization method and system for BIM design and monitoring in 3D BIM virtual space
JP2017146907A (en) * 2016-02-19 2017-08-24 三菱重工業株式会社 Target detector, processing method, and program
US20190392494A1 (en) * 2018-06-22 2019-12-26 General Electric Company System and method relating to part pricing and procurement
CN112347205A (en) * 2019-08-06 2021-02-09 北京初速度科技有限公司 Method and device for updating error state of vehicle
CN109801351B (en) * 2017-11-15 2023-04-14 阿里巴巴集团控股有限公司 Dynamic image generation method and processing device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017146907A (en) * 2016-02-19 2017-08-24 三菱重工業株式会社 Target detector, processing method, and program
KR101762629B1 (en) * 2016-04-01 2017-08-14 주식회사 탑코어시스템 User view visualization method and system for BIM design and monitoring in 3D BIM virtual space
CN109801351B (en) * 2017-11-15 2023-04-14 阿里巴巴集团控股有限公司 Dynamic image generation method and processing device
US20190392494A1 (en) * 2018-06-22 2019-12-26 General Electric Company System and method relating to part pricing and procurement
CN112347205A (en) * 2019-08-06 2021-02-09 北京初速度科技有限公司 Method and device for updating error state of vehicle
CN112347205B (en) * 2019-08-06 2023-09-19 北京魔门塔科技有限公司 Updating method and device for vehicle error state

Similar Documents

Publication Publication Date Title
JP4854819B2 (en) Image information output method
US10859395B2 (en) Lane line creation for high definition maps for autonomous vehicles
US8000895B2 (en) Navigation and inspection system
JP4767578B2 (en) High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device
US6222583B1 (en) Device and system for labeling sight images
US8295644B2 (en) Birds eye view virtual imaging for real time composited wide field of view
US10291898B2 (en) Method and apparatus for updating navigation map
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
JP2009217524A (en) System for generating and browsing three-dimensional moving image of city view
JP2003287434A (en) Image information searching system
JP5780561B2 (en) Visibility video information generator
JP2000074669A (en) Method and device for generating 3-dimension map database
WO2008082423A1 (en) Navigation and inspection system
JP2003337947A (en) Method and device for image display, and storage medium recorded with image display method
JPH1186035A (en) Distance reference type scenery labeling device and system therefor
US20220390252A1 (en) Use of predefined (pre-built) graphical representations of roads for autonomous driving of vehicles and display of route planning
JP3753306B2 (en) Mobile navigation system
JP7467722B2 (en) Feature Management System
WO2023006213A1 (en) Device and method for navigation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060808