JPH11213135A - Image retrieving device - Google Patents

Image retrieving device

Info

Publication number
JPH11213135A
JPH11213135A JP10016647A JP1664798A JPH11213135A JP H11213135 A JPH11213135 A JP H11213135A JP 10016647 A JP10016647 A JP 10016647A JP 1664798 A JP1664798 A JP 1664798A JP H11213135 A JPH11213135 A JP H11213135A
Authority
JP
Japan
Prior art keywords
image
holding
held
holding means
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10016647A
Other languages
Japanese (ja)
Inventor
Michio Miwa
道雄 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP10016647A priority Critical patent/JPH11213135A/en
Publication of JPH11213135A publication Critical patent/JPH11213135A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain positional information of a photographing position simply by photographing a condition of a road, etc., with a video camera by comparing and judging an image held by a three-dimensional CG image holding means with an image held by a color component holding means according to a prescribed judgment standard. SOLUTION: Three-dimentional data held by a three-dimensional data holding means 11 is plotted by a three-dimensional image plotting means 2. In this case, the direction of a viewpoint is decided by a viewpoint changing means 3 and a color of an object is decided by a color changing means 4. A plotted result is held by the three-dimensional; CG image holding means 7. On the other hand, the image photographed with a camera, etc., is held by an image holding means 5, a color filtering is further performed on the held image by a color filter 6 and its result is held by the color component holding means 8. And the three-dimensional image held by the three-dimensional CG image holding means 7 is compared with the image held by the color component holding means 8 by an image comparison means 9 and the images are judged according to the judgment standard held by a judgment standard holding means 11 by a judging means 10.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車に搭載したビデ
オカメラで道路などの状況を撮影する際、その映像がど
の場所を撮影したかを調べるために、あらかじめCAD
などによって作成したデータを元にコンピュータグラフ
ィックスによって描画した映像と比較することにより知
る技術に関するものである。また、道路に設置されてい
る標識などの汚れや破損状況を自動的に検出する技術に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer-aided video camera for examining the location of an image taken by a video camera in advance.
The present invention relates to a technique for knowing by comparing data created by the above method with a video drawn by computer graphics. The present invention also relates to a technology for automatically detecting dirt or breakage of a sign or the like installed on a road.

【0002】さらに、カーナビゲーションシステムにお
いて、進行方向を示す画像を実際の画像に基づいて表示
する技術に関するものである。
Further, the present invention relates to a technique for displaying an image indicating a traveling direction based on an actual image in a car navigation system.

【0003】[0003]

【従来の技術】図26は本発明の従来例その1を示した
ものである。図26において、261は画像撮影手段、
262は画像記録手段、263は位置測定手段である。
2. Description of the Related Art FIG. 26 shows a first conventional example of the present invention. In FIG. 26, reference numeral 261 denotes an image capturing unit;
262 is an image recording means, and 263 is a position measuring means.

【0004】図26において、264から269はこれ
ら261から263の手段をさらに詳しく説明したもの
で、264は画像撮影手段としてのビデオカメラ、26
5はビデオカメラに搭載するビデオテープ、266はビ
デオテープのラベル、267はラベルに記録するための
ペン、268は位置を測定するGPS(GlobalPosition
ing System 衛星によって地表の位置を知るもの)、2
69はGPSに付属するモニターである。
[0004] In FIG. 26, reference numerals 264 to 269 explain these means 261 to 263 in more detail. Reference numeral 264 denotes a video camera as image photographing means.
5 is a video tape mounted on the video camera, 266 is a label of the video tape, 267 is a pen for recording on the label, and 268 is a GPS (Global Position) for measuring the position.
ing System, which detects the position of the earth's surface by satellite), 2
69 is a monitor attached to the GPS.

【0005】図26において、ビデオカメラで撮影した
位置を記録するためには、例えばGPS268で位置を
測定し、モニタ269に表示された位置情報をビデオカ
メラ264で撮影した映像が記録されたビデオテープ2
65のラベル266にペン267を用いて記録する。
In FIG. 26, in order to record a position photographed by a video camera, for example, a position is measured by a GPS 268 and the position information displayed on a monitor 269 is recorded on a video tape on which a video photographed by the video camera 264 is recorded. 2
65 is recorded on the label 266 using the pen 267.

【0006】図27は本発明の従来例その2を示したも
のである。図27において、21は道路の標識、271
は道路上で標識を撮影しているカメラ、272は写真を
貼るための台紙、273はカメラ271で撮影した標識
の写真、274は過去の標識の撮影された台帳、275
は台帳に貼られた標識の写真である。
FIG. 27 shows a second conventional example of the present invention. In FIG. 27, 21 is a road sign, 271
Is a camera for photographing the sign on the road, 272 is a mount for attaching a photograph, 273 is a photograph of the sign photographed by the camera 271, 274 is a ledger for photographing the past sign, 275
Is a photograph of the sign attached to the ledger.

【0007】図27に示す従来例2では、現場の写真を
カメラ271で撮影し、現像焼き付けを行った後、台紙
272に写真273を貼る。そして、過去の標識21の
状態と比較するために、台帳274を探して過去の写真
275を見つけ、現在の状態との比較276を行う。
[0007] In Conventional Example 2 shown in FIG. 27, a photograph of the site is taken by a camera 271, developed and printed, and then a photograph 273 is pasted on a mount 272. Then, in order to compare with the past state of the sign 21, the past book 275 is found by searching the ledger 274, and the comparison 276 with the current state is performed.

【0008】図28は本発明の従来例その3を示したも
のである。図28において、281は地表上の位置を求
めるGPS(Gloval Positioning System)、282は
道路の様子を3次元的に表示するためのコンピュータグ
ラフィックスの画像、283はGPS281の位置デー
タに基づいて、コンピュータグラフィックスの画像28
2を表示するための演算と描画手段、284はモニタで
ある。
FIG. 28 shows a third conventional example of the present invention. In FIG. 28, reference numeral 281 denotes a GPS (Global Positioning System) for finding a position on the ground surface; 282, an image of computer graphics for displaying the state of the road three-dimensionally; 283, a computer based on the position data of the GPS 281; Graphics Image 28
The calculation and drawing means for displaying 2 is a monitor.

【0009】図28は、カーナビゲーションシステムの
概要を示したもので、車が道路を走行する際に、GPS
の位置データに基づいて、道路の様子をモニタ284に
3次元的に表示するものである。
FIG. 28 shows an outline of a car navigation system.
Is displayed three-dimensionally on the monitor 284 on the basis of the position data.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、図26
に示す従来例1では、撮影した位置をその都度GPSな
どで測定し画像を記録した媒体のラベルなどに記録せね
ばならなかった。また、異なった時点で撮影した同じ場
所の映像を比較する際にも、ラベルに記録された文字を
頼りに多くのビデオテープの中から探さねばならなかっ
た。さらに、地図上の位置に対応する実際の画像を探す
場合にも、ラベルを頼りに探す必要があった。
However, FIG.
In the conventional example 1 shown in FIG. 1, the photographed position has to be measured each time by the GPS or the like and recorded on a label or the like of the medium on which the image is recorded. Also, when comparing images of the same place taken at different times, it was necessary to search from many video tapes using the characters recorded on the label. Furthermore, when searching for an actual image corresponding to a position on the map, it was necessary to rely on the label.

【0011】また、図27に示す従来例2では、過去の
標識の画像と比較する際、数多くの写真を台帳で管理し
たり、写真を台帳から探したり、現場にその都度出向い
ていって、写真を撮影したり、現像、焼き付けを1枚毎
に行わなければならない、といった問題点があった。
In the conventional example 2 shown in FIG. 27, when comparing with a past sign image, a large number of photographs are managed by a ledger, photographs are searched from the ledger, and the user goes to the site each time. There is a problem that a photograph must be taken, and development and printing must be performed for each sheet.

【0012】さらに、図28に示す従来例3では、モニ
タに写し出される画像284を作成するために多くの労
力が必要であったり、道路の改修があった場合、データ
の更新に手間がかかる、といった問題点があった。
Further, in the conventional example 3 shown in FIG. 28, if much labor is required to create the image 284 displayed on the monitor, or if the road is repaired, it takes time to update the data. There was a problem.

【0013】[0013]

【課題を解決するための手段】この課題を解決するため
に、本発明の画像検索装置は、第1に、コンピュータグ
ラフィックスで描画するための画像を保持する3次元デ
ータ保持手段と、前記3次元画像保持手段に保持された
3次元データを描画する3次元画像描画手段と、前記3
次元画像描画手段によって描画された画像を保持する3
次元CG画像保持手段と、前記3次元画像描画手段に描
画する際の視点の位置を変更する視点変更手段と、前記
3次元画像描画手段に描画する際の色を変更する色変更
手段と、イメージ画像を保持するイメージ画像保持手段
と、前記イメージ画像保持手段に保持されたイメージ画
像に対して特定の色成分のみを取り出す色フィルタと、
前記色フィルタによって取り出されたイメージ画像の色
成分を保持する色成分保持手段と、前記3次元CG画像
保持手段に保持された画像と、前記色成分保持手段に保
持された画像を比較する画像比較手段と、判定基準を保
持する判定基準保持手段と、前記画像比較手段によって
比較された結果を前記判定基準保持手段に保持された判
定基準によって判定する判定手段と、前記判定手段によ
って判定された結果を表示する結果表示手段から構成さ
れている。
In order to solve this problem, an image retrieval apparatus according to the present invention comprises, first, a three-dimensional data holding means for holding an image to be drawn by computer graphics; Three-dimensional image drawing means for drawing three-dimensional data held by the three-dimensional image holding means;
3 for holding an image drawn by the two-dimensional image drawing means
Dimensional CG image holding means, viewpoint changing means for changing a position of a viewpoint when drawing on the three-dimensional image drawing means, color changing means for changing a color when drawing on the three-dimensional image drawing means, image Image image holding means for holding an image, a color filter for extracting only a specific color component for the image image held in the image image holding means,
A color component holding unit that holds a color component of an image image extracted by the color filter; an image comparison that compares an image held by the three-dimensional CG image holding unit with an image held by the color component holding unit Means, a criterion holding means for holding a criterion, a judgment means for judging a result compared by the image comparing means based on a criterion held by the judgment criterion holding means, and a result judged by the judgment means Is displayed on the display unit.

【0014】これにより、道路などの状況をビデオカメ
ラで撮影するだけで、撮影箇所の位置情報を知ることが
できる。
Thus, it is possible to know the position information of the photographing location only by photographing the situation such as the road with the video camera.

【0015】第2に、イメージ画像を入力するイメージ
画像入力手段と、位置情報を入力する位置入力手段と、
前記イメージ画像入力手段から入力されたイメージ画像
と前記位置入力手段から入力された位置情報を保持する
イメージ画像および位置保持手段と、前記イメージ画像
および位置保持手段から出力されたイメージ画像および
位置情報の格納先を切り替える入力切り替え手段と、前
記入力切り替え手段によって切り替えられた前記イメー
ジ画像および位置保持手段に保持されたイメージ画像お
よび位置情報を格納する第1、第2のイメージ画像格納
手段と、前記第1、第2のイメージ画像格納手段に対し
て位置情報を指示する位置指示手段と、前記第1、第2
のイメージ画像格納手段に保持された画像を比較する画
像比較手段と、前記画像比較手段によって比較された結
果を表示する結果表示手段によって構成されている。
Second, image input means for inputting an image, position input means for inputting position information,
An image image and position holding means for holding the image image input from the image image input means and the position information input from the position input means; and an image image and position information output from the image image and position holding means. Input switching means for switching a storage destination, first and second image image storage means for storing the image image and the position information held by the position switching means and the image image switched by the input switching means, Position indicating means for indicating position information to the first and second image image storing means;
Image comparison means for comparing the images held in the image storage means, and a result display means for displaying the result of comparison by the image comparison means.

【0016】これにより、道路に設置された標識などの
汚れや破損を自動的に検出することができる。
This makes it possible to automatically detect dirt or damage to a sign or the like installed on a road.

【0017】第3に、連続的に位置を入力する位置入力
手段と、前記位置入力手段によって連続的に入力された
位置情報に関する進路情報保持手段と、前記進路情報保
持手段から出力された領域画像を保持する領域画像保持
手段と、イメージ画像を入力するイメージ画像入力手段
と、前記イメージ画像入力手段によって入力されたイメ
ージ画像を保持するイメージ画像保持手段と、前記イメ
ージ画像保持手段に保持されたイメージ画像から領域を
抽出する領域抽出手段と、前記領域画像保持手段に保持
された領域画像と前記領域抽出手段によって抽出された
領域画像を比較する領域比較手段と、前記位置入力手段
によって入力された位置情報をもとに経路誘導情報を出
力する経路誘導情報保持手段と、前記領域比較手段によ
って比較された領域画像と前記経路誘導情報保持手段に
保持された経路誘導情報を重ねた画像を生成する表示画
像生成手段と、前記表示画像生成手段によって生成され
た画像を表示する表示手段によって構成されている。
Third, position input means for continuously inputting positions, route information holding means for position information continuously input by the position input means, and area image output from the route information holding means Area image holding means for holding an image, image image input means for inputting an image image, image image holding means for holding an image image input by the image image input means, and image held by the image image holding means Area extracting means for extracting an area from an image, area comparing means for comparing the area image held by the area image holding means with the area image extracted by the area extracting means, and a position input by the position input means Route guidance information holding means for outputting route guidance information based on the information; A display image generating means for generating an image of extensive route guidance information held in the image and the route guidance information holding means is constituted by a display means for displaying the image generated by said display image generating means.

【0018】これにより、カーナビゲーションシステム
における進行方向の誘導を、実際に道路を撮影した画像
を用いて行うことが可能となる。
This makes it possible to guide the traveling direction in the car navigation system by using an image obtained by actually photographing the road.

【0019】[0019]

【発明の実施の形態】(実施の形態1)図1は本発明の
実施の形態1のブロック構成図である。図1において、
1は3次元データ保持手段で、コンピュータグラフィッ
クスで3次元画像を描画するための元データを保持して
いる。2は3次元画像描画手段で、3次元データ保持手
段1に保持された3次元データを描画する。3は視点変
更手段で、3次元画像描画手段2が3次元画像を描画す
る際の視点の方向を決定する。4は色変更手段で、3次
元画像描画手段2が3次元画像を描画する際の対象物の
色を決定する。7は3次元CG画像保持手段で、3次元
画像描画手段2の描画した結果を保持する。5はイメー
ジ画像保持手段で、カメラやビデオカメラなどで撮影し
た画像を保持している。ビデオカメラの場合は1フレー
ム毎のイメージ画像として保持している。6は色フィル
タでイメージ画像保持手段5の保持しているイメージ画
像に色フィルタを施す。この結果は8の色成分保持手段
に保持される。9は画像比較手段で、3次元画像保持手
段7に保持された3次元画像と、色成分保持手段8に保
持された画像を比較する。10は判定手段で、11の判
定基準保持手段の保持している判定基準にしたがって画
像比較手段9によって比較された結果を判定する。判定
基準については後で述べる。判定手段10によって判定
された結果が、判定基準保持手段11の保持している判
定基準に達しない場合は、判定手段10は、視点変更手
段3および色変更手段4により3次元画像描画手段2に
よって描画される画像を変更する。この結果、3次元画
像描画手段2によって再描画された内容は、3次元CG
画像保持手段7に保持され、色成分保持手段8に保持さ
れた画像と比較される。この再描画は、判定基準11に
基準に合致するまで行われ、結果が結果表示手段12に
表示される。
(Embodiment 1) FIG. 1 is a block diagram of Embodiment 1 of the present invention. In FIG.
Reference numeral 1 denotes a three-dimensional data holding unit which holds original data for drawing a three-dimensional image by computer graphics. Reference numeral 2 denotes a three-dimensional image drawing means for drawing the three-dimensional data held in the three-dimensional data holding means 1. Reference numeral 3 denotes a viewpoint changing unit that determines the direction of the viewpoint when the three-dimensional image drawing unit 2 draws a three-dimensional image. Reference numeral 4 denotes a color changing unit that determines the color of an object when the three-dimensional image drawing unit 2 draws a three-dimensional image. Reference numeral 7 denotes a three-dimensional CG image holding unit that holds a result of drawing by the three-dimensional image drawing unit 2. Reference numeral 5 denotes an image image holding unit which holds an image captured by a camera, a video camera, or the like. In the case of a video camera, it is held as an image image for each frame. Reference numeral 6 denotes a color filter which applies a color filter to the image image held by the image image holding means 5. This result is held in the color component holding means 8. Reference numeral 9 denotes an image comparing unit that compares the three-dimensional image held by the three-dimensional image holding unit 7 and the image held by the color component holding unit 8. Numeral 10 denotes a judging means for judging the result compared by the image comparing means 9 according to the judging standard held by the eleven judging standard holding means. The criteria will be described later. When the result determined by the determination unit 10 does not reach the determination criterion held by the determination criterion holding unit 11, the determination unit 10 uses the viewpoint changing unit 3 and the color changing unit 4 to output the three-dimensional image drawing unit 2. Change the image to be drawn. As a result, the content redrawn by the three-dimensional image drawing means 2 is a three-dimensional CG
The image is held in the image holding unit 7 and compared with the image held in the color component holding unit 8. This redrawing is performed until the judgment criterion 11 is met, and the result is displayed on the result display means 12.

【0020】図2は本発明の実施の形態1の動作を示し
た説明図である。図2において、21は道路標識、22
は道路、23は道路上を走行する車、24は車に搭載さ
れたビデオカメラである。車23に搭載されたビデオカ
メラ24で道路を撮影していく。
FIG. 2 is an explanatory diagram showing the operation of the first embodiment of the present invention. In FIG. 2, 21 is a road sign, 22
Is a road, 23 is a car running on the road, and 24 is a video camera mounted on the car. The road is photographed by the video camera 24 mounted on the car 23.

【0021】図3は、このようにしてビデオカメラで撮
影した画像の処理を示している。図3において31は撮
影したイメージ画像で、イメージ画像保持手段5に保持
される。32は色フィルタをかけた結果で、この処理は
色フィルタ6によって行われ、結果は色成分保持手段8
に保持される。この図では、31の画像のうち、緑色の
部分のみが残されている。
FIG. 3 shows processing of an image photographed by a video camera in this manner. In FIG. 3, reference numeral 31 denotes a captured image image, which is held in the image image holding means 5. Numeral 32 denotes a result obtained by applying a color filter, and this processing is performed by the color filter 6, and the result is stored in the color component holding means 8.
Is held. In this figure, only the green portion of the 31 images is left.

【0022】図4は3次元画像の描画方法を示した説明
図である。図4において、41は3次元データで、3次
元データ保持手段1に保持されている。3次元データと
しては例えば道路42、標識43などがあり、それぞれ
を構成する面や色で構成されている。
FIG. 4 is an explanatory diagram showing a method for drawing a three-dimensional image. In FIG. 4, reference numeral 41 denotes three-dimensional data held in the three-dimensional data holding means 1. The three-dimensional data includes, for example, a road 42, a sign 43, and the like.

【0023】標識43はいくつかの面によって構成され
ている。視点変更手段3によって標識を見る視点の方向
が決定されると、図44または45のように、右の方向
から見た場合や、左の方向から見た場合のように、標識
が描画される。道路全体を描画すると46のようにな
る。
The sign 43 is composed of several faces. When the direction of the viewpoint at which the sign is viewed is determined by the viewpoint changing unit 3, the sign is drawn as seen from the right or left as shown in FIG. 44 or 45. . When the entire road is drawn, it becomes 46.

【0024】色変更手段4は、この様に描画する画像の
うち、緑色の面を持ったもののみを描画したり、グレー
の色を持ったもののみを描画するように3次元画像描画
手段に伝える。たとえば、緑の色を持ったもののみを描
画するように色変更手段4が3次元画像描画手段2に伝
えると、47のような画像が得られ、結果は3次元CG
画像保持手段7に保持される。画像比較手段は、3次元
画像保持手段7の画像と色成分保持手段8の画像を画像
を比較する。
The color changing means 4 instructs the three-dimensional image drawing means to draw only an image having a green color or only a gray color among the images to be drawn. Tell For example, when the color changing means 4 informs the three-dimensional image drawing means 2 that only the one having the green color is drawn, an image like 47 is obtained, and the result is three-dimensional CG.
The image is held by the image holding unit 7. The image comparing unit compares the image of the three-dimensional image holding unit 7 with the image of the color component holding unit 8.

【0025】比較の方法としては、例えば、領域の数、
領域の面積の総和の画像全体に占める大きさ、2つの画
像の重なり具合を調べる。
As a comparison method, for example, the number of areas,
The size of the sum total of the area of the regions in the entire image is checked for the degree of overlap between the two images.

【0026】32と47を比較すると、領域の数は3つ
づつで等しい。しかし、領域の面積の総和の画像全体に
占める大きさでは、色成分保持手段8に保持された緑色
の領域、すなわち32の方が大きい。このため、判定手
段は視点変更手段3にさらに標識に近づくように指示を
出し、標識に近づいた画像を描画するように指示を出
す。
Comparing 32 and 47, the number of regions is equal every three. However, the green area held by the color component holding means 8, that is, 32, is larger in the size of the total area of the areas in the entire image. For this reason, the determination unit issues an instruction to the viewpoint changing unit 3 to further approach the sign, and issues an instruction to draw an image approaching the sign.

【0027】図5はこの様にしてさらに近づいた場合の
画像を示している。51は全体の様子で、52は色フィ
ルタをかけた様子を示している。52の状態で、32と
画像全体に占める緑の領域がほぼ等しくなっている。
FIG. 5 shows an image when the distance is further approached in this manner. Numeral 51 indicates the overall state, and numeral 52 indicates a state where a color filter is applied. In the state of 52, 32 and the green area occupying the whole image are almost equal.

【0028】そこで、この2つの画像すなわち32と5
2の相関をとる。この方法を図6に示す。図6におい
て、61は色成分保持手段8に保持されている画像であ
り、62は3次元CG画像保持手段7に保持されている
画像、63はこの2つの画像が重なりあう領域である。
Therefore, these two images, namely 32 and 5
Take the correlation of 2. This method is shown in FIG. In FIG. 6, reference numeral 61 denotes an image held by the color component holding means 8, reference numeral 62 denotes an image held by the three-dimensional CG image holding means 7, and reference numeral 63 denotes an area where these two images overlap.

【0029】図6に示すように、画像61を上下左右に
動かしながら、2つの画像が重なった部分を比較して相
似度を調べていく。この方法にはSSDA法などが知ら
れている。
As shown in FIG. 6, while moving the image 61 up, down, left, and right, the overlap between the two images is compared to check the degree of similarity. As this method, the SSDA method and the like are known.

【0030】この結果、2つの画像の相似度が、あるし
きい値を超えた場合、2つの画像は一致しているものと
判断する。
As a result, when the similarity between the two images exceeds a certain threshold value, it is determined that the two images match.

【0031】2つの画像がR(赤色)、G(緑色)、B
(青色)の3つの色で表現され、各々の色が256段階
であったとする。
The two images are R (red), G (green), and B
(Blue), and each color has 256 levels.

【0032】重なりあう領域63の面積(画素数)を
S重なりあう領域63の座標軸を図6のようにi,jと
し重なりあう領域63内の画像62の画素のR、G、B
成分を各々 P1R(i,j)、P1G(i,j)、P1B(i,
j) 重なりあう領域63内の画像61の画素のR、G、B成
分を各々 P2R(i,j)、P2G(i,j)、P2B(i,
j) とすれば、2つの画像の相似度Lは図7で示す式とな
る。積分はS内の全画素について行う。
The area (the number of pixels) of the overlapping region 63 is
The coordinate axes of the overlapping area 63 are set to i and j as shown in FIG. 6, and R, G, and B of the pixels of the image 62 in the overlapping area 63.
The components are P1R (i, j), P1G (i, j), P1B (i, j), respectively.
j) The R, G, and B components of the pixels of the image 61 in the overlapping area 63 are represented by P2R (i, j), P2G (i, j), and P2B (i,
j), the similarity L between the two images is given by the equation shown in FIG. Integration is performed for all pixels in S.

【0033】L は 0≦L≦3 の大きさを持つ。そこで例
えば、L<0.5 の大きさのときに、2つの画像は同じであ
ると判断する。
L has a size of 0 ≦ L ≦ 3. Thus, for example, when L <0.5, the two images are determined to be the same.

【0034】この値は判断基準保持手段11に保持され
ている。このようにして、判定手段10によって、同じ
画像であると判定された場合には、結果表示手段12に
その撮影位置が表示される。図8はこの様子を示してお
り、イメージ画像保持手段5に保持された画像は、道路
上の81の位置から撮影したことを示している。
This value is held in the criterion holding means 11. In this way, when the determination unit 10 determines that the images are the same, the shooting position is displayed on the result display unit 12. FIG. 8 shows this state, and shows that the image held by the image image holding means 5 was taken from a position 81 on the road.

【0035】この位置情報は、イメージ画像保持手段5
に保持されている画像とともに、第2のイメージ画像保
持手段13に保持される。図8の82はその様子を示し
ている。84は、動画のフレーム番号とその画像の撮影
位置の対応テーブルであり、85は動画フレームで、イ
メージ画像保持手段に保持されていた画像が順に保持さ
れていく。
This position information is stored in the image / image holding unit 5.
The image is held in the second image image holding means 13 together with the image held in. Reference numeral 82 in FIG. 8 shows this state. Reference numeral 84 denotes a correspondence table between the frame number of the moving image and the shooting position of the image. Reference numeral 85 denotes a moving image frame, in which the images held in the image image holding means are sequentially stored.

【0036】以上のように本発明によれば、道路を撮影
した画像の位置をあらかじめ登録した3次元CG画像と
比較して知ることができる。
As described above, according to the present invention, the position of an image obtained by photographing a road can be known by comparing it with a three-dimensional CG image registered in advance.

【0037】(実施の形態2)図10、図11、図12
によって本発明の実施の形態2の動作について説明す
る。図10において、103は道路などを撮影する撮影
位置、107は道路を走行する車、104および105
は車107に搭載されたカメラおよび位置測定装置であ
る。カメラはビデオカメラを用い、ビデオカメラで撮影
すると共に位置を取得し、ビデオカメラで撮影した動画
のフレーム毎に位置情報を添付しておく。位置測定装置
としては、実施の形態1と同じようにGPSを用いる。
近年GPSは精度を向上しており、DGPS(Differen
cial GPS)では、誤差数メートル以内の精度がある。1
06は道路に設置された標識である。
(Embodiment 2) FIGS. 10, 11, and 12
The operation of the second embodiment of the present invention will now be described. In FIG. 10, reference numeral 103 denotes a photographing position for photographing a road or the like; 107, a car traveling on a road;
Denotes a camera and a position measuring device mounted on the vehicle 107. The camera uses a video camera, captures the position with the video camera, acquires the position, and attaches position information to each frame of the moving image captured by the video camera. As the position measuring device, GPS is used as in the first embodiment.
In recent years, GPS has improved accuracy, and DGPS (Differen
cial GPS) is accurate to within a few meters. 1
06 is a sign installed on the road.

【0038】このシステムは、道路に設置された標識1
06などが破損したり汚れていないかを自動的に検査す
るすることが目的であり、車107は道路上を時間や季
節をずらして走行する。
This system uses a sign 1 installed on a road.
The purpose of the inspection is to automatically check whether or not the vehicle 06 is damaged or dirty. The vehicle 107 runs on the road at different times and seasons.

【0039】図11はこうして撮影した撮影した画像の
うち、異なった時間帯に同じ位置から撮影したものを示
している。標識は緑色の背景に行き先が表示されてお
り、右に行けば東京へ、左へ行けば大阪に行くことを示
している。112は111より後に撮影されたものとす
る。この図では、112のように標識が黒く汚れてい
る。
FIG. 11 shows images taken from the same position in different time zones among the images thus taken. The sign shows the destination on a green background, indicating that going to the right will go to Tokyo and going to the left will go to Osaka. It is assumed that 112 is photographed after 111. In this figure, the sign is stained black as 112.

【0040】図12はこの標識の汚れを発見する過程を
示している。111および112にから標識の領域のみ
を切り出したものが、121および122である。次に
標識の領域の比較を行うことによって、123のように
汚れの部分を発見することができる。その結果、124
に示すように、最近撮影した標識の画像112の上に、
汚れを位置を丸で囲んで示すことができる。
FIG. 12 shows the process of finding the stain on the sign. Only 121 and 122 are obtained by cutting out only the area of the sign from 111 and 112. Next, by comparing the area of the sign, a dirt portion such as 123 can be found. As a result, 124
As shown in above, on the image 112 of the sign taken recently,
The dirt can be indicated by circled locations.

【0041】次に図9、図13、図14を用いて本発明
の実施の形態2の動作について説明する。図9におい
て、91はイメージ画像入力手段、92は位置入力手
段、93はイメージ画像および位置保持手段、94は入
力切り替え手段、95は第1のイメージ画像格納手段、
96は第2のイメージ画像格納手段、97は位置指示手
段、98は画像比較手段、102は結果表示手段であ
る。
Next, the operation of the second embodiment of the present invention will be described with reference to FIGS. 9, reference numeral 91 denotes an image image input unit, 92 denotes a position input unit, 93 denotes an image image and position holding unit, 94 denotes an input switching unit, 95 denotes a first image image storage unit,
Reference numeral 96 denotes a second image storage unit, 97 denotes a position indicating unit, 98 denotes an image comparing unit, and 102 denotes a result displaying unit.

【0042】イメージ画像入力手段91はデジタルビデ
オカメラのように画像を連続的に撮影できるものであ
る。位置入力手段92は、GPSなどで道路上の位置な
どを連続的に知ることができる。イメージ画像および位
置保持手段93は、イメージ画像入力手段91から入力
された画像および位置入力手段92から入力された位置
情報を対にして保持する。
The image image input means 91 can continuously capture images like a digital video camera. The position input means 92 can continuously know a position on a road or the like by GPS or the like. The image image and position holding unit 93 holds the image input from the image image input unit 91 and the position information input from the position input unit 92 as a pair.

【0043】この内容をさらに詳しく説明したものが、
図13である。図13において、131は同期手段、1
32は表、133および134は表132の中のフレー
ム番号および道路上の位置である。135はビデオデッ
キで、中には動画像136が記録され各々のフレームに
はフレーム番号137が添付されている。イメージ画像
入力手段91から動画像が入力されると、ビデオデッキ
135に動画像136として記録される。この時動画像
136にはフレーム番号137が添付される。一方、位
置入力手段92から図10で示したように道路上の位置
情報が入力され、同期手段131にはいる。この位置情
報は、道路上の緯度経度を示している。同期手段131
は、ビデオデッキ135に対して現在録画中のフレーム
番号を問い合わせる。そして、位置入力手段92から入
力された位置情報と共に、表132に記録する。こうし
て、表132には、フレーム番号133および位置34
が対になって記録されて行く。
A more detailed explanation of this content is as follows.
FIG. In FIG. 13, reference numeral 131 denotes a synchronization unit,
32 is a table, 133 and 134 are frame numbers and positions on the road in the table 132. Reference numeral 135 denotes a video deck, in which a moving image 136 is recorded, and a frame number 137 is attached to each frame. When a moving image is input from the image image input unit 91, the moving image is recorded on the video deck 135 as a moving image 136. At this time, a frame number 137 is attached to the moving image 136. On the other hand, the position information on the road is input from the position input means 92 as shown in FIG. This position information indicates the latitude and longitude on the road. Synchronization means 131
Makes an inquiry to the VCR 135 about the number of the frame currently being recorded. Then, it is recorded in the table 132 together with the position information input from the position input means 92. Thus, table 132 contains frame number 133 and position 34
Are recorded in pairs.

【0044】図9に戻る。車によって最初の撮影が終了
した場合、イメージ画像および位置保持手段93に保持
されたイメージ画像と位置情報が対になった表132お
よび、動画情報136は第1のイメージ画像格納手段に
格納される。
Returning to FIG. When the first photographing is completed by the car, a table 132 in which the image information and the image information held in the position holding means 93 are paired and the moving image information 136 are stored in the first image image storage means. .

【0045】この様子を示したものが図14である。第
1のイメージ画像格納手段95および第2のイメージ画
像格納手段96は同じ構造をしており、フレーム番号1
33と位置134の対応表132、動画像136があ
り、フレーム検索手段141が内蔵されている。
FIG. 14 shows this state. The first image image storing means 95 and the second image image storing means 96 have the same structure, and have a frame number 1
There is a correspondence table 132 between 33 and position 134, a moving image 136, and a frame search unit 141 is built in.

【0046】図9で、次に再度同じ場所を撮影した場
合、入力切り替え手段94によってイメージ画像および
位置保持手段93に記録された情報は第2のイメージ画
像格納手段96に格納される。
In FIG. 9, when the same place is photographed again, the input image switching means 94 stores the image image and the information recorded in the position holding means 93 in the second image image storage means 96.

【0047】このような状態で、位置指示手段97から
道路上の緯度経度が入力されると、この情報は、第1の
イメージ画像格納手段95および第2のイメージ画像格
納手段に入力される。
In this state, when the latitude and longitude on the road are inputted from the position indicating means 97, this information is inputted to the first image image storing means 95 and the second image image storing means.

【0048】図14に示すように、この位置情報によ
り、フレーム検索手段141は位置指示手段97によっ
て指示された位置情報に最も近いものを表132の位置
134から捜し出し、それに対応するフレーム番号を読
む。そして、このフレーム番号を持つ画像を動画像13
6の中から選択する。これらの画像情報は画像比較手段
98に送られる。
As shown in FIG. 14, based on this position information, the frame search means 141 searches the position 134 of the table 132 for the one closest to the position information specified by the position specifying means 97, and reads the corresponding frame number. . Then, an image having this frame number is
Select from 6 These pieces of image information are sent to the image comparison means 98.

【0049】画像比較手段98の内容を詳しく説明した
ものが図15である。図15で第1の色フィルタ151
および第2の色フィルタ152は同じ性質を持ち、第1
のイメージ画像保持手段95や第2のイメージ画像保持
手段96から入力された画像に対して色フィルタをかけ
る。その結果は、第1の色成分保持手段153あるいは
第2の色成分保持手段154に格納される。
FIG. 15 illustrates the details of the image comparing means 98. In FIG. 15, the first color filter 151 is used.
And the second color filter 152 have the same property,
A color filter is applied to the image input from the image image holding means 95 or the second image image holding means 96. The result is stored in the first color component holding unit 153 or the second color component holding unit 154.

【0050】第1の色フィルタ151および第2の色フ
ィルタ152が緑色および緑色で囲まれた部分のみを残
して他の部分を消すような処理を行う場合には、図11
の111および112は図12の121および122の
ように標識の部分のみが残る。そして差を求める手段1
55に121及び122が送られると、121および1
22の差が求められ、123のような結果が得られる。
In the case where the first color filter 151 and the second color filter 152 perform processing to erase only the part surrounded by green and green and to erase other parts, FIG.
In reference numerals 111 and 112, only the part of the sign remains like 121 and 122 in FIG. And means 1 for determining the difference
When 121 and 122 are sent to 55, 121 and 1
A difference of 22 is obtained and a result like 123 is obtained.

【0051】123は、標識の様子が変化していること
を示している。123の全体を囲むような円をもとめ、
この円を第2のイメージ画像格納手段と重ねて表示した
ものが、124である。
Reference numeral 123 indicates that the appearance of the sign has changed. Find a circle that surrounds the whole of 123,
The circle 124 is displayed by being superimposed on the second image storage means.

【0052】この結果、第1のイメージ画像格納手段9
5に格納されたイメージ画像と第2のイメージ画像格納
手段96に格納されたイメージ画像の差の部分が第2の
イメージ画像格納手段96の画像の上に円で表示される
ことになり、時間的あるいは季節的に標識がどのように
変化したかを知ることができる。
As a result, the first image / image storing means 9
The difference between the image stored in the second image storage unit 96 and the image stored in the second image storage unit 96 is displayed as a circle on the image in the second image storage unit 96, and the time You can know how the sign has changed in a targeted or seasonal manner.

【0053】(実施の形態3)図17、図18は本発明
の実施の形態3の機能を示した説明図である。図17に
おいて、21は標識、22は道路、23は車、24は車
に搭載したカメラ、171は車の位置を測定するGPS
等の位置測定装置、172は進むべき方向である。車2
3は標識21に従って進むべき方向172に進もうとし
ている。
(Embodiment 3) FIGS. 17 and 18 are explanatory diagrams showing the functions of Embodiment 3 of the present invention. In FIG. 17, 21 is a sign, 22 is a road, 23 is a car, 24 is a camera mounted on the car, and 171 is a GPS that measures the position of the car.
A position measuring device such as 172 is the direction to go. Car 2
3 is about to proceed in direction 172 to follow sign 21.

【0054】図18は車23の内部を示したものであ
る。図18において181はカーナビのモニター、18
2はモニター181に映っている標識の中の進むべき方
向、183メッセージ、184は車23のハンドル、1
85は実際に社内から見える道路に設置された標識であ
る。
FIG. 18 shows the inside of the car 23. In FIG. 18, reference numeral 181 denotes a car navigation monitor;
2 is the direction to go in the sign on the monitor 181, 183 message, 184 is the steering wheel of the car 23, 1
Reference numeral 85 denotes a sign installed on a road that is actually seen from inside the company.

【0055】モニターには、カメラ24で撮影した実際
の画像が表示されている。車23が実際の標識185に
近付くとあらかじめ設定されている進路情報に従って、
注意すべき標識を示すための円182や、メッセージ1
83が、実際に見える画像に重ね合わせてモニター18
1に表示される。このため、ドライバーは、進むべき方
向を明確に知ることが可能になる。
An actual image taken by the camera 24 is displayed on the monitor. When the car 23 approaches the actual sign 185, according to the preset route information,
A circle 182 to indicate a sign that needs attention, or a message 1
83 is superimposed on the actually visible image and
1 is displayed. Therefore, the driver can clearly know the direction to go.

【0056】図16は本発明の実施の形態3のブロック
構成を示している。図16において、161は位置入力
手段で図17では171のGPS等に相当している。1
63は進路情報保持手段で、標識に関する情報を格納し
ている。これについては、図19を用いて詳しく説明す
る。165は領域画像保持手段で、位置入力手段161
によって入力された位置情報に従って、進路情報保持手
段163から選択された領域画像を保持する。なお、こ
の画像は後で述べるように、標識などの領域のみを実際
の画像から切り出したものになっている。
FIG. 16 shows a block configuration according to the third embodiment of the present invention. In FIG. 16, reference numeral 161 denotes a position input means, which corresponds to the GPS 171 in FIG. 1
63 is route information holding means, which stores information on signs. This will be described in detail with reference to FIG. 165, an area image holding unit;
The area image selected from the route information storage unit 163 is stored in accordance with the position information input by the user. Note that, as will be described later, this image is obtained by cutting out only a region such as a sign from an actual image.

【0057】162はイメージ画像入力手段で図17で
はカメラ24に相当している。164はイメージ画像保
持手段で、イメージ画像入力手段162が入力した画像
を保持している。166は領域抽出手段でイメージ画像
保持手段165の保持している実際の画像の中から標識
などの領域のみを抽出する。領域比較手段167は、領
域画像保持手段165に保持されている画像と、領域抽
出手段166に保持されている画像との比較を行い、標
識がどの位置にあるかを求める。
Reference numeral 162 denotes an image image input means, which corresponds to the camera 24 in FIG. Reference numeral 164 denotes an image image holding unit which holds the image input by the image image input unit 162. Reference numeral 166 denotes an area extracting unit that extracts only an area such as a sign from the actual image held by the image image holding unit 165. The area comparing means 167 compares the image held in the area image holding means 165 with the image held in the area extracting means 166, and obtains the position of the marker.

【0058】経路誘導情報保持手段168は車の進むべ
き方向を保持しており、位置入力手段161に入力され
た位置毎に車がどの方向に進むべきかを判断している。
表示画像生成手段169はイメージ画像保持手段164
に保持された実際の画像の上に、進むべき方向を表示す
る。
The route guidance information holding means 168 holds the direction in which the vehicle should travel, and determines the direction in which the vehicle should travel in each position input to the position input means 161.
The display image generating means 169 is provided with an image image holding means 164.
The direction to go is displayed on the actual image held in the.

【0059】図19は進路情報保持手段163のブロッ
ク構成図である。図19において、191は領域情報検
索手段、192は領域画像、193は領域画像に添付さ
れた領域画像番号、194は領域画像番号、195は位
置、196は領域画像番号194と位置195が配列さ
れた表、197は添付情報で図20で詳しく述べる。位
置入力手段161から車の現在位置が入力されると、領
域画像検索手段191は、表196の位置195の中か
ら一番近いものを探す。そして、その位置195に対応
した領域画像番号194を求める。次に、領域画像19
2の中から領域画像番号193と同じ領域画像番号19
3を持つ領域画像192を検索する。この画像は領域画
像165に送られる。
FIG. 19 is a block diagram of the route information holding means 163. In FIG. 19, 191 is an area information search unit, 192 is an area image, 193 is an area image number attached to the area image, 194 is an area image number, 195 is a position, 196 is an area image number 194 and a position 195 are arranged. Table 197 is attached information and will be described in detail in FIG. When the current position of the car is input from the position input unit 161, the area image search unit 191 searches for the closest one from the positions 195 in the table 196. Then, an area image number 194 corresponding to the position 195 is obtained. Next, the region image 19
2, the same area image number 19 as the area image number 193
The area image 192 having 3 is searched. This image is sent to the region image 165.

【0060】図20は添付情報197の内部を示したも
のである。図20において、201は領域画像番号、2
02は行き先、203はマーク情報、204は画像上の
位置、205は長軸・短軸、206はメッセージであ
る。この表は、図19において領域画像192のそれぞ
れについて一つづつある。画像上の位置204、長軸・
短軸205はマーク情報203を形成している。行き先
は、「東京」と「大阪」といった目的地である。画像上
の位置204は標識の映っている位置を示しており、長
軸・短軸205は表示する楕円の大きさを示している。
メッセージ206は、画面に表示すべき内容を示してい
る。
FIG. 20 shows the inside of the attached information 197. In FIG. 20, reference numeral 201 denotes an area image number;
02 is a destination, 203 is mark information, 204 is a position on an image, 205 is a long axis / short axis, and 206 is a message. This table is one for each of the region images 192 in FIG. Position 204 on the image, major axis
The short axis 205 forms the mark information 203. The destination is a destination such as "Tokyo" and "Osaka". The position 204 on the image indicates the position where the sign appears, and the major axis / minor axis 205 indicates the size of the ellipse to be displayed.
The message 206 indicates the content to be displayed on the screen.

【0061】図21は、領域画像保持手段165内の領
域画像192、および領域抽出手段166の動作を示し
たものである。図21において、211は実際に撮影し
た画像、212は標識の領域のみを抽出した画像で、2
13は標識のエリアで緑色、215は道路上の白線で白
色、216は路面でグレー216であるとする。領域抽
出手段166は、実際に撮影した画像211から、緑色
および、緑色で囲まれた部分のみを抽出して、212の
ような画像を作成する。
FIG. 21 shows the operation of the area image 192 in the area image holding means 165 and the operation of the area extracting means 166. In FIG. 21, reference numeral 211 denotes an actually photographed image, 212 denotes an image in which only the sign region is extracted, and 2 denotes an image.
Reference numeral 13 denotes a green area of a sign, reference numeral 215 denotes a white line on the road, which is white, and reference numeral 216 denotes a road surface which is gray 216. The region extracting unit 166 extracts only green and a portion surrounded by green from the actually photographed image 211 to create an image like 212.

【0062】また、領域画像192は、実際の画像の中
から緑色の部分のみを抽出した212のような画像であ
る。
The area image 192 is an image such as 212 obtained by extracting only the green portion from the actual image.

【0063】図22は添付情報197の説明図である。
分岐225と領域223が、分岐226と領域224が
227や228のように対応付けられている。図18の
ように実際の画像に丸やメッセージを表示する時は、こ
の情報を用いて行う。
FIG. 22 is an explanatory diagram of the attached information 197.
The branch 225 is associated with the region 223, and the branch 226 is associated with the region 224 like 227 or 228. When displaying a circle or a message on an actual image as shown in FIG. 18, this information is used.

【0064】図23は、領域画像保持手段165の内容
と、領域抽出手段166の比較の様子を示している。図
23において、231は領域画像保持手段165の内容
を、232は領域抽出手段166の内容を示している。
画像の比較は、実施例その1の画像比較手段と同じであ
る。
FIG. 23 shows how the contents of the area image holding means 165 and the area extracting means 166 are compared. In FIG. 23, 231 indicates the contents of the area image holding means 165, and 232 indicates the contents of the area extracting means 166.
The comparison of the images is the same as the image comparison means of the first embodiment.

【0065】図24は、経路誘導情報保持手段168の
内容を示している。位置241は車の走行している位置
であり、車の走行に従って通過する位置毎に設置してあ
る標識毎にどの方向に進んで良いかを示している。行き
先242は標識内の行き先を示している。
FIG. 24 shows the contents of the route guidance information holding means 168. The position 241 is a position where the car is traveling, and indicates in which direction the sign may be set for each of the signs installed at the positions where the car passes as the car travels. The destination 242 indicates the destination in the sign.

【0066】車がある位置に差しかかると、経路誘導情
報保持手段168は位置入力手段161から入力された
位置と位置241を比較して行き先242を見つける。
それと同時に、領域比較手段167によって、現在イメ
ージ画像入力手段162から入力されたイメージ画像
が、進路情報保持手段163に格納された画像のどれと
等しいかを調べており、等しい画像があった場合は、進
路情報保持手段163の添付情報197を見つけてい
る。
When the vehicle approaches a certain position, the route guidance information holding means 168 compares the position input from the position input means 161 with the position 241 to find the destination 242.
At the same time, the area comparison unit 167 checks which image stored in the route information holding unit 163 is equal to the image input from the current image input unit 162. And the attached information 197 of the route information holding means 163.

【0067】そこで、表示画像生成手段が、行き先24
2に対応する行き先202を捜し出す。この結果、画像
に表示すべきマーク情報203の画像上の位置204、
楕円の長軸・短軸の長さ202、メッセージ206にも
とづいて図18のように、実際の画像上にマーク情報や
メッセージを表示することができる。
Therefore, the display image generating means sets the destination 24
The destination 202 corresponding to 2 is searched for. As a result, the position 204 on the image of the mark information 203 to be displayed on the image,
As shown in FIG. 18, mark information and a message can be displayed on an actual image based on the length 202 of the major axis and the minor axis of the ellipse and the message 206.

【0068】図25は、この動作を示したフローチャー
トである。251で、領域画像保持手段165と領域抽
出手段166の内容を比較する。252でその結果を判
定するのであるが、これは、実施の形態1の図6および
図7で説明した通りである。その結果異なっていたと判
定された場合は253のようになにもしない。
FIG. 25 is a flowchart showing this operation. At 251, the contents of the area image holding unit 165 and the area extraction unit 166 are compared. The result is determined in step 252, as described with reference to FIGS. 6 and 7 of the first embodiment. As a result, if it is determined that they are different, nothing is performed like 253.

【0069】同じ場合は進路情報保持手段163から行
き先に関する情報を得る。この情報は、図20の202
に記述されており、図20は図19の添付情報197の
詳細である。
In the same case, information on the destination is obtained from the route information holding means 163. This information corresponds to 202 in FIG.
20 shows details of the attached information 197 in FIG.

【0070】経路誘導情報保持手段168に保持されて
いる行き先情報との比較255では、202の行き先
と、図24の経路誘導情報保持手段168の行き先24
2と比較する。添付情報197は、領域画像192の各
々に表示されている行き先すべてを持っている。一方経
路誘導情報保持手段168に記録されている行き先は、
車を運転する毎に設定された行き先である。
In the comparison 255 with the destination information held in the route guidance information holding means 168, the destination 202 and the destination 24 of the route guidance information holding means 168 in FIG.
Compare with 2. The attached information 197 has all the destinations displayed in each of the area images 192. On the other hand, the destination recorded in the route guidance information holding means 168 is:
This is the destination set each time you drive a car.

【0071】256で、これらの行き先が一致した場合
には、目的地に設定した行き先を示す標識が現われた事
になるので、258のように標識上にマーク情報を描画
する。そうでない場合は257のようになにもしない。
If the destinations match at 256, it means that a sign indicating the destination set at the destination has appeared, so the mark information is drawn on the sign as at 258. Otherwise, do nothing like 257.

【0072】[0072]

【発明の効果】本発明によれば、第1にビデオカメラの
映像に3次元コンピュータグラフィクスの画像を用いて
自動的に撮影位置を添付することができる。
According to the present invention, firstly, it is possible to automatically attach a photographing position to an image of a video camera by using an image of three-dimensional computer graphics.

【0073】第2に、道路に設置された標識の汚れなど
を自動的に検出することができる。第3に、カーナビゲ
ーションシステムにおいて、実際の画像に基づいて、ナ
ビゲーションを行うことができる。
Second, it is possible to automatically detect dirt on a sign installed on a road. Third, in a car navigation system, navigation can be performed based on an actual image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1における画像検索装置の
構成を示すブロック構成図
FIG. 1 is a block diagram showing a configuration of an image search device according to a first embodiment of the present invention.

【図2】本発明の第1の実施の形態における動作説明図FIG. 2 is an operation explanatory diagram according to the first embodiment of the present invention.

【図3】ビデオカメラで撮影した画像処理を示す説明図FIG. 3 is an explanatory diagram showing image processing taken by a video camera.

【図4】3次元画像の描画方法を示す説明図FIG. 4 is an explanatory diagram showing a method for drawing a three-dimensional image.

【図5】図4よりもさらに接近した画像を示す説明図FIG. 5 is an explanatory diagram showing an image closer than FIG. 4;

【図6】2つの画像の相関をとる方法を示す説明図FIG. 6 is an explanatory diagram showing a method of correlating two images.

【図7】2つの画像の相似度Lを求める式を示す図FIG. 7 is a diagram showing an equation for calculating a similarity L between two images.

【図8】同じ画像であると判定された場合に表示される
撮影位置を示す図
FIG. 8 is a diagram showing a shooting position displayed when it is determined that the images are the same.

【図9】本発明の実施の形態2における画像検索装置の
構成を示すブロック構成図
FIG. 9 is a block diagram showing a configuration of an image search device according to a second embodiment of the present invention.

【図10】本発明の第2の実施の形態における動作説明
FIG. 10 is a diagram illustrating an operation according to the second embodiment of the present invention;

【図11】異なった時間帯に同じ位置から撮影した画像
を示す図
FIG. 11 is a diagram showing images taken from the same position in different time zones.

【図12】標識の汚れを発見する過程を示す説明図FIG. 12 is an explanatory diagram showing a process of finding a stain on a sign.

【図13】フレームごとに位置情報を記録する過程を示
す説明図
FIG. 13 is an explanatory diagram showing a process of recording position information for each frame.

【図14】位置情報より位置指示手段を使ってフレーム
を検索する過程を示す説明図
FIG. 14 is an explanatory diagram showing a process of searching for a frame from position information using a position designating unit.

【図15】格納された2つのイメージ画像の色成分の差
を円で表示する構成を示すブロック図
FIG. 15 is a block diagram showing a configuration for displaying a difference between color components of two stored image images in a circle.

【図16】本発明の実施の形態3における画像検索装置
の構成を示すブロック構成図
FIG. 16 is a block diagram showing a configuration of an image search device according to a third embodiment of the present invention.

【図17】本発明の第3の実施の形態における動作説明
FIG. 17 is an operation explanatory diagram according to the third embodiment of the present invention.

【図18】車の内部を示す説明図FIG. 18 is an explanatory view showing the inside of a car.

【図19】進路情報保持手段のブロック構成図FIG. 19 is a block diagram of a route information holding unit.

【図20】添付情報の内部を示す説明図FIG. 20 is an explanatory diagram showing the inside of attached information.

【図21】領域画像保持手段内の領域画像および領域抽
出手段の動作を示す説明図
FIG. 21 is an explanatory diagram showing the operation of a region image and a region extraction unit in a region image holding unit;

【図22】添付情報の説明図FIG. 22 is an explanatory diagram of attached information.

【図23】領域画像保持手段の内容と領域抽出手段の比
較を示す説明図
FIG. 23 is an explanatory diagram showing a comparison between the contents of the area image holding means and the area extracting means.

【図24】経路誘導情報保持手段の内容を示す説明図FIG. 24 is an explanatory diagram showing the contents of a route guidance information holding unit.

【図25】領域画像保持手段の内容と領域抽出手段の比
較結果行き先を示す動作を示すフロー図
FIG. 25 is a flowchart showing an operation indicating the destination of the result of comparison between the content of the area image holding means and the area extracting means.

【図26】従来の実施の形態1におけるブロック構成図FIG. 26 is a block diagram of a conventional first embodiment.

【図27】従来の実施の形態2における説明図FIG. 27 is an explanatory view of a conventional second embodiment.

【図28】従来の実施の形態1におけるブロック構成図FIG. 28 is a block diagram of a conventional first embodiment.

【符号の説明】[Explanation of symbols]

1 3次元データ保持手段 2 3次元画像描画手段 3 視点変更手段 4 色変更手段 5 イメージ画像保持手段 6 色フィルタ 7 3次元CG画像保持手段 8 色成分保持手段 9 画像比較手段 10 判定手段 11 判定基準保持手段 12 結果表示手段 21 標識 22 道路 23 車 24 ビデオカメラ 31 撮影したイメージ画像 32 色フィルタをかけた結果の画像 41 3次元データ 42 道路の情報 43 標識の情報 44 右から見た標識の様子 45 左から見た標識の様子 46 道路全体を描画した様子 47 色変更手段の処理結果 51 全体の様子 52 色フィルタをかけた様子 61 画像1 62 画像2 63 重なりあう領域 81 撮影位置 82 第2のイメージ画像保持手段の内部構造 84 動画のフレーム番号とその画像の撮影位置の対応
テーブル 85 動画フレーム 91 イメージ画像入力手段 92 位置入力手段 93 イメージ画像および位置保持手段 94 切り替え手段 95 第1のイメージ画像格納手段 96 第2のイメージ画像格納手段 97 画像比較手段 102 結果表示手段 103 撮影位置 104 カメラ 105 位置測定手段 106 標識 107 撮影位置 111 過去の画像 112 最近の画像 113 緑色 114 黒 121、122 標識の領域のみを切り出したもの 123 汚れ 124 汚れの印 131 同期手段 132 表 133 フレーム番号 134 位置 135 ビデオデッキ 136 動画フレーム 137 フレーム番号 141 フレーム検索手段 151 第1の色フィルタ 152 第2の色フィルタ 153 第1の色成分保持手段 154 第2の色成分保持手段 155 差を求める手段 161 位置入力手段 162 イメージ画像入力手段 163 進路情報保持手段 164 イメージ画像保持手段 165 領域抽出手段 167 領域比較手段 168 経路誘導情報保持手段 169 表示画像生成手段 170 表示手段 171 位置測定手段 172 進むべき方向 191 領域情報検索手段 192 領域画像 193 フレーム番号 194 領域画像番号 195 位置 196 表 197 添付情報 201 領域画像番号 202 行き先 203 マーク情報 204 画像上の位置 205 長軸・短軸 206 メッセージ 211 211は実際に撮影した画像 212 標識の領域のみを抽出した画像 213 緑色 214 標識 215 白 216 グレー 223、224 領域 225、226 分岐 227、228 対応関係 231 領域画像保持手段の内容 232 領域抽出手段の内容 241 位置 242 行き先 261 画像撮影手段 262 画像記録手段 263 位置測定手段 264 ビデオカメラ 265 ビデオテープ 266 ビデオテープのラベル 267 ラベルに記録するためのペン 268 GPS 269 モニター 271 標識を撮影しているカメラ 272 写真を貼るための台紙 273 標識の写真 274 台帳 275 標識の写真 281 GPS 282 コンピュータグラフィックスの画像 283 演算と描画装置 284 モニタ
DESCRIPTION OF SYMBOLS 1 3D data holding means 2 3D image drawing means 3 View point changing means 4 Color changing means 5 Image image holding means 6 Color filter 7 3D CG image holding means 8 Color component holding means 9 Image comparing means 10 Judgment means 11 Judgment standard Holding means 12 Result display means 21 Signs 22 Roads 23 Cars 24 Video camera 31 Photographed image image 32 Result image after color filter 41 3D data 42 Road information 43 Sign information 44 Signs seen from right 45 The sign seen from the left 46 The whole road is drawn 47 The processing result of the color changing means 51 The whole state 52 The color filter is applied 61 Image 1 62 The image 2 63 The overlapping area 81 The photographing position 82 The second image Internal structure of image holding means 84 Correspondence table of frame number of moving image and shooting position of the image Le 85 moving image frame 91 image image input means 92 position input means 93 image and position holding means 94 switching means 95 first image image storage means 96 second image image storage means 97 image comparison means 102 result display means 103 shooting position 104 camera 105 position measuring means 106 sign 107 shooting position 111 past image 112 recent image 113 green 114 black 121, 122 cut out only sign area 123 dirt 124 dirt mark 131 synchronization means 132 table 133 frame number 134 position 135 VCR 136 Video frame 137 Frame number 141 Frame search means 151 First color filter 152 Second color filter 153 First color component holding means 154 Second color component holding means 155 Means 161 position input means 162 image image input means 163 route information holding means 164 image image holding means 165 area extraction means 167 area comparison means 168 route guidance information holding means 169 display image generation means 170 display means 171 position measurement means 172 proceed Power direction 191 Area information search means 192 Area image 193 Frame number 194 Area image number 195 Position 196 Table 197 Attached information 201 Area image number 202 Destination 203 Mark information 204 Position on image 205 Long axis / short axis 206 Message 211 211 is actually 213 Green image 214 Mark 215 White 216 Gray 223, 224 Area 225, 226 Branch 227, 228 Correspondence relation 231 Area image holding means 232 Contents of the area extracting means 241 Location 242 Destination 261 Image taking means 262 Image recording means 263 Position measuring means 264 Video camera 265 Video tape 266 Video tape label 267 Pen for recording on label 268 GPS 269 Monitor 271 Marking sign Camera 272 taking photo 274 Mount for attaching photo 273 Sign photo 274 Ledger 275 Sign photo 281 GPS 282 Computer graphics image 283 Operation and drawing device 284 Monitor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06F 15/62 335 15/70 310 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FIG06F 15/62 335 15/70 310

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 コンピュータグラフィックスで描画する
ための画像を保持する3次元データ保持手段と、この3
次元画像保持手段に保持された3次元データを描画する
3次元画像描画手段と、この3次元画像描画手段によっ
て描画された画像を保持する3次元CG画像保持手段
と、前記3次元画像描画手段に描画する際の視点の位置
を変更する視点変更手段と、前記描画する際の色を変更
する色変更手段と、イメージ画像を保持するイメージ画
像保持手段と、前記イメージ画像保持手段に保持された
イメージ画像に対して特定の色成分のみを取り出す色フ
ィルタと、前記色フィルタによって取り出されたイメー
ジ画像の色成分を保持する色成分保持手段と、前記3次
元CG画像保持手段に保持された画像と、前記色成分保
持手段に保持された画像を比較する画像比較手段と、こ
の画像比較手段によって比較された結果を表示する結果
表示手段によって構成される画像検索装置。
1. A three-dimensional data holding means for holding an image to be drawn by computer graphics.
Three-dimensional image drawing means for drawing three-dimensional data held by the three-dimensional image holding means; three-dimensional CG image holding means for holding images drawn by the three-dimensional image drawing means; Viewpoint changing means for changing the position of the viewpoint at the time of drawing, color changing means for changing the color at the time of drawing, image image holding means for holding an image image, and image held by the image image holding means A color filter that extracts only a specific color component from the image, a color component holding unit that holds a color component of the image image extracted by the color filter, an image held by the three-dimensional CG image holding unit, An image comparing means for comparing the images held in the color component holding means, and a result display means for displaying a result compared by the image comparing means. Image search apparatus to be.
【請求項2】 前記画像比較手段は、前記画像を比較し
た結果をあらかじめ保持された判定基準によって判定す
る判定手段を有したことを特徴とする請求項1記載の画
像検索装置。
2. The image retrieval apparatus according to claim 1, wherein said image comparison means has a judgment means for judging a result of comparing the images based on a judgment criterion stored in advance.
【請求項3】 前記画像比較手段は、画像同士の位置を
ずらしながら互いの相関を取ることを特徴とする請求項
1に記載の画像検索装置。
3. The image search device according to claim 1, wherein the image comparison unit calculates the correlation between the images while shifting the positions of the images.
【請求項4】 イメージ画像を入力するイメージ画像入
力手段と、位置情報を入力する位置入力手段と、前記イ
メージ画像入力手段から入力されたイメージ画像と前記
位置入力手段から入力された位置情報を保持するイメー
ジ画像および位置保持手段と、前記イメージ画像および
位置保持手段から出力されたイメージ画像および位置情
報の格納先を切り替える入力切り替え手段と、前記入力
切り替え手段によって切り替えられた前記イメージ画像
および位置保持手段に保持されたイメージ画像および位
置情報を異なる時間にそれぞれ格納する第1のイメージ
画像格納手段および第2のイメージ画像格納手段と、前
記第1のイメージ画像格納手段、第2のイメージ画像格
納手段に対して位置情報を指示する位置指示手段と、前
記第1のイメージ画像格納手段、第2のイメージ画像格
納手段に保持された画像を比較する画像比較手段と、前
記画像比較手段によって比較された結果を表示する結果
表示手段によって構成される画像検索装置。
4. An image input means for inputting an image image, a position input means for inputting position information, and holding an image input from the image input means and position information input from the position input means. Image and position holding means, input image switching means for switching a storage destination of the image image and position information output from the image image and position information holding means, and image image and position holding means switched by the input switching means First image image storage means and second image image storage means for respectively storing the image images and the position information held at different times, and the first image image storage means and the second image image storage means. Position instructing means for instructing position information with respect to the first image image; An image search device comprising: an image storage unit; an image comparison unit that compares images held in a second image storage unit; and a result display unit that displays a result compared by the image comparison unit.
【請求項5】 前記イメージ画像および位置保持手段
は、イメージ画像を撮影した位置とイメージ画像を対応
させて記録することを特徴とする請求項4に記載の画像
検索装置。
5. The image retrieval apparatus according to claim 4, wherein said image image and position holding means records the position where the image image was taken and the image image in association with each other.
【請求項6】 連続的に位置を入力する位置入力手段
と、前記位置入力手段によって連続的に入力された位置
情報に関する進路情報保持手段と、前記進路情報保持手
段から出力された領域画像を保持する領域画像保持手段
と、イメージ画像を入力するイメージ画像入力手段と、
前記イメージ画像入力手段によって入力されたイメージ
画像を保持するイメージ画像保持手段と、前記イメージ
画像保持手段に保持されたイメージ画像から領域を抽出
する領域抽出手段と、前記領域画像保持手段に保持され
た領域画像と前記領域抽出手段によって抽出された領域
画像を比較する領域比較手段と、前記位置入力手段によ
って入力された位置情報をもとに経路誘導情報を出力す
る経路誘導情報保持手段と、前記領域比較手段によって
比較された領域画像と前記経路誘導情報保持手段に保持
された経路誘導情報を重ねた画像を生成する表示画像生
成手段と、前記表示画像生成手段によって生成された画
像を表示する表示手段によって構成される画像検索装
置。
6. A position input unit for continuously inputting a position, a route information holding unit for position information continuously input by the position input unit, and a region image output from the route information holding unit. Area image holding means for inputting, image image input means for inputting an image image,
Image image holding means for holding an image image input by the image image input means, area extracting means for extracting an area from the image image held by the image image holding means, and image area holding means for holding the image image A region comparison unit that compares a region image with the region image extracted by the region extraction unit; a route guidance information holding unit that outputs route guidance information based on the position information input by the position input unit; Display image generating means for generating an image in which the area image compared by the comparing means and the route guidance information held in the route guidance information holding means are superimposed, and display means for displaying the image generated by the display image generating means An image search device configured by:
JP10016647A 1998-01-29 1998-01-29 Image retrieving device Pending JPH11213135A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10016647A JPH11213135A (en) 1998-01-29 1998-01-29 Image retrieving device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10016647A JPH11213135A (en) 1998-01-29 1998-01-29 Image retrieving device

Publications (1)

Publication Number Publication Date
JPH11213135A true JPH11213135A (en) 1999-08-06

Family

ID=11922151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10016647A Pending JPH11213135A (en) 1998-01-29 1998-01-29 Image retrieving device

Country Status (1)

Country Link
JP (1) JPH11213135A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013182523A (en) * 2012-03-02 2013-09-12 Hitachi Plant Technologies Ltd Image processing device, image processing system, and image processing method
JP2016151967A (en) * 2015-02-18 2016-08-22 株式会社東芝 Information processor, road structure management system, and road structure management method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013182523A (en) * 2012-03-02 2013-09-12 Hitachi Plant Technologies Ltd Image processing device, image processing system, and image processing method
JP2016151967A (en) * 2015-02-18 2016-08-22 株式会社東芝 Information processor, road structure management system, and road structure management method

Similar Documents

Publication Publication Date Title
US10126141B2 (en) Systems and methods for using real-time imagery in navigation
US8060302B2 (en) Visual assessment of landmarks
US8280107B2 (en) Method and apparatus for identification and position determination of planar objects in images
CN100587404C (en) Navigation equipment and method of guiding vehicle
CN101617197B (en) Feature identification apparatus, measurement apparatus and measuring method
CN101910793B (en) Navigation device
CN108230379A (en) For merging the method and apparatus of point cloud data
US20110109618A1 (en) Method of displaying navigation data in 3d
CN110926487A (en) Driving assistance method, driving assistance system, computing device, and storage medium
JP2011238242A (en) Navigation and inspection system
JP2008139295A (en) Device and method for intersection guide in vehicle navigation using camera
TW200848703A (en) Navigation assistance using camera
CN111854766B (en) Road information determination method and device, electronic equipment and storage medium
CN103148861A (en) Road guidance display method and system using geotagging image
JP2007240198A (en) Navigation apparatus
JP2011215052A (en) Own-vehicle position detection system using scenic image recognition
JP5078677B2 (en) Navigation system
JPH11271074A (en) Device and method for comparing mark image and program storage medium
JPH1127657A (en) Path image information recording and reproducing device and path image information recording method
TWI426237B (en) Instant image navigation system and method
KR100685790B1 (en) System and Method for Real Image based Navigation
JP2554112B2 (en) Map display device
JP7067852B1 (en) Calculation method of road surface damage position
WO2007088915A1 (en) Route guidance device, route guidance method, route guidance program, and recording medium
JPH11213135A (en) Image retrieving device