JPH1166349A - Movement amount predictive scene labeling device and system - Google Patents

Movement amount predictive scene labeling device and system

Info

Publication number
JPH1166349A
JPH1166349A JP9217727A JP21772797A JPH1166349A JP H1166349 A JPH1166349 A JP H1166349A JP 9217727 A JP9217727 A JP 9217727A JP 21772797 A JP21772797 A JP 21772797A JP H1166349 A JPH1166349 A JP H1166349A
Authority
JP
Japan
Prior art keywords
time
information
image
camera
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9217727A
Other languages
Japanese (ja)
Inventor
Takahiro Matsumura
隆宏 松村
Toshiaki Sugimura
利明 杉村
Masaji Katagiri
雅二 片桐
Masaji Takano
正次 高野
Takeshi Ikeda
武史 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP9217727A priority Critical patent/JPH1166349A/en
Publication of JPH1166349A publication Critical patent/JPH1166349A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent the assigning position of a label from shifting when a scene labeling device is mounted on an automobile or the like, and a label is applied to an image that is seen from the inside of the automobile. SOLUTION: A movement amount predicting part 4 predicts a position P at a time E based on a position at a time S from geographical information and a traveling speed of an automobile on the assumption that the automobile proceeds along a road with a camera angle and focal distance in a constant state from the time S when an labeling instruction is received till the time E when time difference T at which label information can be shown passes. A map information managing part 5 accesses a map DB, calculates visual field space, projects and transforms each structure in the visual field space into a camera surface based on the camera angle and focal distance at the position P at the time S and further performs hidden-surface processing and extracts a structure that must be seen at the time E. A label information creating part 6 creates a label based on a structure that does not exist on the hidden-surface, and a label information outputting part 7 superimposes the label information on an unworked image that is photographed at the time E and shows it.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等の景観画
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention superimposes and displays, on an image display device, geographical information about each partial area in an image taken by a user using a landscape image input device such as a camera. The present invention relates to a device that teaches a user by voice guidance or the like.

【0002】[0002]

【従来の技術】従来、利用者がいる周辺に関する地理的
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。
2. Description of the Related Art Conventionally, there have been various navigation systems as systems for instructing users on geographical information about the area where the users are located.

【0003】図10は特開平8−273000号に開示
されたナビゲーション装置の構成図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示用道路データおよ
び表示用背景データを発生させる表示用データ発生部7
2と、これらの表示用データに基づいて3次元動画像デ
ータを作成する3次元動画像データ作成部73と、記憶
部74を有し、ナビゲーション装置のユーザが目的地、
経由地を含む走行経路を事前に設定する場合に、地図画
面でなく実際に存在する道路に沿ったリアルな動画像表
示画面を見ながら経路を設定できる機能を有する。
FIG. 10 is a block diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000. This device receives a vehicle position data and a movement data, receives a road map data, updates a vehicle position with reference to a position updating unit 71, and displays display road data and display background data based on map data and the like. Display data generator 7 to be generated
2, a three-dimensional moving image data creating unit 73 for creating three-dimensional moving image data based on these display data, and a storage unit 74.
When a travel route including a waypoint is set in advance, the device has a function of setting a route while viewing a real moving image display screen along a road that actually exists instead of a map screen.

【0004】この装置によれば、ユーザは在る経路に沿
って走行するときに、その経路に沿った動画像表示(例
えば、図11)を見ることができる。
According to this device, when a user travels along a route, the user can view a moving image display (for example, FIG. 11) along the route.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、同装置
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識しな
ければならない。つまり、利用者の眼前にある実際の建
物や道路や山が何であるかを、動画像表示された地図中
の記号等を基にして人間が肉眼を頼りにして人間の脳を
無意識に働かせて対応付けの作業を行って理解しなけれ
ばならない。街角等では、コンピュータでの地図と実際
の景観を見比べては方角を把握したり目印を見つけたり
してその方向を注視し、その方向にある建物の特徴を理
解した上で再度地図を見てその建物が何であるかを理解
している。
However, in the case of using the same device, the human finally associates the real scene with the geographical information in the computer world with the naked eye, so that the person in the real scene can be used. You have to recognize what is. In other words, humans rely on the naked eye to work the human brain unconsciously, based on the symbols in the map displayed as a moving image, to determine what the actual buildings, roads, and mountains are in front of the user. It must be understood by performing the work of association. At street corners, etc., comparing the map on the computer with the actual scenery, grasping the direction and finding landmarks, gazing at the direction, understanding the characteristics of the building in that direction, and then looking at the map again Understand what the building is.

【0006】このため、何度もコンピュータ上の地図と
実風景を見比べて人間の方で対応付けする手間は省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。
[0006] For this reason, there is a problem that the trouble of comparing the map on the computer with the actual scenery many times and associating with the human cannot be omitted. Especially in the dark or at night, it is difficult to see the actual scenery and to take measures.

【0007】本発明の目的は、自動車等の車両に搭載さ
れて、コンピュータ上の地理的情報と実風景の画像(以
下、景観画像と呼ぶ。)中の各部分とを対応づけて利用
者に教示する景観ラベリング装置およびシステムを提供
することである。
SUMMARY OF THE INVENTION An object of the present invention is to provide a user with geographical information on a computer, which is mounted on a vehicle such as an automobile, and associates each part in an image of a real scene (hereinafter, referred to as a landscape image) with each other. The teaching is to provide a landscape labeling device and system.

【0008】[0008]

【課題を解決するための手段】自動車等に景観ラベリン
グ装置を搭載して自動車の内部から見える景観に対して
ラベルを付す場合、自動車等の移動速度に対して計算機
の処理速度が追い付かないためにラベル付与位置がずれ
てしまう問題がある。
When a landscape labeling device is mounted on an automobile or the like and a label is attached to a landscape viewed from the interior of the automobile, the processing speed of the computer cannot keep up with the moving speed of the automobile or the like. There is a problem that the label application position shifts.

【0009】そこで、本発明は自動車等の物体が移動す
る場合は、移動速度を求めておき、一定時間後のラベル
表示処理時刻に移動しているであろう位置を求めてお
き、その位置でのラベル情報を作成して表示する。
Therefore, according to the present invention, when an object such as an automobile moves, a moving speed is obtained, and a position which is likely to be moving at a label display processing time after a predetermined time is obtained, and the position is determined. Create and display label information for.

【0010】本発明では、移動量予測手段を備え、移動
量予測手段では、ラベリング命令を受けた時刻Sから、
ラベル情報を表示可能な時刻までの時間差Tが経過した
時刻Eまでカメラ角・焦点距離が一定のままであり車両
は道路沿いに進行しているものと仮定し、時刻Eでの位
置Pを時刻Sでの位置を元に道路に関する地理的情報と
物体の移動速度から推定する。
According to the present invention, there is provided a moving amount estimating means.
Assuming that the camera angle and the focal length remain constant and the vehicle is traveling along the road until the time E when the time difference T until the time when the label information can be displayed elapses, the position P at the time E is Based on the position at S, it is estimated from the geographical information on the road and the moving speed of the object.

【0011】これ以降、位置Pと時刻Sでのカメラ角・
焦点距離を基にして地図DBにアクセスし、視野空間を
算出し、視野空間中の各構造物をカメラ面に投影変換
し、さらに隠面処理をして時刻Eにおいて見えるであろ
う構造物を抽出する。この隠面にない構造物をもとにラ
ベル情報を作成し、時刻Eにカメラから撮影された未加
工の映像にラベル情報を重畳表示する。
Hereinafter, the camera angle at the position P and the time S
The map DB is accessed based on the focal length, the visual field space is calculated, each structure in the visual field space is projected and converted to the camera surface, and the hidden surface processing is performed. Extract. Label information is created based on the structure not on the hidden surface, and the label information is superimposed and displayed on an unprocessed video taken by the camera at time E.

【0012】この地理的情報とは画像での、構造物等の
名称またはその属性情報であり、属性情報とはその構造
物に関するあらゆる属性(例えば輪郭、色等)について
の情報を意味する。この明細書の中では構造物という言
葉を人工の構造物以外に、山や川や海等の天然の地形も
含めて地図DBでの何らかの地理的構造を有するデータ
全ての意味で用いることとする。地理的情報の取得にあ
たっては、カメラ位置、カメラ角、焦点距離、画像サイ
ズをもとに景観画像を求め、複数画像の構造物を求め
る。その構造物が写っているはずの景観画像の位置(以
下、付与位置と称す)を求めて、構造物の名称または属
性情報を重畳表示する。
The geographic information is the name of a structure or the like or its attribute information in an image, and the attribute information means information on all attributes (for example, outline, color, etc.) of the structure. In this specification, the term structure is used to mean all data having a certain geographical structure in the map DB, including natural topography such as mountains, rivers, and the sea, in addition to artificial structures. . When acquiring geographic information, a landscape image is obtained based on a camera position, a camera angle, a focal length, and an image size, and a structure of a plurality of images is obtained. The position of the landscape image where the structure is to be taken (hereinafter referred to as the assigned position) is obtained, and the name or attribute information of the structure is superimposed and displayed.

【0013】本発明の移動量予測型景観ラベリング装置
は、画像を取得する画像取得手段と、カメラ位置を取得
する位置情報取得手段と、カメラ角と焦点距離と画像サ
イズを取得するカメラ属性情報取得手段と、ラベリング
命令を受けた第1の時刻からラベル情報を表示可能な第
2の時刻までの間前記カメラ角と前記焦点距離が一定の
ままと仮定し、第2の時刻での位置を第1の時刻を元に
地理的情報と車両の移動速度から推定する移動量予測手
段と、地図情報を管理し、第2の時刻での位置と第1の
時刻でのカメラ角と焦点距離を基に地図情報空間の中で
視野空間を求め、視野空間中の各構造物をカメラ面に投
影変換し、さらに隠面処理をして第2の時刻において見
えるであろう構造物を抽出する地図情報管理手段と、抽
出した構造物の名称またはその属性情報および付与位置
を含むラベル情報を作成するラベル情報作成手段と、作
成されたラベル情報中の付与位置の情報に対応する、第
2の時刻で取得した画像中の位置に構造物の名称または
その属性情報を重畳し、重畳された画像を視覚機器に出
力するラベル情報出力手段と、上記各手段を制御する制
御手段を有する。
[0013] A movement amount prediction type landscape labeling apparatus according to the present invention comprises: an image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position; and a camera attribute information acquisition for acquiring a camera angle, a focal length, and an image size. Means, and assuming that the camera angle and the focal length remain constant from a first time at which a labeling command is received to a second time at which label information can be displayed, and position the camera at the second time as a second time. A movement amount predicting means for estimating from the geographical information and the moving speed of the vehicle based on the first time, and managing the map information, based on the position at the second time and the camera angle and the focal length at the first time. Map information for obtaining a view space in the map information space, projecting and transforming each structure in the view space to a camera surface, and further performing a hidden surface process to extract a structure that will be seen at a second time. Management means and names of extracted structures Or label information creating means for creating label information including the attribute information and the assigned position, and the structure information at the position in the image acquired at the second time corresponding to the information of the assigned position in the created label information. It has label information output means for superimposing the name or its attribute information and outputting the superimposed image to the visual device, and control means for controlling each of the above means.

【0014】また、本発明の移動量予測型景観ラベリン
グシステムは、車両に搭載された景観ラベリング端末と
景観ラベリングセンターからなり、景観ラベリング端末
は、画像を取得する画像取得手段と、カメラ位置を取得
する位置情報取得手段と、カメラ角と焦点距離と画像サ
イズを取得するカメラ属性情報取得手段と、ラベリング
命令を受けた第1の時刻からラベル情報を表示可能な第
2の時刻までの間前記カメラ角と前記焦点距離が一定の
ままと仮定し、第2の時刻での位置を第1の時刻を基に
地理的情報と車両の移動速度から推定する移動量予測手
段と、前記カメラ角と前記焦点距離と前記画像サイズと
第2の時刻での位置を通信網を介して前記景観ラベリン
グセンターに送信し、前記景観ラベリングセンターから
ラベル情報を受信する通信制御手段と、前記ラベル情報
中の構造物の名称またはその属性情報を、第2の時刻で
取得した未加工の画像中の付与位置に対応する位置に重
畳し、重畳された画像を視覚機器に表示するラベル情報
出力手段と、上記各手段を制御する端末制御手段を有
し、前記景観ラベリングセンターは、前記通信網を介し
て前記景観ラベリング端末から前記カメラ角と前記焦点
距離と前記画像サイズと前記第2の時刻での位置を受信
し、前記景観ラベリング端末に前記ラベル情報を送信す
る通信制御手段と、地図情報を管理し、第2の時刻での
位置と第1の時刻でのカメラ角と焦点距離を基に地図情
報空間の中での視野空間を求め、視野空間中の各構造物
をカメラ面に投影変換し、さらに隠面処理をして第2の
時刻において見えるであろう構造物を抽出する地図情報
管理手段と、抽出した前記構造物の名称または属性情報
および付与位置を含む前記ラベル情報を作成するラベル
情報作成手段と、上記各手段を制御するセンター制御手
段を有する。
Further, the movement amount prediction type landscape labeling system of the present invention comprises a landscape labeling terminal and a landscape labeling center mounted on a vehicle, and the landscape labeling terminal obtains an image and obtains an image. Position information acquiring means for acquiring a camera angle, a focal length, and an image size, and a camera attribute information acquiring means for acquiring a labeling command from a first time to a second time at which label information can be displayed. Assuming that the angle and the focal length remain constant, a movement amount estimating means for estimating the position at the second time from the geographical information and the moving speed of the vehicle based on the first time, The focal length, the image size, and the position at the second time are transmitted to the landscape labeling center via a communication network, and label information is received from the landscape labeling center. Communication control means for superimposing the name of the structure in the label information or its attribute information at a position corresponding to the application position in the unprocessed image acquired at the second time, and visually superimposing the superimposed image. Label information output means to be displayed on a device, and terminal control means for controlling each of the above means, the landscape labeling center, from the landscape labeling terminal via the communication network, the camera angle, the focal length and the image A communication control means for receiving the size and the position at the second time and transmitting the label information to the landscape labeling terminal; and managing the map information, and controlling the position at the second time and the position at the first time. The visual field space in the map information space is obtained based on the camera angle and the focal length, and each structure in the visual field space is projected and converted to a camera plane, hidden surface processing is performed, and visible at a second time. The wax structure A map information management means for output, and the label information creation means for creating the label information including the extracted name or attribute information and the assigned position of the structure, the central control means for controlling the respective means.

【0015】[0015]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0016】図1を参照すると、本発明の一実施形態の
移動量予測型景観ラベリング装置は、画像を取得する、
例えばディジタルカメラである画像取得部1と、カメラ
位置を取得する、例えばGPS受信機である位置情報取
得部2と、カメラ角と焦点距離と画像サイズを取得す
る、例えばディジタルカメラに取り付けられた3次元電
子コンパスであるカメラ属性情報取得部3と、ラベリン
グ命令を受けた第1の時刻Sからラベル情報を表示可能
な第2の時刻Eまでの間前記カメラ角と前記焦点距離が
一定のままと仮定し、第2の時刻での位置を第1の時刻
Sを元に地理的情報と車両の移動速度から推定する移動
量予測部4と、地図情報を管理し、第2の時刻Eでの位
置と第1の時刻Sでのカメラ角と焦点距離を基に地図情
報空間の中で視野空間を求め、視野空間中の各構造物を
カメラ面に投影変換し、さらに隠面処理をして第2の時
刻Eにおいて見えるであろう構造物を抽出する地図情報
管理部5と、抽出した構造物の名称またはその属性情報
および付与位置を含むラベル情報を作成するラベル情報
作成部6と、取得したラベル情報中の付与位置の情報に
対応する、第2の時刻Eで取得した未加工の画像中の位
置に構造物の名称またはその属性情報を重畳し、重畳さ
れた画像を視覚機器に出力するラベル情報出力部7と、
上記各部を制御する制御部8で構成されている。
Referring to FIG. 1, a movement amount prediction type landscape labeling apparatus according to an embodiment of the present invention acquires an image.
For example, an image acquisition unit 1 which is a digital camera, a camera position is acquired, for example, a position information acquisition unit 2 which is a GPS receiver, and a camera angle, a focal length, and an image size are acquired. A camera attribute information acquisition unit 3 that is a three-dimensional electronic compass, and the camera angle and the focal length are kept constant from a first time S receiving a labeling instruction to a second time E at which label information can be displayed. Assuming that the position at the second time is estimated from the geographical information and the moving speed of the vehicle based on the first time S, the movement amount prediction unit 4 manages the map information, and the map information is managed at the second time E. The visual field space is obtained in the map information space based on the position, the camera angle and the focal length at the first time S, and each structure in the visual field space is projected and transformed on the camera surface, and further hidden surface processing is performed. Visible at second time E A map information management unit 5 for extracting a structure to be extracted, a label information creation unit 6 for creating label information including the name of the extracted structure or its attribute information and an assigned position, and a label information creating unit 6 for the assigned position in the acquired label information. A label information output unit 7 that superimposes the name of the structure or its attribute information at a position in the unprocessed image acquired at the second time E corresponding to the information, and outputs the superimposed image to the visual device;
The control section 8 controls the above sections.

【0017】図2は図1の景観ラベリング装置の処理の
流れ図である。
FIG. 2 is a flow chart of the processing of the landscape labeling device of FIG.

【0018】次に、本実施形態の動作を詳細に図2によ
り説明する。
Next, the operation of this embodiment will be described in detail with reference to FIG.

【0019】まず、時刻Sにラベル情報を作成するラベ
リング命令を受けると、制御部8は、位置情報取得部
2、カメラ属性情報取得部3に対して処理開始コマンド
を送る。位置情報取得部2は、制御部8から命令を受け
てGPS受信機等により位置情報を取得し、制御部8に
渡す(ステップ21)。カメラ属性情報取得部3は、制
御部8の命令を受けてカメラ等景観画像記録装置のカメ
ラ角を水平角と仰角の組で取得し(ステップ22)、焦
点距離を取得する(ステップ23)。画像サイズは景観
画像装置毎に固定なので、制御部8が画像サイズ情報を
保持しておく。制御部8は収集した情報を景観画像ファ
イルとして保持する。
First, upon receiving a labeling command for creating label information at time S, the control unit 8 sends a processing start command to the position information acquisition unit 2 and the camera attribute information acquisition unit 3. The position information obtaining unit 2 receives a command from the control unit 8, obtains position information using a GPS receiver or the like, and passes the position information to the control unit 8 (step 21). The camera attribute information acquisition unit 3 receives a command from the control unit 8, acquires a camera angle of a landscape image recording device such as a camera as a set of a horizontal angle and an elevation angle (Step 22), and acquires a focal length (Step 23). Since the image size is fixed for each landscape image device, the control unit 8 holds the image size information. The control unit 8 holds the collected information as a landscape image file.

【0020】図3は、景観画像ファイルのデータ構造の
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式で持つ。
FIG. 3 shows the file format of the data structure of the landscape image file. The landscape image file has header information and image data. The header information includes position information, camera angle information, focal length, time information, image size, type, and size of an image file. As location information,
East longitude, north latitude, and elevation data (for example, 137 degrees east 5 degrees
5 minutes 10 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m3
3 cm). The camera angle includes horizontal angle data and elevation angle data (for example, horizontal angle 254 degrees clockwise, elevation angle 15 degrees, etc.). The focal length data is the focal length (for example, 28 mm) of the camera lens at the time of capturing an image. The time information includes the time at the time of shooting (for example, 15:06:17, January 31, 1997, Japan time). As the image size of the image file, the vertical and horizontal pixel sizes (for example, 64
0 × 480). File type (TIF
E format, 8-bit color, etc.). It also has the number of bytes of the file (307.2 KB, etc.). The image data itself has, for example, a binary format.

【0021】制御部8は景観画像ファイルを格納する
と、自動車の移動速度とラベル表示間隔Tを取得する
(ステップ24、25)。次に、移動量予測部4は、第
1の時刻Sが時間T後、第2の時刻Eまでの間カメラ
角、焦点距離は一定のままであり、自動車は道路沿いに
走行しているものと仮定して時刻Eでの自動車の位置P
を時刻Sでの自動車の位置を基に道路に関する地理的情
報と自動車の移動速度から推定する(ステップ26)。
例えば道路が直線であれば自動車の移動速度に時間をか
けて距離を算出すれば位置Pが求まる。
After storing the landscape image file, the control unit 8 acquires the moving speed of the automobile and the label display interval T (steps 24 and 25). Next, the movement amount prediction unit 4 determines that the camera angle and the focal length remain constant from the first time S after the time T to the second time E, and the car is traveling along the road. And the position P of the car at time E
Is estimated from the geographical information on the road and the moving speed of the vehicle based on the position of the vehicle at time S (step 26).
For example, if the road is straight, the position P can be obtained by calculating the distance over the traveling speed of the automobile over time.

【0022】次に、制御部8は、景観画像ファイルのヘ
ッダ情報を地図情報管理部5に渡して視野空間の算出処
理を行う処理要求を出す。地図情報管理部5の例として
は、地図データベースプログラムがある。地図情報管理
部5は3次元地図データを管理している。2次元地図デ
ータでもよいが、その場合は高さ情報がないために実風
景へのラベリングの付与位置の精度が劣る。なお、2次
元地図データを基にする場合は、高さ情報を補って処理
する。例えば、家屋の2次元データである場合には、家
屋が何階建てかを表す階数情報があれば、階数に一定数
を掛けてその家屋の高さを推定し、2次元データと推定
して求めた高さ情報を基に3次元データを作成する。階
数情報がない場合でも、家屋図形の面積に応じて一定数
の高さを割り振る等して高さ情報を推定することがで
き、同様に推定高さ情報をもとに3次元データを作成す
る。こうして3次元データを作成して処理を進める。
Next, the control section 8 sends the header information of the landscape image file to the map information management section 5 and issues a processing request for calculating the view space. An example of the map information management unit 5 is a map database program. The map information management unit 5 manages three-dimensional map data. Although two-dimensional map data may be used, in this case, since there is no height information, the accuracy of the position at which the labeling is applied to the actual scenery is inferior. When the two-dimensional map data is used as the basis, the processing is performed by supplementing the height information. For example, in the case of two-dimensional data of a house, if there is floor information indicating the number of floors of the house, the height of the house is estimated by multiplying the number of floors by a certain number, and the two-dimensional data is estimated. Three-dimensional data is created based on the obtained height information. Even when there is no floor information, the height information can be estimated by assigning a certain number of heights according to the area of the house figure, and similarly, three-dimensional data is created based on the estimated height information. . In this way, three-dimensional data is created and the process proceeds.

【0023】3次元地図データの例を図4に示す。図4
(1)に2次元で表現した地図情報空間を示し、図4
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部5では制御
部8の命令を受けて地図DBをアクセスし(ステップ2
7)、景観画像ファイルのヘッダ情報を基に視野空間を
算出する(ステップ28)。図5に視野空間の計算例を
示す。まず、水平方向にXY軸が張り、垂直方向にZ軸
が張るものとする。景観画像ファイルのヘッダ情報中の
位置情報から、視点Eの位置を3次元地図情報空間の中
で設定する。例えば、東経137度55分19秒、北緯
34度34分30秒、標高101m33cmであれば、
それに対応する地図メッシュ番号中の対応する座標を設
定する。同じくヘッダ情報中のカメラ角情報中の水平角
と仰角をもとにカメラ角方向を設定する。カメラ角方向
を表す直線上に視点Eから焦点距離分進んだ点に焦点F
をとる。視線方向ベクトルはその直線上で視点Eから出
る長さlの単位ベクトルである。景観画像ファイルの画
像サイズで横方向のサイズからカメラ画面のX軸での幅
xを設定し、縦方向のサイズからY軸での幅yを設定す
る。横x縦yの平面は視線方向ベクトルに対してカメラ
角方向に垂直で、かつ焦点Fを含むように設定される。
視点Eの座標からカメラ画面の4隅の点とを結ぶ直線を
各々求め、視点Eから延びる4本の半直線が作る3次元
空間を視野空間とする。図6に、3次元地図空間での視
野空間の例を示す。3次元地図空間をXZ平面から眺め
たものである。図6中で斜線で囲まれた部分は視野空間
に属する空間の、XZ平面での断面図である。図6の例
では、視野空間の中のビルや山が含まれている。
FIG. 4 shows an example of three-dimensional map data. FIG.
(1) shows a map information space expressed in two dimensions, and FIG.
(2) shows a map information space expressed in three dimensions. This 3
The map information management unit 5 accesses the map DB in response to an instruction from the control unit 8 (step 2).
7) A visual field space is calculated based on the header information of the landscape image file (step 28). FIG. 5 shows a calculation example of the visual field space. First, it is assumed that the XY axes extend in the horizontal direction and the Z axis extends in the vertical direction. The position of the viewpoint E is set in the three-dimensional map information space from the position information in the header information of the landscape image file. For example, if 137 degrees 55 minutes 19 seconds east longitude, 34 degrees 34 minutes 30 seconds north latitude, and 101 m 33 cm above sea level,
The corresponding coordinates in the corresponding map mesh number are set. Similarly, the camera angle direction is set based on the horizontal angle and the elevation angle in the camera angle information in the header information. Focus F at a point advanced by focal length from viewpoint E on a straight line representing the camera angle direction
Take. The line-of-sight direction vector is a unit vector having a length 1 coming out of the viewpoint E on the straight line. In the image size of the landscape image file, the width x on the X-axis of the camera screen is set from the horizontal size, and the width y on the Y-axis is set from the vertical size. The horizontal x vertical y plane is set so as to be perpendicular to the camera angle direction with respect to the line of sight vector and to include the focal point F.
Straight lines connecting the four corner points of the camera screen are obtained from the coordinates of the viewpoint E, and a three-dimensional space formed by four half lines extending from the viewpoint E is defined as a visual field space. FIG. 6 shows an example of the visual field space in the three-dimensional map space. The three-dimensional map space is viewed from the XZ plane. In FIG. 6, a portion surrounded by oblique lines is a cross-sectional view of the space belonging to the viewing space on the XZ plane. In the example of FIG. 6, buildings and mountains in the visual field space are included.

【0024】さらに、地図情報管理部5では、求めた視
野空間の中に存在する構造物を求める。構造物毎に、構
造物を表す立体を構成する各頂点が、視野空間の内部領
域に存在するか否かを計算する。通常2次元地図空間は
一定サイズの2次元メッシュで区切られている。3次元
地図空間のメッシュの切り方としては、縦横の2次元方
向のメッシュに加えて高さ方向にも一定間隔でメッシュ
を切っていく。空間を直方体の単位空間で区切ることに
なる。まず、直方体の単位空間毎視野空間との重なり部
分の有無を調べ、重なり部分がある3次元単位地図空間
の番号を求める。ここでいう3次元単位地図空間の番号
とは、いわゆるメッシュ番号と同様のものである。重な
りを持つ3次元単位地図空間内にある構造物に対して、
視野空間と重なり部分の有無を調べる。構造物を構成す
る頂点の座標と視点の座標とを結ぶ直線を求め、その直
線が図7のカメラ画面に対して交点を持つならば視野空
間内にある。構造物を構成する複数の頂点のうち、一つ
の頂点でもこの条件を満たせば、この構造物は視野空間
と重なり部分を持つものとする。
Further, the map information management unit 5 obtains a structure existing in the obtained visual field space. For each structure, it is calculated whether or not each vertex constituting the solid representing the structure exists in the internal region of the viewing space. Usually, a two-dimensional map space is divided by a two-dimensional mesh of a fixed size. As a method of cutting a mesh in the three-dimensional map space, a mesh is cut at regular intervals in the height direction in addition to the two-dimensional mesh in the vertical and horizontal directions. The space is divided by a rectangular parallelepiped unit space. First, the presence or absence of an overlapping portion between the rectangular parallelepiped unit space and the visual field space is checked, and the number of the three-dimensional unit map space having the overlapping portion is obtained. The number of the three-dimensional unit map space here is the same as a so-called mesh number. For structures in the overlapping 3D unit map space,
Investigate whether there is any overlap with the visual field space. A straight line connecting the coordinates of the vertices constituting the structure and the coordinates of the viewpoint is obtained. If the straight line has an intersection with the camera screen of FIG. 7, it is within the visual field space. If at least one of the vertices constituting the structure satisfies this condition, the structure has an overlapping portion with the viewing space.

【0025】構造物が視野空間の内部に含まれるか、ま
たはその一部が含まれる場合、カメラ画面と投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ29)。ここで、図7に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。
If the structure is included in the visual field space or a part of the structure is included, a process for three-dimensionally projecting each structure onto the projection plane as a camera screen and a projection plane is started (step 29). ). Here, as shown in FIG. 7, after the point P is re-expressed in the coordinate system based on the viewpoint E based on the following equation (1), the point P is projected on the camera screen to obtain the intersection Q. .

【0026】[0026]

【数1】 ここで、 点P=(x,y,z):構造物を構成する頂点の座標 点E=(ex,ey,ez):視点の座標 ベクトルL=(lx,ly,lz):視線方向ベクトル
(単位ベクトル) 点P’=(x’,y’,z’):点Pの視点Eを基にし
た座標系で表現した場合の座標 r=(lx2 +ly21/2 交点Q=(X,Y):点Pのカメラ画面への投影点 tは焦点距離
(Equation 1) Here, point P = (x, y, z): coordinates of the vertices constituting the structure point E = (ex, ey, ez): coordinates of the viewpoint vector L = (lx, ly, lz): gaze direction vector (Unit vector) Point P ′ = (x ′, y ′, z ′): coordinates in a coordinate system based on the viewpoint E of the point P r = (lx 2 + ly 2 ) 1/2 intersection Q = (X, Y): Projection point t of point P on camera screen t is focal length

【0027】3次元投影変換にあたっては、まず各構造
物毎にその頂点が張る面を求める。例えば、直方体で表
現される構造物ならば、6つの面が求まる。各面をカメ
ラ画面に投影変換する際に、投影領域に含まれるカメラ
画面上の各画素に対し、視点とその面上の対応点との距
離を計算して奥行き値(Z値)としてメモリに格納す
る。各構造物の各面毎に、カメラ画面上の各画素に対す
る奥行き値(Z値)を計算し、メモリに格納する。なお
(式)1中のz’は視点からの奥行き値(Z値)を表
す。
In three-dimensional projection conversion, first, a surface on which the apex extends is determined for each structure. For example, in the case of a structure represented by a rectangular parallelepiped, six surfaces are obtained. When each plane is projected onto the camera screen, the distance between the viewpoint and the corresponding point on the plane is calculated for each pixel on the camera screen included in the projection area, and stored as a depth value (Z value) in the memory. Store. For each surface of each structure, a depth value (Z value) for each pixel on the camera screen is calculated and stored in a memory. Note that z ′ in (Equation 1) represents a depth value (Z value) from the viewpoint.

【0028】カメラ画面に3次元投影変換された構造物
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ3
0)。隠面処理の方法には、いろいろあるが、例えばZ
バッファ法を用いる。他のスキャンライン法、光線追跡
法でもよい。
Among the structures three-dimensionally projected and transformed onto the camera screen, there are structures that can be seen from the viewpoint and structures that cannot be seen. Among them, it is necessary to find only the structure that can be seen from the viewpoint, and to find the surface on the opposite side from the viewpoint or the surface that is blocked by other structures. Therefore, hidden surface processing is performed (step 3
0). There are various methods for processing the hidden surface.
Use the buffer method. Other scan line methods and ray tracing methods may be used.

【0029】カメラ画面上の画素を任意にとって、その
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。このようにして隠面にない構造物を抽
出する(ステップ31)。
A pixel on the camera screen is arbitrarily determined, and a plane having the smallest depth value for the pixel is determined. As described above, when processing is sequentially performed on each surface of each structure, the surface closest to the viewpoint is left for each pixel on the camera screen. The plane closest to the viewpoint is determined for each pixel on the camera screen, and pixels on the camera screen that share the plane closest to the viewpoint generally form an area.
There can be a plurality of regions consisting of pixels with the common surface being the closest surface. The region obtained in this way is a region obtained by performing a three-dimensional projection conversion of the partial region of the structure seen from the viewpoint. Surfaces on the other side of the view and those obstructed by other structures have been erased. In this way, a structure that is not on a hidden surface is extracted (step 31).

【0030】ラベル情報作成部6は、ラベル情報を作成
する処理(ステップ32)に入る。まず、3次元地図D
Bにアクセスしてその構造物の名称または属性情報を取
得する。ここで属性情報とは、その構造物に関して付随
する情報を意味し、その構造物に係る情報ならば何でも
よい。そして、名称または属性情報を重畳すべき位置座
標を決める。決め方は、どのように決めてもよい。その
構造物の名称または属性情報および付与位置座標からラ
ベル情報を作成する。表1にラベル情報の例を示す。
The label information creating section 6 enters a process of creating label information (step 32). First, 3D map D
B is accessed to acquire the name or attribute information of the structure. Here, the attribute information means information accompanying the structure, and may be any information as long as the information is related to the structure. Then, the position coordinates where the name or attribute information is to be superimposed are determined. How to decide may be decided any way. Label information is created from the name or attribute information of the structure and the assigned position coordinates. Table 1 shows an example of label information.

【0031】[0031]

【表1】 [Table 1]

【0032】ラベル情報作成部6は、ラベル情報を作成
し終ったら、制御部8にラベル情報を渡す。
When the label information creation unit 6 has completed the creation of the label information, it passes the label information to the control unit 8.

【0033】制御部8は、ラベル情報を受け取ると、ラ
ベル情報出力部7に対して視覚機器に対してラベル情報
を表示するように命令する。ここで、視覚機器は、ディ
スプレイ、ヘッドマウントディスプレイ等の映像表示装
置を含む。ラベル情報中の構造物の名称または属性情報
を景観画像中の位置に重畳し(ステップ34)、重畳さ
れた景観画像を映像表示装置に出力する(ステップ3
5)。図8にラベル情報が重畳された景観画像の例を示
す。
When receiving the label information, the control unit 8 instructs the label information output unit 7 to display the label information on the visual device. Here, the visual device includes a video display device such as a display or a head-mounted display. The name or attribute information of the structure in the label information is superimposed on the position in the landscape image (step 34), and the superimposed landscape image is output to the video display device (step 3).
5). FIG. 8 shows an example of a landscape image on which label information is superimposed.

【0034】ラベル情報を付す動作を繰り返す場合に
は、図2の処理を繰り返せばよい。
When the operation of adding the label information is repeated, the processing of FIG. 2 may be repeated.

【0035】図9は図1の景観ラベリング装置を通信シ
ステムに適用した移動量予測型景観ラベリングシステム
の構成図である。
FIG. 9 is a configuration diagram of a movement amount prediction type landscape labeling system in which the landscape labeling device of FIG. 1 is applied to a communication system.

【0036】本景観ラベリングシステムは、自動車に搭
載された景観ラベリング端末40と景観ラベリングセン
ター50と通信網60で構成される。
The landscape labeling system includes a landscape labeling terminal 40 mounted on a vehicle, a landscape labeling center 50, and a communication network 60.

【0037】景観ラベリング端末40は、画像を取得す
る画像取得部41と、位置を取得する位置情報取得部4
2と、カメラ角と焦点距離と画像サイズを取得するカメ
ラ属性情報取得部43と、ラベリング命令を受けた第1
の時刻Sからラベル情報を表示可能な第2の時刻Eまで
の時間差の間前記カメラ角と前記焦点距離が一定のまま
と仮定し、第2の時刻Eでの自動車の位置Pを第1の時
刻Sを基に地理的情報と自動車の移動速度から推定する
移動量予測部44と、カメラ角と焦点距離と画像サイズ
と第2の時刻での自動車の位置Pを通信網60を介して
景観ラベリングセンター50に送信し、景観ラベリング
センター50からラベル情報を受信する通信制御部45
と、ラベル情報中の構造物の名称または属性情報を、第
2の時刻Eで取得した未加工の画像中の付与位置に対応
する位置に重畳し、重畳された画像を視覚機器に表示す
るラベル情報出力部47と、上記各部を制御する端末制
御部46で構成される。
The landscape labeling terminal 40 includes an image acquisition unit 41 for acquiring an image and a position information acquisition unit 4 for acquiring a position.
2, a camera attribute information acquisition unit 43 for acquiring a camera angle, a focal length, and an image size;
It is assumed that the camera angle and the focal length remain constant during the time difference from the time S to the second time E at which the label information can be displayed, and the position P of the vehicle at the second time E is set to the first time. A movement amount prediction unit 44 for estimating from the geographical information and the moving speed of the vehicle based on the time S, and a camera angle, a focal length, an image size, and a position P of the vehicle at the second time are landscaped via the communication network 60. Communication control unit 45 that transmits to labeling center 50 and receives label information from landscape labeling center 50
And a label that superimposes the name or attribute information of the structure in the label information at a position corresponding to the application position in the unprocessed image acquired at the second time E, and displays the superimposed image on a visual device. It comprises an information output unit 47 and a terminal control unit 46 for controlling each of the above units.

【0038】景観ラベリングセンター50は通信網60
を介して景観ラベリング端末40からカメラ角と焦点距
離と画像サイズと第2の時刻Eでの自動車の位置を受信
し、景観ラベリング端末40にラベル情報を送信する通
信制御部53と、地図情報を管理し、第2の時刻Eでの
位置と第1の時刻Sでのカメラ角と焦点距離を基に地図
情報空間の中での視野空間を求め、視野空間中の各構造
物をカメラ面に投影変換し、さらに隠面処理をして第2
の時刻Eにおいて見えるであろう構造物を抽出する地図
情報管理部51と、抽出した前記構造物の名称または属
性情報および付与位置を含むラベル情報を作成するラベ
ル情報作成部52と、上記各部を制御するセンター制御
部54で構成される。
The landscape labeling center 50 has a communication network 60.
A communication control unit 53 that receives the camera angle, the focal length, the image size, and the position of the vehicle at the second time E from the landscape labeling terminal 40 via the GPS controller and transmits label information to the landscape labeling terminal 40; Manages, obtains a view space in the map information space based on the position at the second time E and the camera angle and the focal length at the first time S, and places each structure in the view space on the camera plane. Projection transformation, hidden surface processing and second
A map information management unit 51 for extracting a structure that may be seen at time E, a label information creation unit 52 for creating label information including the extracted name or attribute information of the structure and the assigned position, It comprises a center control unit 54 for controlling.

【0039】本システムの動作は図1の装置の動作と同
様である。
The operation of the present system is the same as the operation of the apparatus shown in FIG.

【0040】[0040]

【発明の効果】以上説明したように本発明によれば、自
動車等に景観ラベリング装置を搭載して自動車から見え
る画像にラベル情報を付する場合に、ラベル情報の付与
位置がずれてしまうことがなくなる。
As described above, according to the present invention, when a scene labeling device is mounted on an automobile or the like and label information is added to an image viewed from the automobile, the position where the label information is added may be shifted. Disappears.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の移動量予測型景観ラベリ
ング装置の構成図である。
FIG. 1 is a configuration diagram of a movement amount prediction type landscape labeling device according to an embodiment of the present invention.

【図2】図1の景観ラベリング装置の処理の流れ図であ
る。
FIG. 2 is a flowchart of processing of the landscape labeling device of FIG. 1;

【図3】景観画像ファイルのデータ構造を示す図であ
る。
FIG. 3 is a diagram showing a data structure of a landscape image file.

【図4】2次元地図の例(同図(1))とその3次元地
図(同図(2))を示す図である。
FIG. 4 is a diagram showing an example of a two-dimensional map (FIG. 1 (1)) and its three-dimensional map (FIG. 2 (2)).

【図5】視野空間の計算方法を示す図である。FIG. 5 is a diagram illustrating a calculation method of a visual field space.

【図6】3次元地図空間での視野空間の例を示す図であ
る。
FIG. 6 is a diagram illustrating an example of a visual field space in a three-dimensional map space.

【図7】投影図の例を示す図である。FIG. 7 is a diagram showing an example of a projection view.

【図8】景観画像へのラベル情報の重畳の例を示す図で
ある。
FIG. 8 is a diagram illustrating an example of superimposition of label information on a landscape image.

【図9】本発明の一実施形態の移動量予測型景観ラベリ
ングシステムの構成図である。
FIG. 9 is a configuration diagram of a movement prediction type landscape labeling system according to an embodiment of the present invention.

【図10】特開平8−273000号に開示されたナビ
ゲーション装置の構成図である。
FIG. 10 is a configuration diagram of a navigation device disclosed in JP-A-8-273000.

【図11】動画像の表示例を示す図である。FIG. 11 is a diagram illustrating a display example of a moving image.

【符号の説明】[Explanation of symbols]

1 画像取得部 2 位置情報取得部 3 カメラ属性情報取得部 4 移動量予測部 5 地図情報管理部 6 ラベル情報作成部 7 ラベル情報出力部 8 制御部 21〜35 ステップ 40 ラベリング端末 41 画像取得部 42 位置情報取得部 43 カメラ属性情報取得部 44 移動量予測部 45 通信制御部 46 端末制御部 47 ラベル情報出力部 50 景観ラベリングセンター 51 地図情報管理部 52 ラベル情報作成部 53 通信制御部 54 センター制御部 60 通信網 DESCRIPTION OF SYMBOLS 1 Image acquisition part 2 Position information acquisition part 3 Camera attribute information acquisition part 4 Movement amount prediction part 5 Map information management part 6 Label information creation part 7 Label information output part 8 Control part 21-35 Step 40 Labeling terminal 41 Image acquisition part 42 Position information acquisition unit 43 Camera attribute information acquisition unit 44 Movement amount estimation unit 45 Communication control unit 46 Terminal control unit 47 Label information output unit 50 Scenery labeling center 51 Map information management unit 52 Label information creation unit 53 Communication control unit 54 Center control unit 60 communication network

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高野 正次 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 池田 武史 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Shoji Takano 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation (72) Takeshi Ikeda 3--19, Nishishinjuku, Shinjuku-ku, Tokyo No. 2 Nippon Telegraph and Telephone Corporation

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載されて、車両から見える画像
に対してラベルを付す移動量予測型景観ラベリング装置
であって、 画像を取得する画像取得手段と、 カメラ位置を取得する位置情報取得手段と、 カメラ角と焦点距離と画像サイズを取得するカメラ属性
情報取得手段と、 ラベリング命令を受けた第1の時刻からラベル情報を表
示可能な第2の時刻までの間前記カメラ角と前記焦点距
離が一定のままと仮定し、第2の時刻での位置を第1の
時刻を元に地理的情報と車両の移動速度から推定する移
動量予測手段と、 地図情報を管理し、第2の時刻での位置と第1の時刻で
のカメラ角と焦点距離を基に地図情報空間の中で視野空
間を求め、視野空間中の各構造物をカメラ面に投影変換
し、さらに隠面処理をして第2の時刻において見えるで
あろう構造物を抽出する地図情報管理手段と、 抽出した構造物の名称またはその属性情報および付与位
置を含むラベル情報を作成するラベル情報作成手段と、 作成されたラベル情報中の付与位置の情報に対応する、
第2の時刻で取得した画像中の位置に構造物の名称また
はその属性情報を重畳し、重畳された画像を視覚機器に
表示するラベル情報出力手段と、 上記各手段を制御する制御手段を有する移動量予測型景
観ラベリング装置。
1. A movement amount prediction type landscape labeling device mounted on a vehicle and attaching a label to an image viewed from the vehicle, wherein the image acquisition unit acquires an image, and the position information acquisition unit acquires a camera position. Camera attribute information obtaining means for obtaining a camera angle, a focal length, and an image size; and a camera angle and the focal length from a first time at which a labeling instruction is received to a second time at which label information can be displayed. Is assumed to be constant, a movement amount prediction means for estimating the position at the second time from the geographical information and the moving speed of the vehicle based on the first time, and managing the map information, the second time Calculates the visual field space in the map information space based on the position at, the camera angle and the focal length at the first time, projects each structure in the visual field space onto the camera plane, and further performs hidden surface processing. At the second time Map information management means for extracting a structure to be used, label information creation means for creating label information including the name of the extracted structure or its attribute information and the assigned position, and information on the assigned position in the created label information. Corresponding,
A label information output unit that superimposes the name of the structure or its attribute information at a position in the image acquired at the second time and displays the superimposed image on a visual device; and a control unit that controls the above units. A landscape labeling device that predicts the amount of movement.
【請求項2】 車両に搭載された景観ラベリング端末と
景観ラベリングセンターからなり、 前記景観ラベリング端末は、画像を取得する画像取得手
段と、カメラ位置を取得する位置情報取得手段と、カメ
ラ角と焦点距離と画像サイズを取得するカメラ属性情報
取得手段と、ラベリング命令を受けた第1の時刻からラ
ベル情報を表示可能な第2の時刻までの間前記カメラ角
と前記焦点距離が一定のままと仮定し、第2の時刻での
位置を第1の時刻を基に地理的情報と車両の移動速度か
ら推定する移動量予測手段と、前記カメラ角と前記焦点
距離と前記画像サイズと第2の時刻での位置を通信網を
介して前記景観ラベリングセンターに送信し、前記景観
ラベリングセンターからラベル情報を受信する通信制御
手段と、前記ラベル情報中の構造物の名称またはその属
性情報を、第2の時刻で取得した未加工の画像中の付与
位置に対応する位置に重畳し、重畳された画像を視覚機
器に表示するラベル情報出力手段と、前記各手段を制御
する端末制御手段を有し、 前記景観ラベリングセンターは、前記通信網を介して前
記景観ラベリング端末から前記カメラ角と前記焦点距離
と前記画像サイズと前記第2の時刻での位置を受信し、
前記景観ラベリング端末に前記ラベル情報を送信する通
信制御手段と、地図情報を管理し、第2の時刻での位置
と第1の時刻でのカメラ角と焦点距離を基に地図情報空
間の中での視野空間を求め、視野空間中の各構造物をカ
メラ面に投影変換し、さらに隠面処理をして第2の時刻
において見えるであろう構造物を抽出する地図情報管理
手段と、抽出した前記構造物の名称または属性情報およ
び付与位置を含む前記ラベル情報を作成するラベル情報
作成手段と、前記各手段を制御するセンター制御手段を
有する移動量予測型景観ラベリングシステム。
2. A landscape labeling terminal and a landscape labeling center mounted on a vehicle, wherein the landscape labeling terminal is an image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position, a camera angle and a focus. A camera attribute information acquiring unit for acquiring a distance and an image size; and assuming that the camera angle and the focal length remain constant from a first time at which a labeling instruction is received to a second time at which label information can be displayed. A moving amount estimating means for estimating a position at a second time from geographical information and a moving speed of the vehicle based on the first time; a camera angle, the focal length, the image size, and a second time Communication control means for transmitting the position at the landscape labeling center via the communication network, and receiving the label information from the landscape labeling center, the structure of the structure in the label information Label information output means for superimposing the name or its attribute information on the position corresponding to the application position in the unprocessed image obtained at the second time, and displaying the superimposed image on a visual device; Has a terminal control means to control, the landscape labeling center receives the camera angle, the focal length, the image size and the position at the second time from the landscape labeling terminal via the communication network,
Communication control means for transmitting the label information to the landscape labeling terminal, and managing the map information, in the map information space based on the position at the second time and the camera angle and the focal length at the first time Map information management means for obtaining the visual field space of the object, projecting and transforming each structure in the visual field space onto the camera surface, further performing hidden surface processing, and extracting the structure that will be visible at the second time. A movement amount prediction type landscape labeling system, comprising: label information creating means for creating the label information including the name or attribute information of the structure and the assigned position; and a center control means for controlling each of the means.
JP9217727A 1997-08-12 1997-08-12 Movement amount predictive scene labeling device and system Pending JPH1166349A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9217727A JPH1166349A (en) 1997-08-12 1997-08-12 Movement amount predictive scene labeling device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9217727A JPH1166349A (en) 1997-08-12 1997-08-12 Movement amount predictive scene labeling device and system

Publications (1)

Publication Number Publication Date
JPH1166349A true JPH1166349A (en) 1999-03-09

Family

ID=16708804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9217727A Pending JPH1166349A (en) 1997-08-12 1997-08-12 Movement amount predictive scene labeling device and system

Country Status (1)

Country Link
JP (1) JPH1166349A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081848A (en) * 1999-12-24 2011-04-21 Koninkl Philips Electronics Nv 3d environment labeling
KR20170005976A (en) * 2015-07-07 2017-01-17 주식회사 만도 Distance calculating apparatus and distance calculating method and driving assist apparatus and driving assist system
JP6434666B1 (en) * 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program
JP2020504387A (en) * 2017-01-03 2020-02-06 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Determination of movement information by ambient sensor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081848A (en) * 1999-12-24 2011-04-21 Koninkl Philips Electronics Nv 3d environment labeling
KR20170005976A (en) * 2015-07-07 2017-01-17 주식회사 만도 Distance calculating apparatus and distance calculating method and driving assist apparatus and driving assist system
JP2020504387A (en) * 2017-01-03 2020-02-06 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Determination of movement information by ambient sensor
JP6434666B1 (en) * 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program
JP2019148899A (en) * 2018-02-26 2019-09-05 京セラ株式会社 Electronic device, control method, and program
US10542161B2 (en) 2018-02-26 2020-01-21 Kyocera Corporation Electronic device, control method, and recording medium

Similar Documents

Publication Publication Date Title
US6222583B1 (en) Device and system for labeling sight images
JPH1165431A (en) Device and system for car navigation with scenery label
US9858717B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
EP3359918B1 (en) Systems and methods for orienting a user in a map display
JP3225882B2 (en) Landscape labeling system
JP3798469B2 (en) Navigation device
US10291898B2 (en) Method and apparatus for updating navigation map
JP6896688B2 (en) Position calculation device, position calculation program, position calculation method, and content addition system
JP6110780B2 (en) Additional information display system
JP3156646B2 (en) Search-type landscape labeling device and system
JPH1186034A (en) Human navigati0n device with scenery label and system therefor
JP2000050156A (en) News supporting system
JP3053172B2 (en) Distance reference type landscape labeling device and system
JP3156645B2 (en) Information transmission type landscape labeling device and system
JP3114862B2 (en) An interactive landscape labeling system
JPH1157209A (en) Rally game system using view label
JP3053169B2 (en) Communication device and system using landscape label
JP3156649B2 (en) Deformable label landscape labeling device and system
JPH1166349A (en) Movement amount predictive scene labeling device and system
CN106846388B (en) Image map registration method and system
JP2001005994A (en) Device and method for image processing
JPH1132250A (en) Verbal guiding type sight labeling device and system
JPH1131239A (en) Direction under consideration landscape labeling device and system
JP2009276266A (en) Navigation device
JPH1157206A (en) Shooting game system using view label