JPH1157206A - Shooting game system using view label - Google Patents

Shooting game system using view label

Info

Publication number
JPH1157206A
JPH1157206A JP9228541A JP22854197A JPH1157206A JP H1157206 A JPH1157206 A JP H1157206A JP 9228541 A JP9228541 A JP 9228541A JP 22854197 A JP22854197 A JP 22854197A JP H1157206 A JPH1157206 A JP H1157206A
Authority
JP
Japan
Prior art keywords
information
image
user
terminal
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9228541A
Other languages
Japanese (ja)
Inventor
Takahiro Matsumura
隆宏 松村
Toshiaki Sugimura
利明 杉村
Masaji Katagiri
雅二 片桐
Akira Suzuki
晃 鈴木
Takeshi Ikeda
武史 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP9228541A priority Critical patent/JPH1157206A/en
Publication of JPH1157206A publication Critical patent/JPH1157206A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To present computer-derived topographical information and an image of the real view to users while associating the information with each part of the image and to make a real shooting game possible in a real city. SOLUTION: This system transmits position information (with time) about users and shooting information from a terminal to a center 20 at regular time intervals. A game information control part 25 controls the position information about each user and the shooting information and delivers position information about a user who is not defunct at the present to a map information control part 21. At the map information control part 21, a structure where a user participating in a game is present is detected on the basis of the position information about the participating user not defunct at the present, and a label information originating part 22 originates user position label information for notifying each user that the game participant is present in the structure. The user position label information is delivered to the label information output part 17 of the terminal and displayed on the HMD of the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等の景観画
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention superimposes and displays, on an image display device, geographical information about each partial area in an image taken by a user using a landscape image input device such as a camera. The present invention relates to a device that teaches a user by voice guidance or the like.

【0002】[0002]

【従来の技術】従来、利用者がいる周辺に関する地理的
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。
2. Description of the Related Art Conventionally, there have been various navigation systems as systems for instructing users on geographical information about the area where the users are located.

【0003】図12は特開平8−273000号に開示
されたナビゲーション装置の構成図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示用道路データおよ
び表示用背景データを発生させる表示用データ発生部7
2と、これらの表示用データに基づいて3次元動画像デ
ータを作成する3次元動画像データ作成部73と、記憶
部74を有し、ナビゲーション装置のユーザが目的地、
経由地を含む走行経路を事前に設定する場合に、地図画
面でなく実際に存在する道路に沿ったリアルな動画像表
示画面を見ながら経路を設定できる機能を有する。
FIG. 12 is a block diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000. This device receives a vehicle position data and a movement data, receives a road map data, updates a vehicle position with reference to a position updating unit 71, and displays display road data and display background data based on map data and the like. Display data generator 7 to be generated
2, a three-dimensional moving image data creating unit 73 for creating three-dimensional moving image data based on these display data, and a storage unit 74.
When a travel route including a waypoint is set in advance, the device has a function of setting a route while viewing a real moving image display screen along a road that actually exists instead of a map screen.

【0004】この装置によれば、ユーザは実際に在る経
路に沿って走行するときに、その経路に沿った動画像表
示(例えば、図13)を見ることができる。
According to this device, when a user travels along a route that actually exists, the user can see a moving image display (for example, FIG. 13) along the route.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、同装置
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識しな
ければならない。つまり、利用者の眼前にある実際の建
物や道路や山が何であるかを、動画像表示された地図中
の記号等を基にして人間が肉眼を頼りにして人間の脳を
無意識に働かせて対応付けの作業を行って理解しなけれ
ばならない。街角等では、コンピュータでの地図と実際
の景観を見比べては方角を把握したり目印を見つけたり
してその方向を注視し、その方向にある建物の特徴を理
解した上で再度地図を見てその建物が何であるかを理解
している。
However, in the case of using the same device, the human finally associates the real scene with the geographical information in the computer world with the naked eye, so that the person in the real scene can be used. You have to recognize what is. In other words, humans rely on the naked eye to work the human brain unconsciously, based on the symbols in the map displayed as a moving image, to determine what the actual buildings, roads, and mountains are in front of the user. It must be understood by performing the work of association. At street corners, etc., comparing the map on the computer with the actual scenery, grasping the direction and finding landmarks, gazing at the direction, understanding the characteristics of the building in that direction, and then looking at the map again Understand what the building is.

【0006】このため、何度もコンピュータ上の地図と
実風景を見比べて人間の方で対応付けする手間は省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。
[0006] For this reason, there is a problem that the trouble of comparing the map on the computer with the actual scenery many times and associating with the human cannot be omitted. Especially in the dark or at night, it is difficult to see the actual scenery and to take measures.

【0007】また、パソコンの中での射撃ゲームは現実
感が少なく物足りないという欠点がある。
Further, there is a disadvantage that the shooting game in a personal computer has little realism and is unsatisfactory.

【0008】本発明の目的は、コンピュータ上の地理的
情報と実風景の画像(以下、景観画像と呼ぶ。)中の各
部分とを対応付けて利用者に教示するとともに、現実の
市街で射撃ゲームができる景観ラベル利用型射撃ゲーム
システムを提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to teach a user by associating geographical information on a computer with each part in an image of a real scene (hereinafter, referred to as a landscape image), and to shoot in a real city. An object of the present invention is to provide a landscape label-based shooting game system capable of playing games.

【0009】[0009]

【課題を解決するための手段】本発明は、コンピュータ
上の地図データを3次元データとして予め作成してお
き、画像(CG画像と区別するため以降景観画像と呼
ぶ)が入力されるときの位置とカメラの角度と焦点距離
と画像サイズを撮影時に取得し、コンピュータ上の3次
元地図空間内で実風景撮影時の位置とカメラの角度と焦
点距離から眺望した場合のコンピュータグラフィックス
(以下、CGとする。)画像内での地理的情報を取得
し、その地理的情報を、実風景である景観画像に重畳表
示することで対応付けを実現するものである。この地理
的情報とは画像での、構造物等の名称またはその属性情
報であり、属性情報とはその構造物に関するあらゆる属
性(例えば輪郭、色等)についての情報を意味する。こ
の明細書の中では構造物という言葉を人工の構造物以外
に、山や川や海等の天然の地形も含めて地図DBでの何
らかの地理的構造を有するデータ全ての意味で用いるこ
ととする。地理的情報の取得にあたっては、カメラ位
置、カメラ角、焦点距離、画像サイズをもとに景観画像
を求め、複数画像の構造物を求める。その構造物が写っ
ているはずの景観画像の位置(以下、付与位置と称す)
を求めて、構造物の名称または属性情報を重畳表示す
る。
According to the present invention, map data on a computer is created in advance as three-dimensional data, and a position at which an image (hereinafter referred to as a landscape image to distinguish it from a CG image) is input. , Camera angle, focal length, and image size at the time of shooting, and computer graphics (hereinafter referred to as CG) when viewed from the position at the time of shooting the actual scenery, the camera angle, and the focal length in the three-dimensional map space on the computer. This is to achieve the association by acquiring geographical information in the image and superimposing and displaying the geographical information on a landscape image which is a real scene. The geographic information is the name of a structure or the like or its attribute information in an image, and the attribute information means information on all attributes (for example, contour, color, etc.) of the structure. In this specification, the term structure is used to mean all data having a certain geographical structure in the map DB, including natural topography such as mountains, rivers, and the sea, in addition to artificial structures. . When acquiring geographic information, a landscape image is obtained based on a camera position, a camera angle, a focal length, and an image size, and a structure of a plurality of images is obtained. The position of the landscape image where the structure should be shown (hereinafter, referred to as the assigned position)
Is obtained, and the name or attribute information of the structure is superimposed and displayed.

【0010】さらに、景観画像での構造物とCG画像で
の構造物との対応付けの精度をさらに上げるためには、
景観画像の各部分領域に対して先に獲得した構造物をパ
ターンマッチングにより対応付ける。獲得した構造物を
基にしてCG画像を作成し、景観画像の前記部分領域に
対してパターンマッチングによりCG画像中の部分領域
を対応付け、対応付けられた部分領域のもととなった構
造物を求める。
Further, in order to further increase the accuracy of associating a structure in a landscape image with a structure in a CG image,
The previously acquired structure is associated with each partial region of the landscape image by pattern matching. A CG image is created on the basis of the acquired structure, a partial region in the CG image is associated with the partial region of the landscape image by pattern matching, and the structure as a source of the associated partial region Ask for.

【0011】ここで、CG画像の作成法の一例について
述べる。先に取得したカメラ位置とカメラ角度と焦点距
離と画像サイズを基に3次元地図DBにアクセスして、
3次元地図空間内での視野空間を求める。視野空間中の
構造物を求め、カメラ画面を投影面として、各構造物の
立体データをこの投影面に3次元投影変換する。さらに
各構造物の投影図形を構成する線データのうち、他の構
造物に隠れて見えない線データを法線ベクトル法等の手
法を用いて隠線消去する。隠線消去して残った線データ
を基にして、CG画像を領域分割する。3次元地図DB
を利用しているため、各領域毎にその領域のもととなる
構造物の名称を対応付けできる。
Here, an example of a method for creating a CG image will be described. By accessing the three-dimensional map DB based on the camera position, camera angle, focal length, and image size obtained earlier,
Obtain the visual field space in the three-dimensional map space. A structure in the visual field space is obtained, and three-dimensional data of each structure is three-dimensionally projected and converted onto the projection plane using the camera screen as a projection plane. Further, of the line data constituting the projected figure of each structure, line data hidden by other structures and invisible is erased using a normal vector method or the like. The CG image is divided into regions based on the line data remaining after the elimination of the hidden lines. 3D map DB
Is used, the name of the structure that is the basis of the area can be associated with each area.

【0012】そうして、パターンマッチングにより景観
画像の各部分領域に対応付けられたCG画像の部分領域
の構造物名称を抽出する。抽出した構造物名称を重畳す
べき実風景画像の位置座標を、3次元地図空間中での構
造物の位置座標を先の投影面に3次元投影変換して求め
る。抽出した構造物名称を重畳すべき実風景画像の位置
座標からラベル情報を作成する。ラベル情報を基に実風
景である景観画像に構造物名称を重畳して、視覚機器に
表示する。
Then, the structure name of the partial area of the CG image associated with each partial area of the landscape image is extracted by pattern matching. The position coordinates of the actual scenery image on which the extracted structure name is to be superimposed are obtained by three-dimensionally projecting the position coordinates of the structure in the three-dimensional map space onto the projection plane. Label information is created from the position coordinates of the actual scenery image on which the extracted structure name is to be superimposed. Based on the label information, the structure name is superimposed on a landscape image as a real scene and displayed on a visual device.

【0013】本発明ではさらに、現実の市街での射撃ゲ
ームができるようにするために下記の構成をとる。
In the present invention, the following configuration is adopted to enable a shooting game in a real city.

【0014】まず、端末からセンターへユーザに関する
位置情報(時刻付)および射撃情報を一定時間毎に通信
制御手段が送る。ここで、射撃情報といっているのは、
各ユーザが他のユーザに向けて光線銃を発射した(この
ことはセンターへ通知される)ときの時刻および銃の位
置・角度に関する情報、または各ユーザが他のユーザか
ら光線銃を発射され、発射された側のユーザの体に装着
されたセンサーが光線を検出したときの時刻のことであ
る。センター側の通信制御手段はゲーム情報管理手段に
ユーザに関する位置情報および射撃情報をセンター制御
手段経由で渡す。ゲーム情報管理手段では、各ユーザの
位置情報および射撃情報を管理し、発射した側と発射さ
れた側の銃撃情報を照合して対応が検出できたら、一方
のユーザが他方のユーザを銃撃したものとして銃撃した
側のユーザに得点を与え、銃撃された側のユーザから得
点を奪う。得点があるしきい値以下になった場合は、死
亡したものとみなしてゲーム参加ユーザのリストから削
除する。ゲーム情報管理手段では、現在死亡していない
ユーザの位置情報をセンター制御手段へ渡す。センター
制御手段では、ユーザの位置情報をラベル情報作成手段
に渡す。地図情報管理手段では、現在死亡していない参
加中のユーザーの位置情報を元にして、ゲームに参加中
のユーザが存在する構造物を求め、ラベル情報作成手段
ではその構造物にゲーム参加者が存在することを各ユー
ザに教示するためのユーザ位置ラベル情報を作成して、
通常のラベル情報に加えてセンター制御手段に渡す。こ
こで、ユーザ位置ラベル情報とは、生存し参加中のユー
ザが存在する構造物の名称または属性情報およびユーザ
の位置情報からなる。ユーザ位置ラベル情報は通信制御
部を介してラベル情報出力手段に渡り、ユーザのHMD
等の視覚機器に表示される。
First, the communication control means sends position information (with time) and shooting information relating to the user from the terminal to the center at regular intervals. Here, the shooting information is called
Information on the time and the position and angle of the gun when each user fires a ray gun at another user (this is notified to the center), or each user fires a ray gun from another user, This is the time when a sensor attached to the body of the user on the side of the emission detects a light beam. The communication control means on the center side passes position information and shooting information on the user to the game information management means via the center control means. In the game information management means, the position information and shooting information of each user is managed, and if the correspondence is detected by comparing the shooting information of the firing side and the shooting information of the firing side, one user shoots the other user The score is given to the user on the shooting side and the score is deprived of the user on the shooting side. If the score falls below a certain threshold, it is regarded as dead and deleted from the list of game participating users. The game information management means passes the position information of the user who has not died at present to the center control means. The center control means passes the position information of the user to the label information creation means. The map information management means obtains a structure in which the user who is participating in the game exists based on the positional information of the participating users who are not currently deceased. Create user position label information to teach each user that it exists,
It is passed to the center control means in addition to the normal label information. Here, the user position label information includes the name or attribute information of the structure in which the user who is alive and participating exists and the position information of the user. The user position label information is passed to the label information output means via the communication control unit, and the user's HMD
Etc. are displayed on visual equipment.

【0015】本発明の景観ラベル利用型射撃ゲームシス
テムは、複数の端末とセンターからなり、前記各端末
は、画像を取得する画像取得手段と、画像取得時のカメ
ラ位置を取得する位置情報取得手段と、画像取得時のカ
メラ角と焦点距離と画像サイズを取得するカメラ属性情
報取得手段と、取得した画像を複数の部分領域に分割す
る画像処理手段と、当該端末のユーザが他端末のユーザ
に向けて光線銃を発射したときの時刻および銃の位置・
角度に関する情報を取得し、また当該端末が他端末から
光線銃を発射され、該光線を検出した時刻を含む射撃情
報をセンターを経て取得する射撃情報取得手段と、前記
画像の領域分割に関する情報と前記カメラ位置と前記カ
メラ角と前記焦点距離と前記画像サイズを通信網を介し
てセンターに送信し、また当該端末の時刻付位置情報と
前記射撃情報を一定時間毎に通信網を介して前記センタ
ーに送信し、前記センターからラベル情報とユーザ位置
ラベル情報を受信する通信制御手段と、前記ラベル情報
中の構造物の名称またはその属性情報を画像中の付与位
置に対応する位置に重畳し、重畳された画像を視覚機器
に表示し、また前記ユーザ位置ラベル情報を視覚機器に
表示するラベル情報出力手段と、前記各手段を制御する
端末制御手段を有し、前記センターは、前記通信網を介
して前記各端末から前記画像の領域分割に関する情報と
前記カメラ位置と前記カメラ角と前記焦点距離と前記画
像サイズと各端末の時刻付位置情報と射撃情報を受信
し、前記端末に前記ラベル情報と前記ユーザ位置ラベル
情報を送信する通信制御手段と、地図情報を管理し、受
信したカメラ位置とカメラ角と焦点距離と画像サイズを
基に地図情報空間の中で視野空間を求め、その視野空間
中に存在する構造物を獲得し、また現在死亡していない
ゲーム参加中のユーザの位置情報を元にして、ゲームに
参加中のユーザが存在する構造物を求める地図情報管理
手段と、各端末のユーザの位置情報および射撃情報を管
理し、発射した側と発射された側の銃撃情報を照合して
対応が検出できたら、一方の端末のユーザが他方の端末
ユーザを銃撃したものとして銃撃した側のユーザに得点
を与え、銃撃された側のユーザから得点を奪い、得点が
あるしきい値以下になった場合は、死亡したものとみな
してゲーム参加ユーザのリストから削除し、現在死亡し
ていないユーザの位置情報を出力するゲーム情報管理手
段と、前記画像の前記部分領域に対して前記獲得した構
造物を対応付け、対応付けられた前記構造物の名称また
は属性情報および付与位置を含む前記ラベル情報を作成
し、またゲームに参加中のユーザが存在する構造物にゲ
ーム参加中のユーザが存在することを各端末のユーザに
教示するための、ゲーム参加中のユーザが存在する構造
物の名称または属性情報およびユーザの位置情報からな
るユーザ位置ラベル情報を作成するラベル情報作成手段
と、前記各手段を制御するセンター制御手段を有する。
The shooting game system using a landscape label according to the present invention comprises a plurality of terminals and a center, wherein each of the terminals is an image obtaining means for obtaining an image, and a position information obtaining means for obtaining a camera position at the time of obtaining the image. A camera attribute information acquisition unit for acquiring a camera angle, a focal length, and an image size at the time of image acquisition; an image processing unit for dividing the acquired image into a plurality of partial regions; The time when the light gun was fired at it and the position of the gun
Acquisition information about the angle, and the terminal is fired by a ray gun from another terminal, and shooting information acquisition means for acquiring, via a center, shooting information including the time at which the light ray was detected, and information on area division of the image, The camera position, the camera angle, the focal length, and the image size are transmitted to a center via a communication network, and the time-attached position information and the shooting information of the terminal are transmitted to the center via the communication network at regular intervals. Communication control means for transmitting label information and user position label information from the center, and superimposing the name of the structure in the label information or its attribute information at a position corresponding to the assigned position in the image, Label information output means for displaying the displayed image on a visual device and displaying the user position label information on the visual device; and terminal control means for controlling each of the means. The center transmits the information related to area division of the image, the camera position, the camera angle, the focal length, the image size, the time-attached position information of each terminal, and the shooting information from each terminal via the communication network. A communication control means for receiving and transmitting the label information and the user position label information to the terminal; managing the map information; and storing the map information in the map information space based on the received camera position, camera angle, focal length, and image size. Obtain the visual field space, obtain the structures existing in the visual field space, and, based on the positional information of the user who is not dying and who is participating in the game, determine the structure in which the user who is participating in the game exists. It manages the map information management means to be sought and the position information and shooting information of the user of each terminal, and if the correspondence can be detected by comparing the shooting information of the firing side and the shooting side of the firing side, the user of one terminal can be used. If the user shoots the other terminal user as if he were shooting, the scoring user will be scored, the scoring user will be scored, and if the score falls below a certain threshold, it is considered dead. Game information management means for outputting the position information of the user who has not died at present, and the obtained structure is associated with the partial area of the image. The label information including the name or attribute information of the structure and the assigned position is created, and the user of each terminal is instructed that the user participating in the game exists in the structure where the user participating in the game exists. Label information creating means for creating user position label information comprising name or attribute information of a structure in which a user participating in the game exists and position information of the user. And a center control means for controlling each of the means.

【0016】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物を基にしてコンピュータグラ
フィックス画像であるCG画像を作成し、前記画像の前
記部分領域に対してパターンマッチングにより前記CG
画像中の部分領域を対応付け、対応付けられた部分領域
の構造物を求め、その構造物の名称または属性情報およ
び付与位置を含むラベル情報を作成する。
According to an embodiment of the present invention, the label information creating means creates a CG image which is a computer graphics image based on the acquired structure, and performs pattern matching on the partial area of the image. The CG
The partial areas in the image are associated with each other, the structure of the associated partial area is obtained, and label information including the name or attribute information of the structure and the assigned position is created.

【0017】本発明の他の実施態様によれば、ラベル情
報作成手段は、獲得した構造物をカメラ画面に3次元投
影変換し、視点から見えない構造物を消去してCG画像
を作成し、CG画像中の部分領域の輪郭線によってCG
画像を部分領域に分割し、前記画像の前記部分領域と前
記CG画像の前記部分領域とをパターンマッチングによ
り対応付け、画像の部分領域に対して対応付けCG画像
の部分領域の基となった構造物を求め、その構造物の名
称または属性情報および付与位置を含むラベル情報を作
成する。
According to another embodiment of the present invention, the label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, erases a structure invisible from the viewpoint, and creates a CG image. CG by the outline of the partial area in the CG image
A structure that divides the image into partial regions, associates the partial regions of the image with the partial regions of the CG image by pattern matching, and associates the partial regions of the image with the partial regions of the CG image An object is obtained, and label information including the name or attribute information of the structure and the assigned position is created.

【0018】[0018]

【発明の実施の形態】次に、本発明の実施形態について
図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0019】図1を参照すると、本発明の一実施形態景
観ラベル利用型射撃ゲームシステムは、端末10とセン
ター20と通信網30で構成される。ここで、端末10
は便宣上一つしか図示されていないが、実際には複数存
在する。
Referring to FIG. 1, a scenery label utilizing type shooting game system according to an embodiment of the present invention includes a terminal 10, a center 20, and a communication network 30. Here, the terminal 10
Although only one is shown for the sake of convenience, there are actually a plurality of them.

【0020】端末10は、画像を取得する画像取得部1
1と、画像取得時のカメラ位置を取得する位置情報取得
部12、画像取得時のカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得部13と、取得した画像
を複数の部分領域に分割する画像処理部14と、当該端
末10のユーザが他端末のユーザに向けて光線銃を発射
したときの時刻および銃の位置・角度に関する情報を取
得し、また当該端末10が他端末から光線銃を発射さ
れ、該光線を検出した時刻を含む射撃情報をセンター2
0を経て取得する射撃情報取得部18と、前記画像の領
域分割に関する情報とカメラ位置とカメラ角と焦点距離
と画像サイズを通信網を介してセンター20に送信し、
また当該端末10の時刻付位置情報と射撃情報を一定時
間毎に通信網30を介してセンター20に送信し、セン
ター20からラベル情報とユーザ位置ラベル情報を受信
する通信制御部15と、ラベル情報中の構造物の名称ま
たはその属性情報を画像中の付与位置に対応する位置に
重畳し、重畳された画像を視覚機器に表示し、またユー
ザ位置ラベル情報を視覚機器に表示するラベル情報出力
部17と、各部11〜15、17、18を制御する端末
制御部16で構成されている。センター20は、通信網
30を介して各端末10から画像の領域分割に関する情
報とカメラ位置とカメラ角と焦点距離と画像サイズと各
端末の時刻付位置情報と射撃情報を受信し、端末10に
ラベル情報とユーザ位置ラベル情報を送信する通信制御
部23と、地図情報を管理し、受信したカメラ位置とカ
メラ角と焦点距離と画像サイズを基に地図情報空間の中
で視野空間を求め、その視野空間中に存在する構造物を
獲得し、また現在死亡していないゲーム参加中のユーザ
の位置情報を元にして、ゲーム参加中のユーザが存在す
る構造物を求める地図情報管理部21と、各端末10の
ユーザの位置情報および射撃情報を管理し、発射した側
と発射された側の銃撃情報を照合して対応が検出できた
ら、一方の端末のユーザが他方の端末ユーザを銃撃した
ものとして銃撃した側のユーザに得点を与え、銃撃され
た側のユーザから得点を奪い、得点があるしきい値以下
になった場合は、死亡したものとみなしてゲーム参加ユ
ーザのリストから削除し、現在死亡していないユーザの
位置情報を出力するゲーム情報管理部25と、前記画像
の部分領域に対して獲得した構造物を対応付け、対応付
けられた構造物の名称または属性情報および付与位置を
含むラベル情報を作成し、またゲームに参加中のユーザ
が存在する構造物にゲーム参加中のユーザが存在するこ
とを各端末のユーザに教示するための、ゲーム参加中の
ユーザが存在する構造物の名称または属性情報およびユ
ーザの位置情報からなるユーザ位置ラベル情報を作成す
るラベル情報作成部22と、各部21〜23、25を制
御するセンター制御部24で構成されている。
The terminal 10 includes an image acquisition unit 1 for acquiring an image.
1, a position information acquisition unit 12 for acquiring a camera position at the time of image acquisition, a camera attribute information acquisition unit 13 for acquiring a camera angle, a focal length, and an image size at the time of image acquisition, and the acquired image in a plurality of partial areas. The image processing unit 14 that divides the image and obtains information about the time when the user of the terminal 10 fires the ray gun toward the user of the other terminal and information on the position and angle of the gun. The shooting information including the time when the gun was fired and the light beam was detected is transmitted to the center 2
A shooting information acquisition unit 18 to acquire through 0, information on the area division of the image, a camera position, a camera angle, a focal length, and an image size are transmitted to the center 20 via a communication network;
A communication control unit 15 for transmitting the time-attached position information and the shooting information of the terminal 10 to the center 20 via the communication network 30 at regular time intervals, and receiving label information and user position label information from the center 20; A label information output unit that superimposes the name of the structure inside or its attribute information at a position corresponding to the application position in the image, displays the superimposed image on a visual device, and displays user position label information on the visual device. 17 and a terminal control unit 16 that controls the units 11 to 15, 17, and 18. The center 20 receives, from each of the terminals 10, information on image area division, a camera position, a camera angle, a focal length, an image size, time-attached position information of each terminal, and shooting information from each terminal 10 via the communication network 30. A communication control unit 23 for transmitting label information and user position label information, and managing map information, obtaining a visual field space in a map information space based on the received camera position, camera angle, focal length, and image size. A map information management unit 21 that acquires a structure existing in the visual field space, and obtains a structure in which the user who is participating in the game exists based on the positional information of the user who is currently participating in the game who has not died; When the position information and the shooting information of the user of each terminal 10 are managed and the shooting information of the firing side and the shooting side of the firing side are detected and the correspondence is detected, the user of one terminal can use the other terminal user to shoot the other terminal. If the score falls below a certain threshold, it is considered dead and removed from the list of participating users. Then, the game information management unit 25 that outputs the position information of the user who is not currently dead is associated with the acquired structure with respect to the partial region of the image, and the name or attribute information of the associated structure and the assignment are provided. There is a user who is participating in the game to create label information including the position and to teach the user of each terminal that the user who is participating in the game is present in the structure where the user who is participating in the game is present. A label information creating unit 22 for creating user position label information including the name or attribute information of the structure and the position information of the user, and a sensor for controlling the units 21 to 23 and 25. It is composed of over control unit 24.

【0021】次に、本実施形態の動作を図2の流れ図を
参照して説明する。
Next, the operation of this embodiment will be described with reference to the flowchart of FIG.

【0022】まず、端末制御部16が景観画像に関する
情報を取得するために、位置情報取得部12、カメラ属
性情報取得部13、画像取得部11に対して処理開始コ
マンドを送る。位置情報取得部12は、端末制御部16
から命令を受けてGPS受信機等により位置情報を毎秒
収集し、端末制御部16に渡す(ステップ21)。ここ
で、時間間隔は秒単位に限らずどのようにとってもよ
い。カメラ属性情報取得部13は、端末制御部16の命
令を受けて画像撮影時のカメラ等景観画像記録装置のカ
メラ角を水平角と仰角の組で取得し(ステップ22)、
同時にズーム機能を有する景観画像装置であれば焦点距
離を取得する(ステップ23)。画像取得部11は、端
末制御部16から命令を受けて毎秒の景観画像を取得
し、制御部16に渡す(ステップ24)。画像サイズは
景観画像装置毎に固定なので、端末制御部16が画像サ
イズ情報を保持しておく。端末制御部16は収集した情
報を景観画像ファイルとして保持する。
First, the terminal control unit 16 sends a processing start command to the position information acquisition unit 12, the camera attribute information acquisition unit 13, and the image acquisition unit 11 in order to acquire information on a landscape image. The position information acquisition unit 12 is a terminal control unit 16
, The position information is collected every second by a GPS receiver or the like, and is passed to the terminal control unit 16 (step 21). Here, the time interval is not limited to the unit of seconds, but may be any value. The camera attribute information acquisition unit 13 acquires a camera angle of a landscape image recording device such as a camera at the time of image capturing as a set of a horizontal angle and an elevation angle in response to a command from the terminal control unit 16 (Step 22).
At the same time, if it is a landscape image device having a zoom function, the focal length is obtained (step 23). The image acquisition unit 11 receives a command from the terminal control unit 16, acquires a landscape image every second, and passes it to the control unit 16 (step 24). Since the image size is fixed for each landscape image device, the terminal control unit 16 holds the image size information. The terminal control unit 16 holds the collected information as a landscape image file.

【0023】図3は、景観画像ファイルのデータ構造の
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式で持つ。
FIG. 3 shows the file format of the data structure of the landscape image file. The landscape image file has header information and image data. The header information includes position information, camera angle information, focal length, time information, image size, type, and size of an image file. As location information,
East longitude, north latitude, and elevation data (for example, 137 degrees east 5 degrees
5 minutes 10 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m3
3 cm). The camera angle includes horizontal angle data and elevation angle data (for example, horizontal angle 254 degrees clockwise, elevation angle 15 degrees, etc.). The focal length data is the focal length (for example, 28 mm) of the camera lens at the time of capturing an image. The time information includes the time at the time of shooting (for example, 15:06:17, January 31, 1997, Japan time). As the image size of the image file, the vertical and horizontal pixel sizes (for example, 64
0 × 480). File type (TIF
E format, 8-bit color, etc.). It also has the number of bytes of the file (307.2 KB, etc.). The image data itself has, for example, a binary format.

【0024】端末制御部16は景観画像ファイルを格納
すると、画像処理部14に対して、景観画像から輪郭線
を抽出し、景観画像を複数の領域に分割するように命令
する。画像処理部14では、大まかに言えば景観画像内
の濃度差を基に微分処理を行って輪郭線を抽出し(ステ
ップ25)、その輪郭線を境界としたラベリングを行う
ことによって画像を領域分割する(ステップ26)。な
お、ここで用いたラベリングと言う技術用語は画像の領
域分割において用いられる技術用語である。手順として
はまず、画像を白黒濃淡画像に変換する。輪郭は明るさ
の急変する部分であるから、微分処理を行って微分値が
しきい値より大きい部分を求めることで輪郭線の抽出を
行う。このとき輪郭線の線幅は1画素であり、輪郭線は
連結しているようにする。そのために細線化処理を行っ
て、線幅1画素の連結した線を得る。ここで微分処理、
細線化処理は従来からある手法を用いれば十分である。
After storing the landscape image file, the terminal control unit 16 instructs the image processing unit 14 to extract the outline from the landscape image and divide the landscape image into a plurality of regions. The image processing unit 14 extracts the outline by performing a differentiation process based on the density difference in the landscape image, roughly speaking (step 25), and performs labeling with the outline as a boundary to divide the image into regions. (Step 26). Note that the technical term of labeling used here is a technical term used in image area division. As a procedure, first, the image is converted into a monochrome grayscale image. Since the contour is a portion where the brightness changes suddenly, the contour is extracted by performing a differentiation process to find a portion where the differential value is larger than a threshold value. At this time, the line width of the outline is one pixel, and the outlines are connected. For this purpose, a thinning process is performed to obtain a connected line having a line width of one pixel. Where the differentiation process,
It is sufficient to use a conventional method for the thinning processing.

【0025】得られた輪郭線を領域の輪郭線と考え、輪
郭線により構成される領域に番号をつける操作を行う。
その番号の中で最大の数が領域の数となり、領域中の画
素数がその領域の面積を表す。景観画像を複数の部分領
域に分割した例を図8に示す。なお、領域間の類似度
(近さ)の尺度を導入し、性質が似ている複数の領域を
一つの領域にまとめていくクラスタ化処理を行ってもよ
い。既存方法のどのようなクラスタ化方法によってもよ
い。
The obtained contour is regarded as the contour of the area, and an operation of numbering the area constituted by the contour is performed.
The largest number among the numbers is the number of areas, and the number of pixels in the area indicates the area of the area. FIG. 8 shows an example in which a landscape image is divided into a plurality of partial regions. Note that a measure of similarity (closeness) between regions may be introduced, and a clustering process may be performed to combine a plurality of regions having similar properties into one region. Any existing clustering method may be used.

【0026】景観画像の領域分割処理が完了すると、通
信制御部15は端末制御部16の指示により、取得した
カメラ位置とカメラ角と焦点距離と画像サイズと画像の
領域分割に関する情報(景観画像ファイルのヘッダ情
報)をセンター20に送信する(ステップ27)。これ
ら情報は通信制御部23、センター制御部24を経てセ
ンター20の地図情報管理部21に渡される。地図情報
管理部21の例としては、地図データベースプログラム
がある。地図情報管理部21は3次元地図データを管理
している。2次元地図データでもよいが、その場合は高
さ情報がないために実風景へのラベリングの付与位置の
精度が劣る。なお、2次元地図データを基にする場合
は、高さ情報を補って処理する。例えば、家屋の2次元
データである場合に、家屋が何階建てかを表す階数情報
があれば、階数に一定数を掛けてその家屋の高さを推定
し、2次元データと推定して求めた高さ情報を基に3次
元データを作成する。階数情報がない場合でも、家屋図
形の面積に応じて一定数の高さを割り振る等して高さ情
報を推定することができ、同様に推定高さ情報をもとに
3次元データを作成する。こうして3次元データを作成
して処理を進める。
When the landscape image region division processing is completed, the communication control unit 15 receives information on the acquired camera position, camera angle, focal length, image size, and image region division (landscape image file) according to an instruction from the terminal control unit 16. Is transmitted to the center 20 (step 27). These pieces of information are transferred to the map information management unit 21 of the center 20 via the communication control unit 23 and the center control unit 24. An example of the map information management unit 21 is a map database program. The map information management unit 21 manages three-dimensional map data. Although two-dimensional map data may be used, in this case, since there is no height information, the accuracy of the position at which the labeling is applied to the actual scenery is inferior. When the two-dimensional map data is used as the basis, the processing is performed by supplementing the height information. For example, in the case of two-dimensional data of a house, if there is floor information indicating the number of floors of the house, the number of floors is multiplied by a certain number to estimate the height of the house, and the two-dimensional data is obtained. 3D data is created based on the height information. Even when there is no floor information, the height information can be estimated by assigning a certain number of heights according to the area of the house figure, and similarly, three-dimensional data is created based on the estimated height information. . In this way, three-dimensional data is created and the process proceeds.

【0027】3次元地図データの例を図4に示す。図4
(1)に2次元で表現した地図情報空間を示し、図4
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部21ではセ
ンター制御部24の命令を受けて景観画像ファイルのヘ
ッダ情報を基に視野空間を算出する(ステップ28)。
図5に視野空間の計算例を示す。まず、水平方向にXY
軸が張り、垂直方向にZ軸が張るものとする。景観画像
ファイルのヘッダ情報中の位置情報から、視点Eの位置
を3次元地図情報空間の中で設定する。例えば、東経1
37度55分19秒、北緯34度34分30秒、標高1
01m33cmであれば、それに対応する地図メッシュ
番号中の対応する座標を設定する。同じくヘッダ情報中
のカメラ角情報中の水平角と仰角をもとにカメラ角方向
を設定する。カメラ角方向を表す直線上に視点Eから焦
点距離分進んだ点に焦点Fをとる。視線方向ベクトルは
その直線上で視点Eから出る長さ1の単位ベクトルであ
る。景観画像ファイルの画像サイズで横方向のサイズか
らカメラ画面のX軸での幅xを設定し、縦方向のサイズ
からY軸での幅yを設定する。横x縦yの平面は視線方
向ベクトルに対してカメラ角方向に垂直で、かつ焦点F
を含むように設定される。視点Eの座標からカメラ画面
の4隅の点とを結ぶ直線を各々求め、視点Eから延びる
4本の半直線が作る3次元空間を視野空間とする。図6
に、3次元地図空間での視野空間の例を示す。3次元地
図空間をXZ平面から眺めたものである。図6中で斜線
で囲まれた部分は視野空間に属する空間の、XZ平面で
の断面図である。図6の例では、視野空間の中のビルや
山が含まれている。
FIG. 4 shows an example of three-dimensional map data. FIG.
(1) shows a map information space expressed in two dimensions, and FIG.
(2) shows a map information space expressed in three dimensions. This 3
With respect to the three-dimensional map information space, the map information management unit 21 receives the instruction of the center control unit 24 and calculates the visual field space based on the header information of the landscape image file (step 28).
FIG. 5 shows a calculation example of the visual field space. First, XY in the horizontal direction
The axis is stretched, and the Z axis is stretched in the vertical direction. The position of the viewpoint E is set in the three-dimensional map information space from the position information in the header information of the landscape image file. For example, East longitude 1
37 degrees 55 minutes 19 seconds, north latitude 34 degrees 34 minutes 30 seconds, altitude 1
If it is 01m33cm, the corresponding coordinates in the corresponding map mesh number are set. Similarly, the camera angle direction is set based on the horizontal angle and the elevation angle in the camera angle information in the header information. The focal point F is set at a point advanced from the viewpoint E by the focal length on a straight line representing the camera angle direction. The line-of-sight direction vector is a unit vector having a length of 1 from the viewpoint E on the straight line. In the image size of the landscape image file, the width x on the X-axis of the camera screen is set from the horizontal size, and the width y on the Y-axis is set from the vertical size. The horizontal x vertical y plane is perpendicular to the camera angle direction with respect to the line-of-sight direction vector, and the focal point F
Is set to include Straight lines connecting the four corner points of the camera screen are obtained from the coordinates of the viewpoint E, and a three-dimensional space formed by four half lines extending from the viewpoint E is defined as a visual field space. FIG.
FIG. 3 shows an example of a visual field space in a three-dimensional map space. The three-dimensional map space is viewed from the XZ plane. In FIG. 6, a portion surrounded by oblique lines is a cross-sectional view of the space belonging to the viewing space on the XZ plane. In the example of FIG. 6, buildings and mountains in the visual field space are included.

【0028】さらに、地図情報管理部21では、求めた
視野空間の中に存在する構造物を求める。構造物毎に、
構造物を表す立体を構成する各頂点が、視野空間の内部
領域に存在するか否かを計算する。通常2次元地図空間
は一定サイズの2次元メッシュで区切られている。3次
元地図空間のメッシュの切り方としては、縦横の2次元
方向のメッシュに加えて高さ方向にも一定間隔でメッシ
ュを切っていく。空間を直方体の単位空間で区切ること
になる。まず、直方体の単位空間毎視野空間との重なり
部分の有無を調べ、重なり部分がある3次元単位地図空
間の番号を求める。ここでいう3次元単位地図空間の番
号とは、いわゆるメッシュ番号と同様のものである。重
なりを持つ3次元単位地図空間内にある構造物に対し
て、視野空間と重なり部分の有無を調べる。構造物を構
成する頂点の座標と視点の座標とを結ぶ直線を求め、そ
の直線が図7のカメラ画面に対して交点を持つならば視
野空間内にある。構造物を構成する複数の頂点のうち、
一つの頂点でもこの条件を満たせば、その構造物は視野
空間と重なり部分を持つものとする。
Further, the map information management section 21 determines a structure existing in the determined visual space. For each structure,
It is calculated whether or not each vertex constituting the solid representing the structure exists in the internal region of the viewing space. Usually, a two-dimensional map space is divided by a two-dimensional mesh of a fixed size. As a method of cutting a mesh in the three-dimensional map space, a mesh is cut at regular intervals in the height direction in addition to the two-dimensional mesh in the vertical and horizontal directions. The space is divided by a rectangular parallelepiped unit space. First, the presence or absence of an overlapping portion between the rectangular parallelepiped unit space and the visual field space is checked, and the number of the three-dimensional unit map space having the overlapping portion is obtained. The number of the three-dimensional unit map space here is the same as a so-called mesh number. A check is made as to whether or not there is an overlapping portion between the visual field space and the structure in the overlapping three-dimensional unit map space. A straight line connecting the coordinates of the vertices constituting the structure and the coordinates of the viewpoint is obtained. If the straight line has an intersection with the camera screen of FIG. 7, it is within the visual field space. Of the vertices that make up the structure,
If at least one vertex satisfies this condition, the structure has an overlapping part with the viewing space.

【0029】構造物が視野空間の内部に含まれるか、ま
たはその一部が含まれる場合、カメラ画面を投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ29)。ここで、図7に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。
When the structure is included in the view space or a part of the structure, the process enters a process of three-dimensionally projecting each structure onto the projection surface using the camera screen as a projection surface (step 29). ). Here, as shown in FIG. 7, after the point P is re-expressed in the coordinate system based on the viewpoint E based on the following equation (1), the point P is projected on the camera screen to obtain the intersection Q. .

【0030】[0030]

【数1】 ここで、 点P=(x,y,z):構造物を構成する頂点の座標 点E=(ex,ey,ez):視点の座標 ベクトルL=(lx,ly,lz):視線方向ベクトル
(単位ベクトル) 点P’=(x’,y’,z’):点Pの視点Eを基にし
た座標系で表現した場合の座標 r=(lx2 +ly21/2 交点Q=(X,Y):点Pのカメラ画面への投影点 tは焦点距離 3次元投影変換にあたっては、まず各構造物毎にその頂
点が張る面を求める。例えば、直方体で表現される構造
物ならば、6つの面が求まる。各面をカメラ画面に投影
変換する際に、投影領域に含まれるカメラ画面上の各画
素に対し、視点とその面上の対応点との距離を計算して
奥行き値(Z値)としてメモリに格納する。各構造物の
各面毎に、カメラ画面上の各画素に対する奥行き値(Z
値)を計算し、メモリに格納する。なお(式)1中の
z’は視点からの奥行き値(Z値)を表す。
(Equation 1) Here, point P = (x, y, z): coordinates of the vertices constituting the structure point E = (ex, ey, ez): coordinates of the viewpoint vector L = (lx, ly, lz): gaze direction vector (Unit vector) Point P ′ = (x ′, y ′, z ′): coordinates in a coordinate system based on the viewpoint E of the point P r = (lx 2 + ly 2 ) 1/2 intersection Q = (X, Y): The projection point t of the point P on the camera screen is the focal length. In the three-dimensional projection conversion, first, for each structure, the surface on which the vertex extends is obtained. For example, in the case of a structure represented by a rectangular parallelepiped, six surfaces are obtained. When each plane is projected onto the camera screen, the distance between the viewpoint and the corresponding point on the plane is calculated for each pixel on the camera screen included in the projection area, and stored as a depth value (Z value) in the memory. Store. For each surface of each structure, the depth value (Z
Value) and store it in memory. Note that z ′ in (Equation 1) represents a depth value (Z value) from the viewpoint.

【0031】カメラ画面に3次元投影変換された構造物
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ3
0)。隠れ面処理の方法には、いろいろあるが、例えば
Zバッファ法を用いる。他のスキャンライン法、光線追
跡法でもよい。
Among the structures three-dimensionally transformed on the camera screen, there are structures that can be seen from the viewpoint and structures that cannot be seen from the viewpoint. Among them, it is necessary to find only the structure that can be seen from the viewpoint, and to find the surface on the opposite side from the viewpoint or the surface that is blocked by other structures. Therefore, hidden surface processing is performed (step 3
0). There are various methods for processing the hidden surface, and for example, the Z buffer method is used. Other scan line methods and ray tracing methods may be used.

【0032】カメラ画面上の画素を任意にとって、その
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。
A pixel on the camera screen is arbitrarily determined, and a plane having the smallest depth value for the pixel is determined. As described above, when processing is sequentially performed on each surface of each structure, the surface closest to the viewpoint is left for each pixel on the camera screen. The plane closest to the viewpoint is determined for each pixel on the camera screen, and pixels on the camera screen that share the plane closest to the viewpoint generally form an area.
There can be a plurality of regions consisting of pixels with the common surface being the closest surface. The region obtained in this way is a region obtained by performing a three-dimensional projection conversion of the partial region of the structure seen from the viewpoint. Surfaces on the other side of the view and those obstructed by other structures have been erased.

【0033】こうしてできた領域がCG画像領域を形成
する(ステップ31)。
The area thus formed forms a CG image area (step 31).

【0034】CG画像領域を構成する2次元図形の頂点
座標に対して、投影変換前の3次元座標を求め、両者の
対応関係をリンク情報としてメモリに格納する。リンク
情報を基にして、その2次元領域がどの構造物の投影図
かということを求めること等に用いる。
With respect to the vertex coordinates of the two-dimensional figure constituting the CG image area, three-dimensional coordinates before projection transformation are obtained, and the correspondence between the two is stored in the memory as link information. It is used to determine which structure the two-dimensional area is a projection of based on the link information.

【0035】隠線消去して残った線データを基にしてC
G画像を領域分割する。3次元地図DBを利用している
ため、各領域毎にその領域の基となる構造物の名称を対
応付けできる。CG画像の分割された領域に順番に番号
を付けていく。CG画像を複数の部分領域に分割した例
を図9に示す。
Based on the line data remaining after erasing hidden lines, C
The G image is divided into regions. Since the three-dimensional map DB is used, the name of the structure serving as the basis of each area can be associated with each area. The divided areas of the CG image are numbered sequentially. FIG. 9 shows an example in which a CG image is divided into a plurality of partial areas.

【0036】CG画像の領域分割処理が完了したら、セ
ンター制御部24はラベル情報作成部22に対して、C
G画像の分割領域と景観画像の分割領域の対応付けを行
うように命令する。ラベル情報作成部22では、テンプ
レートマッチングによりCG画像の分割領域と景観画像
の分割領域の対応付けを行う(ステップ32、図10参
照)。
When the CG image area division processing is completed, the center control unit 24 instructs the label information
A command is issued to associate the divided regions of the G image with the divided regions of the landscape image. The label information creating unit 22 associates the divided regions of the CG image with the divided regions of the landscape image by template matching (step 32, see FIG. 10).

【0037】景観画像の分割領域のうち、番号の若い領
域(例えば、1番)から順にCG画像の分割領域と対応
付けしていく。対応付けに当たっては、従来からあるマ
ッチング方法のうちのどれをとってもよいが、ここでは
単純なテンプレートマッチング法をとる。つまり、比較
する2つの領域を重ね合わせ、重なり合う部分の比率
が、しきい値として決めた一定の比率以上にある場合に
同一の構造物に関する領域として対応付けることとす
る。例えば、景観画像の分割領域1番目のR1に関し
て、その領域内にある各画素の座標値を(A,B)とす
る。座標(A,B)での画素の値は、領域の内部ゆえに
1である。CG画像の1番目の分割領域S1において、
座標(A,B)が領域S1内ならば画素値1であり重な
るが、S1の外ならば画素値0であり、重ならない。こ
うして座標(A,B)での重なり係数K(A,B)とし
て、重なる場合1、重ならない場合0で決まる。座標
(A,B)を領域R1内で動かして、重なり係数K
(A,B)を求める。そして、領域R1内で動かした座
標(A,B)の数N1に対して、重なり係数K(A,
B)が1であった座標の数N2を求めて、N1/N2が
しきい値以上である場合に、景観画像の分割領域R1と
CG画像の分割領域S1が対応するものと決める。この
対応付けを景観画像の分割領域の1番目から最後のもの
まで行う。なお、マッチング方法としてこの他、XY方
向に多少の位置ずれがあっても同じ値になるような評価
関数を用いてもよい。
Among the divided regions of the landscape image, the regions are associated with the divided regions of the CG image in ascending order (for example, the first region). For matching, any of the conventional matching methods may be used, but here, a simple template matching method is used. That is, two regions to be compared are superimposed, and when the ratio of overlapping portions is equal to or greater than a certain ratio determined as a threshold, the regions are associated as regions relating to the same structure. For example, the coordinate value of each pixel in the first divided region R1 of the landscape image is set to (A, B). The value of the pixel at coordinates (A, B) is 1 because it is inside the area. In the first divided area S1 of the CG image,
If the coordinates (A, B) are within the area S1, the pixel value is 1 and overlaps, but if the coordinates (A, B) are outside the area S1, the pixel value is 0 and does not overlap. In this way, the overlap coefficient K (A, B) at the coordinates (A, B) is determined to be 1 when they overlap and 0 when they do not overlap. The coordinates (A, B) are moved within the region R1, and the overlap coefficient K
(A, B) is obtained. Then, with respect to the number N1 of coordinates (A, B) moved in the region R1, the overlap coefficient K (A,
The number N2 of coordinates where B) was 1 is obtained, and when N1 / N2 is equal to or larger than the threshold value, it is determined that the divided region R1 of the landscape image and the divided region S1 of the CG image correspond to each other. This association is performed from the first to the last divided area of the landscape image. In addition, as the matching method, an evaluation function that has the same value even if there is a slight displacement in the XY directions may be used.

【0038】ラベル情報作成部22では、景観画像の部
分領域に対してCG画像の部分領域を対応付けた後、対
応付けられ部分領域の構造物を抽出し(ステップ3
3)、さらに景観画像の部分領域毎に重畳すべき情報
(構造物の名称または属性情報)を求め、重畳すべき位
置とともにラベル情報として作成する処理(ステップ3
4)に入る。まず、景観画像の部分領域に対して、対応
するCG画像の部分領域を取り出す。取り出したCG画
像の部分領域はもともと3次元地図空間の中の3次元構
造物のある面をカメラ画面に対して3次元投影変換して
得られたものである。そこで、3次元投影変換の基とな
った3次元構造物の面を、CG画像の部分領域が持つ奥
行き値(Z値)をキーとして求める。先に3次元投影変
換した際に作成しておいたリンク情報をキーにしてもよ
い。もととなった構造物の面をもとに、3次元地図DB
にアクセスしてその構造物の名称または属性情報を取得
する。ここで、属性情報とは、その構造物に関して付随
する情報を意味し、その構造物に係る情報ならば何でも
よい。そして、名称または属性情報を重畳すべき位置座
標を、景観画像の部分領域に対して決める。決め方は、
どのように決めてもよい。例えば、部分領域を張る図形
の重心でもよい。その構造物の名称または属性情報およ
び付与位置座標からラベル情報を作成する。表1にラベ
ル情報の例を示す。
After associating the partial area of the CG image with the partial area of the landscape image, the label information creating section 22 extracts the structure of the associated partial area (step 3).
3) Further, a process of obtaining information (structure name or attribute information) to be superimposed for each partial region of the landscape image and creating label information together with a position to be superimposed (step 3)
Enter 4). First, a partial area of the CG image corresponding to the partial area of the landscape image is extracted. The partial region of the extracted CG image is originally obtained by three-dimensionally projecting and converting a certain surface of the three-dimensional structure in the three-dimensional map space onto the camera screen. Therefore, the surface of the three-dimensional structure on which the three-dimensional projection conversion is based is obtained using the depth value (Z value) of the partial region of the CG image as a key. The link information created at the time of the three-dimensional projection conversion may be used as a key. 3D map DB based on the surface of the original structure
To get the name or attribute information of the structure. Here, the attribute information means information associated with the structure, and may be any information as long as the information is related to the structure. Then, the position coordinates where the name or attribute information is to be superimposed are determined for the partial area of the landscape image. How to decide
You can decide how you like. For example, the center of gravity of the figure extending the partial area may be used. Label information is created from the name or attribute information of the structure and the assigned position coordinates. Table 1 shows an example of label information.

【0039】[0039]

【表1】 ラベル情報作成部22は、ラベル情報を作成し終った
ら、センター制御部24にラベル情報を渡す。センター
制御部24は、ラベル情報を受け取ると、通信制御23
に対してラベル情報を端末10に送信するように命令す
る(ステップ35)。
[Table 1] When the label information creating unit 22 finishes creating the label information, it passes the label information to the center control unit 24. When the center control unit 24 receives the label information, the center control unit 24
Is instructed to transmit the label information to the terminal 10 (step 35).

【0040】ラベル情報は端末10のラベル情報出力部
17に渡され、ラベル情報出力部17はラベル情報中の
構造物の名称または属性情報を景観画像中の位置に重畳
し(ステップ36)、重畳された景観画像をディスプレ
イ(CRT)、ヘッドマラントディスプレイ等の映像表
示装置に表示する(ステップ37)。図11にラベル情
報が重畳された景観画像の例を示す。
The label information is passed to the label information output unit 17 of the terminal 10, and the label information output unit 17 superimposes the name or attribute information of the structure in the label information at a position in the landscape image (step 36). The obtained landscape image is displayed on a video display device such as a display (CRT) or a head-malant display (step 37). FIG. 11 shows an example of a landscape image on which label information is superimposed.

【0041】端末10のユーザと他の端末のユーザの間
で射撃ゲームが開始されると、端末10のユーザが他の
端末のユーザに向けて発射した光線銃の発射時刻および
銃の位置・角度に関する情報(射撃情報)を射撃情報取
得部18が取得し、通信制御部15が端末10の時刻付
位置情報とともにセンター20へ一定時間毎に送る(ス
テップ38)。端末10の時刻付位置情報と射撃情報は
センター制御部24を経てセンター20のゲーム情報管
理部25に渡され、ゲーム情報管理部25は、各ユーザ
の位置情報および射撃情報を管理し、発射した側と発射
された側の銃撃情報を照合して対応が検出できたら、一
方ののユーザが他方のユーザを銃撃したものとして銃撃
した側のユーザに得点を与え、銃撃された側のユーザか
ら得点を奪い、得点があるしきい値以下になった場合
は、死亡したものとみなしてゲーム参加ユーザのリスト
から削除し、現在死亡していないユーザの位置情報をセ
ンター制御部24へ渡す(ステップ39)。ユーザの位
置情報はセンター制御部24により地図情報管理部21
に渡され、地図情報管理部21では、現在死亡していな
い参加中のユーザの位置情報を元にして、ゲームに参加
中のユーザが存在する構造物を求め、ラベル情報作成部
22はその構造物にゲーム参加者が存在することを各ユ
ーザに教示するためのユーザ位置ラベル情報(ゲーム参
加中のユーザが存在する構造物の名称または属性情報お
よびユーザの位置情報からなる)を作成して、センター
制御部24に渡す(ステップ40)。
When the shooting game is started between the user of the terminal 10 and the user of the other terminal, the firing time of the light gun fired by the user of the terminal 10 toward the user of the other terminal and the position and angle of the gun The shooting information obtaining unit 18 obtains information (shooting information) related to the terminal 10, and the communication control unit 15 sends the information together with the time-attached position information of the terminal 10 to the center 20 at regular intervals (step 38). The time-added position information and the shooting information of the terminal 10 are passed to the game information management unit 25 of the center 20 via the center control unit 24, and the game information management unit 25 manages the position information and the shooting information of each user and fires. If the correspondence can be detected by comparing the shooting information of the side and the firing side, one user gives a score to the shooting side as if the other user has fired, and the score from the shot side user If the score falls below a certain threshold, it is regarded as dead and is deleted from the list of the game participating users, and the position information of the user who is not currently dead is passed to the center control unit 24 (step 39). ). The position information of the user is stored in the map information management unit 21 by the center control unit 24.
The map information management unit 21 obtains a structure in which the user who is participating in the game exists based on the position information of the participating user who has not died, and the label information creation unit 22 Creating user position label information (consisting of the name or attribute information of the structure in which the user participating in the game exists and the position information of the user) for teaching each user that the game participant exists in the object, It is passed to the center control unit 24 (step 40).

【0042】センター制御部24は通信制御部23を経
てユーザ位置ラベル情報を端末10へ送信する(ステッ
プ41)。端末10のラベル情報出力部17はユーザ位
置ラベル情報を映像表示装置に表示する(ステップ4
2)。
The center control unit 24 transmits the user position label information to the terminal 10 via the communication control unit 23 (Step 41). The label information output unit 17 of the terminal 10 displays the user position label information on the video display device (Step 4).
2).

【0043】[0043]

【発明の効果】以上説明したように本発明によれば、コ
ンピュータ上の地理的情報と実風景の景観画像中の各部
分とを対応付けて利用者に提示することができるため、
人間がコンピュータ上の地図と実風景を見比べて人間の
方で対応付けせずとも済み、また現実の市街で射撃ゲー
ムができる。
As described above, according to the present invention, the geographical information on the computer and each part in the scenery image of the actual scene can be presented to the user in association with each other.
It is not necessary for a human to compare the map on the computer with the actual scenery and associate it with the human, and a shooting game can be played in a real city.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の景観ラベル利用型射撃ゲ
ームシステムの構成図である。
FIG. 1 is a configuration diagram of a shooting game system using a landscape label according to an embodiment of the present invention.

【図2】図1の景観ラベル利用型射撃ゲームシステムの
処理の流れ図である。
FIG. 2 is a flowchart of a process of a shooting game system using a landscape label of FIG. 1;

【図3】景観画像ファイルのデータ構造を示す図であ
る。
FIG. 3 is a diagram showing a data structure of a landscape image file.

【図4】2次元地図の例(同図(1))とその3次元地
図(同図(2))を示す図である。
FIG. 4 is a diagram showing an example of a two-dimensional map (FIG. 1 (1)) and its three-dimensional map (FIG. 2 (2)).

【図5】視野空間の計算方法を示す図である。FIG. 5 is a diagram illustrating a calculation method of a visual field space.

【図6】3次元地図空間での視野空間の例を示す図であ
る。
FIG. 6 is a diagram illustrating an example of a visual field space in a three-dimensional map space.

【図7】投影図の例を示す図である。FIG. 7 is a diagram showing an example of a projection view.

【図8】景観画像の領域分割例を示す図である。FIG. 8 is a diagram showing an example of area division of a landscape image.

【図9】CG画像の領域分割例を示す図である。FIG. 9 is a diagram illustrating an example of area division of a CG image.

【図10】景観画像の部分領域とCG画像の部分領域の
パターンマッチングの説明図である。
FIG. 10 is an explanatory diagram of pattern matching between a partial region of a landscape image and a partial region of a CG image.

【図11】景観画像へのラベル情報の重畳の例を示す図
である。
FIG. 11 is a diagram illustrating an example of superimposition of label information on a landscape image.

【図12】特開平8−273000号に開示されたナビ
ゲーション装置の構成図である。
FIG. 12 is a configuration diagram of a navigation device disclosed in JP-A-8-273000.

【図13】動画像の表示例を示す図である。FIG. 13 is a diagram illustrating a display example of a moving image.

【符号の説明】[Explanation of symbols]

10 端末 11 画像取得部 12 位置情報取得部 13 カメラ属性情報取得部 14 画像処理部 15 通信制御部 16 端末制御部 17 ラベル情報出力部 18 射撃情報取得部 20 センター 21 地図情報管理部 22 ラベル情報作成部 23 通信制御部 24 センター制御部 25 ゲーム情報管理部 30 通信網 Reference Signs List 10 terminal 11 image acquisition unit 12 position information acquisition unit 13 camera attribute information acquisition unit 14 image processing unit 15 communication control unit 16 terminal control unit 17 label information output unit 18 shooting information acquisition unit 20 center 21 map information management unit 22 label information creation Unit 23 communication control unit 24 center control unit 25 game information management unit 30 communication network

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 晃 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 池田 武史 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Akira Suzuki 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Japan Telegraph and Telephone Corporation (72) Inventor Takeshi Ikeda 3- 192-1 Nishi-Shinjuku, Shinjuku-ku, Tokyo No. Japan Telegraph and Telephone Corporation

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 複数の端末とセンターからなり、前記各
端末は、画像を取得する画像取得手段と、画像取得時の
カメラ位置を取得する位置情報取得手段と、画像取得時
のカメラ角と焦点距離と画像サイズを取得するカメラ属
性情報取得手段と、取得した画像を複数の部分領域に分
割する画像処理手段と、当該端末のユーザが他端末のユ
ーザに向けて光線銃を発射したときの時刻および銃の位
置・角度に関する情報を取得し、また当該端末が他端末
から光線銃を発射され、該光線を検出した時刻を含む射
撃情報を前記センターを経て取得する射撃情報取得手段
と、前記画像の領域分割に関する情報と前記カメラ位置
と前記カメラ角と前記焦点距離と前記画像サイズを通信
網を介して前記センターに送信し、また当該端末の時刻
付位置情報と前記射撃情報を一定時間毎に前記通信網を
介して前記センターに送信し、前記センターからラベル
情報とユーザ位置ラベル情報を受信する通信制御手段
と、前記ラベル情報中の構造物の名称またはその属性情
報を画像中の付与位置に対応する位置に重畳し、重畳さ
れた画像を視覚機器に表示し、また前記ユーザ位置ラベ
ル情報を視覚機器に表示するラベル情報出力手段と、前
記各手段を制御する端末制御手段を有し、 前記センターは、前記通信網を介して前記各端末から前
記画像の領域分割に関する情報と前記カメラ位置と前記
カメラ角と前記焦点距離と前記画像サイズと各端末の時
刻付位置情報と射撃情報を受信し、前記端末に前記ラベ
ル情報と前記ユーザ位置ラベル情報を送信する通信制御
手段と、地図情報を管理し、受信したカメラ位置とカメ
ラ角と焦点距離と画像サイズを基に地図情報空間の中で
視野空間を求め、その視野空間中に存在する構造物を獲
得し、また現在死亡していないゲーム参加中のユーザの
位置情報を元にして、ゲームに参加中のユーザが存在す
る構造物を求める地図情報管理手段と、各端末のユーザ
の位置情報および射撃情報を管理し、発射した側と発射
された側の銃撃情報を照合して対応が検出できたら、一
方の端末のユーザが他方の端末ユーザを銃撃したものと
して銃撃した側のユーザに得点を与え、銃撃された側の
ユーザから得点を奪い、得点があるしきい値以下になっ
た場合は、死亡したものとみなしてゲーム参加ユーザの
リストから削除し、現在死亡していないユーザの位置情
報を出力するゲーム情報管理手段と、前記画像の前記部
分領域に対して前記獲得した構造物を対応付け、対応付
けられた前記構造物の名称または属性情報および付与位
置を含む前記ラベル情報を作成し、またゲームに参加中
のユーザが存在する構造物にゲーム参加中のユーザが存
在することを各端末のユーザに教示するための、ゲーム
参加中のユーザが存在する構造物の名称または属性情報
およびユーザの位置情報からなるユーザ位置ラベル情報
を作成するラベル情報作成手段と、前記各手段を制御す
るセンター制御手段を有する景観ラベル利用型射撃ゲー
ムシステム。
1. A terminal comprising a plurality of terminals and a center, wherein each of the terminals comprises: an image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; a camera angle and a focus at the time of image acquisition. Camera attribute information acquiring means for acquiring distance and image size; image processing means for dividing the acquired image into a plurality of partial areas; and time when the user of the terminal fires a light gun toward the user of another terminal And shooting information obtaining means for obtaining information about the position and angle of the gun, and obtaining, via the center, shooting information including the time at which the terminal is fired from another terminal and the light ray is detected, and the image Information about the area division, the camera position, the camera angle, the focal length, and the image size are transmitted to the center via a communication network. Communication control means for transmitting shooting information to the center via the communication network at regular time intervals and receiving label information and user position label information from the center; and a name of a structure in the label information or attribute information thereof. Label information output means for superimposing on a position corresponding to the application position in the image, displaying the superimposed image on a visual device, and displaying the user position label information on the visual device, and a terminal for controlling each of the means Control means, wherein the center receives information on area division of the image from each terminal via the communication network, the camera position, the camera angle, the focal length, the image size, and the time-attached position of each terminal. Communication control means for receiving the information and the shooting information and transmitting the label information and the user position label information to the terminal; managing the map information; Obtain the visual space in the map information space based on the mera angle, the focal length, and the image size, obtain the structures existing in the visual space, and obtain the positional information of the user who is currently dying and participating in the game. Based on the map information management means for finding the structure where the user who is participating in the game exists, manages the position information and shooting information of the user of each terminal, and matches the shooting information of the firing side and the firing side If the correspondence can be detected, the user of one terminal gives a score to the user who fired assuming that the user of the other terminal has fired, the score is deprived of the user who was shot, and a threshold value with a score is given. In the case of the following, the game information management unit that deletes from the list of game participating users assuming that the user has died and outputs the position information of the user who is not currently dying, The acquired structures are associated with each other, the label information including the name or attribute information of the associated structures and the assigned position is created, and the user who is participating in the game is presently participating in the game. Label information creating means for creating user position label information comprising the name or attribute information of the structure in which the user participating in the game is present and the position information of the user for teaching the user of each terminal that the user is present; And a landscape label-based shooting game system having a center control means for controlling each of the means.
【請求項2】 前記ラベル情報作成手段は、獲得した構
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域に対してパ
ターンマッチングにより前記CG画像中の部分領域を対
応付け、対応付けられた部分領域の構造物を求め、その
構造物の名称または属性情報および付与位置を含むラベ
ル情報を作成する、請求項1記載のシステム。
2. The label information creating means creates a CG image, which is a computer graphics image, based on the acquired structure, and a part in the CG image by pattern matching with respect to the partial area of the image. The system according to claim 1, wherein the regions are associated, a structure of the associated partial region is obtained, and label information including the name or attribute information of the structure and an assigned position is created.
【請求項3】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けCG画像の部分領域の基となった構
造物を求め、その構造物の名称または属性情報および付
与位置を含むラベル情報を作成する、請求項1記載のシ
ステム。
3. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and creates a contour of a partial area in the CG image. Dividing the CG image into partial areas by lines,
The partial area of the image and the partial area of the CG image are associated with each other by pattern matching, and the structure that is the basis of the partial area of the CG image is determined for the partial area of the image. The system according to claim 1, wherein label information including name or attribute information and an assigned position is created.
JP9228541A 1997-08-25 1997-08-25 Shooting game system using view label Pending JPH1157206A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9228541A JPH1157206A (en) 1997-08-25 1997-08-25 Shooting game system using view label

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9228541A JPH1157206A (en) 1997-08-25 1997-08-25 Shooting game system using view label

Publications (1)

Publication Number Publication Date
JPH1157206A true JPH1157206A (en) 1999-03-02

Family

ID=16878016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9228541A Pending JPH1157206A (en) 1997-08-25 1997-08-25 Shooting game system using view label

Country Status (1)

Country Link
JP (1) JPH1157206A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316995A (en) * 2004-03-11 2005-11-10 Navteq North America Llc Geographic area template for computer game
JP2005316466A (en) * 2004-03-11 2005-11-10 Navteq North America Llc Application programming interface for geographic data in computer game
JP2006247343A (en) * 2005-03-11 2006-09-21 Navteq North America Llc Method and system for using geographic data for computer game development
CN102166414A (en) * 2011-01-28 2011-08-31 刘林运 Live confrontation simulated shooting system, battfle platform and operating method thereof
JP2012133502A (en) * 2010-12-21 2012-07-12 Mic Ware:Kk Server device, first terminal device, second terminal device, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316995A (en) * 2004-03-11 2005-11-10 Navteq North America Llc Geographic area template for computer game
JP2005316466A (en) * 2004-03-11 2005-11-10 Navteq North America Llc Application programming interface for geographic data in computer game
JP2006247343A (en) * 2005-03-11 2006-09-21 Navteq North America Llc Method and system for using geographic data for computer game development
JP2012133502A (en) * 2010-12-21 2012-07-12 Mic Ware:Kk Server device, first terminal device, second terminal device, information processing method, and program
CN102166414A (en) * 2011-01-28 2011-08-31 刘林运 Live confrontation simulated shooting system, battfle platform and operating method thereof

Similar Documents

Publication Publication Date Title
JP3225882B2 (en) Landscape labeling system
WO2021073292A1 (en) Ar scene image processing method and apparatus, and electronic device and storage medium
JPH1165431A (en) Device and system for car navigation with scenery label
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
CN109865289B (en) real-scene environment entertainment system based on augmented reality technology and method thereof
JP3437555B2 (en) Specific point detection method and device
US6498618B2 (en) Dual reality system
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
EP0867690A1 (en) Device and system for labeling sight images
JP3156646B2 (en) Search-type landscape labeling device and system
JPH1186034A (en) Human navigati0n device with scenery label and system therefor
JP2000050156A (en) News supporting system
JP3156645B2 (en) Information transmission type landscape labeling device and system
JPH1157209A (en) Rally game system using view label
JP3053172B2 (en) Distance reference type landscape labeling device and system
US11273374B2 (en) Information processing system, player-side apparatus control method, and program
CN113470190A (en) Scene display method and device, equipment, vehicle and computer readable storage medium
JP3114862B2 (en) An interactive landscape labeling system
JPH1157206A (en) Shooting game system using view label
JP3053169B2 (en) Communication device and system using landscape label
JP4299010B2 (en) Method for obtaining texture image of 3D geographic shape model
KR20040055308A (en) Texture mapping method of 3D feature model using the CCD line camera
JP3156649B2 (en) Deformable label landscape labeling device and system
CN112788443A (en) Interaction method and system based on optical communication device