JPH1166350A - Retrieval type scene labeling device and system - Google Patents
Retrieval type scene labeling device and systemInfo
- Publication number
- JPH1166350A JPH1166350A JP9217728A JP21772897A JPH1166350A JP H1166350 A JPH1166350 A JP H1166350A JP 9217728 A JP9217728 A JP 9217728A JP 21772897 A JP21772897 A JP 21772897A JP H1166350 A JPH1166350 A JP H1166350A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- search
- search result
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Instructional Devices (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、カメラ等の景観画
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する装
置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention superimposes and displays, on an image display device, geographical information about each partial area in an image taken by a user using a landscape image input device such as a camera. The present invention relates to a device that teaches a user by voice guidance or the like.
【0002】[0002]
【従来の技術】従来、利用者がいる周辺に関する地理的
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。2. Description of the Related Art Conventionally, there have been various navigation systems as systems for instructing users on geographical information about the area where the users are located.
【0003】図14は特開平8−273000号に開示
されたナビゲーション装置の構成図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示用道路データおよ
び表示用背景データが発生させる表示用データ発生部7
2と、これらの表示用データに基づいて3次元動画像デ
ータを作成する3次元動画像データ作成部73と、記憶
部74を有し、ナビゲーション装置のユーザが目的地、
経由地を含む走行経路を事前に設定する場合に、地図画
面でなく実際に存在する道路に沿ったリアルな動画像表
示画面を見ながら経路を設定できる機能を有する。FIG. 14 is a block diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000. This device receives a vehicle position data and a motion data, and receives a position update unit 71 that updates the vehicle position with reference to the road map data, and displays display road data and display background data based on the map data and the like. Display data generator 7 to be generated
2, a three-dimensional moving image data creating unit 73 for creating three-dimensional moving image data based on these display data, and a storage unit 74.
When a travel route including a waypoint is set in advance, the device has a function of setting a route while viewing a real moving image display screen along a road that actually exists instead of a map screen.
【0004】この装置によれば、ユーザは実際に在る経
路に沿って走行するときに、その経路に沿った動画像表
示(例えば、図15)を見ることができる。According to this device, when a user travels along an actual route, the user can see a moving image display (for example, FIG. 15) along the route.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、同装置
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識しな
ければならない。つまり、利用者の眼前にある実際の建
物や道路や山が何であるかを、動画像表示されて地図中
の記号等を基にして人間が肉眼を頼りにして人間の脳を
無意識に働かせて対応付けの作業を行ってを理解しなけ
ればならない。街角等では、コンピュータでの地図と実
際の景観を見比べては方角を把握したり目印を見つけた
りしてその方向を注視し、その方向にある建物の特徴を
理解した上で再度地図を見てその建物が何であるかを理
解している。However, in the case of using the same device, the human finally associates the real scene with the geographical information in the computer world with the naked eye, so that the person in the real scene can be used. You have to recognize what is. In other words, what is the actual building, road or mountain in front of the user is displayed on a moving image, and based on the symbols etc. in the map, humans rely on the naked eye to work the human brain unconsciously. You have to understand the work of mapping. At street corners, etc., comparing the map on the computer with the actual scenery, grasping the direction and finding landmarks, gazing at the direction, understanding the characteristics of the building in that direction, and then looking at the map again Understand what the building is.
【0006】このため、何度もコンピュータ上の地図と
実風景を見比べて人間の方で対応付けする手間は省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。[0006] For this reason, there is a problem that the trouble of comparing the map on the computer with the actual scenery many times and associating with the human cannot be omitted. Especially in the dark or at night, it is difficult to see the actual scenery and to take measures.
【0007】本発明の目的は、コンピュータ上の地理的
情報と実風景の画像(以下、景観画像と呼ぶ。)中の各
部分とを対応付けて利用者に教示すると共に、ユーザが
検索したい情報を表示する検索型景観ラベル装置および
システムを提供することである。An object of the present invention is to provide a user with information on geographical information on a computer and each part in an image of a real scene (hereinafter referred to as a landscape image) in association with each other, and to search for information that the user wants to search. Is to provide a search-type landscape label device and a system for displaying a display.
【0008】[0008]
【課題を解決するための手段】本発明は、コンピュータ
上の地図データを3次元データとして予め作成してお
き、画像(CG画像と区別するため以降景観画像と呼
ぶ)が入力されるときの位置とカメラの角度と焦点距離
と画像サイズを撮影時に取得し、コンピュータ上の3次
元地図空間内で実風景撮影時の位置とカメラの角度と焦
点距離から眺望した場合のコンピュータグラフィックス
(以下、CGとする。)画像内での地理的情報を取得
し、その地理的情報を、実風景である景観画像に重畳表
示することで対応付けを実現するものである。この地理
的情報とは画像での、構造物等の名称またはその属性情
報であり、属性情報とはその構造物に関するあらゆる属
性(例えば輪郭、色等)についての情報を意味する。こ
の明細書の中でも構造物という言葉を人工の構造物以外
に、山や川や海等の天然の地形も含めて地図DBでの何
らかの地理的構造を有するデータ全ての意味で用いるこ
ととする。地理的情報の取得にあたっては、カメラ位
置、カメラ角、焦点距離、画像サイズを基に景観画像を
求め、複数画像の構造物を求める。その構造物が写って
いるはずの景観画像の位置(以下、付与位置と称す)を
求めて、構造物の名称または属性情報を重畳表示する。According to the present invention, map data on a computer is created in advance as three-dimensional data, and a position at which an image (hereinafter referred to as a landscape image to distinguish it from a CG image) is input. , Camera angle, focal length, and image size at the time of shooting, and computer graphics (hereinafter referred to as CG) when viewed from the position at the time of shooting the actual scenery, the camera angle, and the focal length in the three-dimensional map space on the computer. This is to achieve the association by acquiring geographical information in the image and superimposing and displaying the geographical information on a landscape image which is a real scene. The geographic information is the name of a structure or the like or its attribute information in an image, and the attribute information means information on all attributes (for example, contour, color, etc.) of the structure. In this specification, the term structure is used to mean all data having a certain geographical structure in the map DB, including natural topography such as mountains, rivers, and the sea, in addition to artificial structures. In obtaining geographic information, a landscape image is obtained based on a camera position, a camera angle, a focal length, and an image size, and a structure of a plurality of images is obtained. The position of the landscape image where the structure is to be taken (hereinafter referred to as the assigned position) is obtained, and the name or attribute information of the structure is superimposed and displayed.
【0009】さらに、景観画像での構造物とCG画像で
の構造物との対応付けの精度をさらに上げるためには、
景観画像の各部分領域に対して先に獲得した構造物をパ
ターンマッチングにより対応付ける。獲得した構造物を
基にしてCG画像を作成し、景観画像の前記部分領域に
対してパターンマッチングによりCG画像中の部分領域
を対応付け、対応付けられた部分領域のもととなった構
造物を求める。Further, in order to further improve the accuracy of associating the structure in the landscape image with the structure in the CG image,
The previously acquired structure is associated with each partial region of the landscape image by pattern matching. A CG image is created on the basis of the acquired structure, a partial region in the CG image is associated with the partial region of the landscape image by pattern matching, and the structure as a source of the associated partial region Ask for.
【0010】ここで、CG画像の作成法の一例について
述べる。先に取得したカメラ位置とカメラ角度と焦点距
離と画像サイズを基に3次元地図DBにアクセスして、
3次元地図空間内での視野空間を求める。視野空間中の
構造物を求め、カメラ画面を投影面として、各構造物の
立体データをこの投影面に3次元投影変換する。さらに
各構造物の投影図形を構成する線データのうち、他の構
造物に隠れて見えない線データを法線ベクトル法等の手
法を用いて隠線消去する。隠線消去して残った線データ
を基にして、CG画像を領域分割する。3次元地図DB
を利用しているため、各領域毎にその領域のもととなる
構造物の名称を対応付けできる。Here, an example of a method for creating a CG image will be described. By accessing the three-dimensional map DB based on the camera position, camera angle, focal length, and image size obtained earlier,
Obtain the visual field space in the three-dimensional map space. A structure in the visual field space is obtained, and three-dimensional data of each structure is three-dimensionally projected and converted onto the projection plane using the camera screen as a projection plane. Further, of the line data constituting the projected figure of each structure, line data hidden by other structures and invisible is erased using a normal vector method or the like. The CG image is divided into regions based on the line data remaining after the elimination of the hidden lines. 3D map DB
Is used, the name of the structure that is the basis of the area can be associated with each area.
【0011】そうして、パターンマッチングにより景観
画像の各部分領域に対応付けられたCG画像の部分領域
の構造物名称を抽出する。抽出した構造物名称を重畳す
べき実風景画像の位置座標を、3次元地図空間中での構
造物の位置座標を先の投影面に3次元投影変換して求め
る。抽出した構造物名称を重畳すべき実風景画像の位置
座標からラベル情報を作成する。ラベル情報を基に実風
景である景観画像に構造物名称を重畳して、視覚機器に
表示する。Then, the structure name of the partial area of the CG image associated with each partial area of the landscape image is extracted by pattern matching. The position coordinates of the actual scenery image on which the extracted structure name is to be superimposed are obtained by three-dimensionally projecting the position coordinates of the structure in the three-dimensional map space onto the projection plane. Label information is created from the position coordinates of the actual scenery image on which the extracted structure name is to be superimposed. Based on the label information, the structure name is superimposed on a landscape image as a real scene and displayed on a visual device.
【0012】本発明ではさらに、検索情報入力手段を設
け、ユーザが景観画像中で検索したいと望む情報をユー
ザが入力すると、これを検索情報として受け取り、制御
手段に渡す。検索情報の例としては、飲食店、銀行等の
構造物の所有者の業務種別や、○○町や何丁目何番地と
いった土地の区割り情報や、何メートル以上の高さの物
体かといった高さ情報等がありえる。検索情報は、地図
情報に関する情報であれば何でもよい。制御手段は地図
情報管理手段に対して検索情報を渡す。地図情報管理手
段は、受け取った検索情報に適合する属性情報を有する
構造物を抽出し、検索情報およびそれに適合する属性情
報からなる検索結果情報を作成して制御手段に渡す。In the present invention, further, a search information input means is provided, and when the user inputs information that the user desires to search in the landscape image, the information is received as search information and passed to the control means. Examples of search information include the type of business of the owner of a structure such as a restaurant or a bank, zoning information on land such as XX town or what number of streets, or height such as how many meters or more objects are high. There can be information etc. The search information may be any information as long as the information is related to map information. The control means passes the search information to the map information management means. The map information management unit extracts a structure having attribute information that matches the received search information, creates search result information including the search information and the attribute information that matches the search information, and passes it to the control unit.
【0013】制御手段は、通常の手順のラベル情報作成
手段に各種情報を渡す際に、検索結果情報も渡す。ラベ
ル情報作成手段では、通常の手順で構造物の名称または
その属性情報とその付与位置を求めた後、各構造物が検
索結果情報中に含まれるか否かを確認する。ある構造物
が検索結果情報中にあれば、ラベル情報中にその構造物
が検索結果であることを表す情報を追加する。構造物の
名称またはその属性情報とその付与位置に続けて、例え
ば、検索結果フラグを追加する。こうして作成されたラ
ベル情報を制御手段に渡す。制御手段はラベル情報出力
手段にラベル情報を渡すと、ラベル情報出力手段ではラ
ベル情報中の検索結果フラグが“1”である項目につい
ては、視覚機器でユーザに検索結果であることがわかる
ように(例えば、描画色を特定の色に変更する等)して
視覚機器に表示する。The control means also passes search result information when passing various information to the label information creating means in a normal procedure. The label information creating means obtains the name of the structure or its attribute information and its assigned position in a normal procedure, and then checks whether or not each structure is included in the search result information. If a certain structure exists in the search result information, information indicating that the structure is a search result is added to the label information. For example, a search result flag is added following the structure name or its attribute information and its assigned position. The generated label information is passed to the control means. When the control unit passes the label information to the label information output unit, the label information output unit allows the visual device to recognize that the item whose search result flag is “1” in the label information is the search result. (For example, change the drawing color to a specific color) and display it on the visual device.
【0014】また、検索情報として景観画像中に見えな
いもの(他の構造物の陰に隠れているもの)の検出が指
定可能に検索情報入力手段を構成してもよい。その場合
は、ラベル情報作成時に隠面にある検索結果である構造
物の名称および輪郭とその付与位置の検索結果識別・隠
面フラグでラベル情報を構成する。ラベル情報出力手段
では、隠面にある検索結果の構造物の輪郭を特定の描画
色でスケルトン表示する。[0014] Further, the search information input means may be constituted so as to be capable of designating detection of search information invisible in the landscape image (data hidden behind other structures). In this case, the label information is constituted by the search result identification / hidden surface flag of the name and outline of the structure, which is the search result on the hidden surface when the label information is created, and the position where the structure is provided. The label information output means displays the outline of the search result structure on the hidden surface in a skeleton with a specific drawing color.
【0015】本発明の検索型景観ラベリング装置は、画
像を取得する画像取得手段と、画像取得時のカメラ位置
を取得する位置情報取得手段と、画像を取得したときの
カメラ角と焦点距離と画像サイズを取得するカメラ属性
情報取得手段と、ユーザが画像中で検索したい情報を示
す検索情報を入力する検索情報入力手段と、地図情報を
管理し、取得したカメラ位置とカメラ角と焦点距離と画
像サイズを基に地図情報空間の中で視野空間を求め、そ
の視野空間中に存在する構造物を獲得し、また、前記検
索情報を受け取ると、該検索情報に適合する属性情報を
有する構造物を抽出し、検索情報と前記属性情報からな
る検索結果情報を作成する地図情報管理手段と、前記構
造物の名称またはその属性情報および付与位置を含むラ
ベル情報を作成し、前記検索結果情報中にある構造物に
ついては前記ラベル情報中にその構造物が検索結果であ
ることを示す検索結果識別情報を追加するラベル情報作
成手段と、取得したラベル情報中の付与位置の情報に対
応する画像中の位置に構造物の名称またはその属性情報
を重畳し、重畳された画像を視覚機器に表示し、その際
前記ラベル情報中の検索結果識別情報が付加されている
項目については、ユーザが検索結果であることがわかる
ように表示する情報出力手段と、上記各手段を制御する
制御手段を有する。[0015] The search-type landscape labeling apparatus of the present invention comprises: an image obtaining means for obtaining an image; a position information obtaining means for obtaining a camera position at the time of obtaining the image; a camera angle, a focal length, and an image at the time of obtaining the image. Camera attribute information acquisition means for acquiring size, search information input means for entering search information indicating information that the user wants to search in an image, map information is managed, and the acquired camera position, camera angle, focal length, and image are acquired. Obtain a visual space in the map information space based on the size, obtain a structure existing in the visual space, and, when receiving the search information, obtain a structure having attribute information matching the search information. Map information management means for extracting and creating search result information including search information and the attribute information, and creating label information including the name of the structure or its attribute information and the assigned position; For a structure in the search result information, label information creating means for adding search result identification information indicating that the structure is a search result in the label information, and information on an assigned position in the acquired label information The name of the structure or its attribute information is superimposed at a position in the image corresponding to the above, and the superimposed image is displayed on a visual device. At this time, for items to which search result identification information in the label information is added, And an information output means for displaying the search result so that the user can recognize the search result, and a control means for controlling each of the above means.
【0016】本発明の他の検索型景観ラベリング装置
は、画像を取得する画像取得手段と、画像取得時のカメ
ラ位置を取得する位置情報取得手段と、画像取得時のカ
メラ角と焦点距離と画像サイズを取得するカメラ属性情
報取得手段と、取得した画像を複数の部分領域に分割す
る画像処理手段と、ユーザが画像中で検索したい情報を
示す検索情報を入力する検索情報入力手段と、地図情報
を管理し、取得したカメラ位置とカメラ角と焦点距離と
画像サイズを基に地図情報空間の中で視野空間を求め、
その視野空間中に存在する構造物を獲得し、また、前記
検索情報を受け取ると、該検索情報に適合する属性情報
を有する構造物を抽出し、検索情報と前記属性情報から
なる検索結果情報を作成する地図情報管理手段と、前記
画像の前記部分領域に対して前記獲得した構造物を対応
付け、対応付けられた前記構造物の名称または属性情報
および付与位置を含むラベル情報を作成し、前記検索結
果情報中にある構造物については前記ラベル情報中にそ
の構造物が検索結果であることを示す検索結果識別情報
を追加するラベル情報作成手段と、前記ラベル情報中の
構造物の名称またはその属性情報を画像中の付与位置に
対応する位置に重畳し、重畳された画像を視覚機器に表
示し、その際前記ラベル情報中の検索結果識別情報が付
加されている項目については、ユーザが検索結果である
ことがわかるように表示するラベル情報出力手段と、前
記各手段を制御する制御手段を有する。According to another aspect of the present invention, there is provided a retrieval type landscape labeling apparatus, comprising: an image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; a camera angle, a focal length, and an image at the time of image acquisition. Camera attribute information acquiring means for acquiring a size, image processing means for dividing the acquired image into a plurality of partial areas, search information input means for inputting search information indicating information that the user wants to search in the image, and map information And calculate the visual field space in the map information space based on the acquired camera position, camera angle, focal length, and image size.
Acquiring a structure existing in the visual field space, and upon receiving the search information, extracting a structure having attribute information matching the search information, and retrieving search result information including search information and the attribute information. Map information management means to be created, the acquired structure is associated with the partial region of the image, and label information including the name or attribute information and the assigned position of the associated structure is created; For a structure in the search result information, label information creating means for adding search result identification information indicating that the structure is a search result in the label information, and the name of the structure in the label information or its The attribute information is superimposed on the position corresponding to the assigned position in the image, and the superimposed image is displayed on a visual device, and at this time, the item to which the search result identification information in the label information is added For having a label information output means for displaying such it can be seen that the user is a search result, a control means for controlling said respective means.
【0017】本発明の検索型景観ラベリングシステム
は、景観ラベリング端末と景観ラベリングセンターから
なり、前記景観ラベリング端末は、画像を取得する画像
取得手段と、画像取得時のカメラ位置を取得する位置情
報取得手段と、画像取得時のカメラ角と焦点距離と画像
サイズを取得するカメラ属性情報取得手段と、取得した
画像を複数の部分領域に分割する画像処理手段と、ユー
ザが検索したい情報を示す検索情報を入力する検索情報
入力手段と、前記画像の領域分割に関する情報と、前記
カメラ位置と前記カメラ角と前記焦点距離と前記画像サ
イズとを通信網を介して前記景観ラベリングセンターに
送信し、前記景観ラベリングセンターからラベル情報を
受信する通信制御手段と、前記ラベル情報中の構造物の
名称またはその属性情報を画像中の付与位置に対応する
位置に重畳し、重畳された画像を視覚機器に表示し、そ
の際、前記ラベル情報中の検索結果識別情報から付加さ
れている項目については、ユーザが検索結果であること
がわかるように表示するラベル情報出力手段と、上記各
手段を制御する端末制御手段を有し、前記景観ラベリン
グセンターは、前記通信網を介して前記景観ラベリング
端末から前記画像の領域分割に関する情報と前記カメラ
位置と前記カメラ角と前記焦点距離と前記画像サイズと
を受信し、前記景観ラベリング端末に前記ラベル情報を
送信する通信制御手段と、地図情報を管理し、受信した
カメラ位置とカメラ角と焦点距離と画像サイズを基に地
図情報空間の中で視野空間を求め、その視野空間中に存
在する構造物を獲得し、また前記検索情報を受け取る
と、該検索情報に適合する属性情報を有する構造物を抽
出し、検索情報と前記属性情報からなる検索結果情報を
作成する地図情報管理手段と、前記画像の前記部分領域
に対して前記獲得した構造物を対応付け、対応付けられ
た前記構造物の名称または属性情報および付与位置を含
む前記ラベル情報を作成し、前記検索結果情報中にある
構造物については、前記ラベル情報中にその構造物が検
索結果であることを示す検索結果識別情報を追加するラ
ベル情報作成手段と、前記各手段を制御するセンター制
御手段を有する。A search-type landscape labeling system according to the present invention comprises a landscape labeling terminal and a landscape labeling center, wherein the landscape labeling terminal includes an image acquisition unit for acquiring an image and a position information acquisition for acquiring a camera position at the time of image acquisition. Means, camera attribute information acquiring means for acquiring a camera angle, a focal length, and an image size at the time of image acquisition; image processing means for dividing the acquired image into a plurality of partial areas; and search information indicating information that the user wants to search for A search information input unit for inputting the information, area information division of the image, and transmitting the camera position, the camera angle, the focal length, and the image size to the landscape labeling center via a communication network, Communication control means for receiving label information from a labeling center, and names of structures in the label information or attributes thereof Information is superimposed on a position corresponding to the application position in the image, and the superimposed image is displayed on a visual device. At this time, the user searches for items added from the search result identification information in the label information. A label information output unit for displaying the result so that it can be understood as a result, and a terminal control unit for controlling each of the above units, wherein the landscape labeling center receives the image area from the landscape labeling terminal via the communication network. Communication control means for receiving information regarding division, the camera position, the camera angle, the focal length, and the image size, transmitting the label information to the landscape labeling terminal, managing map information, and receiving the camera position The visual field space is obtained in the map information space on the basis of the camera angle, the focal length, and the image size, and the structure existing in the visual field space is obtained. Receiving the information, extracting a structure having attribute information that matches the search information, creating map result management information including search information and the attribute information, and a map information management unit, Correlate the acquired structure, create the label information including the name or attribute information and the assigned position of the associated structure, for the structure in the search result information, in the label information It has a label information creating means for adding search result identification information indicating that the structure is a search result, and a center control means for controlling each of the means.
【0018】本発明の実施態様によれば、ラベル情報作
成手段は、検索結果情報中の、ユーザが検索情報で指定
した情報が画像中に見えない構造物については構造物の
名称または属性情報、構造物の輪郭および付与位置の座
標と検索結果識別・隠面情報をラベル情報に追加し、前
記ラベル情報出力手段は前記ラベル情報中の検索結果識
別・隠面情報が付加されている構造物の輪郭を特定の描
画色でスケルトン表示する。According to the embodiment of the present invention, the label information creating means includes, for the structure in which the information specified by the user in the search information in the search result information is not visible in the image, the name or attribute information of the structure; The coordinates of the outline of the structure and the assigned position and the search result identification / hidden surface information are added to the label information, and the label information output means outputs the structure of the structure to which the search result identification / hidden surface information in the label information is added. Displays outlines in a skeleton with a specific drawing color.
【0019】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物を基にしてコンピュータグラ
フィックス画像であるCG画像を作成し、前記画像の前
記部分領域をパターンマッチングにより前記CG画像中
の部分領域に対応付け、対応付けられた部分領域の構造
物を求め、その構造物の名称または属性情報および付与
位置を含むラベル情報を作成する。According to an embodiment of the present invention, the label information creating means creates a CG image which is a computer graphics image based on the acquired structure, and the partial area of the image is subjected to the CG image by pattern matching. It associates with the partial area in the image, finds the structure of the associated partial area, and creates label information including the name or attribute information of the structure and the assigned position.
【0020】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物をカメラ画面に3次元投影変
換し、視点から見えない構造物を消去してCG画像を作
成し、CG画像中の部分領域の輪郭線によってCG画像
を部分領域に分割し、前記画像の前記部分領域と前記C
G画像の前記部分領域とをパターンマッチングにより対
応付け、画像の部分領域に対して対応付けられたCG画
像の部分領域の基となった構造物を求め、その構造物の
名称または属性情報および付与位置を含むラベル情報を
作成する。According to an embodiment of the present invention, the label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, erases a structure that cannot be seen from the viewpoint, creates a CG image, and creates a CG image. The CG image is divided into partial regions by the contour line of the middle partial region, and the partial region of the image is
The partial region of the G image is associated with the partial region of the CG image by pattern matching, the structure that is the basis of the partial region of the CG image associated with the partial region of the image is obtained, and the name or attribute information of the structure and the assignment Create label information including location.
【0021】[0021]
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。Next, embodiments of the present invention will be described with reference to the drawings.
【0022】図1は本発明の第1の実施形態の検索型景
観ラベリング装置の構成図である。FIG. 1 is a configuration diagram of a search-type landscape labeling apparatus according to a first embodiment of the present invention.
【0023】本実施形態の検索型景観ラベリング装置
は、画像を取得する、例えばディジタルカメラである画
像取得部1と、画像を取得する際のカメラ位置を取得す
る、例えばGPS受信機である位置情報取得部2と、画
像を取得する際にカメラ角と焦点距離と画像サイズを取
得する、例えばディジタルカメラに取り付けられた3次
元電子コンパスであるカメラ属性情報取得部3と、ユー
ザが画像中で検索したい情報(検索情報)を入力する検
索情報入力部4と、地図情報を管理し、取得したカメラ
位置とカメラ角と焦点距離と画像サイズを基に地図情報
空間の中で視野空間を求め、その視野空間中に存在する
構造物を獲得し、また検索情報を受け取ると、該検索情
報に適合する属性情報を有する構造物を抽出し、構造物
と属性情報からなる検索結果情報を作成する、例えば地
図DB管理プログラムである地図情報管理部6と、構造
物の名称または輪郭および付与位置を含むラベル情報を
作成し、検索結果情報中にある構造物についてはラベル
情報中の、その構造物が検索結果であることを示す検索
結果フラグを“1”にし、さらに検索結果情報中の、他
の構造物に隠れて画像中に見えない構造物については構
造物の名称または属性情報、構造物の輪郭および付与位
置の座標を含み、検索結果フラグと陰面フラグが共に
“1”のラベル情報を作成するラベル情報作成部7A
と、取得したラベル情報中の付与位置の情報に対応する
画像中の位置に地図情報の名称また輪郭を重畳し、重畳
された画像を視覚機器(不図示)表示し、その際ラベル
情報中の検索結果フラグが“1”の項目についてはユー
ザが検索結果であることがわかるように描画色を特定の
色に変更して視覚機器に表示し、また隠面フラグが
“1”の構造物についてはその輪郭を特定の描画色でス
ケルトン表示するラベル情報出力部8Aと、各部1〜8
Aを制御する制御部9で構成されている。The search type landscape labeling apparatus according to the present embodiment acquires an image, for example, an image acquisition unit 1 which is a digital camera, and acquires a camera position when acquiring an image, for example, a position information which is a GPS receiver. An acquisition unit 2, a camera attribute information acquisition unit 3, which is, for example, a three-dimensional electronic compass attached to a digital camera, for acquiring a camera angle, a focal length, and an image size when acquiring an image; A search information input unit 4 for inputting desired information (search information), and managing the map information, obtaining a visual field space in the map information space based on the acquired camera position, camera angle, focal length, and image size. When a structure existing in the visual field space is acquired and the search information is received, a structure having attribute information matching the search information is extracted, and the structure including the structure and the attribute information is extracted. For example, a map information management unit 6 which is a map DB management program for creating search result information, and label information including a name or an outline of a structure and an assigned position are created, and label information is included for a structure in search result information. In the search result information, a search result flag indicating that the structure is a search result is set to “1”. Further, in the search result information, for a structure hidden by other structures and not visible in the image, the name of the structure Alternatively, a label information creating unit 7A that creates the label information including the attribute information, the outline of the structure, and the coordinates of the assigned position, and both the search result flag and the hidden surface flag are “1”
And superimpose the name or outline of the map information on the position in the image corresponding to the information of the assigned position in the acquired label information, and display the superimposed image on a visual device (not shown). For items with a search result flag of “1”, the drawing color is changed to a specific color and displayed on a visual device so that the user can recognize that the item is a search result, and for a structure with a hidden surface flag of “1”. Is a label information output unit 8A that displays the outline in a skeleton with a specific drawing color,
The control unit 9 controls A.
【0024】図2は本発明の第2の実施形態の検索型景
観ラベリング装置の構成図、図3は図2の景観ラベリン
グ装置の処理の流れ図である。FIG. 2 is a configuration diagram of a search type landscape labeling apparatus according to a second embodiment of the present invention, and FIG. 3 is a flowchart of processing of the landscape labeling apparatus of FIG.
【0025】本実施形態の景観ラベリング装置は、景観
画像を取得する、例えばディジタルカメラである画像取
得部1と、画像を取得する際のカメラ位置を取得する、
例えばGPS受信機である位置情報取得部2と、同じく
画像を取得する際にカメラ角と焦点距離と画像サイズを
取得する、例えばディジタルカメラに取り付けられた3
次元電子コンパスであるカメラ属性情報取得部3と、ユ
ーザが画像中で検索したい情報(検索情報)を示す検索
情報を入力する検索情報入力部4と、取得した画像を複
数の部分領域に分割する画像処理部5と、地理情報を管
理し、取得したカメラ位置とカメラ角と焦点距離と画像
サイズを基に地図情報空間の中で視野空間を求め、その
視野空間中に存在する構造物を獲得し、検索情報を受け
取ると、該検索情報に適合する属性情報を有する構造物
を抽出し、検索情報と属性情報からなる検索結果情報を
作成する地図情報管理部6と、画像の前記部分領域に対
して獲得した構造物をパターンマッチングにより対応付
け、対応付けられた構造物の名称または属性情報および
付与位置を含むラベル情報を作成し、検索結果情報中に
ある構造物についてはラベル情報中の、その構造物が検
索結果であることを示す検索結果フラグを“1”にする
ラベル情報作成部7Bと、生成されたラベル情報中の構
造物の名称または属性情報を画像中の付与位置に対応す
る位置に重畳し、重畳された画像を視覚機器に表示し、
その際ラベル情報中の検索結果フラグが“1”の項目に
ついては、ユーザが検索結果であることがわかるように
描画色を特定の色に変更して表示し、また隠面フラグが
“1”の構造物についてはその輪郭を特定の描画色でス
ケルトン表示するラベル情報出力部8Bと、上記各部1
〜8Bを制御する制御部9Bで構成されている。The landscape labeling apparatus according to this embodiment acquires a landscape image, for example, an image acquisition unit 1 which is a digital camera, and acquires a camera position at the time of acquiring an image.
For example, a position information acquisition unit 2 that is a GPS receiver, and a camera angle, a focal length, and an image size that are also acquired when acquiring an image.
A camera attribute information acquisition unit 3 which is a three-dimensional electronic compass, a search information input unit 4 for inputting search information indicating information (search information) that the user wants to search in an image, and the obtained image is divided into a plurality of partial areas The image processing unit 5 manages geographic information, obtains a visual space in the map information space based on the acquired camera position, camera angle, focal length, and image size, and acquires a structure existing in the visual space. Upon receiving the search information, the map information management unit 6 extracts a structure having attribute information matching the search information, and creates search result information including the search information and the attribute information; The acquired structures are associated with each other by pattern matching, label information including the name or attribute information of the associated structures and the assigned position is created, and the structures in the search result information are identified. Indicates a label information creation unit 7B that sets a search result flag indicating that the structure is a search result in the label information to “1”, and displays the name or attribute information of the structure in the generated label information in the image. Superimposed on the position corresponding to the application position of the, the superimposed image is displayed on a visual device,
At this time, for the item whose search result flag is “1” in the label information, the drawing color is changed to a specific color and displayed so that the user can recognize the search result, and the hidden surface flag is “1”. And a label information output unit 8B for displaying the outline of the structure in a specific drawing color with a skeleton.
To 8B.
【0026】次に、本実施形態の動作を図3により詳細
に説明する。Next, the operation of this embodiment will be described in detail with reference to FIG.
【0027】まず、ユーザが画像中で検索したい情報を
示す検索情報を入力する(ステップ20)。次に、制御
部9Bが景観画像に関する情報を取得するために、位置
情報取得部2、カメラ属性情報取得部3、画像取得部1
に対して処理開始コマンドを送る。位置情報取得部2
は、制御部9Bから命令を受けてGPS受信機等により
位置情報(カメラ位置)を毎秒収集し、制御部9Bに渡
す(ステップ21)。ここで、時間間隔は秒単位に限ら
ずどのようにとってもよい。カメラ属性情報取得部3
は、制御部9Bの命令を受けて画像撮影時のカメラ等景
観画像記録装置のカメラ角を水平角と仰角の組で取得し
(ステップ22)、同時にズーム機能を有する景観画像
装置であれば焦点距離を取得する(ステップ23)。画
像取得部1は、制御部9Bから命令を受けて毎秒の景観
画像を取得し、制御部9Bに渡す(ステップ24)。画
像サイズは景観画像装置毎に固定なので、制御部9Bが
画像サイズ情報を保持しておく。制御部9Bは収集した
情報を景観画像ファイルとして保持する。First, a user inputs search information indicating information to be searched in an image (step 20). Next, in order for the control unit 9B to acquire information on the landscape image, the position information acquisition unit 2, the camera attribute information acquisition unit 3, the image acquisition unit 1
Send a processing start command to Location information acquisition unit 2
Receives a command from the control unit 9B, collects position information (camera position) every second by a GPS receiver or the like, and passes it to the control unit 9B (step 21). Here, the time interval is not limited to the unit of seconds, but may be any value. Camera attribute information acquisition unit 3
Obtains the camera angle of a landscape image recording device such as a camera at the time of image capturing as a set of a horizontal angle and an elevation angle in response to a command from the control unit 9B (step 22), and focuses on a landscape image device having a zoom function at the same time. The distance is obtained (step 23). The image acquisition unit 1 receives a command from the control unit 9B, acquires a landscape image every second, and passes it to the control unit 9B (step 24). Since the image size is fixed for each landscape image device, the control unit 9B holds the image size information. The control unit 9B holds the collected information as a landscape image file.
【0028】図4は、景観画像ファイルのデータ構造の
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式で持つ。FIG. 4 shows the file format of the data structure of the landscape image file. The landscape image file has header information and image data. The header information includes position information, camera angle information, focal length, time information, image size, type, and size of an image file. As location information,
East longitude, north latitude, and elevation data (for example, 137 degrees east 5 degrees
5 minutes 10 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m3
3 cm). The camera angle includes horizontal angle data and elevation angle data (for example, horizontal angle 254 degrees clockwise, elevation angle 15 degrees, etc.). The focal length data is the focal length (for example, 28 mm) of the camera lens at the time of capturing an image. The time information includes the time at the time of shooting (for example, 15:06:17, January 31, 1997, Japan time). As the image size of the image file, the vertical and horizontal pixel sizes (for example, 64
0 × 480). File type (TIF
E format, 8-bit color, etc.). It also has the number of bytes of the file (307.2 KB, etc.). The image data itself has, for example, a binary format.
【0029】制御部9Bは景観画像ファイルを格納する
と、画像処理部5に対して、景観画像から輪郭線を抽出
し、景観画像を複数の領域に分割するように命令する。
画像処理部5では、大まかに言えば景観画像内の濃度差
を基に微分処理を行って輪郭線を抽出し(ステップ2
5)、その輪郭線を境界としたラベリングを行うことに
よって領域分割する(ステップ26)。なお、ここで用
いたラベリングという技術用語は画像の領域分割におい
て用いられる技術用語であって、本発明の名称である景
観ラベリングとは異なるものである。手順としてはま
ず、画像の白黒濃淡画像に変換する。輪郭は明るさの急
変する部分であるから、微分処理を行って微分値がしき
い値より大きい部分を求めることで輪郭線の抽出を行
う。このとき輪郭線の線幅は1画素であり、輪郭線は連
結しているようにする。そのために細線化処理を行っ
て、線幅1画素の連結した線を得る。ここで微分処理、
細線化処理は従来からある手法を用いれば十分である。After storing the landscape image file, the control unit 9B instructs the image processing unit 5 to extract the outline from the landscape image and divide the landscape image into a plurality of regions.
The image processing unit 5 performs a differentiation process on the basis of the density difference in the landscape image to extract a contour line (step 2).
5) The region is divided by performing labeling with the outline as a boundary (step 26). Note that the technical term of labeling used here is a technical term used in image area division, and is different from landscape labeling, which is the name of the present invention. As a procedure, first, the image is converted into a monochrome grayscale image. Since the contour is a portion where the brightness changes suddenly, the contour is extracted by performing a differentiation process to find a portion where the differential value is larger than a threshold value. At this time, the line width of the outline is one pixel, and the outlines are connected. For this purpose, a thinning process is performed to obtain a connected line having a line width of one pixel. Where the differentiation process,
It is sufficient to use a conventional method for the thinning processing.
【0030】得られた輪郭線を領域の輪郭線と考え、輪
郭線により構成される領域に番号をつける操作を行う。
その番号の中で最大の数が領域の数となり、領域中の画
素数がその領域の面積を表す。景観画像を複数の部分領
域に分割した例を図9に示す。なお、領域間の類似度
(近さ)の尺度を導入し、性質が似ている複数の領域を
一つの領域にまとめていくクラスタ化処理を行ってもよ
い。既存方法のどのようなクラスタ化方法によってもよ
い。The obtained contour is regarded as the contour of the area, and an operation of numbering the area constituted by the contour is performed.
The largest number among the numbers is the number of areas, and the number of pixels in the area indicates the area of the area. FIG. 9 shows an example in which a landscape image is divided into a plurality of partial areas. Note that a measure of similarity (closeness) between regions may be introduced, and a clustering process may be performed to combine a plurality of regions having similar properties into one region. Any existing clustering method may be used.
【0031】制御部9Bは景観画像の領域分割処理を完
了させると、地図情報管理部5に対して景観画像ファイ
ルのヘッダ情報を渡して視野空間の算出処理を行う処理
要求を出し、地図情報管理部6は地図DBをアクセスす
る(ステップ27)。地図情報管理部6の例としては、
地図データベースプログラムがある。地図情報管理部6
は3次元地図データを管理している。2次元地図データ
でもよいが、その場合は高さ情報がないために実風景へ
のラベリングの付与位置の精度が劣る。なお、2次元地
図データを基にする場合は、高さ情報を補って処理す
る。例えば、家屋の2次元データである場合に、家屋が
何階建てかを表す階数情報があれば、階数に一定数を掛
けてその家屋の高さを推定し、2次元データと推定して
求めた高さ情報を基に3次元データを作成する。階数情
報がない場合でも、家屋図形の面積に応じて一定数の高
さを割り振る等して高さ情報を推定することができ、同
様に推定高さ情報をもとに3次元データを作成する。こ
うして3次元データを作成して処理を進める。When the control section 9B completes the area division processing of the landscape image, it issues a processing request for calculating the view space by passing the header information of the landscape image file to the map information management section 5 and issues a map information management. The unit 6 accesses the map DB (step 27). Examples of the map information management unit 6 include:
There is a map database program. Map information management unit 6
Manages three-dimensional map data. Although two-dimensional map data may be used, in this case, since there is no height information, the accuracy of the position at which the labeling is applied to the actual scenery is inferior. When the two-dimensional map data is used as the basis, the processing is performed by supplementing the height information. For example, in the case of two-dimensional data of a house, if there is floor information indicating the number of floors of the house, the number of floors is multiplied by a certain number to estimate the height of the house, and the two-dimensional data is obtained. 3D data is created based on the height information. Even when there is no floor information, the height information can be estimated by assigning a certain number of heights according to the area of the house figure, and similarly, three-dimensional data is created based on the estimated height information. . In this way, three-dimensional data is created and the process proceeds.
【0032】3次元地図データの例を図5に示す。図5
(1)に2次元で表現した地図情報空間を示し、図5
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部6では制御
部9Bの命令を受けて景観画像ファイルのヘッダ情報を
基に視野空間を算出する(ステップ28)。図6に視野
空間の計算例を示す。まず、水平方向をXY軸が張り、
垂直方向にZ軸が張るものとする。景観画像ファイルの
ヘッダ情報中の位置情報から、視点Eの位置を3次元地
図情報空間の中で設定する。例えば、東経137度55
分19秒、北緯34度34分30秒、標高101m33
cmであれば、それに対応する地図メッシュ番号中の対
応する座標を設定する。同じくヘッダ情報中のカメラ角
情報中の水平角と仰角を基にカメラ角方向を設定する。
カメラ角方法を表す直線上に視点Eから焦点距離分進ん
だ点に焦点Fをとる。視線方向ベクトルはその直線上で
視点Eからでる長さ1の単位ベクトルである。景観画像
ファイルの画像サイズで横方向のサイズからカメラ画面
のX軸での幅xを設定し、縦方向のサイズからY軸での
幅yを設定する。横x縦yの平面は視線方向ベクトルに
対してカメラ角方向に垂直で、かつ焦点Fを含むように
設定される。視点Eの座標からカメラ画面の4隅の点と
を結ぶ直線を各々求め、視点Eから延びる4本の半直線
が作る3次元空間を視野空間とする。図7に、3次元地
図空間での視野空間の例を示す。3次元地図空間をXZ
平面から眺めたものである。図7中で斜線で囲まれた部
分が視野空間に属する空間の、XY平面での断面図であ
る。図7の例では、視野空間の中のビルや山が含まれて
いる。FIG. 5 shows an example of three-dimensional map data. FIG.
(1) shows a map information space expressed in two dimensions, and FIG.
(2) shows a map information space expressed in three dimensions. This 3
With respect to the three-dimensional map information space, the map information management unit 6 calculates a visual field space based on the header information of the landscape image file in response to a command from the control unit 9B (step 28). FIG. 6 shows a calculation example of the visual field space. First, the XY axes stretch in the horizontal direction,
The Z axis extends in the vertical direction. The position of the viewpoint E is set in the three-dimensional map information space from the position information in the header information of the landscape image file. For example, 137 degrees east longitude 55
Minute 19 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m33
If it is cm, the corresponding coordinates in the map mesh number corresponding to the cm are set. Similarly, the camera angle direction is set based on the horizontal angle and the elevation angle in the camera angle information in the header information.
The focal point F is set at a point advanced from the viewpoint E by the focal length on a straight line representing the camera angle method. The line-of-sight direction vector is a unit vector having a length of 1 from the viewpoint E on the straight line. In the image size of the landscape image file, the width x on the X-axis of the camera screen is set from the horizontal size, and the width y on the Y-axis is set from the vertical size. The horizontal x vertical y plane is set so as to be perpendicular to the camera angle direction with respect to the line of sight vector and to include the focal point F. Straight lines connecting the four corner points of the camera screen are obtained from the coordinates of the viewpoint E, and a three-dimensional space formed by four half lines extending from the viewpoint E is defined as a visual field space. FIG. 7 shows an example of the visual field space in the three-dimensional map space. XZ 3D map space
It is viewed from a plane. FIG. 8 is a cross-sectional view taken along the XY plane of a space that belongs to the viewing space in FIG. In the example of FIG. 7, buildings and mountains in the viewing space are included.
【0033】さらに、地図情報管理部6では、求めた視
野空間の中に存在する構造物を求める。構造物毎に、構
造物を表す立体を構成する各頂点が、視野空間の内部領
域に存在するか否かを計算する。通常2次元地図空間は
一定サイズの2次元メッシュで区切られている。3次元
地図空間のメッシュの切り方としては、縦横の2次元方
向のメッシュに加えて高さ方向にも一定間隔でメッシュ
を切っていく。空間を直方体の単位空間で区切ることに
なる。まず、直方体の単位空間毎視野空間との重なり部
分の有無を調べ、重なり部分がある3次元単位地図空間
の番号を求める。ここでいう3次元単位地図空間の番号
とは、いわゆるメッシュ番号と同様のものである。重な
りを持つ3次元単位地図空間内にある構造物に対して、
視野空間と重なり部分の有無を調べる。構造物を構成す
る頂点の座標と視点の座標とを結ぶ直線を求め、その直
線が図8のカメラ画面に対して交点を持つならば視野空
間内にある。構造物を構成する複数の頂点のうち、一つ
の頂点でもこの条件を満たせば、その構造物は視野空間
と重なり部分を持つものとする。Further, the map information management section 6 determines a structure existing in the determined visual space. For each structure, it is calculated whether or not each vertex constituting the solid representing the structure exists in the internal region of the viewing space. Usually, a two-dimensional map space is divided by a two-dimensional mesh of a fixed size. As a method of cutting a mesh in the three-dimensional map space, a mesh is cut at regular intervals in the height direction in addition to the two-dimensional mesh in the vertical and horizontal directions. The space is divided by a rectangular parallelepiped unit space. First, the presence or absence of an overlapping portion between the rectangular parallelepiped unit space and the visual field space is checked, and the number of the three-dimensional unit map space having the overlapping portion is obtained. The number of the three-dimensional unit map space here is the same as a so-called mesh number. For structures in the overlapping 3D unit map space,
Investigate whether there is any overlap with the visual field space. A straight line connecting the coordinates of the vertices constituting the structure and the coordinates of the viewpoint is obtained. If the straight line has an intersection with the camera screen of FIG. 8, it is within the visual field space. If at least one vertex of the plurality of vertices constituting the structure satisfies this condition, the structure has an overlapping portion with the viewing space.
【0034】また、地図情報管理部6は、制御部9Aか
ら検索情報を受け取ると、該検索情報に適合する属性情
報を有する構造物を抽出し、検索情報と属性情報からな
る検索結果情報を作成する(ステップ29)。When the map information management unit 6 receives the search information from the control unit 9A, it extracts structures having attribute information matching the search information and creates search result information including the search information and the attribute information. (Step 29).
【0035】構造物が視野空間の内部に含まれるか、ま
たはその一部が含まれる場合、カメラ画面を投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ30)。ここで、図8に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。If the structure is included in the view space or a part of the structure, the process enters a process of three-dimensionally projecting each structure onto the projection surface using the camera screen as a projection surface (step 30). ). Here, as shown in FIG. 8, after the point P is re-expressed in the coordinate system based on the viewpoint E based on the following equation (1), the point P is projected on the camera screen to obtain the intersection Q. .
【0036】[0036]
【数1】 ここで、 点P=(x,y,z):構造物を構成する頂点の座標 点E=(ex,ey,ez):視点の座標 ベクトルL=(lx,ly,lz):支線方向ベクトル
(単位ベクトル) 点P’=(x’,y’,z’):点Pの視点Eを基にし
て表現した場合の座標 r=(lx2 +ly2 )1/2 交点Q=(x,y):点Pのカメラ画面への投影点 tは焦点距離 3次元投影変換にあたっては、まず各構造物毎にその頂
点が張る面を求める。例えば、直方体で表現される構造
物ならば、6つの面が求まる。各面をカメラ画面に投影
変換する際に、投影領域に含まれるカメラ画面上の各画
素に対し、視点とその面上の対応点との距離を計算して
奥行き値(Z値)としてメモリに格納する。各構造物の
各面毎に、カメラ画面上の各画素に対する奥行き値(Z
値)を計算し、メモリに格納する。なお(式)1中の
z’は視点からの奥行き値(Z値)を表す。(Equation 1) Here, point P = (x, y, z): coordinates of the vertices constituting the structure point E = (ex, ey, ez): coordinates of the viewpoint vector L = (lx, ly, lz): branch line direction vector (Unit vector) Point P ′ = (x ′, y ′, z ′): coordinates r = (lx 2 + ly 2 ) 1/2 when the point P is expressed based on the viewpoint E of the point P = (x, y): The projection point t of the point P on the camera screen is the focal length. In the three-dimensional projection conversion, first, for each structure, the surface on which the vertex extends is obtained. For example, in the case of a structure represented by a rectangular parallelepiped, six surfaces are obtained. When each plane is projected onto the camera screen, the distance between the viewpoint and the corresponding point on the plane is calculated for each pixel on the camera screen included in the projection area, and stored as a depth value (Z value) in the memory. Store. For each surface of each structure, the depth value (Z
Value) and store it in memory. Note that z ′ in (Equation 1) represents a depth value (Z value) from the viewpoint.
【0037】カメラ画面に3次元投影変換された構造物
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ3
1)。隠面処理の方法には、いろいろあるが、例えばZ
バッファ法を用いる。他のスキャンライン法、光線追跡
法でもよい。Among the structures three-dimensionally transformed on the camera screen, there are structures that can be seen from the viewpoint and structures that cannot be seen. Among them, it is necessary to find only the structure that can be seen from the viewpoint, and to find the surface on the opposite side from the viewpoint or the surface that is blocked by other structures. Therefore, hidden surface processing is performed (step 3
1). There are various methods for processing the hidden surface.
Use the buffer method. Other scan line methods and ray tracing methods may be used.
【0038】カメラ画面上の画素を任意にとって、その
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。A pixel on the camera screen is arbitrarily determined, and a plane having the smallest depth value for the pixel is determined. As described above, when processing is sequentially performed on each surface of each structure, the surface closest to the viewpoint is left for each pixel on the camera screen. The plane closest to the viewpoint is determined for each pixel on the camera screen, and pixels on the camera screen that share the plane closest to the viewpoint generally form an area.
There can be a plurality of regions consisting of pixels with the common surface being the closest surface. The region obtained in this way is a region obtained by performing a three-dimensional projection conversion of the partial region of the structure seen from the viewpoint. Surfaces on the other side of the view and those obstructed by other structures have been erased.
【0039】こうしてできた領域がCG画像領域を形成
する(ステップ32)。The area thus formed forms a CG image area (step 32).
【0040】CG画像領域を構成する2次元図形の頂点
座標に対して、投影変換前の3次元座標を求め、両者の
対応関係をリンク情報としてメモリに格納する。リンク
情報を基にして、その2次元領域がどの構造物の投影図
かということを求めること等に用いる。With respect to the vertex coordinates of the two-dimensional figure constituting the CG image area, three-dimensional coordinates before projection transformation are obtained, and the correspondence between the two is stored in the memory as link information. It is used to determine which structure the two-dimensional area is a projection of based on the link information.
【0041】隠線消去して残った線データを基にして、
CG画像を領域分割する。3次元地図DBを利用してい
るため、各領域毎にその領域の基となる構造物の名称を
対応付けできる。CG画像の分割された領域に順番に番
号を付けていく。CG画像を複数の部分領域に分割した
例を図10に示す。Based on the line data remaining after erasing hidden lines,
The CG image is divided into regions. Since the three-dimensional map DB is used, the name of the structure serving as the basis of each area can be associated with each area. The divided areas of the CG image are numbered sequentially. FIG. 10 shows an example in which a CG image is divided into a plurality of partial regions.
【0042】CG画像の領域分割処理が完了したら、制
御部9Bはラベル情報作成部7Bに対して、CG画像の
分割領域と景観画像の分割領域の対応付けを行うように
命令する。ラベル情報作成部7Bでは、テンプレートマ
ッチングによりCG画像の分割領域と景観画像の分割領
域の対応付けを行う(ステップ33、図11参照)。When the CG image area division processing is completed, the control section 9B instructs the label information creation section 7B to associate the CG image division area with the landscape image division area. The label information creating unit 7B associates the divided regions of the CG image with the divided regions of the landscape image by template matching (step 33, see FIG. 11).
【0043】景観画像の分割領域のうち、番号の若い領
域(例えば、1番)から順にCG画像の分割領域と対応
付けしていく。対応付けに当たっては、従来からあるマ
ッチング方法のうちのどれをとってもよいが、ここでは
単純なテンプレートマッチング法をとる。つまり、比較
する2つの領域を重ね合わせ、重なり合う部分の比率
が、しきい値として決めた一定の比率以上にある場合に
同一の構造物に関する領域として対応付けることとす
る。例えば、景観画像の分割領域1番目のR1に関し
て、その領域内にある各画素の座標値を(A,B)とす
る。座標(A,B)での画素の値は、領域の内部ゆえに
1である。CG画像の1番目の分割領域S1において、
座標(A,B)が領域S1内ならば画素値1であり重な
るが、S1の外ならば画素値0であり重ならない。こう
して座標(A,B)での重なり係数K(A,B)とし
て、重なる場合1、重ならない場合0で決まる。座標
(A,B)を領域R1内で動かして、重なり係数K
(A,B)を求める。そして、領域R1内で動かした座
標(A,B)の数N1に対して、重なり係数K(A,
B)が1であった座標の数N2を求めて、N1/N2が
しきい値以上である場合に、景観画像の分割領域R1と
CG画像の分割領域S1が対応するものと決める。この
対応付けを景観画像の分割領域の1番目から最後のもの
まで行う。なお、マッチング方法としてこの他、XY方
向に多少の位置ずれがあっても同じ値になるような評価
関数を用いてもよい。Among the divided regions of the landscape image, the regions are sequentially associated with the divided regions of the CG image in ascending order of the number (for example, No. 1). For matching, any of the conventional matching methods may be used, but here, a simple template matching method is used. That is, two regions to be compared are superimposed, and when the ratio of overlapping portions is equal to or greater than a certain ratio determined as a threshold, the regions are associated as regions relating to the same structure. For example, the coordinate value of each pixel in the first divided region R1 of the landscape image is set to (A, B). The value of the pixel at coordinates (A, B) is 1 because it is inside the area. In the first divided area S1 of the CG image,
If the coordinates (A, B) are within the area S1, the pixel value is 1 and overlaps, but if the coordinates (A, B) are outside the area S1, the pixel value is 0 and does not overlap. In this way, the overlap coefficient K (A, B) at the coordinates (A, B) is determined to be 1 when they overlap and 0 when they do not overlap. The coordinates (A, B) are moved within the region R1, and the overlap coefficient K
(A, B) is obtained. Then, with respect to the number N1 of coordinates (A, B) moved in the region R1, the overlap coefficient K (A,
The number N2 of coordinates where B) was 1 is obtained, and when N1 / N2 is equal to or larger than the threshold value, it is determined that the divided region R1 of the landscape image and the divided region S1 of the CG image correspond to each other. This association is performed from the first to the last divided area of the landscape image. In addition, as the matching method, an evaluation function that has the same value even if there is a slight displacement in the XY directions may be used.
【0044】ラベル情報作成部7Bでは、景観画像の部
分領域に対してCG画像の部分領域を対応付けた後、対
応づけられた部分領域の構造物を抽出し(ステップ3
4)、景観画像の部分領域毎に重畳すべき情報を求め、
重畳すべき位置とともにラベル情報として作成する処理
(ステップ35)に入る。まず、景観画像の部分領域に
対して、対応するCG画像の部分領域を取り出す。取り
出したCG画像の部分領域はもともと3次元地図空間の
中の3次元構造物のある面をカメラ画面に対して3次元
投影変換して得られたものである。そこで、3次元投影
変換の基となった3次元構造物の面を、CG画像の部分
領域が持つ奥行き値(Z値)をキーとして求める。先に
3次元投影変換した際に作成しておいたリンク情報をキ
ーにしてもよい。もととなった構造物の面をもとに、3
次元地図DBにアクセスしてその構造物の名称または属
性情報を取得する。ここで属性情報とは、その構造物に
関して付随する情報を意味し、その構造物に係る情報な
らば何でもよい。そして、名称または属性情報を重畳す
べき位置座標を、景観画像の部分領域に対して決める。
決め方は、どのように決めてもよい。例えば、部分領域
を張る図形の重心でもよい。その構造物の名称または属
性情報および付与位置座標からラベル情報を作成する。
対応付け構造物と検索結果情報を照合し、検索結果情報
中にある構造物についてはラベル情報中の検索結果フラ
グを“1”にする。また、他の構造物に隠れて見えない
構造物についてはその構造物の名称または属性情報、構
造物の輪郭をラベル情報に追加し、検索結果フラグと隠
面フラグを“1”にする。表1にラベル情報の例を示
す。After associating the partial area of the landscape image with the partial area of the CG image, the label information creating section 7B extracts the structure of the associated partial area (step 3).
4) obtaining information to be superimposed for each partial area of the landscape image,
The process (step 35) of creating label information together with the position to be superimposed is entered. First, a partial area of the CG image corresponding to the partial area of the landscape image is extracted. The partial region of the extracted CG image is originally obtained by three-dimensionally projecting and converting a certain surface of the three-dimensional structure in the three-dimensional map space onto the camera screen. Therefore, the surface of the three-dimensional structure on which the three-dimensional projection conversion is based is obtained using the depth value (Z value) of the partial region of the CG image as a key. The link information created at the time of the three-dimensional projection conversion may be used as a key. Based on the surface of the original structure, 3
Access the dimensional map DB to obtain the name or attribute information of the structure. Here, the attribute information means information accompanying the structure, and may be any information as long as the information is related to the structure. Then, the position coordinates where the name or attribute information is to be superimposed are determined for the partial area of the landscape image.
How to decide may be decided any way. For example, the center of gravity of the figure extending the partial area may be used. Label information is created from the name or attribute information of the structure and the assigned position coordinates.
The associated structure is compared with the search result information, and the search result flag in the label information is set to “1” for the structure in the search result information. For a structure that is hidden behind other structures and cannot be seen, the name or attribute information of the structure and the outline of the structure are added to the label information, and the search result flag and the hidden surface flag are set to “1”. Table 1 shows an example of label information.
【0045】[0045]
【表1】 ラベル情報作成部7Bは、ラベル情報を作成し終った
ら、制御部9Bにラベル情報を渡す。[Table 1] After completing the creation of the label information, the label information creating unit 7B passes the label information to the control unit 9B.
【0046】制御部9Bは、ラベル情報を受け取ると、
ラベル情報出力部8Bに対して視覚機器に対してラベル
情報を表示するように命令する。ここでは視覚機器は、
ディスプレイ、ヘッドマウントディスプレイ等の映像表
示装置を含む。ラベル情報中の構造物の名称または属性
情報を景観画像中の位置に重畳し(ステップ36)、重
畳された景観画像を映像表示装置に表示する(ステップ
37)。その際検索結果フラグが“1”である構造物に
ついては描画色を特定の色に変更して表示し、さらに隠
面フラグが“1”の構造物についてはその輪郭を特定の
描画色でスケルトン表示する。図12にラベル情報が重
畳された景観画像の例を示す。Upon receiving the label information, the control section 9B
It instructs the label information output unit 8B to display the label information on the visual device. Here the visual equipment is
Includes video display devices such as displays and head mounted displays. The name or attribute information of the structure in the label information is superimposed on the position in the landscape image (step 36), and the superimposed landscape image is displayed on the video display device (step 37). At this time, the drawing color is changed to a specific color for the structure whose search result flag is “1”, and the outline of the structure whose hidden surface flag is “1” is displayed in the specific drawing color. indicate. FIG. 12 shows an example of a landscape image on which label information is superimposed.
【0047】ラベル情報出力部8Bはラベル情報を出力
すると、出力完了を制御部9Bに通知する。制御部9B
は出力完了通知を受け取ると、連続して景観ラベリング
の処理を行う場合は先に示した一連の処理手順を再び実
行する。When the label information output section 8B outputs the label information, it notifies the control section 9B of the completion of the output. Control unit 9B
Upon receiving the output completion notification, if the landscape labeling process is to be performed continuously, the series of processing procedures described above are executed again.
【0048】図13は図2の検索型景観ラベリング装置
を通信システムに適用した景観ラベリングシステムの構
成図である。FIG. 13 is a configuration diagram of a landscape labeling system in which the search-type landscape labeling device of FIG. 2 is applied to a communication system.
【0049】本景観ラベリングシステムは景観ラベリン
グ端末40と景観ラベリングセンター50と通信網60
で構成される。The landscape labeling system includes a landscape labeling terminal 40, a landscape labeling center 50, and a communication network 60.
It consists of.
【0050】景観ラベリング端末40は、画像を取得す
る画像取得部41と、画像取得時のカメラ位置を取得す
る位置情報取得部42と、画像取得時のカメラ角と焦点
距離と画像サイズを取得するカメラ属性情報取得部43
と、ユーザが検索したい情報を示す検索情報を入力する
検索情報入力部44と、取得した画像を複数の部分領域
に分割する画像処理部45と、画像の領域分割に関する
情報とカメラ位置とカメラ角と焦点距離と画像サイズと
を通信網60を介して景観ラベリングセンター50に送
信し、景観ラベリングセンター50からラベル情報を受
信する通信制御部46と、ラベル情報中の構造物の名称
または属性情報を画像中の付与位置に対応する位置に重
畳し、重畳された画像を視覚機器に出力し、その際ラベ
ル情報中の検索結果識別フラグが“1”の項目について
は、ユーザが検索結果であることがわかるように描画色
を変更して表示し、さらに隠面フラグが“1”の構造物
について構造物の輪郭を特定の描画色でスケルトン表示
するラベル情報出力部47と、上記各部を制御する端末
制御部48で構成される。The landscape labeling terminal 40 acquires an image acquiring section 41 for acquiring an image, a position information acquiring section 42 for acquiring a camera position when acquiring an image, and acquires a camera angle, a focal length, and an image size when acquiring an image. Camera attribute information acquisition unit 43
A search information input unit 44 for inputting search information indicating information that the user wants to search, an image processing unit 45 for dividing an acquired image into a plurality of partial regions, information on image region division, camera position and camera angle , The focal length, and the image size via the communication network 60 to the landscape labeling center 50 and receive the label information from the landscape labeling center 50, and the name or attribute information of the structure in the label information. The superimposed image is superimposed on the position corresponding to the assigned position in the image, and the superimposed image is output to the visual device. At this time, for the item of which the search result identification flag in the label information is “1”, the user is the search result The drawing information is displayed in such a manner that the drawing color is changed so that the user can see the label, and the outline of the structure is displayed in a skeleton with a specific drawing color for the structure whose hidden surface flag is “1”. And parts 47, and a terminal control unit 48 for controlling the respective units.
【0051】景観ラベリングセンター50は通信網60
を介して景観ラベリング端末40から前記画像の領域分
割に関する情報とカメラ位置とカメラ角と焦点距離と画
像サイズを受信し、景観ラベリング端末40にラベル情
報を送信する通信制御部53と、地図情報を管理し、受
信したカメラ位置とカメラ角と焦点距離と画像サイズを
基に地図情報空間の中で視野空間を求め、その視野空間
中に存在する構造物を獲得し、検索情報を受け取ると、
該検索情報に適合する属性情報を有する構造物を抽出
し、検索情報と属性情報からなる検索結果情報を作成す
る地図情報管理部51と、画像の前記部分領域に対して
前記獲得した構造物をパターンマッチングにより対応付
け、対応付けられた前記構造物の名称または属性情報お
よび付与位置を含むラベル情報を作成し、検索結果情報
中にある構造物についてはラベル情報中の検索結果フラ
グを“1”とし、さらに検索結果情報中の他の構造物に
隠れて画像中に見えない構造物については構造物の名称
または属性情報、構造物の輪郭および付与位置を含み、
検索結果フラグと隠面フラグが共に“1”のラベル情報
を作成するラベル情報作成部52と、上記各部を制御す
るセンター制御部54で構成される。The landscape labeling center 50 has a communication network 60.
A communication control unit 53 that receives information related to the area division of the image, a camera position, a camera angle, a focal length, and an image size from the landscape labeling terminal 40 via the interface and transmits label information to the landscape labeling terminal 40; Manage and obtain the view space in the map information space based on the received camera position, camera angle, focal length and image size, acquire the structure existing in the view space, and receive the search information,
A map information management unit 51 for extracting a structure having attribute information matching the search information and creating search result information including the search information and the attribute information; Label information including the name or attribute information of the associated structure and the assigned position is created by pattern matching, and the search result flag in the label information is set to “1” for the structure in the search result information. And, for structures that are hidden in other images in the search result information and are not visible in the image, include the name or attribute information of the structure, the outline of the structure and the assigned position,
It is composed of a label information creation unit 52 for creating label information in which both the search result flag and the hidden surface flag are “1”, and a center control unit 54 for controlling the above-mentioned units.
【0052】なお、本システムの動作は図2の装置の動
作と同様である。。The operation of this system is the same as the operation of the apparatus shown in FIG. .
【0053】[0053]
【発明の効果】以上説明したように本発明によれば、コ
ンピュータ上の地理的情報と実風景の景観画像中の各部
分とを対応付けて利用者に提示することができるため、
人間がコンピュータ上の地図と実風景を見比べて人間の
方で対応付けせずとも済みユーザが検索したい情報を得
ることができる。As described above, according to the present invention, the geographical information on the computer and each part in the scenery image of the actual scene can be presented to the user in association with each other.
The information that the user wants to search can be obtained without the human being comparing the map on the computer with the actual scenery and associating with the human.
【図1】本発明の第1の実施形態の検索型景観ラベリン
グ装置の構成図である。FIG. 1 is a configuration diagram of a search-type landscape labeling device according to a first embodiment of the present invention.
【図2】本発明の第2の実施形態の検索型景観ラベリン
グ装置の構成図である。FIG. 2 is a configuration diagram of a search-type landscape labeling device according to a second embodiment of the present invention.
【図3】第2の実施形態の検索型景観ラベリング装置の
処理の流れ図である。FIG. 3 is a flowchart of processing of a search-type landscape labeling device according to a second embodiment.
【図4】景観画像ファイルのデータ構造を示す図であ
る。FIG. 4 is a diagram showing a data structure of a landscape image file.
【図5】2次元地図の例(同図(1))とその3次元地
図(同図(2))を示す図である。FIG. 5 is a diagram showing an example of a two-dimensional map (FIG. 1 (1)) and its three-dimensional map (FIG. 2 (2)).
【図6】視野空間の計算方法を示す図である。FIG. 6 is a diagram illustrating a calculation method of a visual field space.
【図7】3次元地図空間での視野空間の例を示す図であ
る。FIG. 7 is a diagram showing an example of a visual field space in a three-dimensional map space.
【図8】投影図の例を示す図である。FIG. 8 is a diagram showing an example of a projection view.
【図9】景観画像の領域分割例を示す図である。FIG. 9 is a diagram illustrating an example of area division of a landscape image.
【図10】CG画像の領域分割例を示す図である。FIG. 10 is a diagram illustrating an example of area division of a CG image.
【図11】景観画像の部分領域とCG画像の部分領域の
パターンマッチングの説明図である。FIG. 11 is an explanatory diagram of pattern matching between a partial area of a landscape image and a partial area of a CG image.
【図12】景観画像へのラベル情報の重畳の例を示す図
である。FIG. 12 is a diagram illustrating an example of superimposition of label information on a landscape image.
【図13】本発明の景観ラベリングシステムの構成図で
ある。FIG. 13 is a configuration diagram of a landscape labeling system of the present invention.
【図14】特開平8−273000号に開示されたナビ
ゲーション装置の構成図である。FIG. 14 is a configuration diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000.
【図15】動画像の表示例を示す図である。FIG. 15 is a diagram illustrating a display example of a moving image.
1 画像取得部 2 位置情報取得部 3 カメラ属性情報取得部 4 検索情報入力部 5 画像処理部 6 地図情報管理部 7A,7B ラベル情報作成部 8A,8B ラベル情報出力部 9A,9B 制御部 20〜37 ステップ 40 景観ラベリング端末 41 画像取得部 42 位置情報取得部 43 カメラ属性情報取得部 44 検索情報入力部 45 画像処理部 46 通信制御部 47 ラベル情報出力部 48 端末制御部 50 景観ラベリングセンター 51 地図情報管理部 52 ラベル情報作成部 53 通信制御部 54 センター制御部 60 通信網 Reference Signs List 1 image acquisition unit 2 position information acquisition unit 3 camera attribute information acquisition unit 4 search information input unit 5 image processing unit 6 map information management unit 7A, 7B label information creation unit 8A, 8B label information output unit 9A, 9B control unit 20 to 37 Step 40 Scenery labeling terminal 41 Image acquisition unit 42 Position information acquisition unit 43 Camera attribute information acquisition unit 44 Search information input unit 45 Image processing unit 46 Communication control unit 47 Label information output unit 48 Terminal control unit 50 Landscape labeling center 51 Map information Management unit 52 Label information creation unit 53 Communication control unit 54 Center control unit 60 Communication network
フロントページの続き (51)Int.Cl.6 識別記号 FI G06T 1/00 G09G 5/36 510C G08G 1/0969 520N G09G 5/36 510 G06F 15/40 370C 520 15/62 380 (72)発明者 高野 正次 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 池田 武史 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内Continuation of the front page (51) Int.Cl. 6 Identification symbol FI G06T 1/00 G09G 5/36 510C G08G 1/0969 520N G09G 5/36 510 G06F 15/40 370C 520 15/62 380 (72) Inventor Takano Shoji Nippon Telegraph and Telephone Corporation, 3-19-2 Nishi Shinjuku, Shinjuku-ku, Tokyo (72) Inventor Takeshi Ikeda 192-1 Nishi Shinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation
Claims (9)
と、 画像を取得したときのカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得手段と、 ユーザが画像中で検索したい情報を示す検索情報を入力
する検索情報入力手段と、 地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得し、ま
た、前記検索情報を受け取ると、該検索情報に適合する
属性情報を有する構造物を抽出し、該検索情報と前記属
性情報からなる検索結果情報を作成する地図情報管理手
段と、 前記構造物の名称またはその属性情報および付与位置を
含むラベル情報を作成し、前記検索結果情報中にある構
造物については前記ラベル情報中にその構造物が検索結
果であることを示す検索結果識別情報を追加するラベル
情報作成手段と、 取得したラベル情報中の付与位置の情報に対応する画像
中の位置に構造物の名称またはその属性情報を重畳し、
重畳された画像を視覚機器に表示し、その際前記ラベル
情報中の検索結果識別情報が付加されている項目につい
ては、ユーザが検索結果であることがわかるように表示
する情報出力手段と、 上記各手段を制御する制御手段を有する検索型景観ラベ
リング装置。An image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; and a camera attribute information acquisition for acquiring a camera angle, a focal length, and an image size when the image is acquired. Means, a search information input means for inputting search information indicating information that the user wants to search in the image, and map information, and managing the map information, and generating a map information space based on the acquired camera position, camera angle, focal length, and image size. In the visual field space in the, to obtain a structure existing in the visual space, and, when receiving the search information, extract a structure having attribute information that matches the search information, the search information and the Map information management means for creating search result information comprising attribute information; and label information including the name of the structure or its attribute information and the assigned position, and a structure included in the search result information. A label information creating means for adding search result identification information indicating that the structure is a search result in the label information, and a structure at a position in the image corresponding to the information of the assigned position in the acquired label information. Superimpose the name of the object or its attribute information,
An information output unit that displays the superimposed image on a visual device, and displays an item to which the search result identification information in the label information is added so that the user can recognize the search result; A search-type landscape labeling device having control means for controlling each means.
と、 画像取得時のカメラ角と焦点距離と画像サイズを取得す
るカメラ属性情報取得手段と、 取得した画像を複数の部分領域に分割する画像処理手段
と、 ユーザが画像中で検索したい情報を示す検索情報を入力
する検索情報入力手段と、 地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得し、ま
た、前記検索情報を受け取ると、該検索情報に適合する
属性情報を有する構造物を抽出し、該検索情報と前記属
性情報からなる検索結果情報を作成する地図情報管理手
段と、 前記画像の前記部分領域に対して前記獲得した構造物を
対応付け、対応付けられた前記構造物の名称または属性
情報および付与位置を含むラベル情報を作成し、前記検
索結果情報中にある構造物については前記ラベル情報中
にその構造物が検索結果であることを示す検索結果識別
情報を追加するラベル情報作成手段と、 前記ラベル情報中の構造物の名称またはその属性情報を
画像中の付与位置に対応する位置に重畳し、重畳された
画像を視覚機器に表示し、その際前記ラベル情報中の検
索結果識別情報が付加されている項目については、ユー
ザが検索結果であることがわかるように表示するラベル
情報出力手段と、 前記各手段を制御する制御手段を有する検索型景観ラベ
リング装置。2. An image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position at the time of image acquisition, a camera attribute information acquisition unit for acquiring a camera angle, a focal length, and an image size at the time of image acquisition. An image processing means for dividing the acquired image into a plurality of partial areas; a search information input means for inputting search information indicating information that the user wants to search in the image; Obtain a visual space in the map information space based on the angle, the focal length, and the image size, acquire a structure existing in the visual space, and, when receiving the search information, obtain an attribute matching the search information. Map information management means for extracting a structure having information and creating search result information including the search information and the attribute information, and associating the acquired structure with the partial region of the image In addition, label information including the name or attribute information of the associated structure and the assigned position is created, and for the structure in the search result information, the structure is a search result in the label information. Label information creating means for adding search result identification information indicating the name of a structure in the label information or attribute information thereof is superimposed on a position corresponding to a given position in the image, and the superimposed image is displayed on a visual device. Label information output means for displaying and, at this time, for the item to which the search result identification information in the label information is added, so that the user can recognize that the search result is a search result; and control means for controlling each of the means Search-type landscape labeling device with
果情報中の、ユーザが検索情報で指定した情報が画像中
に見えない構造物については構造物の名称または属性情
報、構造物の輪郭および付与位置の座標と検索結果識別
・隠面情報をラベル情報に追加し、前記ラベル情報出力
手段は前記ラベル情報中の検索結果識別・隠面情報が付
加されている構造物の輪郭を特定の描画色でスケルトン
表示する、請求項1または2記載の装置。3. The structure according to claim 3, wherein the label information creating means includes a structure name or attribute information, a contour of the structure, and a structure in which information specified by the user in the search information is not visible in the image. The coordinates of the application position and the search result identification / hidden surface information are added to the label information, and the label information output means draws a specific outline of the structure to which the search result identification / hidden surface information in the label information is added. The device according to claim 1, wherein the skeleton display is performed in color.
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域をパターン
マッチングにより前記CG画像中の部分領域に対応付
け、対応付けられた部分領域の構造物を求め、その構造
物の名称または属性情報および付与位置を含むラベル情
報を作成する、請求項2または3項記載の装置。4. The label information creating means creates a CG image, which is a computer graphics image, based on the acquired structure, and assigns the partial area of the image to a partial area in the CG image by pattern matching. 4. The apparatus according to claim 2, wherein the association is determined, a structure of the associated partial area is obtained, and label information including the name or attribute information of the structure and the assigned position is created. 5.
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けられたCG画像の部分領域の基とな
った構造物を求め、その構造物の名称または属性情報お
よび付与位置を含むラベル情報を作成する、請求項2ま
たは3記載の装置。5. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and generates a contour of a partial area in the CG image. Dividing the CG image into partial areas by lines,
The partial area of the image and the partial area of the CG image are associated with each other by pattern matching, and a structure based on the partial area of the CG image associated with the partial area of the image is obtained. 4. The apparatus according to claim 2, wherein label information including the name or attribute information of the object and the assigned position is created.
ンターからなり、 前記景観ラベリング端末は、画像を取得する画像取得手
段と、画像取得時のカメラ位置を取得する位置情報取得
手段と、画像取得時のカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得手段と、取得した画像を
複数の部分領域に分割する画像処理手段と、ユーザが検
索したい情報を示す検索情報を入力する検索情報入力手
段と、前記画像の領域分割に関する情報と前記カメラ位
置と前記カメラ角と前記焦点距離と前記画像サイズとを
通信網を介して前記景観ラベリングセンターに送信し、
前記景観ラベリングセンターからラベル情報を受信する
通信制御手段と、前記ラベル情報中の構造物の名称また
はその属性情報を画像中の付与位置に対応する位置に重
畳し、重畳された画像を視覚機器に表示し、その際、前
記ラベル情報中の検索結果識別情報が付加されている項
目については、ユーザが検索結果であることがわかるよ
うに表示するラベル情報出力手段と、上記各手段を制御
する端末制御手段を有し、 前記景観ラベリングセンターは、前記通信網を介して前
記景観ラベリング端末から前記画像の領域分割に関する
情報と前記カメラ位置と前記カメラ角と前記焦点距離と
前記画像サイズとを受信し、前記景観ラベリング端末に
前記ラベル情報を送信する通信制御手段と、地図情報を
管理し、受信したカメラ位置とカメラ角と焦点距離と画
像サイズを基に地図情報空間の中で視野空間を求め、そ
の視野空間中に存在する構造物を獲得し、また前記検索
情報を受け取ると、該検索情報に適合する属性情報を有
する構造物を抽出し、該検索情報と前記属性情報からな
る検索結果情報を作成する地図情報管理手段と、前記画
像の前記部分領域に対して前記獲得した構造物を対応付
け、対応付けられた前記構造物の名称または属性情報お
よび付与位置を含む前記ラベル情報を作成し、前記検索
結果情報中にある構造物については前記ラベル情報中に
その構造物が検索結果であることを示す検索結果識別情
報を追加するラベル情報作成手段と、上記各手段を制御
するセンター制御手段を有する検索型景観ラベリングシ
ステム。6. A landscape labeling terminal and a landscape labeling center, wherein the landscape labeling terminal is an image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position at the time of image acquisition, and a camera at the time of image acquisition. Camera attribute information acquisition means for acquiring an angle, a focal length, and an image size; image processing means for dividing an acquired image into a plurality of partial regions; and search information input means for inputting search information indicating information that a user wants to search. Transmitting the information on the area division of the image, the camera position, the camera angle, the focal length, and the image size to the landscape labeling center via a communication network,
Communication control means for receiving label information from the landscape labeling center, and superimposing the name of the structure in the label information or its attribute information at a position corresponding to the application position in the image, and the superimposed image to a visual device A label information output means for displaying, at this time, for the item to which the search result identification information in the label information is added, so that the user can recognize the search result as a search result, and a terminal for controlling each of the above means Having control means, the landscape labeling center receives information related to area division of the image, the camera position, the camera angle, the focal length, and the image size from the landscape labeling terminal via the communication network. Communication control means for transmitting the label information to the landscape labeling terminal; managing map information; and receiving the camera position, the camera angle and the focus. Obtaining a visual space in the map information space based on the distance and the image size, acquiring a structure existing in the visual space, and receiving the search information, a structure having attribute information matching the search information Map information management means for extracting an object and creating search result information including the search information and the attribute information, and associating the acquired structure with the partial region of the image, and the associated structure The label information including the name or attribute information of the object and the assigned position is created, and for the structure in the search result information, search result identification information indicating that the structure is a search result is included in the label information. A search-type landscape labeling system including a label information creating unit to be added and a center control unit for controlling each of the above units.
報中のユーザが検索情報で指定した情報が画像中に見え
ない構造物については構造物の名称または属性情報、構
造物の輪郭および付与位置の座標と検索結果識別・隠面
情報をラベル情報に追加し、前記ラベル情報出力手段は
前記ラベル情報中の検索結果識別・隠面情報が付加され
ている構造物の輪郭を特定の描画色でスケルトン表示す
る、請求項6記載のシステム。7. The structure according to claim 1, wherein said label information means comprises: for a structure in which the information specified by the user in the search result information in the search information is not visible in the image, the name or attribute information of the structure; And the search result identification / hidden surface information are added to the label information, and the label information output means displays the outline of the structure to which the search result identification / hidden surface information is added in the label information in a specific drawing color. 7. The system according to claim 6, wherein a skeleton display is performed.
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域をパターン
マッチングにより前記CG画像中の部分領域に対応付
け、対応付けられた部分領域の構造物を求め、その構造
物の名称または属性情報および付与位置を含むラベル情
報を作成する、請求項6または7記載のシステム。8. The label information creating means creates a CG image, which is a computer graphics image, based on the acquired structure, and converts the partial area of the image into a partial area in the CG image by pattern matching. 8. The system according to claim 6, wherein the association is determined, a structure of the associated partial area is obtained, and label information including the name or attribute information of the structure and the assigned position is created. 9.
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けられたCG画像の部分領域の基とな
った構造物を求め、その構造物の名称または属性情報お
よび付与位置を含むラベル情報を作成する、請求項6ま
たは7記載のシステム。9. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and generates a contour of a partial region in the CG image. Dividing the CG image into partial areas by lines,
The partial area of the image and the partial area of the CG image are associated with each other by pattern matching, and a structure based on the partial area of the CG image associated with the partial area of the image is obtained. The system according to claim 6, wherein label information including a name or attribute information of an object and an assigned position is created.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21772897A JP3156646B2 (en) | 1997-08-12 | 1997-08-12 | Search-type landscape labeling device and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21772897A JP3156646B2 (en) | 1997-08-12 | 1997-08-12 | Search-type landscape labeling device and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1166350A true JPH1166350A (en) | 1999-03-09 |
JP3156646B2 JP3156646B2 (en) | 2001-04-16 |
Family
ID=16708822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21772897A Expired - Lifetime JP3156646B2 (en) | 1997-08-12 | 1997-08-12 | Search-type landscape labeling device and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3156646B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003323440A (en) * | 2002-04-30 | 2003-11-14 | Japan Research Institute Ltd | Photographed image information providing system using portable terminal, photographed image information providing method, and program for executing method in computer |
WO2006077698A1 (en) * | 2005-01-21 | 2006-07-27 | Matsushita Electric Industrial Co., Ltd. | Display controller |
WO2007010596A1 (en) * | 2005-07-19 | 2007-01-25 | Fujitsu Limited | Image judging method,image judging device, and recording medium where program for allowing computer to execute image jduging method is recorded |
WO2007052458A1 (en) | 2005-11-01 | 2007-05-10 | Matsushita Electric Industrial Co., Ltd. | Information display device |
JP2008513852A (en) * | 2004-09-15 | 2008-05-01 | フランス テレコム | Method and system for identifying object in photograph, and program, recording medium, terminal and server for realizing the system |
JP2009509363A (en) * | 2005-08-29 | 2009-03-05 | エブリックス・テクノロジーズ・インコーポレイテッド | Interactivity via mobile image recognition |
JP2009086110A (en) * | 2007-09-28 | 2009-04-23 | Shunichiro Nakamura | Device for creating landscape picture |
JP2011141153A (en) * | 2010-01-06 | 2011-07-21 | Fujitsu Ltd | Portable terminal and view information display method |
JP4959812B2 (en) * | 2007-12-28 | 2012-06-27 | 三菱電機株式会社 | Navigation device |
JP5334145B1 (en) * | 2012-06-29 | 2013-11-06 | トーヨーカネツソリューションズ株式会社 | Support system for picking goods |
US8817045B2 (en) | 2000-11-06 | 2014-08-26 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
CN109644256A (en) * | 2016-09-22 | 2019-04-16 | 苹果公司 | Vehicle carrying video system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014009028A (en) * | 2012-07-02 | 2014-01-20 | Sanko Kikai Kk | Heat seal metal fitting type automatic packing machine |
-
1997
- 1997-08-12 JP JP21772897A patent/JP3156646B2/en not_active Expired - Lifetime
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8817045B2 (en) | 2000-11-06 | 2014-08-26 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
US9087270B2 (en) | 2000-11-06 | 2015-07-21 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
US9076077B2 (en) | 2000-11-06 | 2015-07-07 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
JP2003323440A (en) * | 2002-04-30 | 2003-11-14 | Japan Research Institute Ltd | Photographed image information providing system using portable terminal, photographed image information providing method, and program for executing method in computer |
JP2008513852A (en) * | 2004-09-15 | 2008-05-01 | フランス テレコム | Method and system for identifying object in photograph, and program, recording medium, terminal and server for realizing the system |
WO2006077698A1 (en) * | 2005-01-21 | 2006-07-27 | Matsushita Electric Industrial Co., Ltd. | Display controller |
JPWO2007010596A1 (en) * | 2005-07-19 | 2009-01-29 | 富士通株式会社 | Image judgment method |
WO2007010596A1 (en) * | 2005-07-19 | 2007-01-25 | Fujitsu Limited | Image judging method,image judging device, and recording medium where program for allowing computer to execute image jduging method is recorded |
JP4751886B2 (en) * | 2005-07-19 | 2011-08-17 | 富士通株式会社 | Image judgment method |
US8180103B2 (en) | 2005-07-19 | 2012-05-15 | Fujitsu Limited | Image determining method, image determining apparatus, and recording medium having recorded therein program for causing computer to execute image determining method |
US10617951B2 (en) | 2005-08-29 | 2020-04-14 | Nant Holdings Ip, Llc | Interactivity with a mixed reality |
US10463961B2 (en) | 2005-08-29 | 2019-11-05 | Nant Holdings Ip, Llc | Interactivity with a mixed reality |
US9600935B2 (en) | 2005-08-29 | 2017-03-21 | Nant Holdings Ip, Llc | Interactivity with a mixed reality |
JP2009509363A (en) * | 2005-08-29 | 2009-03-05 | エブリックス・テクノロジーズ・インコーポレイテッド | Interactivity via mobile image recognition |
WO2007052458A1 (en) | 2005-11-01 | 2007-05-10 | Matsushita Electric Industrial Co., Ltd. | Information display device |
JP2009086110A (en) * | 2007-09-28 | 2009-04-23 | Shunichiro Nakamura | Device for creating landscape picture |
JP4959812B2 (en) * | 2007-12-28 | 2012-06-27 | 三菱電機株式会社 | Navigation device |
JP2011141153A (en) * | 2010-01-06 | 2011-07-21 | Fujitsu Ltd | Portable terminal and view information display method |
JPWO2014002686A1 (en) * | 2012-06-29 | 2016-05-30 | トーヨーカネツソリューションズ株式会社 | Support apparatus and system for picking work of article |
WO2014002686A1 (en) * | 2012-06-29 | 2014-01-03 | トーヨーカネツソリューションズ株式会社 | Support device and system for article picking work |
JP5334145B1 (en) * | 2012-06-29 | 2013-11-06 | トーヨーカネツソリューションズ株式会社 | Support system for picking goods |
US11307411B2 (en) | 2012-06-29 | 2022-04-19 | Toyo Kanetsu Solutions K.K. | Support device and system for article picking or sorting work |
CN109644256A (en) * | 2016-09-22 | 2019-04-16 | 苹果公司 | Vehicle carrying video system |
Also Published As
Publication number | Publication date |
---|---|
JP3156646B2 (en) | 2001-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3225882B2 (en) | Landscape labeling system | |
CN108460815B (en) | Method and device for editing map road elements | |
US6222583B1 (en) | Device and system for labeling sight images | |
US9858717B2 (en) | System and method for producing multi-angle views of an object-of-interest from images in an image dataset | |
JPH1165431A (en) | Device and system for car navigation with scenery label | |
JP3156646B2 (en) | Search-type landscape labeling device and system | |
JP2003132068A (en) | Navigation system and navigation terminal | |
US7039630B2 (en) | Information search/presentation system | |
EP3827222B1 (en) | Method and device for navigating two or more users to a meeting location | |
CN109242966A (en) | A kind of 3D panorama model modeling method based on laser point cloud data | |
JP2000050156A (en) | News supporting system | |
JPH1186034A (en) | Human navigati0n device with scenery label and system therefor | |
JP3156645B2 (en) | Information transmission type landscape labeling device and system | |
JP3053172B2 (en) | Distance reference type landscape labeling device and system | |
JP3114862B2 (en) | An interactive landscape labeling system | |
JPH1157209A (en) | Rally game system using view label | |
JP3053169B2 (en) | Communication device and system using landscape label | |
JP3156649B2 (en) | Deformable label landscape labeling device and system | |
JPH0728980A (en) | Map information system | |
CN106846388B (en) | Image map registration method and system | |
JPH1132250A (en) | Verbal guiding type sight labeling device and system | |
JPH1157206A (en) | Shooting game system using view label | |
JPH1131239A (en) | Direction under consideration landscape labeling device and system | |
JPH1166349A (en) | Movement amount predictive scene labeling device and system | |
JPH1131238A (en) | Differential landscape labeling device and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080209 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090209 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090209 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100209 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110209 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110209 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120209 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130209 Year of fee payment: 12 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |