JP2007293558A - Program and device for object recognition - Google Patents

Program and device for object recognition Download PDF

Info

Publication number
JP2007293558A
JP2007293558A JP2006120061A JP2006120061A JP2007293558A JP 2007293558 A JP2007293558 A JP 2007293558A JP 2006120061 A JP2006120061 A JP 2006120061A JP 2006120061 A JP2006120061 A JP 2006120061A JP 2007293558 A JP2007293558 A JP 2007293558A
Authority
JP
Japan
Prior art keywords
image
observation
generated
model
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006120061A
Other languages
Japanese (ja)
Inventor
Ryuji Mine
竜治 嶺
Kazuaki Iwamura
岩村  一昭
Yoriko Kazama
頼子 風間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006120061A priority Critical patent/JP2007293558A/en
Publication of JP2007293558A publication Critical patent/JP2007293558A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus that can recognize an object included in an image, with high accuracy. <P>SOLUTION: An environmental model is calculated, by acquiring a sensing image along with the information on the photographing time and position of the sensing image, using an environmental model defined by the time and position recorded, in advance, on the basis of the photographying time and the position acquired. An object image is generated from the object shape data registered in advance, by using the environmental model to search for an object from the sensing image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、リモートセンシング画像を用いた画像処理装置、プログラムに関する。   The present invention relates to an image processing apparatus and program using a remote sensing image.

リモートセンシング画像中には様々な物体(例えば、航空機、船舶、車両、列車)が存在する。これらの物体を画像中から自動的に抽出、識別、検索することができればリアルタイムで画像から様々な情報を得ることが可能となる。   Various objects (for example, an aircraft, a ship, a vehicle, and a train) exist in the remote sensing image. If these objects can be automatically extracted, identified, and searched from the image, various information can be obtained from the image in real time.

ここで、抽出とは画像中に含まれる物体の位置を特定することである。また、識別とは画像中に含まれる物体の名称を特定することである。認識とは、抽出処理と識別処理によって画像中から物体の位置と物体の名称を特定することである。検索とは物体の名称をキーワードに画像中から該物体の位置を特定することである。
物体の認識は、あらかじめ、認識対象の物体の画像とその名称を格納した画像データベースを用いて物体の形状を記憶した辞書を作成しておき、リモートセンシング画像中に含まれる物体とその辞書に含まれる物体の形状を照合することで行なわれている。
Here, extraction refers to specifying the position of an object included in an image. Identification is to specify the name of an object included in the image. Recognition is to identify the position of the object and the name of the object from the image by extraction processing and identification processing. The search is to specify the position of the object from the image using the name of the object as a keyword.
For object recognition, a dictionary storing the shape of the object is created in advance using an image database storing the image of the object to be recognized and its name, and the object included in the remote sensing image and the dictionary are included in the dictionary. This is done by checking the shape of the object to be checked.

画像データベースに含める物体の形状は、リモートセンシング画像中に含まれる物体を人手でくりぬいた画像から作成する。特に、リモートセンシング画像を撮影する時刻等が異なると物体画像もその影響をうけ、物体の影のでき方や、画像コントラストが変動する。このような変動によって物体画像の輝度値も変化するため、物体の識別精度に影響を与える。そこで、あらかじめ様々な時間、場所で撮影したリモートセンシング画像に含まれる物体の画像を用いて物体画像データベースを作成する。   The shape of the object included in the image database is created from an image obtained by hollowing out the object included in the remote sensing image. In particular, if the time at which a remote sensing image is captured differs, the object image is also affected, and the shadow of the object and the image contrast vary. The luminance value of the object image also changes due to such fluctuations, which affects the object identification accuracy. Therefore, an object image database is created using objects images included in remote sensing images taken at various times and places in advance.

一方で、任意の撮影時刻に撮影した物体画像を実際のリモートセンシング画像から採取するのは効率がよくないため、物体の三次元モデル(数値データとして与えられた物体形状)から物体画像を生成する(レンダリング)手法が用いられてきた。一般的に、レンダリングでは、視点の位置、光源位置、材質等の条件を考慮して陰面消去、陰影付け、画像コントラストの調整をおこなうことができる。   On the other hand, since it is not efficient to collect an object image taken at an arbitrary shooting time from an actual remote sensing image, an object image is generated from a three-dimensional object model (object shape given as numerical data). (Rendering) techniques have been used. In general, in rendering, it is possible to perform hidden surface removal, shading, and image contrast adjustment in consideration of conditions such as the position of the viewpoint, the light source position, and the material.

また、撮影日時と撮影位置情報から、太陽方向、太陽高度を算出する。そして、その太陽方向、太陽高度と、認識対象物体の位置と高さ情報から影の領域を推定し、撮像画像から影を除去する方法もある(例えば、特許文献1参照)。   Also, the sun direction and solar altitude are calculated from the shooting date and time and shooting position information. There is also a method of estimating a shadow area from the sun direction, solar altitude, and position and height information of the recognition target object, and removing the shadow from the captured image (for example, see Patent Document 1).

また、撮影日時と撮影位置情報から、太陽方向、太陽高度を算出する。そしてリモートセンシング画像の周波数解析を行い、上記太陽方向、太陽高度に対応する周波数成分をマスクすることで影を除去する方法もある(例えば、特許文献2参照)。   Also, the sun direction and solar altitude are calculated from the shooting date and time and shooting position information. There is also a method of removing shadows by performing frequency analysis of a remote sensing image and masking the frequency component corresponding to the sun direction and solar altitude (for example, see Patent Document 2).

特開平10−269347号公報Japanese Patent Laid-Open No. 10-269347 特開2001−266162号公報JP 2001-266162 A

上記した、従来の様々な空中画像の属性をもとに作成した物体画像データベースから辞書を作成する方式では、辞書を格納する記憶装置の容量が大きくなったり、処理時間が増大するという問題があった。   The above-described conventional method for creating a dictionary from an object image database created based on various aerial image attributes has a problem in that the capacity of the storage device for storing the dictionary increases and the processing time increases. It was.

また、特許文献1に記載の方法では、撮像画像中の物体を補正しているため、認識対象物体の位置と高さ情報が既知であることが要求され、これらの情報が予め分からない場合には適用できなかった。また、特許文献2に記載の方法では影領域を除去するため、認識対象物体の上に影が出来た場合は、認識対象物体自身が影領域として除去されてしまうという問題があった。本発明では、これらの問題を解決する画像処理装置を提供することを目的とする。   Further, in the method described in Patent Document 1, since the object in the captured image is corrected, it is required that the position and height information of the recognition target object is known, and when such information is not known in advance. Could not be applied. In addition, since the shadow area is removed in the method described in Patent Document 2, when a shadow is formed on the recognition target object, the recognition target object itself is removed as a shadow area. An object of the present invention is to provide an image processing apparatus that solves these problems.

上記目的を解決するため、本願で開示する発明の概要は以下のとおりである。
センシング画像を該センシング画像の撮影時刻及び撮影位置の情報とともに取得し、予め記録される時刻と位置によって規定される環境モデルを用いて、取得した上記撮影時刻と撮影位置に基いて環境モデルを算出した上で、環境モデルを用いて予め登録しておいた物体形状データから物体画像を生成する。この物体画像を用いてセンシング画像から検索を行い、検索結果を出力する目標物認識プログラム及び装置。
In order to solve the above object, an outline of the invention disclosed in the present application is as follows.
A sensing image is acquired together with information on the shooting time and shooting position of the sensing image, and an environment model is calculated based on the acquired shooting time and shooting position using an environmental model defined by the time and position recorded in advance. After that, an object image is generated from object shape data registered in advance using an environmental model. A target recognition program and apparatus for performing a search from a sensing image using this object image and outputting a search result.

本発明によれば、撮影日時、場所が異なることによって物体画像にできる変動を考慮して物体識別用の辞書を作成することができるので、物体認識を高精度に行うことができる。   According to the present invention, a dictionary for object identification can be created in consideration of variations that can be made in an object image due to different shooting dates and times and places, so that object recognition can be performed with high accuracy.

以下,この発明の実施形態について図面を参照して詳細に説明する。ここで、本願で「物体」とは地物および移動物体を指し、「移動物体」とは航空機、船舶、車両、列車などを指す。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, in this application, “object” refers to features and moving objects, and “moving object” refers to aircraft, ships, vehicles, trains, and the like.

本実施例においては、衛星や航空機のセンサによって地表面の放射・反射電磁波を測定・記録したリモートセンシング画像を対象として説明する。尚、本願の適応対象としては、衛星や航空機に搭載したセンサで撮影したリモートセンシング画像に限らず、屋外においてセンサの位置と撮影時刻が予めわかり,被写体と撮像部との距離がある程度あり、さまざまな状況において撮像されたセンシング画像であれば適応可能である。特に空間分解能が1m程度の高分解能で物体の周辺や上にできる影の影響が大きく、センシング画像上の物体を認識する上で大きな障害となる状況にある場合には有用である。   In this embodiment, a remote sensing image obtained by measuring / recording radiation / reflected electromagnetic waves on the ground surface by a satellite or aircraft sensor will be described. The application target of the present application is not limited to a remote sensing image captured by a sensor mounted on a satellite or an aircraft, but the position of the sensor and the shooting time are known in advance outdoors, and there is a certain distance between the subject and the imaging unit. Any sensing image captured in various situations can be applied. In particular, it is useful when the spatial resolution is about 1 m and the influence of shadows on and around the object is large, which is a serious obstacle to recognizing the object on the sensing image.

図1は、本発明における一実施形態における、観測センサや、認識対象物等の位置関係をあらわした図である。観測センサを搭載した人工衛星101が、観測地域103を観測している。観測範囲105が観測センサによって撮影される範囲である。ここでは観測センサは人工衛星に搭載されるとしたが、本発明で用いる撮像画像は飛しょう体(例えば、航空機、気球)や、列車、車両、人等の移動物体に備わっていてもよい。   FIG. 1 is a diagram showing a positional relationship between an observation sensor, a recognition object, and the like in an embodiment of the present invention. An artificial satellite 101 equipped with an observation sensor observes an observation area 103. An observation range 105 is a range in which an image is captured by an observation sensor. Here, although the observation sensor is mounted on the artificial satellite, the captured image used in the present invention may be provided on a flying object (for example, an aircraft, a balloon) or a moving object such as a train, a vehicle, or a person.

太陽光104は太陽102から観測地域103にむけ照射されている。光源として太陽102を仮定したが、太陽以外の光源でもかまわない。また、複数の光源でもかまわない。太陽光104は認識対象物体106にあたり、認識対象物体によって光が遮られる部分は観測範囲105の上に影107としてうつる。   Sunlight 104 is irradiated from the sun 102 toward the observation area 103. Although the sun 102 is assumed as the light source, a light source other than the sun may be used. A plurality of light sources may be used. The sunlight 104 hits the recognition target object 106, and the portion where the light is blocked by the recognition target object moves as a shadow 107 on the observation range 105.

図2は,この発明に係わる画像処理装置の一実施形態を示すブロック構成図である。画像処理装置203は観測センサ201から観測信号を得て、物体認識結果を認識結果表示装置205に出力する装置である。観測センサ201は、例えば都市域や海域などの観測対象を撮影し、観測画像、観測センサの位置、観測対象の位置、観測日時を出力する。   FIG. 2 is a block diagram showing an embodiment of the image processing apparatus according to the present invention. The image processing device 203 is a device that obtains an observation signal from the observation sensor 201 and outputs an object recognition result to the recognition result display device 205. The observation sensor 201 images an observation target such as an urban area or a sea area, and outputs an observation image, the position of the observation sensor, the position of the observation target, and the observation date and time.

観測センサの位置は、例えば、緯度、経度、高度の3組の数値で表現できる。観測センサの位置の取得方法は、GPS(Global Positioning System)による方法がある。観測対象の位置は観測センサが撮影した領域の範囲と、撮影画像の原点から認識対象物体が存在する相対的な位置関係から、認識対象物体の緯度、経度を対応付けすることによって求められる。観測センサが撮影した領域の範囲は、例えば、矩形範囲を想定し北西の緯度、経度と南東の緯度、経度の4つの数値の組みで表現できる。観測日時は観測線さ102が搭載されている装置に内蔵されている時計の時刻を読み取ることで実現できる。   The position of the observation sensor can be expressed by three sets of numerical values, for example, latitude, longitude, and altitude. There is a GPS (Global Positioning System) method for obtaining the position of the observation sensor. The position of the observation target is obtained by associating the latitude and longitude of the recognition target object from the range of the region captured by the observation sensor and the relative positional relationship where the recognition target object exists from the origin of the captured image. The range of the area photographed by the observation sensor can be expressed by a combination of four numerical values of northwest latitude, longitude, southeast latitude and longitude assuming a rectangular range, for example. The observation date and time can be realized by reading the time of a clock built in the apparatus in which the observation line 102 is mounted.

撮像はユーザの指示に基づくものであっても、予め定めたルールにのっとって所定期間毎に行われるものであっても良い。また、観測センサ201は、光学系センサのような受動型センサでもかまわないし、合成開口レーダのような能動型センサでもかまわない。また、ハイパースペクトルセンサを用いて、各々の観測波長域ごとに画像生成処理を行う構成にしてもよい。   Imaging may be based on a user's instruction or may be performed every predetermined period according to a predetermined rule. Further, the observation sensor 201 may be a passive sensor such as an optical system sensor or an active sensor such as a synthetic aperture radar. Moreover, you may make it the structure which performs an image generation process for every observation wavelength range using a hyper spectrum sensor.

環境情報データベース216は、観測センサの位置、観測対象の位置、観測日時によって変化する環境情報を格納したデータベースである。環境情報とは、例えば太陽高度、太陽方位、気象状況、大気状況である。環境情報生成手段206は、観測センサ202によって得られた観測センサ位置、観測対象位置、観測日時に基づいて、環境情報データベース210を参照して、対象とするデータについての環境情報を生成する。   The environment information database 216 is a database that stores environment information that changes depending on the position of the observation sensor, the position of the observation target, and the observation date and time. The environmental information is, for example, solar altitude, solar orientation, weather conditions, and atmospheric conditions. The environment information generation unit 206 refers to the environment information database 210 based on the observation sensor position, the observation target position, and the observation date and time obtained by the observation sensor 202, and generates environment information about the target data.

物体形状データベース217は、認識対象物体の三次元モデル(数値データとして与えられた物体形状)と物体の属性等が関連づけられて格納されている。物体画像生成手段207は、環境情報もとに、認識対象物体の画像を生成する。画像の生成方法には、例えばレンダリング手法(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1758〜1794ページ)を用いる。物体形状データベースには、認識対象となりうる物体の形状が格納されている。ユーザが認識対象を限定したい場合には、認識対象物体入力装置215にて認識対象物体の名称を入力し、認識対象物体選択手段213で、認識対象を限定することができる。   The object shape database 217 stores a three-dimensional model (object shape given as numerical data) of a recognition target object in association with an attribute of the object. The object image generation unit 207 generates an image of the recognition target object based on the environment information. For example, a rendering method (Mikio Takagi and Yoshihisa Shimoda “New Edition Image Analysis Handbook”, The University of Tokyo Press, September 10, 2004, pages 1758 to 1794) is used as an image generation method. The object shape database stores shapes of objects that can be recognized. When the user wants to limit the recognition target, the recognition target object input device 215 can input the name of the recognition target object, and the recognition target object selection unit 213 can limit the recognition target.

物体画像生成手段207によって、物体画像を生成する際には、物体画像生成制御手段209によって、物体画像生成の制御パラメータを制御できる。制御パラメータは、例えば、生成する物体の向き、表面の色がある。   When the object image generating unit 207 generates an object image, the object image generation control unit 209 can control the control parameters for object image generation. The control parameter includes, for example, the direction of the object to be generated and the color of the surface.

さらに、物体画像生成手段207によって生成した物体画像を、あらかじめ様々な背景画像を蓄積した背景画像データベース218に保存されている背景画像の上に、背景画像重畳手段219を用いて重ね合わせることもできる。背景画像データベース218に複数の背景画像が登録されている場合は、ユーザが背景画像指定装置220から画像を指定し、背景画像選択手段221で背景画像データベース218から指定した画像を用いるようにする。画像指定の方法は画像ファイル名を直接指定することで実現できる。また、背景画像をプレビューする画面を設けユーザが目視で背景画像を確認するようにしてもよい。背景画像を重畳することにより、背景画像と物体画像の輝度差等も物体識別の特徴量とすることができる。物体特徴学習手段208で背景画像を必要としない場合は、物体画像生成手段207の出力を、直接、物体特徴学習手段208の入力としてもよい。この場合は、物体画像データベース214には背景を含まない物体のみの画像を蓄積しておいてもよい。   Furthermore, the object image generated by the object image generating unit 207 can be superimposed on the background image stored in the background image database 218 in which various background images are stored in advance by using the background image superimposing unit 219. . When a plurality of background images are registered in the background image database 218, the user designates an image from the background image designation device 220, and the image designated from the background image database 218 by the background image selection means 221 is used. The image designation method can be realized by directly designating the image file name. A screen for previewing the background image may be provided so that the user can visually confirm the background image. By superimposing the background image, the luminance difference between the background image and the object image can also be used as a feature quantity for object identification. When the object feature learning unit 208 does not require a background image, the output of the object image generation unit 207 may be directly input to the object feature learning unit 208. In this case, the object image database 214 may store only images of objects that do not include the background.

また、背景画像重畳手段219で生成した物体画像は、物体画像表示手段212によって画面上でユーザが目視確認することができる。その際には、あらかじめ実際のリモートセンシング画像からくりぬいておいた実物体画像を物体画像データベース214に蓄積しておき、これを参照し、目視にて比較検討できる。その結果、生成画像が適切でないとユーザが判断した場合には、物体画像生成制御手段209を用いて再度物体画像を生成する。   The object image generated by the background image superimposing means 219 can be visually confirmed on the screen by the object image display means 212. In that case, an actual object image that has been hollowed out from an actual remote sensing image in advance is stored in the object image database 214, and this can be referred to for visual comparison. As a result, when the user determines that the generated image is not appropriate, the object image is generated again using the object image generation control unit 209.

物体特徴学習手段208は、物体画像生成手段207によって生成された物体画像から物体の認識に有効な物体特徴知識を抽出する。物体特徴知識とは、物体の種別を分類するのに有効な特徴量と、物体の名称の組であたえられる。特徴量としては、物体画像のエッジ強度、周波数特性、輝度分布などがある。
物体認識手段204は、観測画像を走査して特徴量を生成し、その特徴量と物体形状学習手段208によって作成した物体形状知識の特徴量と比較し、最も類似した特徴量に対応する物体の名称を認識結果として出力する。認識結果表示手段205は、物体認識手段204によって認識した結果を画面に表示する。
The object feature learning unit 208 extracts object feature knowledge effective for object recognition from the object image generated by the object image generation unit 207. The object feature knowledge is a set of a feature amount effective for classifying an object type and an object name. The feature amount includes the edge strength, frequency characteristics, luminance distribution, and the like of the object image.
The object recognition unit 204 scans the observation image to generate a feature amount, compares the feature amount with the feature amount of the object shape knowledge created by the object shape learning unit 208, and compares the feature amount with the most similar feature amount. The name is output as a recognition result. The recognition result display unit 205 displays the result recognized by the object recognition unit 204 on the screen.

尚、各部は計算機にプログラムを読み込むことで実行されても、一部ハードウェアとの協調によって行われても良い。認識結果表示装置205と物体画像表示装置212とは同じ表示装置で有っても良く、同じ入力装置で209と215、220を兼用することも可能である。   Each unit may be executed by reading a program into a computer, or may be performed in cooperation with a part of hardware. The recognition result display device 205 and the object image display device 212 may be the same display device, and 209, 215, and 220 can be combined with the same input device.

図3は、本発明における一実施形態における、物体認識処理フローの一例を示した図である。まず、観測センサ201によって観測地域の観測を行い、観測画像、観測センサ位置、観測対象位置、観測日時を得る(S301)。次に、環境情報生成手段206で、観測センサ位置、観測対象位置、観測日時をもとに、環境情報データベース210を参照して環境情報を生成する(S302)。そして、全ての物体を認識対象とするかユーザが判断する(S303)。全ての物体を認識対象としない場合は、認識対象物体入力装置215から認識対象物体の名称を入力し、物体形状データベース217から認識対象物体の形状のみを、認識対象物体選択手段213にて選択する(S304)。環境情報と物体形状データベース217から物体画像生成手段(207)によって認識対象物体の画像を生成する(S305)。そして背景画像重畳手段219によって背景画像に物体画像を重畳する。上述したように物体特徴学習手段208で背景画像を必要としない場合はスキップすることができる。そして背景画像に重畳した物体画像、もしくは、物体画像を物体画像表示手段212で目視確認する(S306)。   FIG. 3 is a diagram showing an example of an object recognition processing flow in one embodiment of the present invention. First, an observation area is observed by the observation sensor 201, and an observation image, an observation sensor position, an observation target position, and an observation date and time are obtained (S301). Next, the environment information generation unit 206 generates environment information with reference to the environment information database 210 based on the observation sensor position, the observation target position, and the observation date and time (S302). Then, the user determines whether all objects are to be recognized (S303). When not all objects are to be recognized, the recognition target object name is input from the recognition target object input device 215, and only the shape of the recognition target object is selected by the recognition target object selection unit 213 from the object shape database 217. (S304). An image of the recognition target object is generated from the environmental information and the object shape database 217 by the object image generation means (207) (S305). Then, the background image superimposing means 219 superimposes the object image on the background image. As described above, when the object feature learning unit 208 does not require a background image, it can be skipped. Then, the object image superimposed on the background image or the object image is visually confirmed by the object image display means 212 (S306).

そして、S305にて生成物体画像が適切でないとユーザが判断した場合には、制御パラメータを修正し(S306)、その修正した制御パラメータを用いて再度、物体画像を生成する(S303)。S305で適切な物体画像が生成されたとユーザが判断した場合は、物体特徴学習(S307)を行う。物体特徴学習(S307)は、物体画像から物体の特徴を抽出して物体特徴知識を作成する最後に、物体認識(S310)では、物体認識手段(204)が物体形状知識を参照し、観測範囲205内の画像中に含まれる物体を認識し、その結果を表示する(S311)する。   If the user determines that the generated object image is not appropriate in S305, the control parameter is corrected (S306), and the object image is generated again using the corrected control parameter (S303). If the user determines that an appropriate object image has been generated in S305, object feature learning (S307) is performed. In the object feature learning (S307), the object feature is extracted from the object image to create object feature knowledge. In the object recognition (S310), the object recognition means (204) refers to the object shape knowledge, and the observation range. The object contained in the image in 205 is recognized, and the result is displayed (S311).

上記では、物体認識手段204で物体形状知識を用いて物体を認識すると説明した。当然ながら、認識の用いる知識は形状に限定されず、スペクトル、テクスチャ、輝度分布などの画像特徴量を用いてもよい。また、物体の全長、全幅を用いてもよい。
図4は本発明の一実施形態における物体形状データベース210で用いられるデータ構造の構成例である。物体ID401は物体に固有番号を格納する。属性402には物体の種別を格納する。例えば航空機には“Airplane”、船舶には“Ship”とする。物体名403には物体の名称を格納する。物体認識に物体の全長や全幅が有効な場合は、全長404、全幅405を格納する領域を設け、物体の全長と全幅を格納する。また、認識対象物体の向きによって物体形状が異なって見える場合は、方向406を設け、物体の向きを格納する。飛行機について「左」とあれば、機首が画面の左側に存在するも向きであるであることを意味する。形状パラメータ407には該物体の形状を格納する。物体の形状の表現方法は、曲面を表す関数の集合を用いることができる。もちろん、3次元形状が表現できる他の形式を用いてもよい。例えば、格子状に配置された標高点の集合で表す方法でもかまわない。また、形状に加え、物体表面の材質、色、電磁波の反射・吸収特性を含めることができる。
In the above description, it has been described that the object recognition unit 204 recognizes an object using the object shape knowledge. Naturally, the knowledge used for recognition is not limited to the shape, and image feature amounts such as spectrum, texture, and luminance distribution may be used. Moreover, you may use the full length and full width of an object.
FIG. 4 is a configuration example of a data structure used in the object shape database 210 according to the embodiment of the present invention. The object ID 401 stores a unique number for the object. The attribute 402 stores the type of the object. For example, “Airplane” for aircraft and “Ship” for ships. The object name 403 stores the name of the object. When the full length and full width of the object are effective for object recognition, an area for storing the full length 404 and the full width 405 is provided, and the full length and full width of the object are stored. When the object shape looks different depending on the direction of the recognition target object, a direction 406 is provided to store the object direction. “Left” for an airplane means that the nose is on the left side of the screen but is also oriented. The shape parameter 407 stores the shape of the object. As a method for expressing the shape of an object, a set of functions representing a curved surface can be used. Of course, other formats that can express a three-dimensional shape may be used. For example, a method may be used that represents a set of elevation points arranged in a grid pattern. In addition to the shape, the material, color, and electromagnetic wave reflection / absorption characteristics of the object surface can be included.

図5は本発明の一実施形態における物体画像生成手段207の処理フローS305の一例を示した図である。まず、認識対象物体形状を、3次元空間上の点の集合(例えば、緯度、経度、高さ)の表現形式へ変換(S501)する。この変換には、例えば形状パラメータ407に観測対象位置を代入することで得られる。形状パラメータ407の空間分解能と観測センサ202から得られた空間分解能が異なる場合は、空間分解能を観測センサ202に合わせる。これにはアフィン変換を用いることができる(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1759〜1764ページ)。   FIG. 5 is a diagram showing an example of the processing flow S305 of the object image generation means 207 in one embodiment of the present invention. First, the recognition target object shape is converted into a representation format of a set of points (eg, latitude, longitude, height) in a three-dimensional space (S501). This conversion can be obtained by substituting the observation target position into the shape parameter 407, for example. When the spatial resolution of the shape parameter 407 and the spatial resolution obtained from the observation sensor 202 are different, the spatial resolution is matched with the observation sensor 202. An affine transformation can be used for this (Mikio Takagi and Yoshihisa Shimoda “New Edition Image Analysis Handbook”, The University of Tokyo Press, September 10, 2004, pages 1759 to 1764).

次に、射影変換処理(S502)で、3次元空間上の点集合で表現された認識対象物体を、2次元平面に投影し、投影画像を生成する。射影変換は、視点と視線の関係から投影面の交点を求めることで行うことができる(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1764〜1766ページ参照)。
そして、影領域算出(S503)では、環境情報から太陽高度、方位を抽出し、認識対象物体の上や周辺にできる影領域を特定する。地表から高さhの物体に、太陽高度θの太陽光が照射してできる影の長さLは、L=h/tanθであり、影の向きは太陽方位δと反対側となる。任意の地点における、任意の時刻の太陽高度、方位は、理科年表の暦部に記載された値を用いて算出することができる。
Next, in the projective transformation process (S502), the recognition target object expressed by the point set in the three-dimensional space is projected onto the two-dimensional plane to generate a projected image. Projective transformation can be performed by obtaining the intersection of the projection planes from the relationship between the viewpoint and the line of sight (Mikio Takagi and Yoshihisa Shimoda “New Image Analysis Handbook”, University of Tokyo Press, September 10, 2004, 1764 to 1766. Page).
In the shadow area calculation (S503), the solar altitude and direction are extracted from the environment information, and the shadow area formed on or around the recognition target object is specified. The length L of a shadow formed by irradiating an object having a height of h from the ground surface with sunlight having a solar altitude θ is L = h / tan θ, and the direction of the shadow is opposite to the solar direction δ. The solar altitude and direction at an arbitrary time at an arbitrary point can be calculated using values described in the calendar part of the scientific chronology.

上記は、物体の上や周辺に出来る影をモデル化するため、環境モデルの出力として太陽方位、太陽高度が出力される場合を想定した。これ以外に環境モデルとして気象モデルを考えることもできる。気象モデルは、位置および日時をインデックスとして、天気を検索することができるデータベースシステムとして実現できる。観測対象位置と観測日時の情報から、気象モデルから観測対象位置の天気情報を抽出し、観測画像の画像輝度を予測する。例えば、観測時の天気が快晴の場合は、雲量を0とみなし観測画像のコントラストを高くする。逆に天気が曇りの場合には、観測画像のコントラストを低くする。   In the above, in order to model the shadow formed on or around the object, the case where the solar orientation and solar altitude are output as the output of the environmental model is assumed. In addition, a weather model can be considered as an environmental model. The weather model can be realized as a database system capable of searching for weather using the position and date / time as an index. The weather information of the observation target position is extracted from the weather model from the information of the observation target position and the observation date and time, and the image brightness of the observation image is predicted. For example, when the weather at the time of observation is clear, the cloud amount is regarded as 0 and the contrast of the observation image is increased. Conversely, when the weather is cloudy, the contrast of the observed image is lowered.

また環境モデルとして大気モデルを考えることもできる。観測画像には、認識対象物からの反射信号だけでなく、観測センサ202と認識対象物の間の大気からの放射や減衰の影響も含まれる。これらの影響を除去するための処理を大気補正処理と呼ぶ。大気モデルは、観測日時、観測対象位置を入力すると、大気の補正量を出力するモデルである。大気補正の計算には、観測画像の各画素値から一定値を差し引く方法や、各観測波長域の比演算、などを用いることができる。   An atmospheric model can also be considered as an environmental model. The observation image includes not only the reflection signal from the recognition object but also the influence of radiation and attenuation from the atmosphere between the observation sensor 202 and the recognition object. Processing for removing these influences is called atmospheric correction processing. The atmospheric model is a model that outputs an atmospheric correction amount when an observation date and time and an observation target position are input. For the calculation of the atmospheric correction, a method of subtracting a constant value from each pixel value of the observation image, a ratio calculation of each observation wavelength region, or the like can be used.

さらに、陰面消去処理(S504)で、観測センサ202から見えない部分を投影画像から消去する。陰面消去には、Zソート法やZバッファ法(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1782〜1788ページ)を用いることができる。面ごとに奥行きに応じた優先順位をつけ、奥から順に表示することで簡単に陰面消去できる。   Further, in the hidden surface erasing process (S504), a portion that cannot be seen from the observation sensor 202 is erased from the projection image. For the hidden surface removal, the Z sort method or the Z buffer method (Mikio Takagi, Yoshihisa Shimoda “New Edition Image Analysis Handbook”, The University of Tokyo Press, September 10, 2004, pages 1782 to 1788) can be used. The hidden surface can be easily deleted by assigning priorities according to the depth of each surface and displaying them in order from the back.

そして、シェーディング処理(S505)にて、認識対象物体にあたる太陽光線の度合いに応じて陰影を付ける。シェーディングにはUtah近似法(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1789〜1792ページ)を用いることができる。   Then, in the shading process (S505), a shade is added according to the degree of sunlight that hits the recognition target object. The Utah approximation method (Mikio Takagi and Yoshihisa Shimoda “New Edition Image Analysis Handbook”, The University of Tokyo Press, September 10, 2004, pages 1789 to 1792) can be used for shading.

最後に、テクスチャマッピング処理(S506)にて、テクスチャとよばれる木目のような2次元の模様を物体画像に貼り付ける。テクスチャマッピングには、マッピング関数を用いてテクスチャの2次元座標を認識対象物体画像の各画素に対応付けることによって行うことができる(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1792〜1794ページ)。テクスチャは物体表面の材質に応じて設定することができる。材質は、形状パラメータ407の電磁波の反射・吸収特性から求めることができし、予め材質の情報を形状パラメータと共に記憶しておいても良い。   Finally, in the texture mapping process (S506), a two-dimensional pattern like a texture called a texture is pasted on the object image. Texture mapping can be performed by mapping the two-dimensional coordinates of the texture to each pixel of the recognition target object image using a mapping function (Mikio Takagi and Yoshihisa Shimoda “New Image Analysis Handbook”, The University of Tokyo Press, 2004. September 10, 1779-1794 pages). The texture can be set according to the material of the object surface. The material can be obtained from the reflection / absorption characteristics of the electromagnetic wave of the shape parameter 407, and information on the material may be stored in advance together with the shape parameter.

図6は本発明の一実施形態における物体画像生成手段207による処理実行に際して表示装置によって表示される、処理画面の例を示す図である。処理画面601は処理に関する情報をユーザに提供したり、ユーザから情報を入力したりする。処理画面601は複数のサブ画面から構成され、ヒューマンインタフェースを提供する。サブ画面602は物体画像生成手段207の入力パラメータで、この例では観測センサ位置、観測対象位置、観測日時が表示されている。サブ画面603は、入力パラメータから算出した太陽方位、太陽高度が表示されている。サブ画面604は現在対象としている物体の名称が表示される。サブ画面604の右端にあるボタンを押すことで他の名称を選択することが可能である。サブ画面605には、現在対象としている物体の方向が表示される。認識対象物体の方向は、通常未知であることが多いので、複数方向の物体画像を自動的に生成する。認識対象物体の方向が既知の場合はサブ画面605の右端にあるボタンを押すことで任意の方向のみを選択して物体画像を生成することが可能である。   FIG. 6 is a diagram showing an example of a processing screen displayed by the display device when processing is executed by the object image generating unit 207 according to the embodiment of the present invention. The processing screen 601 provides information related to processing to the user or inputs information from the user. The processing screen 601 includes a plurality of sub screens and provides a human interface. The sub screen 602 is an input parameter of the object image generation unit 207, and in this example, the observation sensor position, the observation target position, and the observation date and time are displayed. The sub screen 603 displays the solar orientation and solar altitude calculated from the input parameters. The sub screen 604 displays the name of the object currently targeted. By pressing a button on the right end of the sub screen 604, another name can be selected. The sub screen 605 displays the direction of the object that is currently targeted. Since the direction of the recognition target object is usually unknown in many cases, an object image in a plurality of directions is automatically generated. When the direction of the recognition target object is known, an object image can be generated by selecting only an arbitrary direction by pressing a button at the right end of the sub screen 605.

サブ画面606には、現在対象としている物体に貼り付けるテクスチャが表示される。サブ画面606の右端にあるボタンを押すことで、テクスチャを選択して張り付けることも可能である(S506)。サブ画面607は物体画像生成手段207によって生成された物体画像をユーザが目視で確認するためのもので、物体画像が表示されている。このサブ画面607を見ながら、輝度微調整ボタン610を押して生成した画像の輝度を微調整することもできる。更に、サブ画面609を設けて実観測画像中を表示することとしても良い。ユーザがこの段階で実観測画像中に存在する対象物を少なくとも1つ把握していれば、物体画像生成手段207によって作成された物体画像607と、実観測画像中の物体を並べて表示することで、作成した物体画像の自然さを確認することができる。確認の結果、サブ画面607に表示された物体画像が、サブ画面609に表示された実観測画像中と比較して不自然であるとユーザが判断した場合は、サブ画面606の右端にあるボタンを押して、他のテクスチャを選択して似通った画像に調整することができる。また、輝度調整ボタン610を押して輝度値を微調整することもできる。さらにテクスチャや輝度以外にも、色、反射特性、などを調整できるようにしてもよい。又、認識結果表示S311における結果を実観測画像とともにサブ画面609に表示し、それを参考に修正した物体画像をもって再度物体認識S310を行うフローとすれば、より良い結果を得ることができる。サブ画面611にはユーザが選択した背景画像名が表示されている。サブ画面611の右端にあるボタンを押すことで他の背景画像を指定することができる。選択した背景画像はサブ画面612に表示される。   On the sub-screen 606, a texture to be pasted on the object currently targeted is displayed. By pressing a button at the right end of the sub screen 606, it is possible to select and paste a texture (S506). The sub screen 607 is used by the user to visually confirm the object image generated by the object image generation unit 207, and displays the object image. While viewing this sub-screen 607, the brightness of an image generated by pressing the brightness fine adjustment button 610 can be finely adjusted. Further, a sub screen 609 may be provided to display the actual observation image. If the user grasps at least one target existing in the actual observation image at this stage, the object image 607 created by the object image generation unit 207 and the object in the actual observation image are displayed side by side. The naturalness of the created object image can be confirmed. As a result of the confirmation, if the user determines that the object image displayed on the sub screen 607 is unnatural compared to the actual observation image displayed on the sub screen 609, a button at the right end of the sub screen 606 is displayed. Press to select another texture and adjust to a similar image. Further, the brightness value can be finely adjusted by pressing the brightness adjustment button 610. Further, in addition to texture and brightness, color, reflection characteristics, and the like may be adjusted. If the result of the recognition result display S311 is displayed on the sub-screen 609 together with the actual observation image, and the object recognition S310 is performed again with the object image corrected with reference to it, a better result can be obtained. The sub screen 611 displays the background image name selected by the user. By pressing a button on the right end of the sub screen 611, another background image can be designated. The selected background image is displayed on the sub screen 612.

図7は、本発明の一実施形態における物体画像生成手段207によって生成された物体画像の例を示す図である。物体画像701は中緯度地域で撮影されたことを想定した画像である。物体画像702は高緯度地域で撮影されたことを想定した画像である。中緯度地区における観測位置と物体の影、太陽光線の関係を、観測位置と太陽位置を含む鉛直平面上で見た図が710である。物体703に太陽光704が太陽高度θ1(705)であたり、長さL1(705)の影が生成される。同様に低緯度地区における観測位置と物体の影、太陽光線の関係を、観測位置と太陽位置を含む鉛直平面上で見た図が711である。物体706に太陽光線707が太陽高度θ2(708)であたり、長さL2(709)の影が生成される。このように緯度によって太陽高度が変化するため、物体の周辺にできる影の大きさも変化する。物体自身の凹凸によって物体の上にできる影も同様に、緯度によって異なる。   FIG. 7 is a diagram illustrating an example of an object image generated by the object image generation unit 207 according to an embodiment of the present invention. The object image 701 is an image that is assumed to be captured in a mid-latitude region. The object image 702 is an image that is assumed to have been shot in a high latitude area. A diagram 710 shows the relationship between the observation position, the shadow of the object, and the sunlight in the middle latitude area on a vertical plane including the observation position and the sun position. Sunlight 704 hits object 703 at solar altitude θ1 (705), and a shadow of length L1 (705) is generated. Similarly, reference numeral 711 indicates the relationship between the observation position, the shadow of the object, and the sunlight in the low latitude area on a vertical plane including the observation position and the sun position. Sunlight 707 hits object 706 at solar altitude θ2 (708), and a shadow of length L2 (709) is generated. Thus, since the solar altitude changes with latitude, the size of the shadow around the object also changes. Similarly, the shadow formed on the object by the unevenness of the object itself varies depending on the latitude.

図8は、本発明の一実施形態における物体形状学習手段208によって生成された物体形状知識のデータ構造の構成例である。ここで学習は、物体画像から物体の識別に有効な情報(例えば形状)を抽出し、物体形状データベース210の属性と組みにし、物体形状知識として出力することである。801−806に記載の情報は図4の401−406の情報と同じである。特徴量807には物体画像生成手段によって生成された物体の特徴量を格納する。つまり、撮像情報を考慮して特徴量407を補正した値を格納する。本例では、物体の特徴量の表現方法は、エッジ強度の分布を用いた。当然、物体を識別するのに適切な特徴であれば他の表現も用いることができる。例えば、物体画像の輝度分布、スペクトル、テクスチャなどを用いてもよい。   FIG. 8 is a configuration example of a data structure of object shape knowledge generated by the object shape learning unit 208 according to an embodiment of the present invention. Here, learning is to extract information (for example, shape) effective for object identification from the object image, combine it with the attribute of the object shape database 210, and output it as object shape knowledge. Information described in 801-806 is the same as information 401-406 in FIG. The feature quantity 807 stores the feature quantity of the object generated by the object image generation means. That is, a value obtained by correcting the feature quantity 407 in consideration of imaging information is stored. In this example, the distribution of edge strength is used as the method for expressing the feature amount of the object. Of course, other representations can be used as long as the features are appropriate for identifying the object. For example, the luminance distribution, spectrum, texture, etc. of the object image may be used.

図9は、本発明の一実施形態における物体認識手段204の処理フローS308の一例を示した図である。 観測画像は、縦h画素×横w画素の大きさをもち、2次元の配列で表現される。画素(i、j)とは、2次元配列のi列j行目の画素を意味する。まず、変数iを1に初期化し(S901)、変数jを1に初期化する。次に、観測画像の画素(i、j)を中心とする矩形の領域Aをくりぬく(S903)。領域Aの形は円形や楕円等任意の形状とすることができる。また、領域Aの大きさは予め認識対象物体の集合のうち、もっとも大きい物体の大きさとする。そして、領域Aから物体形状特徴Bを抽出する(S904)。この特徴量も物体形状学習手段208で用いた手法と同じ手法を用いて生成する。続いて、物体形状知識に含まれる全ての特徴量と、物体形状特徴Bとを比較し、類似の度合いを計算する(S905)。特徴量同士が最も類似している物体の名称を識別結果として出力する(S906)。変数jの値を一つ増やし(S907)、変数jの値が観測画像幅より小さければS903へ行き、大きければS909へと行く。S909で変数iの値を一つ増やし、S910で変数iの値が観測画像高さより小さければS902へ行き、大きければ終了する。上記の処理によって、観測画像に含まれる認識対象物をみつけることができる。   FIG. 9 is a diagram showing an example of the processing flow S308 of the object recognition unit 204 in one embodiment of the present invention. The observation image has a size of vertical h pixels × horizontal w pixels and is represented by a two-dimensional array. Pixel (i, j) means a pixel in the i-th column and the j-th row of the two-dimensional array. First, the variable i is initialized to 1 (S901), and the variable j is initialized to 1. Next, a rectangular area A centered on the pixel (i, j) of the observation image is hollowed out (S903). The shape of the region A can be an arbitrary shape such as a circle or an ellipse. The size of the area A is set to the size of the largest object in the set of recognition target objects in advance. Then, the object shape feature B is extracted from the region A (S904). This feature amount is also generated using the same method as that used in the object shape learning unit 208. Subsequently, all feature quantities included in the object shape knowledge are compared with the object shape feature B, and the degree of similarity is calculated (S905). The name of the object having the most similar feature quantities is output as the identification result (S906). The value of the variable j is incremented by one (S907). If the value of the variable j is smaller than the observed image width, the process goes to S903, and if it is larger, the process goes to S909. In step S909, the value of the variable i is incremented by one. In step S910, if the value of the variable i is smaller than the observed image height, the process proceeds to step S902. Through the above processing, the recognition object included in the observation image can be found.

S905で算出する類似の度合いは、特徴量同士のシティブロック距離、ユークリッド距離など、様々な距離尺度を用いて算出することができる。
なお、S906にて、類似の度合いが予め設定した閾値より小さい場合は、識別結果に出力しないようにしてもよい。このようにすることにより、類似の度合いが高いもののみをユーザに提示できるようになる。
The degree of similarity calculated in S905 can be calculated using various distance scales such as a city block distance between feature quantities and an Euclidean distance.
In S906, when the degree of similarity is smaller than a preset threshold value, the identification result may not be output. By doing in this way, only a thing with a high degree of similarity can be shown to a user.

また、S906にて類似している複数の物体を選んで、それらの物体に対応する複数の名称を出力するようにしてもよい。このようにすることにより、ユーザは物体画像を見ながら、絞り込まれた複数の物体名称の候補から正しい物体名称を選べばよいので、全ての物体名称から物体名称を選ぶ場合に比べ、ユーザの負荷を低減できる。さらに、識別結果を類似の度合いの大きさ順に並び替え、最も高い類似の度合いと、二番目に高い類似の度合いの差が、予め設定した閾値より小さい場合は、識別結果に出力しないようにしてもよい。このことにより、曖昧な認識結果が得られた場合は、認識結果をユーザに提示しないようにできる。   In S906, a plurality of similar objects may be selected and a plurality of names corresponding to these objects may be output. In this way, the user can select the correct object name from a plurality of narrowed object name candidates while looking at the object image. Can be reduced. Further, the identification results are rearranged in order of the degree of similarity, and if the difference between the highest degree of similarity and the second highest degree of similarity is smaller than a preset threshold value, the identification result is not output. Also good. Thus, when an ambiguous recognition result is obtained, the recognition result can be prevented from being presented to the user.

図10は、本発明の一実施形態における物体認識手段204によって生成された物体認識結果のデータ構造の構成例である。認識した物体の通し番号が1001に格納される。また、認識した物体の位置の緯度、経度が1002、1003にそれぞれ格納される。属性1004には、認識した物体の属性が格納される。たとえば、“Airplane”,“Ship”など。物体名1005には、認識した物体の名称を格納する。類似度1006には類似の度合いを格納する。物体ID1007には、物体ID401に対応する数値を格納する。   FIG. 10 is a configuration example of the data structure of the object recognition result generated by the object recognition unit 204 according to the embodiment of the present invention. The serial number of the recognized object is stored in 1001. The latitude and longitude of the recognized object position are stored in 1002 and 1003, respectively. The attribute 1004 stores the attribute of the recognized object. For example, “Airplane”, “Ship”, etc. The object name 1005 stores the name of the recognized object. Similarity degree 1006 stores the degree of similarity. In the object ID 1007, a numerical value corresponding to the object ID 401 is stored.

図11は本発明の一実施形態における物体認識手段204を実行したときの、処理結果の出力画面の例を示す図である。出力画面1101は処理に関する情報をユーザに提供する。出力画面1101は複数のサブ画面から構成される。サブ画面1102は観測画像中で認識された物体がハイライトされて表示されている。認識された物体が複数ある場合は、マウスなどのポインティングデバイスで、一つの認識した物体を選択すると、その物体を含む画像が、サブ画面1103に表示される。また、サブ画面1104には、S905によってもっとも類似の度合いが高かったと判定された物体種に対応する物体画像が表示される。サブ画面1105には、物体名1005、類似の度合いが数値で表示される。また、サブ画面1106には、サブ画面1104の物体の全長、全幅が表示されている。観測画像の範囲が広い場合は、スクロールバー1107を用いて、ユーザの関心領域に表示画像の領域を移動することができる。また、観測画像の解像度が低く物体画像を確認しにくい拡大・縮小ボタン1108を用いて、サブ画面1102に表示されている観測画像を拡大表示、縮小表示することができる。   FIG. 11 is a diagram showing an example of a processing result output screen when the object recognition unit 204 according to the embodiment of the present invention is executed. The output screen 1101 provides information regarding processing to the user. The output screen 1101 includes a plurality of sub screens. In the sub screen 1102, an object recognized in the observation image is highlighted and displayed. When there are a plurality of recognized objects, when one recognized object is selected with a pointing device such as a mouse, an image including the recognized object is displayed on the sub-screen 1103. In addition, the sub screen 1104 displays an object image corresponding to the object type determined to have the highest degree of similarity in S905. The sub screen 1105 displays the object name 1005 and the degree of similarity as numerical values. In addition, the sub screen 1106 displays the total length and width of the object on the sub screen 1104. When the range of the observation image is wide, the display image region can be moved to the region of interest of the user using the scroll bar 1107. Further, the observation image displayed on the sub screen 1102 can be enlarged and reduced by using an enlargement / reduction button 1108 in which the resolution of the observation image is low and it is difficult to confirm the object image.

図12は,この発明に係わる画像処理装置の一実施形態を示すブロック構成図である。実施例1との差異についてのみ、以下詳細に説明する。   FIG. 12 is a block diagram showing an embodiment of the image processing apparatus according to the present invention. Only differences from the first embodiment will be described in detail below.

観測情報管理DB1218は、観測属性情報(観測センサ位置、観測対象位置、観測日時の3つの数値の組)がすくなくとも1組以上登録されている。物体画像生成手段1211は、観測管理DB1218から一つずつ観測情報を得て、物体形状データベース1219をもとに物体画像を生成する。そして、それらの物体画像から物体特徴学習手段1209を用いて、物体形状知識A1210、物体形状知識B1211、…をあらかじめ生成しておく。物体形状知識選択手段1206は、観測属性情報をキーに、物体形状知識A1207、物体形状知識B1208、…の中から観測属性情報が一致する物体形状知識を選択する。選択された物体特徴知識を用いて、物体認識手段1204は観測センサで観測した画像から物体を認識する。   In the observation information management DB 1218, at least one set of observation attribute information (a set of three numerical values of an observation sensor position, an observation target position, and an observation date) is registered. The object image generation unit 1211 obtains observation information one by one from the observation management DB 1218 and generates an object image based on the object shape database 1219. Then, object shape knowledge A1210, object shape knowledge B1211,... Are generated beforehand from these object images using object feature learning means 1209. The object shape knowledge selecting means 1206 selects object shape knowledge having the same observation attribute information from the object shape knowledge A1207, object shape knowledge B1208,... Using the observation attribute information as a key. Using the selected object feature knowledge, the object recognition unit 1204 recognizes the object from the image observed by the observation sensor.

観測センサが航空機、人工衛星などの飛しょう体に搭載され、飛しょう体の運用スケジュール(日時と位置の組)が予め決められている場合は、その運用スケジュールにあわせて、観測情報管理データベースの観測属性情報をつくっておくことができる。   If the observation sensor is mounted on a flying object such as an aircraft or an artificial satellite, and the operational schedule (date / position pair) of the flying object is determined in advance, the observation information management database Observation attribute information can be created.

上記の説明では、物体画像生成手段207では、物体形状データベース210に含まれる全ての物体の物体画像を生成するとしたが、本発明はこの実施形態に限定されるものではない。例えば、ユーザが指定した物体のみの物体画像を生成してもよい。その場合には予め表示画面に物体形状データベース210に格納される物体画像を提示してユーザの選択を受けるか、ユーザからの入力を受け付ける。そして、S306で選択された物体についてのみ物体画像を生成することとする。   In the above description, the object image generation unit 207 generates object images of all objects included in the object shape database 210. However, the present invention is not limited to this embodiment. For example, an object image of only an object designated by the user may be generated. In that case, an object image stored in the object shape database 210 is presented in advance on the display screen to receive a user's selection or an input from the user. Then, an object image is generated only for the object selected in S306.

また、物体認識手段204では、物体形状知識に含まれる全ての物体との類似の度合いを計算するとしたが、本発明はこの実施形態に限定されるものではない。例えば、ユーザが指定した物体のみとの類似の度合いを計算してもよい。   Further, although the object recognition unit 204 calculates the degree of similarity with all objects included in the object shape knowledge, the present invention is not limited to this embodiment. For example, the degree of similarity with only the object designated by the user may be calculated.

また、本発明に記載されている手段とは別の手段で、観測対象の数値標高モデル(DEM:Digital Elevation Model)が入手可能な場合は、DEMの標高データによって物体画像生成手段207の座標変換S501を行ってもよい。
また、上記の実施例では、静止画を対象に説明したが、動画を対象にして同様の効果を得られる。
In addition, when a digital elevation model (DEM) to be observed is available by means other than the means described in the present invention, the coordinate conversion of the object image generation means 207 is performed using the elevation data of the DEM. S501 may be performed.
In the above-described embodiment, the description has been given for still images, but similar effects can be obtained for moving images.

また、上記の実施例では、地球の表面を観測することを前提に説明したが、本発明はこの実施形態に限定されるものではない。例えば惑星探査用の宇宙船などにおいても適用可能である。   In the above-described examples, the explanation has been made on the assumption that the surface of the earth is observed. However, the present invention is not limited to this embodiment. For example, it can be applied to a spacecraft for planetary exploration.

また、光源は太陽に限定されない。光源位置、撮影時刻が特定できるものであれば他の恒星、人工光源、反射光、散乱光でもよい。また、単一の光源に限定されない。それぞれの光源の光源位置、撮影時刻が特定できる複数の光源でもよい。   The light source is not limited to the sun. Any other star, artificial light source, reflected light, or scattered light may be used as long as the light source position and photographing time can be specified. Moreover, it is not limited to a single light source. A plurality of light sources capable of specifying the light source position and photographing time of each light source may be used.

観測センサや、認識対象物等の位置関係をあらわした図である。It is a figure showing the positional relationship of an observation sensor, a recognition target object, etc. 画像処理装置の一実施形態を示すブロック構成図である。It is a block block diagram which shows one Embodiment of an image processing apparatus. 物体認識処理フローの一例を示した図である。It is the figure which showed an example of the object recognition processing flow. 物体形状データベース210で用いられるデータ構造の構成例である。It is a structural example of the data structure used in the object shape database 210. FIG. 物体画像生成手段207の処理フローの一例を示した図である。5 is a diagram illustrating an example of a processing flow of an object image generation unit 207. FIG. 物体画像生成手段の処理結果表示画面の例を示す図である。It is a figure which shows the example of the processing result display screen of an object image generation means. 物体形状学習手段208によって生成された物体画像の例を示す図である。It is a figure which shows the example of the object image produced | generated by the object shape learning means 208. FIG. 物体形状知識のデータ構造の構成例を示す図である。It is a figure which shows the structural example of the data structure of object shape knowledge. 物体認識手段204の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of the object recognition means. 物体認識結果のデータ構造の構成例を示す図である。It is a figure which shows the structural example of the data structure of an object recognition result. 物体認識手段の処理結果表示画面の例を示す図である。It is a figure which shows the example of the process result display screen of an object recognition means. 画像処理装置の一実施形態を示すブロック構成図である。It is a block block diagram which shows one Embodiment of an image processing apparatus.

符号の説明Explanation of symbols

101…観測センサを搭載した物体、102…太陽、103…観測地域、104…太陽光、105…観測範囲、106…認識対象物体、107…影、201…観測対象、202…
観測センサ、203…画像処理装置、204…物体認識手段、205…認識結果表示手段、206…環境情報生成手段、207…物体画像生成手段、208…物体形状学習手段、209…物体画像生成制御情報入力装置、212…物体画像表示装置、213…認識対象物体選択手段、214…物体画像データベース、215…認識対象物体入力装置、216…環境情報データベース、217…物体形状データベース、218…背景画像データベース、219…背景画像重畳手段、220…背景画像指定装置、221…背景画像選択手段、401…物体ID、402…属性、403…物体名、404…全長、405…全幅、406…方向、407…形状パラメータ、601…処理画面、602…サブ画面、603…サブ画面、604…サブ画面、605…サブ画面、606…サブ画面、607サブ画面、608…サブ画面、609…スクロールバー、610…サブ画面、611…サブ画面、612…サブ画面、701…物体画像、702…物体画像、711…観測位置と物体の影、太陽光線の関係、703…認識対象物体、704…太陽光線、705…太陽高度、706…影の大きさ、712…観測位置と物体の影、太陽光線の関係、707…認識対象物体、708…太陽光線、709…太陽高度、710…影の大きさ、801…物体ID、802…属性、803…物体名、804…全長、805…全幅、806…方向、807…特徴量、1001…認識物体番号、1002…緯度、1003…経度、1004…属性、1005…物体名、1006…類似度、1007…物体ID、1101…出力画面、1102…サブ画面、1103…サブ画面、1104…サブ画面、1105…サブ画面、1106…サブ画面、1107…スクロールバー、1108…拡大・縮小ボタン、1201…観測対象、1202…観測センサ、1203…画像処理装置、1204…物体認識手段、1205…認識結果表示手段、1206…物体特徴知識選択手段、1207…物体特徴知識A、1208…物体特徴知識B、1209…物体特徴学習手段物、1210…物体画像生成制御情報入力装置、1211…物体画像生成手段、1212…物体画像表示装置、1213…環境情報生成手段、1214…認識対象物体選択手段、1215…物体画像データベース、1216…認識対象物体入力装置、1217…環境情報データベース、1218…観測情報管理データベース、1219…物体形状データベース、1220…背景画像データベース、1221…背景画像重畳手段、1222…背景画像選択手段、1223…背景画像指定手段。
DESCRIPTION OF SYMBOLS 101 ... Object equipped with an observation sensor, 102 ... Sun, 103 ... Observation region, 104 ... Sunlight, 105 ... Observation range, 106 ... Recognition object, 107 ... Shadow, 201 ... Observation object, 202 ...
Observation sensor, 203 ... image processing apparatus, 204 ... object recognition means, 205 ... recognition result display means, 206 ... environment information generation means, 207 ... object image generation means, 208 ... object shape learning means, 209 ... object image generation control information Input device 212 ... Object image display device, 213 ... Recognition target object selection means, 214 ... Object image database, 215 ... Recognition target object input device, 216 ... Environment information database, 217 ... Object shape database, 218 ... Background image database, 219 ... Background image superimposing means, 220 ... Background image specifying device, 221 ... Background image selecting means, 401 ... Object ID, 402 ... Attribute, 403 ... Object name, 404 ... Full length, 405 ... Full width, 406 ... Direction, 407 ... Shape Parameters, 601 ... Processing screen, 602 ... Sub screen, 603 ... Sub screen, 604 ... Sub screen 605 ... Sub screen, 606 ... Sub screen, 607 Sub screen, 608 ... Sub screen, 609 ... Scroll bar, 610 ... Sub screen, 611 ... Sub screen, 612 ... Sub screen, 701 ... Object image, 702 ... Object image, 711 ... relationship between observation position and object shadow, sunbeam, 703 ... recognition target object, 704 ... sunbeam, 705 ... sun altitude, 706 ... shadow size, 712 ... relationship between observation position and object shadow, sunbeam, 707 ... Object to be recognized, 708 ... Sun rays, 709 ... Solar altitude, 710 ... Shadow size, 801 ... Object ID, 802 ... Attributes, 803 ... Object name, 804 ... Full length, 805 ... Full width, 806 ... Direction, 807 ... feature amount, 1001 ... recognized object number, 1002 ... latitude, 1003 ... longitude, 1004 ... attribute, 1005 ... object name, 1006 ... similarity, 1007 ... object ID, 1 01 ... Output screen 1102 ... Sub screen 1103 ... Sub screen 1104 ... Sub screen 1105 ... Sub screen 1106 ... Sub screen 1107 ... Scroll bar 1108 ... Enlarge / reduce button 1201 ... Observation target 1202 ... Observation Sensor 1203 Image processing device 1204 Object recognition means 1205 Recognition result display means 1206 Object feature knowledge selection means 1207 Object feature knowledge A 1208 Object feature knowledge B 1209 Object feature learning means , 1210 ... Object image generation control information input device, 1211 ... Object image generation means, 1212 ... Object image display device, 1213 ... Environment information generation means, 1214 ... Recognition target object selection means, 1215 ... Object image database, 1216 ... Recognition target Object input device, 1217 ... environmental information database, 1218 ... observation Broadcast management database, 1219 ... object shape database 1220 ... background image database, 1221 ... background image superimposing unit, 1222 ... background image selection unit, 1223 ... background image specifying means.

Claims (9)

センシング画像を該センシング画像の撮影時刻及び撮影位置の情報とともに取得し、
予め記録される時刻と位置によって規定される環境モデルを用いて、取得した上記撮影時刻と撮影位置に基いて環境モデルを算出し、
上記算出された環境モデルを用いて予め登録しておいた物体形状データから物体画像を生成し、
上記センシング画像から上記生成された物体画像を用いた検索を行い、
該検索結果を出力することを特徴とする目標物認識プログラム。
Obtaining a sensing image together with information of the photographing time and photographing position of the sensing image;
Using the environmental model defined by the pre-recorded time and position, calculate the environmental model based on the acquired shooting time and shooting position,
Generate an object image from object shape data registered in advance using the calculated environmental model,
Perform a search using the generated object image from the sensing image,
A target recognition program that outputs the search result.
上記環境モデル光源の位置、方向であって、
該環境モデルを用いて物体の影を生成して上記物体画像の生成を行うことを特徴とする請求項1記載の目標物認識プログラム。
The position and direction of the environmental model light source,
The target recognition program according to claim 1, wherein the object image is generated by generating a shadow of an object using the environmental model.
上記環境モデルは気象モデル、又は、大気モデルであって、
上記環境モデルに基づいた画素値の調整を行って上記物体画像の生成を行うことを特徴とする請求項1又は2に記載の目標物認識プログラム。
The environmental model is a weather model or an atmospheric model,
The target recognition program according to claim 1 or 2, wherein the object image is generated by adjusting a pixel value based on the environmental model.
上記物体形状データは該物体の材質情報を含み、
該材質情報に基いて決定されるテクスチャを用いて上記物体画像の生成を行うことを特徴とする請求項1乃至3の何れかに記載の目標物認識プログラム。
The object shape data includes material information of the object,
The target object recognition program according to any one of claims 1 to 3, wherein the object image is generated using a texture determined based on the material information.
画像背景モデルと、
該画像背景モデルと物体画像を重畳する画像重畳手段と、
該画像重畳手段によって生成した画像を物体形状学習手段の入力とすることを特徴とする請求項1乃至4に記載の画像処理装置。
An image background model,
Image superimposing means for superimposing the image background model and the object image;
The image processing apparatus according to claim 1, wherein an image generated by the image superimposing unit is input to the object shape learning unit.
予め複数の撮像時刻、撮影位置について、上記環境モデルの算出と上記物体画像の生成を行い、
上記センシング画像と撮影時刻及び撮影位置の情報の取得を行うと、
該撮影時刻及び撮影位置に対応する物体画像を上記予め生成された物体画像中から読み出し、
該検索された物体画像を用いて上記検索を行うことを特徴とする請求項1乃至5の何れかに記載の目標物認識プログラム。
Calculate the environment model and generate the object image for a plurality of imaging times and shooting positions in advance.
When acquiring the sensing image and information of the shooting time and shooting position,
Read out the object image corresponding to the shooting time and shooting position from the previously generated object image,
6. The target recognition program according to claim 1, wherein the search is performed using the searched object image.
上記リモートセンシング画像の取得の際に該リモートセンシング画像の撮影時刻のみ取得し、
予め上記センシング画像の撮影位置を撮影時刻と対応づけて記録する記録部から情報を読み出すことで、該撮影時刻から該リモートセンシング画像の撮影位置を求めることを特徴とする請求項1乃至6の何れかに記載の目標物認識プログラム。
When obtaining the remote sensing image, obtain only the shooting time of the remote sensing image,
7. The photographing position of the remote sensing image is obtained from the photographing time by reading information from a recording unit that records the photographing position of the sensing image in association with the photographing time in advance. The target recognition program described in Crab.
上記生成した物体画像と上記センシング画像中の検索結果とを並べて表示部に表示させることを特徴とする請求項1乃至7の何れかに記載の目標物認識プログラム。   The target object recognition program according to any one of claims 1 to 7, wherein the generated object image and a search result in the sensing image are displayed side by side on a display unit. センシング画像を該センシング画像の撮影時刻及び撮影位置の情報とともに取得する取得部と、
少なくとも1の環境モデルと、物体形状データとを記録する記録部と、
上記環境モデルを用いて、取得した上記撮影時刻と撮影位置における環境モデルを算出し、上記算出された環境モデルを用いて上記物体形状データから物体画像を生成する物体画像生成部と、
上記センシング画像から上記生成された物体画像を用いて物体検索を行い、該検索結果を出力する物体認識部とを有することを特徴とする目標物認識装置。
An acquisition unit for acquiring a sensing image together with information on a shooting time and a shooting position of the sensing image;
A recording unit for recording at least one environmental model and object shape data;
An object image generation unit that calculates an environment model at the acquired shooting time and shooting position using the environment model, and generates an object image from the object shape data using the calculated environment model;
An object recognition apparatus, comprising: an object search unit that performs an object search using the generated object image from the sensing image and outputs the search result.
JP2006120061A 2006-04-25 2006-04-25 Program and device for object recognition Pending JP2007293558A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006120061A JP2007293558A (en) 2006-04-25 2006-04-25 Program and device for object recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006120061A JP2007293558A (en) 2006-04-25 2006-04-25 Program and device for object recognition

Publications (1)

Publication Number Publication Date
JP2007293558A true JP2007293558A (en) 2007-11-08

Family

ID=38764139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006120061A Pending JP2007293558A (en) 2006-04-25 2006-04-25 Program and device for object recognition

Country Status (1)

Country Link
JP (1) JP2007293558A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009252087A (en) * 2008-04-09 2009-10-29 Nec Corp Information providing system and information providing method
JP2010136032A (en) * 2008-12-04 2010-06-17 Hitachi Ltd Video monitoring system
JP2011027600A (en) * 2009-07-27 2011-02-10 Satake Corp Method for creating calibration curve in remote sensing
WO2011143633A3 (en) * 2010-05-14 2012-02-16 Evolution Robotics Retail, Inc. Systems and methods for object recognition using a large database
JP2012122816A (en) * 2010-12-07 2012-06-28 Nippon Telegr & Teleph Corp <Ntt> Method for acquiring three-dimensional information, apparatus for acquiring three-dimensional information and program for acquiring three-dimensional information
CN102855622A (en) * 2012-07-18 2013-01-02 中国科学院自动化研究所 Infrared remote sensing image sea ship detecting method based on significance analysis
US8723124B2 (en) 2009-05-29 2014-05-13 Toyota Jidosha Kabushiki Kaisha Spectrum measuring apparatus for mover
US8755048B2 (en) 2009-05-29 2014-06-17 Toyota Jidosha Kabushiki Kaisha Spectrum measuring apparatus for mover
US9036147B2 (en) 2009-05-29 2015-05-19 Toyota Jidosha Kabushiki Kaisha Spectrum measuring apparatus
WO2016171007A1 (en) * 2015-04-24 2016-10-27 ソニー株式会社 Inspection device, inspection method, and program
JP2017059993A (en) * 2015-09-16 2017-03-23 三菱電機株式会社 Imaging device and imaging method
CN108090865A (en) * 2017-12-15 2018-05-29 武汉大学 The in-orbit real-time streaming processing method of optical satellite remote sensing image and system
JP2020144855A (en) * 2019-03-01 2020-09-10 株式会社スカイマティクス Ground object detection system, ground object detection method and program
JP2020173720A (en) * 2019-04-12 2020-10-22 三菱電機株式会社 Image reading support system and image reading support program
JP2020198004A (en) * 2019-06-04 2020-12-10 三菱電機株式会社 Mobile body identifying device, mobile body identifying method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269560A (en) * 2001-03-06 2002-09-20 Seiko Epson Corp Template-matching method, computer-readable recording medium recorded with program for making the program executed, template-matching device, positioning device and mounting device
JP2003058896A (en) * 2001-08-10 2003-02-28 Nec Corp Device, method and program for recognizing positioning attitude
JP2003187220A (en) * 2001-12-14 2003-07-04 Toshiba Corp Object detector and its detecting method
JP2004198530A (en) * 2002-12-16 2004-07-15 Hitachi Ltd Map updating system, map updating method and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269560A (en) * 2001-03-06 2002-09-20 Seiko Epson Corp Template-matching method, computer-readable recording medium recorded with program for making the program executed, template-matching device, positioning device and mounting device
JP2003058896A (en) * 2001-08-10 2003-02-28 Nec Corp Device, method and program for recognizing positioning attitude
JP2003187220A (en) * 2001-12-14 2003-07-04 Toshiba Corp Object detector and its detecting method
JP2004198530A (en) * 2002-12-16 2004-07-15 Hitachi Ltd Map updating system, map updating method and computer program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009252087A (en) * 2008-04-09 2009-10-29 Nec Corp Information providing system and information providing method
US8675065B2 (en) 2008-12-04 2014-03-18 Hitachi, Ltd. Video monitoring system
JP2010136032A (en) * 2008-12-04 2010-06-17 Hitachi Ltd Video monitoring system
US8755048B2 (en) 2009-05-29 2014-06-17 Toyota Jidosha Kabushiki Kaisha Spectrum measuring apparatus for mover
US8723124B2 (en) 2009-05-29 2014-05-13 Toyota Jidosha Kabushiki Kaisha Spectrum measuring apparatus for mover
US9036147B2 (en) 2009-05-29 2015-05-19 Toyota Jidosha Kabushiki Kaisha Spectrum measuring apparatus
JP2011027600A (en) * 2009-07-27 2011-02-10 Satake Corp Method for creating calibration curve in remote sensing
WO2011143633A3 (en) * 2010-05-14 2012-02-16 Evolution Robotics Retail, Inc. Systems and methods for object recognition using a large database
JP2012122816A (en) * 2010-12-07 2012-06-28 Nippon Telegr & Teleph Corp <Ntt> Method for acquiring three-dimensional information, apparatus for acquiring three-dimensional information and program for acquiring three-dimensional information
CN102855622A (en) * 2012-07-18 2013-01-02 中国科学院自动化研究所 Infrared remote sensing image sea ship detecting method based on significance analysis
CN102855622B (en) * 2012-07-18 2015-10-28 中国科学院自动化研究所 A kind of infrared remote sensing image sea ship detection method based on significance analysis
EP3287003A4 (en) * 2015-04-24 2019-01-16 Sony Corporation Inspection device, inspection method, and program
WO2016171007A1 (en) * 2015-04-24 2016-10-27 ソニー株式会社 Inspection device, inspection method, and program
CN107529726A (en) * 2015-04-24 2018-01-02 索尼公司 Check device, inspection method and program
JPWO2016171007A1 (en) * 2015-04-24 2018-02-15 ソニー株式会社 Inspection apparatus, inspection method, and program
CN107529726B (en) * 2015-04-24 2020-08-04 索尼公司 Inspection apparatus, inspection method, and recording medium
JP2017059993A (en) * 2015-09-16 2017-03-23 三菱電機株式会社 Imaging device and imaging method
CN108090865A (en) * 2017-12-15 2018-05-29 武汉大学 The in-orbit real-time streaming processing method of optical satellite remote sensing image and system
CN108090865B (en) * 2017-12-15 2021-06-15 武汉大学 Optical satellite remote sensing image on-orbit real-time streaming processing method and system
JP2020144855A (en) * 2019-03-01 2020-09-10 株式会社スカイマティクス Ground object detection system, ground object detection method and program
JP7450182B2 (en) 2019-03-01 2024-03-15 株式会社スカイマティクス Ground object detection system, ground object detection method and program
JP2020173720A (en) * 2019-04-12 2020-10-22 三菱電機株式会社 Image reading support system and image reading support program
JP7301467B2 (en) 2019-04-12 2023-07-03 三菱電機株式会社 Image Interpretation Support System and Image Interpretation Support Program
JP2020198004A (en) * 2019-06-04 2020-12-10 三菱電機株式会社 Mobile body identifying device, mobile body identifying method, and program
JP7262312B2 (en) 2019-06-04 2023-04-21 三菱電機株式会社 Mobile identification device, mobile identification method and program

Similar Documents

Publication Publication Date Title
JP2007293558A (en) Program and device for object recognition
Girod et al. MMASTER: improved ASTER DEMs for elevation change monitoring
JP5086157B2 (en) Image interpretation support method
Berger et al. Multi-modal and multi-temporal data fusion: Outcome of the 2012 GRSS data fusion contest
JP2518578B2 (en) Scene recognition device and scene recognition method
KR101504383B1 (en) Method and apparatus of taking aerial surveys
EP2264667B1 (en) Method and device for generating ground surface image data
Cheung et al. Application of optical-flow technique to significant convection nowcast for terminal areas in Hong Kong
KR101932537B1 (en) Method and Apparatus for displaying the video on 3D map
CN109801374A (en) A kind of method, medium and system reconstructing threedimensional model by multi-angle image collection
EP1806699A1 (en) Geospatial image change detecting system with environmental enhancement and associated methods
US7616828B2 (en) Geospatial modeling system providing geospatial model data target point filtering based upon radial line segments and related methods
EP1806701A1 (en) Environmental condition detecting system using geospatial images and associated methods
KR100948099B1 (en) System and method for calculating vegetation area using airborne laser surveying
US11403822B2 (en) System and methods for data transmission and rendering of virtual objects for display
US20020028002A1 (en) System and method for storage, retrieval and display of information relating to specimens in marine environments
Dewitz et al. Historical photos and visualizations: Potential for research
JP4588369B2 (en) Imaging apparatus and imaging method
Ivosevic et al. Calculating coniferous tree coverage using unmanned aerial vehicle photogrammetry
Basgall et al. Comparison of lidar and stereo photogrammetric point clouds for change detection
US20230245396A1 (en) System and method for three-dimensional scene reconstruction and understanding in extended reality (xr) applications
EP2015277A2 (en) Systems and methods for side angle radar training and simulation
Dawn et al. Technologies and methods for 3d reconstruction in archaeology
JP7020418B2 (en) Information processing equipment, information processing methods, and programs
Topan et al. Information content of optical satellite images for topographic mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110401

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110510

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110610