JP7224592B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7224592B2
JP7224592B2 JP2018184763A JP2018184763A JP7224592B2 JP 7224592 B2 JP7224592 B2 JP 7224592B2 JP 2018184763 A JP2018184763 A JP 2018184763A JP 2018184763 A JP2018184763 A JP 2018184763A JP 7224592 B2 JP7224592 B2 JP 7224592B2
Authority
JP
Japan
Prior art keywords
unit
feature amount
information
time
original information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018184763A
Other languages
Japanese (ja)
Other versions
JP2020052977A (en
Inventor
大樹 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Control System Corp
Original Assignee
Nippon Control System Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Control System Corp filed Critical Nippon Control System Corp
Priority to JP2018184763A priority Critical patent/JP7224592B2/en
Publication of JP2020052977A publication Critical patent/JP2020052977A/en
Application granted granted Critical
Publication of JP7224592B2 publication Critical patent/JP7224592B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、観測装置が取得した時系列の3次元情報を用いて、移動体の周辺のオブジェクトの認識を行う情報処理装置等に関するものである。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus or the like that recognizes objects in the vicinity of a moving object using time-series three-dimensional information acquired by an observation apparatus.

従来、LIDARという技術があった(例えば、非特許文献1参照)。LIDARは、光を用いたリモートセンシング技術の一つで、パルス状に発光するレーザー照射に対する散乱光を測定し、遠距離にある対象までの距離やその対象の性質を分析するものである。 Conventionally, there is a technology called LIDAR (see, for example, Non-Patent Document 1). LIDAR is one of the remote sensing technologies using light, which measures the scattered light from pulsed laser irradiation and analyzes the distance to a distant target and the properties of the target.

また、従来、距離画像カメラという技術があった(例えば、非特許文献2参照)。距離画像カメラは、立体的な距離情報がリアルタイムで得られるカメラである。 Also, conventionally, there is a technique called a distance image camera (see, for example, Non-Patent Document 2). A depth image camera is a camera that can obtain three-dimensional depth information in real time.

ウィキペディア、"LIDAR"、[online]、[平成30年8月19日検索]、インターネット[URL:https://ja.wikipedia.org/wiki/LIDAR]Wikipedia, "LIDAR", [online], [searched on August 19, 2018], Internet [URL: https://ja.wikipedia.org/wiki/LIDAR] "TOF 距離画像カメラの実力"、[online]、[平成30年8月19日検索]、インターネット[URL:http://www.brainvision.co.jp/wp/support/tech/capability_of_tofcamera.pdf#search=%27TOF+%E8%B7%9D%E9%9B%A2%E7%94%BB%E5%83%8F%E3%82%AB%E3%83%A1%E3%83%A9%E3%81%AE%E5%AE%9F%E5%8A%9B%27]"Capability of TOF range image camera", [online], [searched on August 19, 2018], Internet [URL: http://www.brainvision.co.jp/wp/support/tech/capability_of_tofcamera.pdf# search=%27TOF+%E8%B7%9D%E9%9B%A2%E7%94%BB%E5%83%8F%E3%82%AB%E3%83%A1%E3%83%A9%E3%81 %AE%E5%AE%9F%E5%8A%9B%27]

しかしながら、従来技術においては、移動体の周辺に存在するオブジェクトの特定の部分の3次元座標の集合である2以上の時点の元情報を用いて、オブジェクトを認識することが困難であった。 However, in the conventional technology, it is difficult to recognize an object using original information at two or more points in time, which is a set of three-dimensional coordinates of a specific portion of the object existing around the moving object.

具体的には、移動する観測装置により、異なる複数地点(異なる時点)で観測された点群を合成する場合、その結果は、不規則点群(Unorganized Point Cloud)とならざるを得ない。しかし、一般に不規則点群は点群間の位置関係(最近傍点等)が自明でないため、不規則点群を用いたオブジェクトの認識には大きな計算コストが必要となり、容易ではない。 Specifically, when combining point clouds observed at different points (at different points in time) by a moving observation device, the result inevitably becomes an unorganized point cloud. However, in general, the positional relationship (nearest neighbor points, etc.) between irregular point clouds is not self-explanatory, so object recognition using irregular point clouds requires a large computational cost and is not easy.

また、実際の観測においては視野や解像度が限定された観測装置を使用せざるを得ないため、遠距離からの計測では対象とするオブジェクトを粗い点群しか取得できず、近距離からの計測では対象とするオブジェクトの一部の点群しか取得できないために、観測装置の周辺に存在するオブジェクトの認識が困難である。 In addition, in actual observations, we have to use observation equipment with a limited field of view and resolution. Since only part of the point cloud of the target object can be acquired, it is difficult to recognize objects existing around the observation device.

さらに、移動する観測装置により、異なるタイミングで複数地点から観測を行う場合、観測装置の位置の取得精度の変動や、障害物等による一時的な遮蔽の影響により、観測装置の精度に関わらず、オブジェクトの点群の絶対座標が変動する場合があるため、観測装置の周辺に存在するオブジェクトの認識が困難である。 Furthermore, when observations are made from multiple locations at different times using moving observation equipment, fluctuations in the position acquisition accuracy of the observation equipment and the effects of temporary shielding due to obstacles, etc., can affect the accuracy of observation equipment. Since the absolute coordinates of the point cloud of the object may fluctuate, it is difficult to recognize objects existing in the vicinity of the observation device.

上記を解決するためには、本願発明において、観測地点ごとに各オブジェクトの適切な特徴量を取得し、複数地点で取得された特徴量を用いて、観測装置の周辺のオブジェクトを認識する。 In order to solve the above, in the present invention, an appropriate feature amount of each object is acquired for each observation point, and the objects around the observation device are recognized using the feature amounts acquired at a plurality of points.

本第一の発明の情報処理装置は、移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報であり、オブジェクトの特定の部分の3次元座標の集合である2以上の元情報である元情報群を、2以上の各時点の移動体の位置を示す移動体位置情報に対応付けて格納される元情報格納部と、2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出するオブジェクト抽出部と、2以上の各時点に対応付けている元情報群を用いて、オブジェクト抽出部が抽出した1以上の各オブジェクトの特徴量を取得する特徴量取得部と、2以上の異なる時点の同一のオブジェクトの対応を取る同一オブジェクト認識部と、同一オブジェクト認識部が対応を取った同一のオブジェクトの2以上の特徴量を取得し、2以上の特徴量を用いて、同一のオブジェクトの特徴量集合を取得する特徴量合成部と、特徴量合成部が取得した特徴量集合を用いて、同一のオブジェクトを識別するオブジェクト識別子を取得するオブジェクト認識部と、オブジェクト認識部が取得したオブジェクト識別子と、同一のオブジェクトの絶対位置情報とを出力する出力部とを具備する情報処理装置である。 The information processing apparatus of the first aspect of the present invention provides information that serves as a basis for specifying the position in a three-dimensional space of an object existing around a moving object, and is a set of three-dimensional coordinates of a specific portion of the object. An original information storage unit that stores an original information group, which is the original information, in association with mobile body position information indicating the position of the mobile body at each of two or more points in time; An object extraction unit for extracting one or more objects using a group of information, and a feature amount of each of the one or more objects extracted by the object extraction unit using a group of original information associated with two or more points in time. a feature amount acquiring unit to acquire, a same object recognizing unit that takes correspondence of the same object at two or more different points in time, and two or more feature amounts of the same object that the same object recognizing unit has taken correspondence; A feature amount synthesizing unit that obtains a feature amount set of the same object using the above feature amounts, and an object that obtains an object identifier that identifies the same object using the feature amount set obtained by the feature amount synthesizing unit. The information processing apparatus includes a recognition unit, and an output unit that outputs the object identifier acquired by the object recognition unit and the absolute position information of the same object.

かかる構成により、移動体の周辺に存在するオブジェクトの特定の部分の3次元座標の集合である2以上の元情報群を用いて、オブジェクトを認識することが容易にできる。 With such a configuration, it is possible to easily recognize an object using two or more original information groups that are sets of three-dimensional coordinates of specific portions of the object existing around the moving object.

また、本第二の発明の情報処理装置は、第一の発明に対して、特徴量取得部は、第一時点の元情報群であり、一のオブジェクトの全体が特定可能な元情報群を用いて、前記一のオブジェクトの全体特徴量を取得し、かつ第二時点の元情報群であり、一のオブジェクトの一部が特定可能な元情報群を用いて、前記一のオブジェクトの部分特徴量を取得し、特徴量合成部は、前記同一オブジェクト認識部が対応を取った同一のオブジェクトの全体特徴量と部分特徴量とを取得し、当該全体特徴量と部分特徴量とを用いて、前記同一のオブジェクトの特徴量集合を取得する情報処理装置である。 Further, in the information processing apparatus of the second invention, in contrast to the first invention, the feature amount acquisition unit is the original information group at the first time point, and the original information group that can specify the entire one object is to acquire the overall feature amount of the one object, and to obtain the partial feature of the one object using the original information group at the second point in time, from which a part of the one object can be specified The feature amount synthesizing unit acquires the overall feature amount and the partial feature amount of the same object for which the same object recognition unit has corresponded, and using the overall feature amount and the partial feature amount, It is an information processing device that acquires a set of feature amounts of the same object.

かかる構成により、移動体の周辺に存在するオブジェクトの特定の部分の3次元座標の集合である2以上の元情報群を用いて、オブジェクトの全体特徴量と部分特徴量とを用いて、オブジェクトを認識することが容易にできる。 With such a configuration, an object is identified by using two or more original information groups, which are a set of three-dimensional coordinates of a specific portion of the object existing around the moving body, and using the entire feature amount and the partial feature amount of the object. easy to recognize.

また、本第三の発明の情報処理装置は、第二の発明に対して、全体特徴量は、オブジェクトのサイズに関するサイズ情報またはオブジェクトの縦横比であり、部分特徴量は、オブジェクトの形状に関する形状情報である情報処理装置である。 Further, in the information processing apparatus of the third invention, in contrast to the second invention, the overall feature amount is size information related to the size of the object or the aspect ratio of the object, and the partial feature amount is the shape related to the shape of the object. It is an information processing device that is information.

かかる構成により、移動体の周辺に存在するオブジェクトの特定の部分の3次元座標の集合である2以上の元情報群を用いて、オブジェクトのサイズ情報またはオブジェクトの縦横比と形状情報とを適切に取得し、当該サイズ情報またはオブジェクトの縦横比と形状情報とを用いて、オブジェクトを認識することが容易にできる。 With this configuration, by using two or more original information groups that are a set of three-dimensional coordinates of a specific portion of an object existing around the moving object, the size information or aspect ratio and shape information of the object can be appropriately obtained. The object can be easily recognized using the size information or aspect ratio and shape information of the object.

また、本第四の発明の情報処理装置は、第一から第三いずれか1つの発明に対して、2以上の各時点に対応付けている元情報群と2以上の各時点の移動体位置情報とを用いて、オブジェクト抽出部が抽出した1以上の各オブジェクトの絶対位置に関する1または2以上の絶対位置情報を取得する絶対位置情報取得部と、移動体位置情報と1以上の各オブジェクトの2以上の絶対位置情報とを用いて、移動体と1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成部をさらに具備し、出力部は、出力図を出力する図出力部と、オブジェクト認識部が取得したオブジェクト識別子を、同一のオブジェクトの絶対位置情報に対応する位置に出力するオブジェクト識別子出力部とを具備する情報処理装置である。 Further, the information processing apparatus of the fourth invention is, for any one of the first to third inventions, an original information group associated with two or more points in time and two or more positions of a moving body at each point in time. an absolute position information acquisition unit that acquires one or more absolute position information related to the absolute positions of the one or more objects extracted by the object extraction unit, using the information, and the position information of the moving body and the one or more objects an output diagram constructing unit that constructs an output diagram that is a three-dimensional diagram in which the relative positional relationship between the moving object and the one or more objects can be recognized using the two or more absolute position information; The unit is an information processing device comprising a diagram output unit that outputs an output diagram, and an object identifier output unit that outputs the object identifier acquired by the object recognition unit to a position corresponding to the absolute position information of the same object. .

かかる構成により、三次元空間の図の中のオブジェクトが認識可能なように、オブジェクト識別子を出力できる。 With such a configuration, an object identifier can be output so that the object in the three-dimensional space drawing can be recognized.

また、本第五の発明の情報処理装置は、第一から第四いずれか1つの発明に対して、オブジェクトの特徴量集合とオブジェクト識別子とを有する2以上の組情報を用いて、機械学習のアルゴリズムにより学習処理されて取得された学習器が格納される学習器格納部をさらに具備し、オブジェクト認識部は、特徴量合成部が取得した特徴量集合を学習器に適用し、機械学習のアルゴリズムにより、オブジェクト識別子を取得する情報処理装置である。 Further, the information processing apparatus of the fifth invention, in contrast to any one of the first to fourth inventions, uses two or more sets of information having an object feature amount set and an object identifier to perform machine learning. The object recognition unit applies the feature amount set acquired by the feature amount synthesizing unit to the learning unit to generate the machine learning algorithm. is an information processing device that acquires an object identifier.

かかる構成により、学習器を用いて、オブジェクトを認識できる。 With such a configuration, an object can be recognized using a learning device.

また、本第六の発明の情報処理装置は、第一から第五いずれか1つの発明に対して、オブジェクト認識部は、道路上の電柱、信号、またはポストのうちの1種類以上のオブジェクトを識別するオブジェクト識別子を取得する情報処理装置である。 Further, in the information processing apparatus of the sixth invention, in the information processing apparatus of any one of the first to fifth inventions, the object recognition unit recognizes one or more types of objects among a telephone pole, a traffic light, and a post on the road. An information processing device that acquires an object identifier to be identified.

かかる構成により、道路上の電柱、信号、またはポストのうちの1種類以上のオブジェクトを認識できる。 Such a configuration allows recognition of one or more types of objects on the road, such as telephone poles, traffic lights, or posts.

本発明による情報処理装置によれば、移動体の周辺に存在するオブジェクトの特定の部分の3次元座標の集合である2以上の元情報群を用いて、オブジェクトを認識することが容易にできる。 According to the information processing apparatus of the present invention, it is possible to easily recognize an object using two or more original information groups that are a set of three-dimensional coordinates of a specific portion of an object existing around a moving object.

実施の形態1における情報処理装置1のブロック図Block diagram of information processing device 1 according to Embodiment 1 同情報処理装置1の動作について説明するフローチャートFlowchart explaining the operation of the information processing device 1 同元情報取得処理の例について説明するフローチャートFlowchart for explaining an example of same-source information acquisition processing 同移動体位置情報取得処理の例について説明するフローチャートFlowchart for explaining an example of the same moving body position information acquisition processing 同オブジェクト抽出処理について説明するフローチャートFlowchart explaining same object extraction processing 同オブジェクト認識処理について説明するフローチャートFlowchart explaining the same object recognition processing 同出力図構成処理について説明するフローチャートFlowchart for explaining the same output diagram construction processing 同情報処理装置1の概念図Conceptual diagram of the same information processing device 1 同観測装置802による観測の概念図Conceptual diagram of observation by the same observation device 802 同対応表を示す図Diagram showing the same correspondence table 同出力図の例を示す図Diagram showing an example of the same output diagram 同コンピュータシステムの概観図Overview of the computer system 同コンピュータシステムのブロック図Block diagram of the same computer system

以下、情報処理装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。 Hereinafter, embodiments of an information processing apparatus and the like will be described with reference to the drawings. It should be noted that, since components denoted by the same reference numerals in the embodiments perform similar operations, repetitive description may be omitted.

(実施の形態1)
本実施の形態において説明する情報処理装置は、各地点において観測装置から取得される三次元データを用いて、属性を決定しないままオブジェクトを認識するとともに、当該観測地点とオブジェクトの位置関係(例えば、距離等)に応じて、適切な特徴量を取得する(例えば、遠距離なら全体寸法、近距離なら表面形状等)。さらに、情報処理装置は、GPS等の機器または後述する自己位置認識技術等により取得された各観測地点の位置、あるいはオブジェクトのトラッキング技術に基づき、各観測地点で認識された同一のオブジェクトを同定し、これらの特徴量を合成することで、オブジェクトの識別子(種類)を識別する。
(Embodiment 1)
The information processing apparatus described in the present embodiment uses three-dimensional data acquired from an observation device at each point to recognize an object without determining its attributes, and also recognizes the positional relationship between the observation point and the object (for example, distance, etc.), an appropriate feature amount is acquired (for example, overall dimensions for a long distance, surface shape for a short distance, etc.). Further, the information processing device identifies the same object recognized at each observation point based on the position of each observation point obtained by a device such as GPS or the self-position recognition technology described later, or on the basis of object tracking technology. , and by synthesizing these feature amounts, the identifier (type) of the object is identified.

また、本実施の形態において、元情報群を用いて取得した三次元の図である出力図を構成し、出力する情報処理装置について説明する。 Further, in the present embodiment, an information processing apparatus that constructs and outputs an output diagram that is a three-dimensional diagram acquired using an original information group will be described.

図1は、本実施の形態における情報処理装置1のブロック図である。 FIG. 1 is a block diagram of an information processing device 1 according to this embodiment.

情報処理装置1は、格納部11、受付部12、処理部13、および出力部14を備える。 The information processing device 1 includes a storage unit 11 , a reception unit 12 , a processing unit 13 and an output unit 14 .

格納部11は、元情報格納部111、学習器格納部112、および対応表格納部113を備える。 The storage unit 11 includes an original information storage unit 111 , a learning device storage unit 112 and a correspondence table storage unit 113 .

処理部13は、元情報取得部131、移動体位置情報取得部132、元情報蓄積部133、オブジェクト抽出部134、特徴量取得部135、絶対位置情報取得部136、同一オブジェクト認識部137、特徴量合成部138、オブジェクト認識部139、および出力図構成部140を備える。 The processing unit 13 includes an original information acquisition unit 131, a moving body position information acquisition unit 132, an original information storage unit 133, an object extraction unit 134, a feature amount acquisition unit 135, an absolute position information acquisition unit 136, a same object recognition unit 137, a feature It comprises a quantity synthesizing unit 138 , an object recognizing unit 139 , and an output diagram constructing unit 140 .

出力部14は、図出力部141、およびオブジェクト識別子出力部142を備える。 The output unit 14 has a diagram output unit 141 and an object identifier output unit 142 .

格納部11には、各種の情報が格納される。各種の情報とは、例えば、2以上のレーザー発信手段情報である。レーザー発信手段情報とは、レーザー発信手段を識別するレーザー識別子とレーザー発信手段の位置を特定する発信手段位置情報とレーザー発信手段のレーダー発信の方向を特定する発信手段方向情報とを有する情報である。なお、レーザー発信手段とは、レーザーを発信し、その反射の信号を受信する手段である。例えば、LIDARは、多数のレーザー発信手段を具備する。 Various types of information are stored in the storage unit 11 . Various types of information are, for example, two or more laser transmitting means information. The laser transmission means information is information having a laser identifier for identifying the laser transmission means, transmission means position information for specifying the position of the laser transmission means, and transmission means direction information for specifying the radar transmission direction of the laser transmission means. . Note that the laser transmission means is means for transmitting a laser and receiving its reflected signal. For example, LIDAR comprises a number of laser emitting means.

また、各種の情報とは、例えば、後述する元情報群である。元情報群は、元情報取得部131が取得した情報である。また、各種の情報とは、例えば、後述する学習器、後述する対応表である。 Further, the various types of information are, for example, a group of original information to be described later. The original information group is information acquired by the original information acquisition unit 131 . Further, the various types of information are, for example, a learning device to be described later and a correspondence table to be described later.

元情報格納部111には、移動体位置情報に対応付けて、2以上の元情報群が格納される。移動体位置情報は、2以上の各時点の移動体の位置を示す情報である。移動体位置情報は、2以上の各時点の移動体の位置を示す移動体位置情報を取得する移動体位置情報取得部132が取得する。なお、移動体は、移動する観測装置である。なお、元情報群の詳細については後述する。 The original information storage unit 111 stores two or more original information groups in association with the mobile body position information. The mobile body position information is information indicating the position of the mobile body at two or more points in time. The mobile body position information is acquired by the mobile body position information acquiring unit 132 that acquires mobile body position information indicating the position of the mobile body at each of two or more points in time. Note that the moving object is an observation device that moves. Details of the original information group will be described later.

学習器格納部112には、オブジェクトの特徴量集合とオブジェクト識別子とを有する2以上の組情報を用いて、機械学習のアルゴリズムにより学習処理されて取得された学習器が格納される。機械学習は、例えば、SVM、決定木、ランダムフォレスト、深層学習等であるが、機械学習のアルゴリズムは問わない。 The learning device storage unit 112 stores a learning device obtained by performing learning processing using a machine learning algorithm using two or more sets of information having an object feature amount set and an object identifier. Machine learning includes, for example, SVM, decision tree, random forest, deep learning, etc., but any machine learning algorithm is acceptable.

対応表格納部113には、オブジェクトの特徴量集合とオブジェクト識別子との対である2以上の対応情報を有する対応表が格納される。特徴量集合は、例えば、オブジェクトの幅の範囲の情報、オブジェクトの高さの範囲の情報、オブジェクトの1面の表面形状の情報、オブジェクトの縦横比を有する。オブジェクト識別子は、オブジェクを識別する情報であり、例えば、オブジェク名、オブジェクのID等である。 The correspondence table storage unit 113 stores a correspondence table having two or more pieces of correspondence information that are pairs of object feature amount sets and object identifiers. The feature amount set includes, for example, information on the width range of the object, information on the height range of the object, information on the surface shape of one surface of the object, and the aspect ratio of the object. An object identifier is information for identifying an object, such as an object name and an object ID.

なお、オブジェクト識別子を取得する場合に使用される情報は、学習器でも対応表でも良い。 Information used when acquiring an object identifier may be a learning device or a correspondence table.

受付部12は、各種の指示や情報等を受け付ける。各種の指示や情報等とは、例えば、情報処理装置1の動作開始指示、動作終了指示、出力指示である。また、動作開始指示は、情報処理装置1の動作の開始の指示であるが、移動体の移動の開始の指示でも良い。動作終了指示は、情報処理装置1の動作の終了の指示である。また、出力指示は、出力図を出力する指示であり、例えば、出力図の元になった元情報群が取得された時点を識別する時点識別子を有する。 The reception unit 12 receives various instructions, information, and the like. Various instructions, information, and the like are, for example, an operation start instruction, an operation end instruction, and an output instruction of the information processing apparatus 1 . Further, the operation start instruction is an instruction to start the operation of the information processing device 1, but may be an instruction to start moving the moving body. The operation end instruction is an instruction to end the operation of the information processing device 1 . The output instruction is an instruction to output an output diagram, and has, for example, a point-in-time identifier that identifies the point in time when the original information group on which the output diagram is based was obtained.

ここで、受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。 Here, reception means reception of information input from input devices such as keyboards, mice, and touch panels, reception of information transmitted via wired or wireless communication lines, and recording on optical discs, magnetic discs, semiconductor memories, etc. This is a concept that includes acceptance of information read from a medium.

各種の指示や情報等の入力手段は、タッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。 Any means such as a touch panel, keyboard, mouse, or menu screen may be used as input means for various instructions and information.

処理部13は、各種の処理を行う。各種の処理とは、例えば、元情報取得部131、移動体位置情報取得部132、元情報蓄積部133、オブジェクト抽出部134、特徴量取得部135、絶対位置情報取得部136、同一オブジェクト認識部137、特徴量合成部138、オブジェクト認識部139、出力図構成部140が行う処理である。 The processing unit 13 performs various types of processing. The various processes include, for example, the original information acquisition unit 131, the moving body position information acquisition unit 132, the original information storage unit 133, the object extraction unit 134, the feature amount acquisition unit 135, the absolute position information acquisition unit 136, and the same object recognition unit. 137, a feature amount synthesis unit 138, an object recognition unit 139, and an output diagram construction unit 140. FIG.

元情報取得部131は、2以上の各時点における元情報群を取得する。元情報群は、1または2以上の元情報を有する。 The original information acquisition unit 131 acquires an original information group at two or more points in time. The original information group has one or more pieces of original information.

元情報取得部131は、一の時点における、移動体の周辺の360度をカバーする1以上の元情報を取得しても良い。なお、元情報取得部131は、360度をカバーする2以上の元情報を取得する場合に、360度の範囲内の領域によって、時間遅れが発生していても良い。 The original information acquisition unit 131 may acquire one or more pieces of original information covering 360 degrees around the moving object at one point in time. In addition, when the original information acquisition unit 131 acquires two or more pieces of original information covering 360 degrees, a time delay may occur depending on the region within the 360 degree range.

元情報は、移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報である。元情報は、移動体の周辺に存在するオブジェクトの特定の部分(特定の点)の3次元座標である。元情報は、図示しない観測装置の3次元データを有する。元情報群は、観測装置から観測される、周辺に存在する人やモノなどの特定の部分の3D座標を表す点の集合であり、例えば、点群(Point Cloud)データまたは距離画像データである。なお、観測装置は、観測データとして、3Dデータを連続的に取得可能な装置である。観測装置は、例えば、上述したLIDAR、3次元カメラ、ToFセンサ、ステレオカメラ等である。観測装置は、結果として同一の座標系の3Dデータを出力するものであれば、2以上の装置を組み合わせて構成されるシステムであってもよい。また、元情報取得部131は、観測装置を含むと考えても良いし、観測装置から元情報を取得すると考えても良い。また、3次元データは、例えば、観測装置または移動体を原点とする3次元の相対的な座標値である。 The original information is information that serves as a basis for specifying the position in the three-dimensional space of an object that exists around the moving object. The original information is three-dimensional coordinates of a specific portion (specific point) of an object that exists around the moving body. The original information has three-dimensional data of an observation device (not shown). The original information group is a set of points representing the 3D coordinates of specific parts such as people and things existing in the vicinity observed from the observation device, such as point cloud data or range image data. . Note that the observation device is a device capable of continuously acquiring 3D data as observation data. The observation device is, for example, the above-described LIDAR, three-dimensional camera, ToF sensor, stereo camera, or the like. The observation device may be a system configured by combining two or more devices as long as it outputs 3D data in the same coordinate system as a result. Also, the original information acquisition unit 131 may be considered to include an observation device, or may be considered to acquire original information from the observation device. Also, the three-dimensional data is, for example, three-dimensional relative coordinate values with the observation device or the moving body as the origin.

元情報は、例えば、レーザー情報である。レーザー情報は、戻り時間とレーザー識別子との組である。レーザー識別子は、レーザー発信手段を識別する情報である。レーザー識別子は、照射したレーザーの位置を特定する情報でも良い。元情報取得部131は、例えば、2以上の各レーザー発信手段により発信されたレーザーの反射を受信し、レーザーの発信からその反射の受信までの戻り時間を取得し、戻り時間とレーザー発信手段を識別するレーザー識別子との組であるレーザー情報を、レーザー発信手段ごとに取得するし。元情報取得部131は、レーザーを発信するLIDARを含むと考えても良いし、LIDARから元情報を取得するソフトウェアとMPU等から実現されても良い。なお、LIDARは、LiDARと言っても良い。 The original information is laser information, for example. The laser information is a set of return time and laser identifier. A laser identifier is information for identifying a laser transmission means. The laser identifier may be information specifying the position of the irradiated laser. For example, the original information acquisition unit 131 receives reflections of lasers transmitted by two or more laser transmission means, acquires the return time from the transmission of the laser to the reception of the reflection, and compares the return time with the laser transmission means. Laser information, which is a pair with a laser identifier for identification, is acquired for each laser transmission means. The original information acquisition unit 131 may be considered to include a LIDAR that emits a laser beam, or may be implemented by software, an MPU, or the like that acquires original information from the LIDAR. Note that LIDAR may also be referred to as LiDAR.

元情報群は、例えば、距離画像でも良い。元情報取得部131は、例えば、距離画像カメラが撮影した1または2以上の距離画像を取得する。なお、距離画像は、画像の中の各画素の3次元空間上の座標値を含む。また、元情報取得部131は、距離画像を撮影するカメラ(距離画像センサと言っても良い)を含むと考えても良いし、カメラが撮影した距離画像を取得するソフトウェアとMPU等から実現されても良い。 The original information group may be, for example, range images. The original information acquisition unit 131 acquires, for example, one or more distance images captured by a distance image camera. Note that the distance image includes coordinate values of each pixel in the image in a three-dimensional space. Also, the original information acquisition unit 131 may be considered to include a camera (which may be called a distance image sensor) that captures a distance image, and is implemented by software that acquires the distance image captured by the camera, an MPU, and the like. can be

移動体位置情報取得部132は、移動体位置情報を取得する。移動体位置情報は、通常、三次元空間(以下、単に「空間」という場合がある。)における位置を特定する情報である。移動体位置情報とは、通常、(x,y,z)の構造を有する。 The mobile position information acquisition unit 132 acquires mobile position information. Mobile body position information is usually information that specifies a position in a three-dimensional space (hereinafter sometimes simply referred to as "space"). Mobile position information usually has a structure of (x, y, z).

移動体位置情報取得部132は、例えば、GPS受信機を含み、当該GPS受信機により、絶対位置の座標値(緯度,経度,高度)を取得する。 The mobile position information acquisition unit 132 includes, for example, a GPS receiver, and acquires the coordinate values (latitude, longitude, altitude) of the absolute position from the GPS receiver.

移動体位置情報取得部132は、例えば、元情報取得部131が取得した1以上の元情報群を用いて、移動する移動体の移動体位置情報を取得する。また、移動体位置情報は、例えば、相対的な位置を示す情報である。移動体位置情報が相対的な位置を示す情報である場合、例えば、移動体の出発地点が原点(0,0,0)である。なお、移動体の出発地点の絶対位置(通常、(緯度,経度,高度))が分かれば、移動体位置情報は、絶対的な位置を示す情報に変換し得る。つまり、本明細書で扱う移動体位置情報やオブジェクト位置情報等の位置情報は、相対的な位置を示す情報でも良いし、絶対的な位置を示す情報でも良い。なお、オブジェクト位置情報は、オブジェクトを構成する点の位置を示す情報である。オブジェクト位置情報は、移動体位置情報を原点とする相対的な位置情報であることは好適である。 The mobile body position information acquisition unit 132 acquires the mobile body position information of the moving mobile body, for example, using one or more original information groups acquired by the original information acquisition unit 131 . Further, mobile body position information is, for example, information indicating a relative position. When the mobile body position information is information indicating a relative position, for example, the starting point of the mobile body is the origin (0, 0, 0). If the absolute position (usually (latitude, longitude, altitude)) of the starting point of the mobile body is known, the mobile body position information can be converted into information indicating the absolute position. In other words, position information such as mobile body position information and object position information handled in this specification may be information indicating a relative position or information indicating an absolute position. Note that the object position information is information indicating the positions of the points forming the object. The object position information is preferably relative position information with the moving body position information as the origin.

移動体位置情報取得部132は、例えば、2以上の元情報群を用いて、2以上の各時点における移動体位置情報を取得する。 The mobile body position information acquisition unit 132 acquires mobile body position information at two or more points in time, for example, using two or more original information groups.

さらに具体的には、移動体位置情報取得部132は、例えば、異なる時点の2つの各元情報から特徴点を抽出し、2つの元情報の対応する2つの特徴点(例えば、(x11,y11,z11)と(x12,y12,z12))を検知し、当該特徴点の差異から移動量(例えば、(x12-x11,y12-y11,z12-z11)を算出する。そして、移動体位置情報取得部132は、例えば、移動体の直前の位置を示す移動体位置情報(例えば、(x,y,z))と移動量(例えば、(x12-x11,y12-y11,z12-z11)とを用いて、現時点の移動体位置情報(例えば、(x+x12-x11,y+y12-y11,z+z12-z11))を算出する。なお、特徴点とは、オブジェクトの角の点、オブジェクトの輪郭線上の特定の点などである。3次元データの集合である元情報から特徴点を取得する技術は公知技術である。 More specifically, the moving body position information acquiring unit 132, for example, extracts feature points from two pieces of original information at different points in time, and extracts two feature points corresponding to the two pieces of original information (for example, (x 11 , y 11 , z 11 ) and (x 12 , y 12 , z 12 )) are detected, and the amount of movement (for example, (x 12 −x 11 , y 12 −y 11 , z 12 −z 11 ).Then, the mobile body position information acquisition unit 132 calculates, for example, mobile body position information (eg, (x 0 , y 0 , z 0 )) indicating the immediately preceding position of the mobile body and the amount of movement (eg, , (x 12 −x 11 , y 12 −y 11 , z 12 −z 11 ) and the current position information of the mobile unit (for example, (x 0 +x 12 −x 11 , y 0 +y 12 −y 11 , z 0 +z 12 −z 11 )), where the feature points are corner points of the object, specific points on the outline of the object, etc. From the original information, which is a set of three-dimensional data, the feature points Techniques for obtaining points are well known.

元情報蓄積部133は、元情報取得部131が取得した元情報と、当該元情報に対応する時点において移動体位置情報取得部132が取得した移動体位置情報とを対応付けて、元情報格納部111に蓄積する。 The original information storage unit 133 associates the original information acquired by the original information acquisition unit 131 with the mobile object position information acquired by the mobile object position information acquisition unit 132 at the time corresponding to the original information, and stores the original information. Stored in unit 111 .

オブジェクト抽出部134は、2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出する。 The object extraction unit 134 extracts one or more objects using the original information group associated with two or more points in time.

オブジェクト抽出部134は、元情報群を用いて、1以上のオブジェクトを特定(「特定」を「認識」、と言っても良い)する。つまり、オブジェクト抽出部134は、元情報群が有する2以上の三次元座標情報の連続する点群を特定する。なお、三次元座標情報の連続する点群がオブジェクトの特定位置の点の集合である。また、点群の特定とは、オブジェクトごとに点群を取得すること、オブジェクトごとに点群を対応付けること等であり、オブジェクトの特定位置の点の集合がグループとして認識されれば良い。また、三次元座標情報の連続する点群は、例えば、距離が閾値以内または閾値より小さい点の集合である。三次元座標情報の連続する点群は、一のオブジェクトの特定の位置(点)の集合である、また、点群とは、三次元座標情報の集合である。 The object extraction unit 134 uses the original information group to identify one or more objects (“identification” may also be called “recognition”). In other words, the object extraction unit 134 identifies continuous point groups of two or more pieces of three-dimensional coordinate information included in the original information group. Note that a continuous point group of three-dimensional coordinate information is a set of points at specific positions of the object. Specifying a point group means obtaining a point group for each object, associating the point group with each object, and the like, and it is sufficient that a set of points at specific positions of an object is recognized as a group. Also, a continuous point group of three-dimensional coordinate information is, for example, a set of points whose distance is within a threshold or smaller than a threshold. A continuous point group of three-dimensional coordinate information is a set of specific positions (points) of one object, and a point group is a set of three-dimensional coordinate information.

ここで、オブジェクト抽出部134は、特定した各オブジェクトの点群に対して、オブジェクトの全体の点群であるか否かを示すフラグを対応付けることは好適である。つまり、オブジェクト抽出部134は、一の時点の元情報群の中に、オブジェクトの全体の情報を有するか、オブジェクトの一部分のみの情報を有するかを示すフラグを、オブジェクトごとに取得することは好適である。オブジェクト抽出部134は、例えば、一の時点の元情報群の中で、認識したオブジェクトの特定の点の集合である連続する点群のうちのいずれの点の三次元座標情報も、元情報の外枠の点の三次元座標情報では無い場合に、一の時点の元情報の中に認識したオブジェクトの全体の情報が存在する、と判断する。また、オブジェクト抽出部134は、例えば、認識したオブジェクトの特定の点の集合である連続する点群のうちのいずれかの点の三次元座標情報が元情報の外枠の点の三次元座標情報ではある場合に、一の時点の元情報の中に認識したオブジェクトの一部分のみの情報が存在する、と判断する。 Here, it is preferable that the object extraction unit 134 associates the specified point group of each object with a flag indicating whether or not it is the point group of the entire object. In other words, it is preferable for the object extraction unit 134 to acquire a flag for each object that indicates whether the original information group at one point in time contains information on the entire object or information on only a part of the object. is. For example, the object extraction unit 134 extracts the three-dimensional coordinate information of any point in the continuous point group, which is a set of specific points of the recognized object, from the original information group at one point in time. If the information is not the three-dimensional coordinate information of the points of the outer frame, it is determined that the information of the entire recognized object exists in the original information at one point in time. For example, the object extraction unit 134 converts the three-dimensional coordinate information of any point in a continuous point group, which is a set of specific points of the recognized object, into the three-dimensional coordinate information of the points of the outer frame of the original information. In a certain case, it is determined that only part of the recognized object exists in the original information at one point in time.

特徴量取得部135は、2以上の各時点に対応付けている元情報群を用いて、オブジェクト抽出部134が抽出した1以上の各オブジェクトの特徴量を取得する。オブジェクトの特徴量は、例えば、サイズ情報、および形状情報である。オブジェクトの特徴量は、例えば、主成分分析から得られる外接直方体の各辺の比、縦横比である。 The feature amount acquisition unit 135 acquires the feature amount of each of the one or more objects extracted by the object extraction unit 134 using the original information group associated with two or more points in time. The feature amount of the object is, for example, size information and shape information. The feature amount of the object is, for example, the ratio of the sides of the circumscribed rectangular parallelepiped obtained from the principal component analysis and the aspect ratio.

特徴量取得部135は、2以上の各時点に対応付けている元情報群の中の、オブジェクトの特定の点の集合である点群を用いて、オブジェクト抽出部134が抽出した1以上の各オブジェクトの特徴量を取得する。 The feature amount acquisition unit 135 extracts one or more points extracted by the object extraction unit 134 using a point group that is a set of specific points of an object in the original information group associated with each of two or more points in time. Get the features of an object.

特徴量取得部135は、第一時点の元情報群であり、一のオブジェクトの全体が特定可能な元情報群を用いて、当該一のオブジェクトの全体特徴量を取得することは好適である。おこで、全体特徴量は、オブジェクトの全体に対する特徴量である。全体特徴量は、例えば、オブジェクトのサイズ情報またはオブジェクトの縦横比である。 It is preferable that the feature amount acquisition unit 135 acquires the entire feature amount of the one object by using the original information group at the first point in time, and by which the whole of the one object can be specified. Here, the overall feature amount is a feature amount for the entire object. The overall feature amount is, for example, size information of the object or aspect ratio of the object.

特徴量取得部135は、第一時点の元情報群であり、一のオブジェクトの全体が特定可能な元情報群を用いて、当該一のオブジェクトのサイズ情報を取得することは好適である。 It is preferable that the feature amount acquisition unit 135 acquires the size information of the one object by using the original information group at the first point in time, which can specify the entire one object.

特徴量取得部135が2以上の各時点の元情報群であり、一のオブジェクトの全体が特定可能な各元情報群からサイズ情報を取得できた場合、最もサイズが大きいサイズ情報を採用することは好適である。 If the feature amount acquisition unit 135 is able to acquire size information from two or more original information groups at each point in time and from each of the original information groups that can identify the entire object, the size information with the largest size is adopted. is preferred.

特徴量取得部135が2以上の各時点の元情報群であり、一のオブジェクトの全体が特定可能な各元情報群からサイズ情報を取得できた場合、最も後の時点の元情報群から取得されたサイズ情報を採用することは好適である。かかる場合、観測装置が一のオブジェクトに近づきながら移動している場合である。 If the feature amount acquisition unit 135 is able to acquire size information from each of the original information groups at two or more points in time and from which an entire object can be specified, then the size information is acquired from the original information group at the latest point in time. It is preferable to employ the size information provided. In such a case, the observation device is moving while approaching one object.

特徴量取得部135が2以上の各時点の元情報群であり、一のオブジェクトの全体が特定可能な各元情報群からサイズ情報を取得できた場合、元情報群の中に占めるオブジェクトの割合が最も大きい(オブジェクトが最も大きく占めている)元情報群から取得されたサイズ情報を採用することは好適である。 If the feature amount acquisition unit 135 is able to acquire size information from each of two or more original information groups at each point in time, and from each of the original information groups from which an entire object can be specified, the proportion of the object in the original information group. It is preferable to adopt the size information obtained from the original information group with the largest (largest occupied by the object).

特徴量取得部135は、第二時点の元情報群であり、一のオブジェクトの一部のみが特定可能な元情報群を用いて、一のオブジェクトの部分特徴量を取得することは好適である。部分特徴量とは、オブジェクトの部分の特徴量である。部分特徴量は、例えば、オブジェクトの形状情報である。 It is preferable that the feature amount acquisition unit 135 acquires the partial feature amount of the one object using the original information group at the second point in time, in which only a part of the one object can be specified. . A partial feature amount is a feature amount of a portion of an object. A partial feature amount is, for example, shape information of an object.

特徴量取得部135は、第二時点の元情報群であり、一のオブジェクトの一部が特定可能な元情報群を用いて、当該一のオブジェクトの形状情報を取得することは好適である。 It is preferable that the feature amount acquisition unit 135 acquires the shape information of the one object using the original information group at the second point in time, in which a part of the one object can be specified.

なお、第二時点は、第一時点とは異なる時点である。また、第二時点は、通常、第一時点より後の時点である。また、形状情報は、表面形状の情報であり、例えば、観測装置に対して正面の位置の表面の情報である。 Note that the second time point is a time point different from the first time point. Also, the second time point is usually a time point after the first time point. Also, the shape information is information on the shape of the surface, for example, information on the surface in front of the observation device.

絶対位置情報取得部136は、2以上の各時点に対応付けている元情報群と2以上の各時点の移動体位置情報とを用いて、オブジェクト抽出部134が抽出した1以上の各オブジェクトの絶対位置に関する1または2以上の絶対位置情報を取得する。なお、絶対位置情報は、(緯度,経度,高度)でも良いし、特定の点を原点(0,0,0)とした三次元空間における(x,y,z)でも良い。絶対位置情報は、オブジェクトの特定の点の絶対的な3次元座標の情報である。 The absolute position information acquisition unit 136 uses the original information group associated with two or more points in time and the moving body position information at the two or more points in time to extract one or more objects extracted by the object extraction unit 134. Obtain one or more absolute position information about the absolute position. The absolute position information may be (latitude, longitude, altitude) or (x, y, z) in a three-dimensional space with a specific point as the origin (0, 0, 0). Absolute position information is information on absolute three-dimensional coordinates of a specific point of an object.

絶対位置情報取得部136は、通常、元情報群に含まれる各元情報が有する各三次元の座標情報と移動体位置情報とを用いて、2以上の絶対位置情報を算出する。つまり、絶対位置情報取得部136は、元情報が有する三次元の座標情報(例えば、(x,y,z))にオフセットとして移動体位置情報(例えば、(x,y,z))を加えて、相対的な三次元の座標情報であるオブジェクト位置情報(例えば、(x+x,y+y,z+z))を算出する。 The absolute position information acquisition unit 136 normally calculates two or more pieces of absolute position information using each three-dimensional coordinate information and mobile body position information of each piece of original information included in the original information group. In other words, the absolute position information acquisition unit 136 uses the three-dimensional coordinate information (e.g., (x a , ya , za )) of the original information as offsets to the mobile position information (e.g., (x b , y b , y b , z b )) is added to calculate object position information (eg, (x a +x b , ya + y b , za + z b )), which is relative three-dimensional coordinate information.

絶対位置情報取得部136は、オブジェクト抽出部134が特定したオブジェクトごとの点群を構成する各点の三次元座標情報と移動体位置情報とを用いて、2以上の絶対位置情報を算出する。つまり、絶対位置情報取得部136は、オブジェクト抽出部134が特定したオブジェクトごとの点群を構成する各点の三次元座標情報(例えば、(x,y,z))にオフセットとして移動体位置情報(例えば、(x,y,z))を加えて、相対的な三次元の座標情報である絶対位置情報(例えば、(x+x,y+y,z+z))を算出する。 The absolute position information acquisition unit 136 calculates two or more pieces of absolute position information using the three-dimensional coordinate information of each point forming the point group for each object identified by the object extraction unit 134 and the moving body position information. That is, the absolute position information acquisition unit 136 moves the three-dimensional coordinate information (for example, (x a , ya , z a )) of each point constituting the point group for each object identified by the object extraction unit 134 as an offset. Absolute position information ( for example , ( xa + xb , ya + yb , za +z b )).

また、絶対位置情報取得部136は、取得したオブジェクトごとの絶対位置情報の集合を対応付けることは好適である。なお、絶対位置情報の集合を絶対位置情報群と言っても良い。 Also, the absolute position information acquisition unit 136 preferably associates a set of acquired absolute position information for each object. A set of absolute position information may be called an absolute position information group.

同一オブジェクト認識部137は、2以上の異なる時点の同一のオブジェクトの対応を取る。なお、同一オブジェクト認識部137が2以上の異なる時点の同一のオブジェクトの対応を取るアルゴリズムは問わない。 The same object recognition unit 137 matches two or more identical objects at different points in time. The same object recognition unit 137 may use any algorithm for matching the same object at two or more different points in time.

同一オブジェクト認識部137は、2以上の各時点に対応付けている元情報群を用いて、2以上の異なる時点の同一のオブジェクトの対応を取る。 The same object recognition unit 137 uses the original information group associated with each of two or more points in time to match the same object at two or more points in time.

同一オブジェクト認識部137は、例えば、絶対位置情報取得部136が取得した2以上の各時点ごと、1以上の各オブジェクトごとの1または2以上の絶対位置情報を用いて、2以上の異なる時点の同一のオブジェクトの対応を取る。ここで、対応を取ることは、例えば、同一のオブジェクトの絶対位置情報群を対応付けることである。対応を取ることは、例えば、対応がとれたオブジェクトの2以上の各時点の絶対位置情報群をすべて含む絶対位置情報群を当該オブジェクトの絶対位置情報群とすることである。 The same object recognition unit 137 uses, for example, one or more absolute position information for each of one or more objects for each of two or more points in time acquired by the absolute position information acquisition unit 136 to identify two or more different points in time. Take the correspondence of the same object. Here, taking correspondence means, for example, associating a group of absolute position information of the same object. Taking correspondence means, for example, making an absolute position information group including all two or more absolute position information groups at respective points of time of the objects for which correspondence is established as the absolute position information group of the object.

同一オブジェクト認識部137は、例えば、2以上の異なる時点の元情報群から抽出されたオブジェクトの絶対位置情報群により得られるオブジェクトの位置を用いて、位置が近接している異なる時点のオブジェクトを同一のオブジェクトである、と判断する。2つのオブジェクトの位置が近接していることは、例えば、各絶対位置情報群により抽出される輪郭により構成される図形の空間的な距離が小さいこと等である。なお、絶対位置情報群の代わりに、オブジェクトごとの点群を構成する各点の三次元座標情報の集合を用いてもよい。また空間的な距離の判定に際して、過去の履歴から、カルマンフィルタ等に基づき、より古い時点1からより新しい時点2に至るまでのオブジェクトの移動ベクトルを予測し、オブジェクトの予測位置と、時点2における各オブジェクトの位置を比較してもよい。 The same object recognizing unit 137 recognizes objects at different points of time that are close to each other by using the positions of the objects obtained from the group of absolute position information of the objects extracted from the group of original information at two or more different points of time, for example. is an object of The closeness of the positions of two objects means, for example, that the spatial distance between figures formed by contours extracted from each absolute position information group is small. Note that instead of the absolute position information group, a set of three-dimensional coordinate information of each point forming a point group for each object may be used. Further, when determining the spatial distance, based on the past history, based on the Kalman filter, etc., the movement vector of the object from the older time point 1 to the newer time point 2 is predicted, and the predicted position of the object and each Object positions may be compared.

同一オブジェクト認識部137は、例えば、2以上の各時点で取得された1以上の特徴量を用いて、2以上の異なる時点の同一のオブジェクトの対応を取っても良い。つまり、例えば、時点1で特徴量A,Bが取得されているオブジェクトと、時点2で特徴量A,Cが取得されているオブジェクトがあり、、かつ共通する特徴量Aが類似している場合、同一オブジェクト認識部137は、かかる時点1のオブジェクトと、時点2のオブジェクトとを同一のオブジェクトである、と判断する。 The same object recognition unit 137 may, for example, match the same object at two or more different points in time using one or more feature amounts acquired at two or more points in time. That is, for example, if there are an object for which feature amounts A and B are acquired at time 1 and an object for which feature amounts A and C are acquired at time 2, and the common feature amount A is similar , the same object recognition unit 137 determines that the object at time 1 and the object at time 2 are the same object.

また、同一オブジェクト認識部137は、例えば、上記のオブジェクトの位置と特徴量の双方を用いて、2以上の異なる時点の同一のオブジェクトの対応を取っても良い。例えば、時点1のオブジェクト1と一定の距離以内に、時点2においてオブジェクトが複数存在する場合、時点1のオブジェクトと、特徴量が最も類似する時点2のオブジェクトとを同一のオブジェクトである、と判断する。また、例えば、時点1のオブジェクトの特徴量と時点2のオブジェクトの特徴量の類似度を、各オブジェクトの空間的な距離によって重み付けを行った上でスコアを算出し、時点1のオブジェクトと、時点2において最もスコアの高いオブジェクトとを同一のオブジェクトである、と判断する。 Also, the same object recognition unit 137 may match the same object at two or more different points in time, for example, using both the position and the feature amount of the object. For example, if there are multiple objects at time 2 within a certain distance from object 1 at time 1, it is determined that the object at time 1 and the object at time 2 that has the most similar features are the same object. do. Further, for example, the similarity between the feature amount of the object at time 1 and the feature amount of the object at time 2 is weighted by the spatial distance of each object, and then the score is calculated. 2 is determined to be the same object as the object with the highest score.

同一オブジェクト認識部137は、上述したように、2以上の異なる時点の元情報群から取得されたオブジェクトの位置情報を用いて、2以上の異なる時点の同一のオブジェクトの対応を取ることは好適である。なお、ここでのオブジェクトの位置情報は、上記の絶対位置情報でも良いし、相対位置情報でも良い。相対位置情報とは、例えば、移動体の位置を原点とする位置情報、つまり、元情報が有する三次元の座標情報である。 As described above, the same object recognition unit 137 preferably uses the position information of the object acquired from the original information group at two or more different points in time to match the same object at two or more points at different points in time. be. Note that the positional information of the object here may be the absolute positional information described above or the relative positional information. The relative position information is, for example, position information with the position of the moving body as the origin, that is, three-dimensional coordinate information of the original information.

特徴量合成部138は、同一オブジェクト認識部137が対応を取った同一のオブジェクトの2以上の特徴量を取得し、2以上の特徴量を用いて、同一のオブジェクトの特徴量集合を取得する。なお、特徴量集合とは、例えば、サイズ情報と形状情報である。形状情報は、例えば、オブジェクトの表面形状の情報である。表面形状の情報は、例えば、オブジェクトの一面の表面形状の情報である。また、表面形状の情報は、例えば、平滑度である。 The feature amount synthesizing unit 138 acquires two or more feature amounts of the same object correlated by the same object recognition unit 137, and acquires a feature amount set of the same object using the two or more feature amounts. Note that the feature amount set is, for example, size information and shape information. The shape information is, for example, information on the surface shape of the object. The information on the surface shape is, for example, information on the surface shape of one surface of the object. Further, the surface shape information is, for example, smoothness.

オブジェクト認識部139は、特徴量合成部138が取得した特徴量集合を用いて、同一のオブジェクトを識別するオブジェクト識別子を取得する。 The object recognition unit 139 uses the feature amount set acquired by the feature amount synthesizing unit 138 to acquire an object identifier that identifies the same object.

オブジェクト認識部139は、例えば、特徴量合成部138が取得した特徴量集合を学習器に適用し、機械学習のアルゴリズムにより、オブジェクト識別子を取得する。機械学習のアルゴリズムは、上述したように問わない。 The object recognition unit 139 applies, for example, the feature amount set acquired by the feature amount synthesizing unit 138 to a learning device, and acquires an object identifier by a machine learning algorithm. Any machine learning algorithm may be used as described above.

オブジェクト認識部139は、例えば、特徴量合成部138が取得した特徴量集合(例えば、特徴量ベクトル)に最も近似する特徴量集合(例えば、特徴量ベクトル)を対応表から検索し、当該特徴量集合と対になるオブジェクト識別子を対応表から取得する。 The object recognition unit 139, for example, searches the correspondence table for a feature amount set (for example, feature amount vector) that is most similar to the feature amount set (for example, feature amount vector) acquired by the feature amount synthesizing unit 138, and searches for the feature amount Get the object identifier paired with the set from the correspondence table.

オブジェクト認識部139は、道路上の電柱、信号、またはポストのうちの1種類以上のオブジェクトを識別するオブジェクト識別子を取得することは好適である。 The object recognition unit 139 preferably obtains object identifiers that identify one or more types of objects such as utility poles, traffic lights, or posts on the road.

オブジェクト抽出部134、特徴量取得部135、絶対位置情報取得部136、同一オブジェクト認識部137、特徴量合成部138、オブジェクト認識部139は、例えば、以下の(1)~(3)のいずれかの処理により、2以上の時点の元情報群を用いて、オブジェクト識別子を取得する。
(1)オブジェクト識別子の取得の第一の処理例
The object extraction unit 134, the feature amount acquisition unit 135, the absolute position information acquisition unit 136, the identical object recognition unit 137, the feature amount synthesis unit 138, and the object recognition unit 139 are, for example, any of the following (1) to (3) By the processing of , the object identifier is obtained using the original information group at two or more points in time.
(1) First processing example of obtaining an object identifier

第一の処理例は、独立した認識処理によりオブジェクト認識と自己位置認識を行う場合のオブジェクト認識の処理である。自己位置認識とは、観測装置の位置の認識である。 A first example of processing is object recognition processing when object recognition and self-position recognition are performed by independent recognition processing. Self-location awareness is the awareness of the position of the observation device.

処理部13は、例えば、元情報群が有する3次元座標値(「3D点」という。)の集合を用いて、以下のような処理を行う。まず、処理部13は、1または2以上の3D点の集合を用いて、オブジェクト認識処理を行う。オブジェクト認識処理は、一つのオブジェクトを構成する3D点の集合を特定する処理である。次に、処理部13は、例えば、各オブジェクトの3D点の集合から、各オブジェクトの形状に関する特徴量である1または2以上の特徴量を取得する。特徴量は、例えば、サイズ(例えば、幅、高さ、奥行き)、平滑度等である。次に、処理部13は、例えば、1以上の特徴量を用いて、オブジェクトの種類(オブジェクトの属性値の一例)を決定する。オブジェクトの種類は、オブジェクト識別子である。なお、オブジェクトの種類を決定する処理は、例えば、決定木、深層学習、サポートベクターマシン、決定木等の機械学習の技術が利用可能である。次に、処理部13は、決定したオブジェクトの種類の情報に対応付けて、3D点(オブジェクト位置情報と言っても良い。)の集合を取得する。 The processing unit 13 performs the following processing using, for example, a set of three-dimensional coordinate values (referred to as “3D points”) possessed by the original information group. First, the processing unit 13 performs object recognition processing using a set of one or more 3D points. Object recognition processing is processing for identifying a set of 3D points that constitute one object. Next, the processing unit 13 acquires, for example, one or more feature amounts relating to the shape of each object from a set of 3D points of each object. The feature amount is, for example, size (eg, width, height, depth), smoothness, and the like. Next, the processing unit 13 determines the type of the object (an example of the attribute value of the object) using, for example, one or more feature amounts. The object type is an object identifier. Machine learning techniques such as decision trees, deep learning, support vector machines, and decision trees can be used for the process of determining the type of object. Next, the processing unit 13 acquires a set of 3D points (which may also be called object position information) in association with the determined object type information.

なお、オブジェクト認識処理は、具体的には、例えば、以下の方法がある。まず、第一のオブジェクト認識処理について説明する。処理部13は、複数の各3D点の距離が予め決められた条件を満たすほど近い点の集合を同一のオブジェクトを構成する点である、と判断し、オブジェクトごとに3D点をまとめる。 In addition, the object recognition process has the following method specifically, for example. First, the first object recognition processing will be explained. The processing unit 13 determines that a set of points that are so close that the distances of the plurality of 3D points satisfy a predetermined condition are points forming the same object, and collects the 3D points for each object.

また、処理部13は、例えば、以下のグリッドマップの手法である第二の方法によるオブジェクト認識処理を行っても良い。つまり、処理部13は、3次元空間の複数のBOXに区切る。そして、処理部13は、各BOXに存在するすべての3D点を同一のオブジェクトを構成する3D点である、と仮定する。次に、処理部13は、各BOXの3D点から特徴点(例えば、最も中心に近い点、複数の点の中央値など)を取得する。次に、特徴点が予め決められた条件を満たすほど近いBOXを同一のオブジェクトを構成するBOXである、と判断する。以上により、一のオブジェクトを構成する3D点の集合が検知できた(オブジェクト認識ができた)。なお、BOXとは、通常、3次元の立方体または直方体である。 Further, the processing unit 13 may perform object recognition processing by, for example, a second method, which is a grid map method described below. That is, the processing unit 13 partitions the three-dimensional space into a plurality of BOXes. Then, the processing unit 13 assumes that all 3D points existing in each BOX are 3D points forming the same object. Next, the processing unit 13 acquires feature points (for example, the point closest to the center, the median value of a plurality of points, etc.) from the 3D points of each BOX. Next, BOXes whose feature points are close enough to satisfy a predetermined condition are determined to be BOXes forming the same object. As described above, a set of 3D points forming one object has been detected (object recognition has been completed). A BOX is generally a three-dimensional cube or rectangular parallelepiped.

また、処理部13は、例えば、法線ベクトルを用いて、第三の方法によるオブジェクト認識処理を行っても良い。かかる方法は、領域拡張法(Region Growing Segmentation)と言われている公知の技術である。つまり、処理部13は、例えば、注目する点(開始点)を中心とした一定範囲に存在する点群から算出される法線ベクトルを取得する。そして、処理部13は、開始点から法線ベクトルが類似する近傍点を領域として結合して、オブジェクトを構成する。 Also, the processing unit 13 may perform object recognition processing according to the third method, for example, using normal vectors. Such a method is a well-known technique called Region Growing Segmentation. That is, the processing unit 13 acquires, for example, a normal vector calculated from a group of points existing in a certain range around the point of interest (starting point). Then, the processing unit 13 constructs an object by combining neighboring points having similar normal vectors from the starting point as a region.

そして、例えば、処理部13は、一の元情報群から取得された移動体位置情報に対応付けて、各オブジェクトの2以上のオブジェクト位置情報を図示しないバッファに蓄積する。なお、処理部13は、各オブジェクトの属性値をも一緒に、図示しないバッファに蓄積することは好適である。
(2)第二の処理例
Then, for example, the processing unit 13 stores two or more pieces of object position information of each object in a buffer (not shown) in association with the moving body position information acquired from one original information group. It is preferable that the processing unit 13 also store the attribute values of each object together in a buffer (not shown).
(2) Second processing example

第二の処理例は、過去に認識したオブジェクトの履歴を保存しておき、自己位置の変化を踏まえて、今回のオブジェクトに該当する過去のオブジェクトを取得する処理である。第二の処理例では、オブジェクトの位置変化量(速度)をオブジェクト認識に利用できる。また、第二の処理例では、過去に認識済みの属性も利用できる。なお、自己位置とは、観測装置または移動体の位置である。 A second processing example is a process of storing the history of objects recognized in the past and acquiring past objects corresponding to the current object based on changes in the self-position. In the second processing example, the amount of position change (velocity) of the object can be used for object recognition. In addition, in the second processing example, previously recognized attributes can also be used. Note that the self-position is the position of the observation device or the moving body.

なお、第二の処理例では、過去の各オブジェクトの(基準座標系での)位置と移動ベクトルの履歴」から、過去の各オブジェクトが今回存在し得る(基準座標系での)位置を推定し、それを基に過去の各オブジェクトと現在のオブジェクトの関連付けを行うものである。かかる位置推定の処理には、カルマンフィルタ等が利用可能である。なお、この処理の実現には、少なくとも過去の1以上の時点における、移動体の位置と各オブジェクトの位置が保存されている必要がある。 In the second processing example, the position (in the reference coordinate system) where each past object can currently exist is estimated from the history of the past position (in the reference coordinate system) of each object and the movement vector. , based on which each object in the past is associated with the current object. A Kalman filter or the like can be used for such position estimation processing. In order to implement this process, it is necessary to store the position of the moving body and the position of each object at least at one or more times in the past.

さらに具体的には、まず、移動体位置情報取得部132は、上述した処理により、特徴点の移動量(例えば、(x-xt-1,y-yt-1,z-zt-1))算出する。そして、移動体位置情報取得部132は、過去の一時点(例えば、その直前の時点)(t-1)の移動体位置情報(例えば、(xt-1,yt-1,zt-1))と移動量とから、現時点(t)の移動体位置情報(例えば、(x,y,z))を取得する。 More specifically, first, the moving object position information acquiring unit 132 performs the above-described processing to determine the amount of movement of the feature point (for example, (x t −x t−1 , y t −y t−1 , z t − z t−1 )) Calculate. Then, the mobile body position information acquiring unit 132 acquires the mobile body position information (eg, (x t-1 , y t-1 , z t- 1 ))) and the amount of movement, the position information of the mobile object at the current time point (t) (for example, (x t , y t , z t )) is acquired.

次に、処理部13は、現時点の1以上の元情報が有する3D点の集合を用いて、上記のオブジェクト認識処理により、オブジェクトを認識する。次に、処理部13は、例えば、各オブジェクトの3D点の集合から、各オブジェクトの形状に関する特徴量である1または2以上の特徴量を取得する。次に、処理部13は、例えば、1以上の特徴量から現時点のオブジェクトの属性値(例えば、オブジェクトの種類)を取得する。 Next, the processing unit 13 uses a set of 3D points possessed by one or more pieces of original information at the present time to recognize an object by the above-described object recognition processing. Next, the processing unit 13 acquires, for example, one or more feature amounts relating to the shape of each object from a set of 3D points of each object. Next, the processing unit 13 acquires, for example, the current attribute value of the object (for example, the type of object) from one or more feature amounts.

次に、処理部13は、過去の1以上の時点のオブジェクトと現時点のオブジェクトの対応付けを行うために、現時点のオブジェクトのオブジェクト位置情報を、移動体位置情報を用いて補正する。次に、過去の各オブジェクトの現時点における位置を、過去の移動量の履歴から推定する。なお、かかる処理において、カルマンフィルタ等を用いる処理がある。次に、現時点のオブジェクトの属性値と過去のオブジェクトの属性値とを比較し、現時点のオブジェクトと過去のオブジェクトとの対応付けを行う。なお、対応付けられる現時点のオブジェクトと過去のオブジェクトとは、同一または類似の属性値を有し、現時点における位置に対応する座標値と予測位置に対応する座標値との差異が予め決められた範囲の差異に留まるオブジェクトである。また、過去の1以上の時点のオブジェクトと現時点のオブジェクトの対応付けが行えた場合、現時点のオブジェクトの1または2以上のオブジェクト位置情報が取得される。 Next, the processing unit 13 corrects the object position information of the current object using the mobile body position information in order to associate the object at one or more past points in time with the current object. Next, the current position of each object in the past is estimated from the history of the amount of movement in the past. It should be noted that such processing includes processing using a Kalman filter or the like. Next, the attribute value of the current object and the attribute value of the past object are compared to establish a correspondence between the current object and the past object. The current object and the past object to be associated have the same or similar attribute values, and the difference between the coordinate value corresponding to the current position and the coordinate value corresponding to the predicted position is within a predetermined range. It is an object that stays in the difference between Also, when the object at one or more points in the past and the object at the present point in time can be associated with each other, one or more pieces of object position information of the object at the present point in time are acquired.

そして、例えば、処理部13は、同一の元情報から取得された移動体位置情報に対応付けて、各オブジェクトの1または2以上のオブジェクト位置情報を図示しないバッファに蓄積する。なお、処理部13は、各オブジェクトの属性値をも一緒に、図示しないバッファに蓄積することは好適である。
(3)第三の処理例
Then, for example, the processing unit 13 stores one or more pieces of object position information of each object in a buffer (not shown) in association with the moving body position information acquired from the same original information. It is preferable that the processing unit 13 also store the attribute values of each object together in a buffer (not shown).
(3) Third processing example

第三の処理例は、過去の3D点の集合を保存しておき、自己位置の変化を反映した3D点の集合と比較し、動体と非動体に分けて3D点の集合を検知する方法である。第三の処理例において、定点観測時の差分処理と同様の効果があるため、移動観測の場合でも、オブジェクト点群の取得をより堅牢に行うことが可能となる。なお、ここで「動体」とは、「一部または全体の(基準座標系における)位置が変化するオブジェクト」である。一部の位置が変化するオブジェクトは、例えば、手だけが動いている人間である。 さらに具体的には、まず、移動体位置情報取得部132は、上述した処理により、特徴点の移動量(例えば、(x-xt-1,y-yt-1,z-zt-1))算出する。そして、移動体位置情報取得部132は、過去の一時点(例えば、その直前の時点)(t-1)の移動体位置情報(例えば、(xt-1,yt-1,zt-1))と移動量とから、現時点(t)の移動体位置情報(例えば、(x,y,z))を取得する。 A third processing example is a method of storing a set of past 3D points, comparing it with a set of 3D points reflecting changes in the self-position, and detecting a set of 3D points divided into moving and non-moving objects. be. In the third processing example, the same effect as the differential processing during fixed-point observation is obtained, so even in the case of moving observation, it is possible to acquire the object point group more robustly. It should be noted that the "moving object" here means "an object whose position (in the reference coordinate system) changes partially or wholly". An object whose position changes partly is, for example, a human being whose only hands are moving. More specifically, first, the moving object position information acquiring unit 132 performs the above-described processing to determine the amount of movement of the feature point (for example, (x t −x t−1 , y t −y t−1 , z t − z t−1 )) Calculate. Then, the mobile body position information acquiring unit 132 acquires the mobile body position information (eg, (x t-1 , y t-1 , z t- 1 ))) and the amount of movement, the position information of the mobile object at the current time point (t) (for example, (x t , y t , z t )) is acquired.

次に、処理部13は、過去の1以上の時点(例えば、直前の時点)の3D点の集合と現時点の3D点の集合との同期を取るために、現時点の3D点の集合を、移動体位置情報を用いて補正する。 Next, the processing unit 13 moves the current set of 3D points to synchronize the current set of 3D points with the set of 3D points at one or more past points in time (for example, the previous point in time). Correct using body position information.

次に、処理部13は、現時点の3D点の集合に対してオブジェクト認識処理を行う。 Next, the processing unit 13 performs object recognition processing on the current set of 3D points.

具体的には、処理部13は、過去の3D点と同じ位置に存在するかどうかを考慮して、現在の各3D点が動体に属するかどうかを判定しながら、現時点の3D点の集合に対してオブジェクト認識処理を行う。ここで、考慮するとは、例えば、複数の各3D点の距離を基準としてオブジェクトを構成する3D点の集合を特定する際に、その複数の3D点が双方とも過去の3D点と同じ位置に存在するかどうかによって距離に重みづけを行うことをいう。 Specifically, the processing unit 13 determines whether each current 3D point belongs to a moving object by considering whether it exists at the same position as the past 3D points, object recognition processing. Here, taking into consideration means that, for example, when specifying a set of 3D points forming an object based on the distance between each of the plurality of 3D points, both of the plurality of 3D points exist at the same positions as the past 3D points. It refers to weighting the distance depending on whether or not

次に、処理部13は、過去の時点(例えば、直前の時点)の3D点の集合から得られた各オブジェクトの1または2以上の各オブジェクト位置情報または/および属性値と、現時点の3D点の集合に対する各オブジェクトの1または2以上の各オブジェクト位置情報または/および属性値とを対比し、過去の時点の3D点の集合から得られた各オブジェクトと現時点の3D点の集合に対する各オブジェクトとの対応を決定する。 Next, the processing unit 13 obtains one or more object position information and/or attribute values of each object obtained from a set of 3D points at a past time (for example, immediately before), and the current 3D point 1 or 2 or more object position information and/or attribute values of each object for a set of , and each object obtained from the set of 3D points at the past time and each object for the set of 3D points at the current time to decide what to do.

なお、過去の時点において動体または非動体であったオブジェクトが、現時点においては、過去の判断とは異なり、非動体または動体として判断される場合がある。例えば、立ち止まっていた人間が歩き始めた、動いていた車が駐車した等の場合である。また、オブジェクトが動体であるか非動体であるかのフラグ情報は、オブジェクトの属性値の一種である、とする。なお、ここで、(2)で説明した、過去のオブジェクトの移動量を考慮したオブジェクトの対応付けを行ってもよい。 Note that an object that was moving or non-moving in the past may now be determined to be non-moving or moving, unlike past determinations. For example, a person who was standing still starts walking, or a moving car is parked. It is also assumed that flag information indicating whether an object is moving or non-moving is a kind of attribute value of the object. Here, the objects may be associated in consideration of the amount of movement of the objects in the past as described in (2).

そして、例えば、処理部13は、同一の元情報から取得された移動体位置情報に対応付けて、各オブジェクトの1または2以上のオブジェクト位置情報を図示しないバッファに蓄積する。なお、処理部13は、各オブジェクトの属性値をも一緒に、図示しないバッファに蓄積することは好適である。なお、オブジェクト位置情報は、絶対位置情報と同じでも良い。 Then, for example, the processing unit 13 stores one or more pieces of object position information of each object in a buffer (not shown) in association with the moving body position information acquired from the same original information. It is preferable that the processing unit 13 also store the attribute values of each object together in a buffer (not shown). Note that the object position information may be the same as the absolute position information.

処理部13は、例えば、元情報取得部131が取得した2以上の各レーザー情報が有するレーザー識別子と対になる発信手段位置情報と発信手段方向情報と、レーザー情報が有する戻り時間とを用いて、オブジェクトのオブジェクト位置情報をレーザー情報ごとに取得し、取得した2以上のオブジェクト位置情報を用いて、1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付ける。 For example, the processing unit 13 uses the transmitting means position information and transmitting means direction information paired with the laser identifiers of the two or more pieces of laser information acquired by the original information acquiring unit 131, and the return time of the laser information. , acquiring object position information of an object for each laser information, specifying one or more objects using the acquired two or more object position information, and determining each of the one or more objects and the two or more object position information of each object. correspond.

処理部13は、2以上の各時点において、1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付けることは好適である。 It is preferable that the processing unit 13 identifies one or more objects at each of two or more points in time, and associates each of the one or more objects with two or more pieces of object position information of each object.

元情報がレーザー識別子と戻り時間との組である場合、処理部13は、元情報から、移動体位置情報に対する三次元空間内の相対位置を示すオブジェクト位置情報を取得する。例えば、2以上のオブジェクト位置情報(または絶対位置情報)からオブジェクトの輪郭抽出を行い、輪郭に対応する特徴量を取得し、当該特徴量を用いてオブジェクト識別子を取得する。そして、オブジェクト識別子で識別されるオブジェクトの輪郭を構成する2以上のオブジェクト位置情報とオブジェクト識別子とを対にして保持する。なお、処理部13は、オブジェクトの輪郭を構成する2以上のオブジェクト位置情報に加えて、オブジェクトの内部のオブジェクト位置情報をもオブジェクト識別子と対にして保持しても良いことは言うまでもない。 When the original information is a pair of a laser identifier and a return time, the processing unit 13 acquires object position information indicating a relative position within the three-dimensional space with respect to the moving body position information from the original information. For example, the contour of the object is extracted from two or more pieces of object position information (or absolute position information), a feature amount corresponding to the contour is obtained, and the object identifier is obtained using the feature amount. Then, two or more pieces of object position information forming the outline of the object identified by the object identifier and the object identifier are paired and held. It goes without saying that the processing unit 13 may hold object position information inside the object in addition to two or more pieces of object position information forming the outline of the object, paired with the object identifier.

また、元情報が距離画像の場合、距離画像から空間内のオブジェクトを認識し、オブジェクト識別子を取得する。画像からオブジェクトを認識する技術は公知技術である。処理部13は、深層学習などの機械学習技術やオブジェクト情報とのパターンマッチングの技術等が利用可能である。そして、処理部13は、オブジェクト識別子と認識したオブジェクトを構成する2以上のオブジェクト位置情報とを対にして保持する。 Also, when the original information is a range image, an object in space is recognized from the range image and an object identifier is acquired. A technique for recognizing an object from an image is a known technique. The processing unit 13 can use machine learning technology such as deep learning, pattern matching technology with object information, and the like. Then, the processing unit 13 holds the object identifier and two or more pieces of object position information forming the recognized object as a pair.

なお、処理部13がオブジェクト識別子と2以上のオブジェクト位置情報とを対にして保持する場所は、格納部11でも良いし、図示しないバッファ等でも良い。 The place where the processing unit 13 holds the pair of object identifiers and two or more pieces of object position information may be the storage unit 11 or a buffer (not shown).

出力図構成部140は、移動体位置情報と1以上の各オブジェクトの2以上の絶対位置情報とを用いて、移動体と1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する。 The output diagram construction unit 140 uses the moving object position information and two or more absolute position information of one or more objects to create a three-dimensional image that can recognize the relative positional relationship between the moving object and one or more objects. Constructs an output diagram that is a diagram.

ここで、出力図とは、移動体と1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である。出力図の具体例は後述する。なお、出力図構成部140が用いる移動体位置情報と絶対位置情報とは、同一の1以上の元情報群から取得された情報である。また、1以上の各オブジェクトの2以上の絶対位置情報とは、1以上の各オブジェクトの認識結果である、と言っても良い。 Here, the output drawing is a three-dimensional drawing in which the relative positional relationship between the moving object and one or more objects can be recognized. A specific example of the output diagram will be described later. Note that the moving object position information and the absolute position information used by the output map configuration unit 140 are information obtained from the same one or more original information groups. Also, it can be said that two or more pieces of absolute position information of one or more objects are recognition results of one or more objects.

出力図構成部140は、2以上の各時点において、オブジェクト抽出部134が抽出した1以上のオブジェクトが含まれる図である出力図を構成する。 The output diagram constructing unit 140 constructs an output diagram including one or more objects extracted by the object extracting unit 134 at two or more points in time.

出力図構成部140は、移動体位置情報取得部132が取得した2以上の各時点における移動体位置情報により構成される移動体の移動軌跡を示す軌跡情報をも含まれる図である出力図を構成することは好適である。また、出力図構成部140は、オブジェクト識別子をも含む出力図を構成することは好適である。 The output diagram construction unit 140 generates an output diagram that is a diagram that also includes trajectory information indicating the movement trajectory of the moving object configured by the moving object position information at each of two or more points in time acquired by the moving object position information acquiring unit 132. It is preferred to configure In addition, it is preferable that the output diagram construction unit 140 constructs an output diagram that also includes an object identifier.

出力部14は、オブジェクト認識部139が取得したオブジェクト識別子と、同一のオブジェクトの絶対位置情報とを出力する。 The output unit 14 outputs the object identifier acquired by the object recognition unit 139 and the absolute position information of the same object.

ここで、出力とは、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、外部の装置への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。 Here, output means display on a display, projection using a projector, printing on a printer, sound output, transmission to an external device, storage on a recording medium, and transmission to another processing device or other program. This is a concept that includes delivery of processing results.

図出力部141は、出力図構成部140が構成した出力図を出力する。 The diagram output unit 141 outputs the output diagram configured by the output diagram configuration unit 140 .

オブジェクト識別子出力部142は、オブジェクト認識部139が取得したオブジェクト識別子を、同一のオブジェクトの絶対位置情報に対応する位置に出力する。なお、絶対位置情報に対応する位置とは、出力図上のオブジェクトに対応するような態様でオブジェクト識別子が出力されれば良く、広く解する。 The object identifier output unit 142 outputs the object identifier acquired by the object recognition unit 139 to the position corresponding to the absolute position information of the same object. It should be noted that the position corresponding to the absolute position information is broadly understood as long as the object identifier is output in such a manner as to correspond to the object on the output map.

格納部11、元情報格納部111、学習器格納部112、および対応表格納部113は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。 The storage unit 11, the original information storage unit 111, the learning device storage unit 112, and the correspondence table storage unit 113 are preferably non-volatile recording media, but can also be realized with volatile recording media.

格納部11等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部11等で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部11等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部11等で記憶されるようになってもよい。 It does not matter how the information is stored in the storage unit 11 or the like. For example, information may be stored in the storage unit 11 or the like via a recording medium, or information transmitted via a communication line or the like may be stored in the storage unit 11 or the like. Alternatively, information input via an input device may be stored in the storage unit 11 or the like.

受付部12は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。 The reception unit 12 can be realized by a device driver for input means such as a touch panel or a keyboard, control software for a menu screen, or the like.

処理部13、元情報取得部131、移動体位置情報取得部132、元情報蓄積部133、オブジェクト抽出部134、特徴量取得部135、絶対位置情報取得部136、同一オブジェクト認識部137、特徴量合成部138、オブジェクト認識部139、および出力図構成部140は、通常、MPUやメモリ等から実現され得る。処理部13等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。 Processing unit 13, original information acquisition unit 131, mobile position information acquisition unit 132, original information storage unit 133, object extraction unit 134, feature amount acquisition unit 135, absolute position information acquisition unit 136, same object recognition unit 137, feature amount The synthesizing unit 138, the object recognition unit 139, and the output diagram construction unit 140 can usually be implemented by an MPU, memory, or the like. The processing procedure of the processing unit 13 and the like is normally realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

出力部14、図出力部141、およびオブジェクト識別子出力部142は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力部14等は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。 The output unit 14, the diagram output unit 141, and the object identifier output unit 142 may or may not include output devices such as displays and speakers. The output unit 14 and the like can be realized by output device driver software, or by output device driver software and an output device.

次に、情報処理装置1の動作について、図2のフローチャートを用いて説明する。 Next, the operation of the information processing device 1 will be described using the flowchart of FIG.

(ステップS201)受付部12は、動作開始指示を受け付けたか否かを判断する。動作開始指示を受け付けた場合はステップS202に行き、動作開始指示を受け付けなかった場合はステップS208に行く。 (Step S201) The reception unit 12 determines whether or not an operation start instruction has been received. If the operation start instruction has been received, the process goes to step S202, and if the operation start instruction has not been received, the process goes to step S208.

(ステップS202)処理部13は、カウンタiに1を代入する。 (Step S202) The processing unit 13 substitutes 1 for the counter i.

(ステップS203)元情報取得部131は、i番目の時点における元情報群を取得する。かかる元情報群を取得する元情報取得処理の例について、図3のフローチャートを用いて説明する。 (Step S203) The original information acquisition unit 131 acquires the original information group at the i-th time point. An example of original information acquisition processing for acquiring such an original information group will be described with reference to the flowchart of FIG.

(ステップS204)移動体位置情報取得部132は、i番目の時点における移動体位置情報を取得する。移動体位置情報取得処理の例について、図4のフローチャートを用いて説明する。なお、 (Step S204) The mobile body position information acquisition unit 132 acquires the mobile body position information at the i-th time point. An example of mobile body position information acquisition processing will be described with reference to the flowchart of FIG. note that,

(ステップS205)元情報蓄積部133は、ステップS203で取得された元情報群とステップS204で取得された移動体位置情報とを対応付けて、元情報格納部111に蓄積する。 (Step S205) The original information storage unit 133 associates the original information group acquired in step S203 with the moving body position information acquired in step S204, and stores them in the original information storage unit 111. FIG.

(ステップS206)受付部12は、動作終了指示を受け付けたか否かを判断する。動作終了指示を受け付けた場合はステップS201に戻り、動作終了指示を受け付けなかった場合はステップS207に行く。 (Step S206) The reception unit 12 determines whether or not an operation end instruction has been received. If the operation end instruction is accepted, the process returns to step S201, and if the operation end instruction is not accepted, the process goes to step S207.

(ステップS207)処理部13は、カウンタiを1、インクリメントする。ステップS203に戻る。 (Step S207) The processing unit 13 increments the counter i by 1. Return to step S203.

(ステップS208)処理部13は、オブジェクト認識のタイミングであるか否かを判断する。オブジェクト認識のタイミングである場合はステップS209に行き、オブジェクト認識のタイミングでない場合はステップS214に行く。なお、オブジェクト認識のタイミングは、例えば、ユーザから指示を受け付けたこと、または予め決められた時刻になったこと等である。ただし、そのタイミングは問わない。 (Step S208) The processing unit 13 determines whether or not it is time to recognize the object. If it is the timing for object recognition, the process goes to step S209, and if it is not the time for object recognition, the process goes to step S214. Note that the timing of object recognition is, for example, when an instruction is received from the user, or when a predetermined time has come. However, the timing is irrelevant.

(ステップS209)処理部13は、カウンタiに1を代入する。 (Step S209) The processing unit 13 substitutes 1 for the counter i.

(ステップS210)処理部13は、i番目の時点の元情報群が元情報格納部111に存在するか否かを判断する。i番目の時点の元情報群が存在する場合はステップS211に行き、存在しない場合はステップS213に行く。 (Step S<b>210 ) The processing unit 13 determines whether or not the original information group at the i-th time point exists in the original information storage unit 111 . If the original information group at the i-th time point exists, go to step S211; if not, go to step S213.

(ステップS211)オブジェクト抽出部134は、i番目の時点の元情報群を用いて、1以上のオブジェクトを抽出する。かかるオブジェクト抽出処理について、図5のフローチャートを用いて説明する。 (Step S211) The object extraction unit 134 extracts one or more objects using the original information group at the i-th time point. Such object extraction processing will be described with reference to the flowchart of FIG.

(ステップS212)処理部13は、カウンタiを1、インクリメントする。ステップS210に戻る。 (Step S212) The processing unit 13 increments the counter i by 1. Return to step S210.

(ステップS213)処理部13は、オブジェクト認識処理を行う。ステップS201に戻る。なお、かかるオブジェクト認識処理について、図6のフローチャートを用いて説明する。 (Step S213) The processing unit 13 performs object recognition processing. Return to step S201. Note that such object recognition processing will be described with reference to the flowchart of FIG.

(ステップS214)受付部12は、出力指示を受け付けたか否かを判断する。出力指示を受け付けた場合はステップS215に行き、出力指示を受け付けなかった場合はステップS201に戻る。 (Step S214) The accepting unit 12 determines whether or not an output instruction has been accepted. If the output instruction is accepted, the process goes to step S215, and if the output instruction is not accepted, the process returns to step S201.

(ステップS215)出力図構成部140は、出力図を構成する処理を行う。出力図構成処理について、図7のフローチャートを用いて説明する。 (Step S215) The output diagram construction unit 140 performs processing for constructing an output diagram. The output diagram construction processing will be described with reference to the flowchart of FIG.

(ステップS216)図出力部141は、ステップS215で構成された出力図を出力する。ステップS201に戻る。 (Step S216) The diagram output unit 141 outputs the output diagram configured in step S215. Return to step S201.

なお、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that in the flowchart of FIG. 2, the process ends when the power is turned off or when the process ends.

次に、ステップS203の元情報取得処理の例について、図3のフローチャートを用いて説明する。 Next, an example of the original information acquisition process in step S203 will be described using the flowchart of FIG.

(ステップS301)元情報取得部131は、カウンタiに1を代入する。 (Step S301) The original information acquisition unit 131 substitutes 1 for the counter i.

(ステップS302)元情報取得部131は、i番目のレーザー発信手段が存在するか否かを判断する。i番目のレーザー発信手段が存在する場合はステップS303に行き、i番目のレーザー発信手段が存在しない場合はステップS307に行く。 (Step S302) The original information acquisition unit 131 determines whether or not the i-th laser transmitting means exists. If the i-th laser transmission means exists, go to step S303, and if the i-th laser transmission means does not exist, go to step S307.

(ステップS303)元情報取得部131は、i番目のレーザー発信手段のレーザー識別子を取得する。なお、レーザー識別子は、通常、格納部11に格納されている。 (Step S303) The original information acquisition unit 131 acquires the laser identifier of the i-th laser transmission means. Note that the laser identifier is normally stored in the storage unit 11 .

(ステップS304)元情報取得部131は、i番目のレーザー発信手段が発信したレーザーの戻り時間を取得する。なお、かかる処理は、LIDARの公知技術である。 (Step S304) The original information acquisition unit 131 acquires the return time of the laser transmitted by the i-th laser transmission means. It should be noted that such processing is a known technology of LIDAR.

(ステップS305)元情報取得部131は、ステップS303で取得したレーザー識別子とステップS304で取得した戻り時間とを有する元情報を構成する。なお、元情報取得部131は、レーザー識別子と戻り時間とから3次元座標値を算出し、当該3次元座標値を有する元情報を構成しても良い。かかる場合、元情報取得部131は、戻り時間から原点に対する距離を取得し、レーザー識別子に対応する原点に対する角度を取得し、当該距離と角度とから、原点に対する3次元座標値を算出する。かかる処理は公知技術である。また、レーザー識別子に対応付けて、原点に対する角度が、格納部11に格納されている。 (Step S305) The original information acquisition unit 131 configures original information having the laser identifier acquired in step S303 and the return time acquired in step S304. Note that the original information acquisition unit 131 may calculate three-dimensional coordinate values from the laser identifier and the return time, and configure the original information having the three-dimensional coordinate values. In such a case, the original information acquisition unit 131 acquires the distance to the origin from the return time, acquires the angle to the origin corresponding to the laser identifier, and calculates the three-dimensional coordinate value to the origin from the distance and the angle. Such treatments are known in the art. Also, the angle with respect to the origin is stored in the storage unit 11 in association with the laser identifier.

(ステップS306)元情報取得部131は、カウンタiを1、インクリメントする。ステップS302に戻る。 (Step S306) The original information acquisition unit 131 increments the counter i by 1. Return to step S302.

(ステップS307)元情報取得部131は、この時点の元情報群を構成し、図示しないバッファに一時蓄積する。上位処理にリターンする。なお、元情報群は、ステップS305で構成された2以上の元情報の集合である。 (Step S307) The original information acquisition unit 131 constructs the original information group at this time and temporarily stores it in a buffer (not shown). Return to upper process. Note that the original information group is a set of two or more pieces of original information configured in step S305.

なお、図3のフローチャートにおいて、この時点の元情報群は、例えば、一時点における移動体の周辺、360度(一周)分の元情報の集合であっても良いし、180度(正面)の分の元情報の集合であっても良い。取得される元情報群の、観測装置からの範囲(角度)は問わない。 In the flowchart of FIG. 3, the original information group at this time may be, for example, a set of original information for 360 degrees (one round) around the moving object at one time, or a set of original information for 180 degrees (front). It may be a set of original information of minutes. The range (angle) from the observation device of the original information group to be acquired does not matter.

また、図3のフローチャートにおいて、元情報取得部131は、移動体の周辺の1以上の距離画像を取得しても良い。 In addition, in the flowchart of FIG. 3, the original information acquisition unit 131 may acquire one or more distance images around the moving object.

次に、ステップS203の移動体位置情報取得処理の例について、図4のフローチャートを用いて説明する。 Next, an example of the mobile body position information acquisition processing in step S203 will be described using the flowchart of FIG.

(ステップS401)移動体位置情報取得部132は、元情報取得部131が取得した1以上の各元情報が有する3次元空間上の座標値の集合、または1以上の各元情報から取得される3次元空間上の座標値の集合から、1以上の特徴点を取得し、図示しないバッファに一時蓄積する。なお、特徴点は、3Dの座標値である。 (Step S401) The moving body position information acquisition unit 132 acquires from a set of coordinate values in a three-dimensional space possessed by one or more pieces of original information acquired by the original information acquisition unit 131, or from one or more pieces of each piece of original information. One or more feature points are acquired from a set of coordinate values in the three-dimensional space and temporarily stored in a buffer (not shown). Note that the feature points are 3D coordinate values.

(ステップS402)移動体位置情報取得部132は、図示しないバッファに、直前の時点の1以上の特徴点が格納されているか否かを判断する。1以上の特徴点が格納されている場合はステップS403に行き、格納されていない場合はステップS408に行く。 (Step S402) The mobile body position information acquisition unit 132 determines whether or not one or more feature points at the immediately preceding point are stored in a buffer (not shown). If one or more feature points are stored, go to step S403, otherwise go to step S408.

(ステップS403)移動体位置情報取得部132は、移動体位置情報取得部132は、図示しないバッファから、直前の時点の1以上の特徴点を読み出す。 (Step S403) The moving body position information acquisition unit 132 reads one or more feature points at the immediately preceding point from a buffer (not shown).

(ステップS404)移動体位置情報取得部132は、ステップS401で取得した1以上の特徴点のうちのいずれか1以上の各特徴点に対応する特徴点であり、直前の時点の1以上の特徴点を決定する。 (Step S404) The moving body position information acquiring unit 132 acquires feature points corresponding to one or more feature points among the one or more feature points acquired in step S401. determine the point.

(ステップS405)移動体位置情報取得部132は、対応する2つの特徴点の差異である移動量を算出する。なお、対応する2つの特徴点は、ステップS401で取得した現時点の特徴点と、直前の時点の特徴点である。対応するとは、例えば、周辺の点の集合から構成される形状が類似し、距離が一定範囲に留まることである。また、ここで、移動量を算出するために使用する特徴点は、非動体のオブジェクトの特徴点である。また、移動体位置情報取得部132は、2以上の特徴点の組の差異を算出し、最も多い値の差異を移動量としても良い。なお、特徴点の組とは、対応する2つの特徴点である。 (Step S405) The mobile body position information acquisition unit 132 calculates the movement amount, which is the difference between the two corresponding feature points. Note that the corresponding two feature points are the current feature point acquired in step S401 and the previous feature point. Corresponding means, for example, that the shapes formed by a set of peripheral points are similar and the distance remains within a certain range. Also, the feature points used for calculating the amount of movement are the feature points of the non-moving object. Further, the moving body position information acquiring unit 132 may calculate differences between sets of two or more feature points, and use the largest difference as the amount of movement. Note that a set of feature points is two corresponding feature points.

(ステップS406)移動体位置情報取得部132は、図示しないバッファから、直前の時点の移動体位置情報を読み出す。 (Step S406) The moving body position information acquisition unit 132 reads the immediately preceding moving body position information from a buffer (not shown).

(ステップS407)移動体位置情報取得部132は、ステップS406で読み出した移動体位置情報と、ステップS405で取得した移動量とから、現時点の移動体位置情報を算出する。上位処理にリターンする。 (Step S407) The mobile body position information acquisition unit 132 calculates current mobile body position information from the mobile body position information read out in step S406 and the amount of movement acquired in step S405. Return to upper process.

(ステップS408)移動体位置情報取得部132は、ステップS401で取得した1以上の特徴点に対して、原点を対応付ける。なお、原点は、開始時の移動体位置情報である。上位処理にリターンする。 (Step S408) The moving body position information acquisition unit 132 associates the origin with one or more feature points acquired in step S401. Note that the origin is the mobile body position information at the start. Return to upper process.

次に、ステップS211のオブジェクト抽出処理について、図5のフローチャートを用いて説明する。 Next, the object extraction processing in step S211 will be described using the flowchart of FIG.

(ステップS501)オブジェクト抽出部134は、カウンタjに1を代入する。 (Step S501) The object extraction unit 134 substitutes 1 for the counter j.

(ステップS502)オブジェクト抽出部134は、着目する元情報群にj番目の元情報が存在するか否かを判断する。j番目の元情報が存在する場合はステップS503に行き、j番目の元情報が存在しない場合はステップS506に行く。 (Step S502) The object extraction unit 134 determines whether or not the j-th original information exists in the original information group of interest. If the j-th original information exists, go to step S503, and if the j-th original information does not exist, go to step S506.

(ステップS503)オブジェクト抽出部134は、j番目の元情報と、着目する元情報群に対応する移動体位置情報とを用いて、絶対位置情報を取得する。なお、かかる絶対位置情報は、j番目の元情報に対応する絶対位置情報である。 (Step S503) The object extraction unit 134 acquires absolute position information using the j-th original information and the moving body position information corresponding to the original information group of interest. This absolute position information is the absolute position information corresponding to the j-th original information.

(ステップS504)オブジェクト抽出部134は、着目する元情報群またはj番目の元情報または移動体位置情報に対応付けて、ステップS503で取得した絶対位置情報をバッファに蓄積する。なお、オブジェクト抽出部134は、絶対位置情報を格納部11等に蓄積しても良い。 (Step S504) The object extracting unit 134 stores the absolute position information acquired in step S503 in a buffer in association with the original information group of interest, the j-th original information, or the moving body position information. Note that the object extraction unit 134 may store the absolute position information in the storage unit 11 or the like.

(ステップS505)オブジェクト抽出部134は、カウンタjを1、インクリメントする。ステップS502に戻る。 (Step S505) The object extraction unit 134 increments the counter j by 1. Return to step S502.

(ステップS506)オブジェクト抽出部134は、カウンタkに1を代入する。 (Step S506) The object extraction unit 134 substitutes 1 for the counter k.

(ステップS507)オブジェクト抽出部134は、ステップS504で蓄積した絶対位置情報の中に、k番目の絶対位置情報が存在するか否かを判断する。k番目の絶対位置情報が存在する場合はステップS508に行き、k番目の絶対位置情報が存在しない場合は上位処理にリターンする。なお、k番目の絶対位置情報は、検出されたオブジェクトを構成しない絶対位置情報である。 (Step S507) The object extraction unit 134 determines whether the k-th absolute position information exists in the absolute position information accumulated in step S504. If the k-th absolute position information exists, go to step S508, and if the k-th absolute position information does not exist, return to the higher-level processing. Note that the k-th absolute position information is absolute position information that does not constitute the detected object.

(ステップS508)オブジェクト抽出部134は、ステップS504で蓄積した絶対位置情報の中から、k番目の絶対位置情報を取得する。 (Step S508) The object extraction unit 134 acquires the k-th absolute position information from among the absolute position information accumulated in step S504.

(ステップS509)オブジェクト抽出部134は、k番目の絶対位置情報とともに、一のオブジェクトを構成する1以上((N-1)個)の絶対位置情報を、ステップS504で蓄積した絶対位置情報の中から取得する。そして、オブジェクト抽出部134は、k番目の絶対位置情報と取得した1以上の絶対位置情報とを有する絶対位置情報群を取得する。なお、オブジェクト抽出部134は、k番目の絶対位置情報または一のオブジェクトを構成する他のいずれかの絶対位置情報が示す点との距離が閾値以内または閾値より小さい点を示す絶対位置情報を取得する。 (Step S509) The object extraction unit 134 extracts one or more ((N-1)) absolute position information constituting one object together with the k-th absolute position information from among the absolute position information accumulated in step S504. Get from Then, the object extraction unit 134 acquires an absolute position information group including the k-th absolute position information and one or more acquired absolute position information. Note that the object extraction unit 134 acquires absolute position information indicating a point whose distance from a point indicated by the k-th absolute position information or any other absolute position information constituting one object is within a threshold value or smaller than a threshold value. do.

(ステップS510)オブジェクト抽出部134は、ステップS509で取得した絶対位置情報群を構成するいずれかの絶対位置情報に対応する元情報のいずれかが、元情報群の中の端の位置の元情報であるか否かを判断する(つまり、オブジェクトのいずれかの点が元情報群の端の点であるか否かを判断する)。端の点が存在する場合はステップS511に行き、端の点が存在しない場合はステップS512に行く。 (Step S510) The object extraction unit 134 detects that any of the original information corresponding to any of the absolute position information constituting the absolute position information group acquired in step S509 is the original information of the end position in the original information group. (that is, it is determined whether any point of the object is the end point of the original information group). If the edge point exists, go to step S511, and if the edge point does not exist, go to step S512.

(ステップS511)オブジェクト抽出部134は、一のオブジェクトを構成する絶対位置情報群に対応付けて、「部分」を示すフラグを付加する。なお、「部分」を示すフラグとは、元情報群の中のオブジェクトは、当該一のオブジェクトの部分であり、全体ではないことを示すフラグである。 (Step S511) The object extraction unit 134 adds a flag indicating "portion" in association with the absolute position information group forming one object. The flag indicating "part" is a flag indicating that the object in the original information group is a part of the one object, not the whole.

(ステップS512)オブジェクト抽出部134は、一のオブジェクトを構成する絶対位置情報群に対応付けて、「全体」を示すフラグを付加する。なお、「全体」を示すフラグとは、元情報群の中のオブジェクトは、当該一のオブジェクトの全体であることを示すフラグである。 (Step S512) The object extraction unit 134 adds a flag indicating "whole" in association with the absolute position information group forming one object. Note that the flag indicating "whole" is a flag indicating that the object in the original information group is the entire object.

(ステップS513)特徴量取得部135は、一のオブジェクトの絶対位置情報群を用いて、1または2以上の特徴量を取得し、当該絶対位置情報群に対応付けて蓄積する。 (Step S513) The feature amount acquisition unit 135 acquires one or more feature amounts using the absolute position information group of one object, and stores them in association with the absolute position information group.

(ステップS514)オブジェクト抽出部134は、カウンタkにNを加える。ステップS507に戻る。 (Step S514) The object extraction unit 134 adds N to the counter k. Return to step S507.

なお、図5のフローチャートの処理により、各時点の元情報群または絶対位置情報群に対応付けて、1以上の各オブジェクトを構成する2以上の絶対位置情報群が特定される。また、各オブジェクトに対応付けて、「部分」または「全体」を示すフラグが蓄積される。また、各オブジェクトに対応付けて、1または2以上の特徴量が蓄積された。 By the processing of the flowchart in FIG. 5, two or more absolute position information groups configuring one or more objects are identified in association with the original information group or the absolute position information group at each point in time. Also, a flag indicating "partial" or "whole" is accumulated in association with each object. Also, one or more feature amounts are accumulated in association with each object.

次に、ステップS213のオブジェクト認識処理について、図6のフローチャートを用いて説明する。 Next, the object recognition processing in step S213 will be described using the flowchart of FIG.

(ステップS601)処理部13は、カウンタiに1を代入する。 (Step S601) The processing unit 13 substitutes 1 for the counter i.

(ステップS602)処理部13は、カウンタjに1を代入する。 (Step S602) The processing unit 13 substitutes 1 for the counter j.

(ステップS603)同一オブジェクト認識部137は、j番目の時点における、i番目の未処理のオブジェクトが存在するか否かを判断する。i番目の未処理のオブジェクトが存在する場合はステップS604に行き、i番目の未処理のオブジェクトが存在しない場合はステップS612に行く。なお、未処理のオブジェクトとは、ステップS604またはステップS606で検出されていないオブジェクトである。 (Step S603) The same object recognition unit 137 determines whether or not the i-th unprocessed object exists at the j-th time. If the i-th unprocessed object exists, go to step S604, and if the i-th unprocessed object does not exist, go to step S612. An unprocessed object is an object that has not been detected in step S604 or step S606.

(ステップS604)同一オブジェクト認識部137は、i番目の未処理のオブジェクトに対応する絶対位置情報群と特徴量とを取得する。 (Step S604) The identical object recognition unit 137 acquires the absolute position information group and feature amount corresponding to the i-th unprocessed object.

(ステップS605)同一オブジェクト認識部137は、カウンタkにj+1を代入する。 (Step S605) The identical object recognition unit 137 substitutes j+1 for the counter k.

(ステップS606)同一オブジェクト認識部137は、ステップS604で取得した絶対位置情報群と同一または近似する絶対位置情報群が、k番目の時点のオブジェクトの絶対位置情報群の中で存在するか否かを判断する。近似する絶対位置情報群が存在する場合はステップS607に行き、近似する絶対位置情報群が存在しない場合はステップS609に行く。近似する2つの絶対位置情報群は、同一のオブジェクトを特定する絶対位置情報群である。また、2つの絶対位置情報群が近似することは、2つの絶対位置情報群が同一のオブジェクトを構成する点群であることであり、例えば、2つの絶対位置情報群が示す3次元空間内の領域が閾値以上または閾値より多く重なること、各絶対位置情報群を構成する、対応する絶対位置情報の差異の絶対値の合計が閾値以下または閾値より小さいこと等である。 (Step S606) The same object recognition unit 137 determines whether a group of absolute position information identical or similar to the group of absolute position information acquired in step S604 exists in the group of absolute position information of the object at the k-th time point. to judge. If there is an approximate absolute position information group, go to step S607, and if there is no approximate absolute position information group, go to step S609. Two similar absolute position information groups are absolute position information groups specifying the same object. The approximation of two groups of absolute position information means that the two groups of absolute position information are point groups forming the same object. That is, the area overlaps more than a threshold value or more than the threshold value, and the sum of the absolute values of the differences of the corresponding absolute position information constituting each absolute position information group is less than the threshold value or less than the threshold value.

(ステップS607)同一オブジェクト認識部137は、ステップS606で近似すると判断された絶対位置情報群を取得する。また、特徴量合成部138は、当該絶対位置情報群と対になる1以上の特徴量を取得する。 (Step S607) The identical object recognition unit 137 acquires the absolute position information group determined to be approximate in step S606. Also, the feature amount synthesizing unit 138 acquires one or more feature amounts paired with the absolute position information group.

(ステップS608)同一オブジェクト認識部137は、カウンタkを1、インクリメントする。ステップS606に戻る。 (Step S608) The identical object recognition unit 137 increments the counter k by 1. Return to step S606.

(ステップS609)特徴量合成部138は、同一のオブジェクトの絶対位置情報群から取得された2以上の特徴量であり、ステップS607で取得した2以上の特徴量を対応付けて、図示しないバッファに一時蓄積する。 (Step S609) The feature amount synthesizing unit 138 associates the two or more feature amounts obtained from the absolute position information group of the same object, the two or more feature amounts obtained in step S607, and stores them in a buffer (not shown). Temporarily accumulate.

(ステップS610)オブジェクト認識部139は、ステップS609で取得された2以上の特徴量を用いて、オブジェクト識別子を取得し、当該オブジェクトの1以上の絶対位置情報群と対にして、蓄積する。なお、ここで、オブジェクト認識部139は、例えば、学習器または対応表を用いてオブジェクト識別子を取得する。 (Step S610) The object recognition unit 139 acquires an object identifier using the two or more feature amounts acquired in step S609, pairs it with one or more absolute position information groups of the object, and stores it. Here, the object recognition unit 139 acquires object identifiers using, for example, a learning device or a correspondence table.

(ステップS611)処理部13は、カウンタiを1、インクリメントする。ステップS603に戻る。 (Step S611) The processing unit 13 increments the counter i by 1. Return to step S603.

(ステップS612)処理部13は、カウンタjを1、インクリメントする。 (Step S612) The processing unit 13 increments the counter j by 1.

(ステップS613)処理部13は、j番目の時点が存在するか否かを判断する。j番目の時点が存在する場合はステップS614に行き、j番目の時点が存在しない場合は上位処理にリターンする。 (Step S613) The processing unit 13 determines whether or not the j-th time point exists. If the j-th time point exists, go to step S614, and if the j-th time point does not exist, return to the upper process.

(ステップS614)処理部13は、カウンタiに1を代入する。ステップS603に戻る。 (Step S614) The processing unit 13 substitutes 1 for the counter i. Return to step S603.

次に、ステップS215の出力図構成処理について、図7のフローチャートを用いて説明する。 Next, the output diagram construction processing in step S215 will be described with reference to the flowchart of FIG.

(ステップS701)出力図構成部140は、受け付けられた出力指示が有する時点識別子を取得する。 (Step S701) The output diagram configuration unit 140 acquires a time point identifier included in the accepted output instruction.

(ステップS702)出力図構成部140は、時点識別子と対になる絶対位置情報群を取得する。 (Step S702) The output diagram configuration unit 140 acquires the absolute position information group paired with the time point identifier.

(ステップS703)出力図構成部140は、カウンタiに1を代入する。 (Step S703) The output diagram construction unit 140 substitutes 1 for the counter i.

(ステップS704)出力図構成部140は、ステップS702で取得した絶対位置情報群の中の絶対位置情報により特定されるi番目のオブジェクトが存在するか否かを判断する。存在する場合はステップS705に行き、存在しない場合は上位処理にリターンする。 (Step S704) The output diagram construction unit 140 determines whether or not there is an i-th object specified by the absolute position information in the absolute position information group acquired in step S702. If it exists, go to step S705; otherwise, return to the upper process.

(ステップS705)出力図構成部140は、i番目のオブジェクトに対応する絶対位置情報群を取得する。 (Step S705) The output diagram construction unit 140 acquires the absolute position information group corresponding to the i-th object.

(ステップS706)出力図構成部140は、ステップS705で取得した絶対位置情報群を用いて、i番目のオブジェクトを描画する。なお、出力図構成部140は、オブジェクトによって、絶対位置情報群を構成する絶対位置情報の点の色を変えて、オブジェクトを描画することは好適である。また、オブジェクトを描画することは、例えば、絶対位置情報群を構成する絶対位置情報の点を三次元空間内に配置することである。 (Step S706) The output diagram construction unit 140 draws the i-th object using the absolute position information group acquired in step S705. It is preferable that the output diagram construction unit 140 renders the object by changing the color of the points of the absolute position information constituting the absolute position information group depending on the object. Also, drawing an object means, for example, arranging points of absolute position information forming a group of absolute position information in a three-dimensional space.

(ステップS707)出力図構成部140は、i番目のオブジェクトのオブジェクト識別子を取得する。 (Step S707) The output diagram construction unit 140 acquires the object identifier of the i-th object.

(ステップS708)出力図構成部140は、ステップS707で取得したオブジェクト識別子を、i番目のオブジェクトに対応する絶対位置情報が示す位置に対応する領域に配置する。 (Step S708) The output diagram construction unit 140 arranges the object identifier obtained in step S707 in the area corresponding to the position indicated by the absolute position information corresponding to the i-th object.

(ステップS709)出力図構成部140は、カウンタiを1、インクリメントする。ステップS704に戻る。 (Step S709) The output diagram construction unit 140 increments the counter i by 1. Return to step S704.

なお、図7のフローチャートにおいて、出力図構成部140は、ステップS702で取得した絶対位置情報群を構成する各絶対位置情報を三次元空間内に配置し、出力図を構成しても良い。 In the flowchart of FIG. 7, the output map configuration unit 140 may configure the output map by arranging each piece of absolute position information forming the absolute position information group acquired in step S702 in a three-dimensional space.

以下、本実施の形態における情報処理装置1の具体的な動作について説明する。情報処理装置1の概念図は図8である。図8において、801は、情報処理装置1である。802は、LIDARであり、多数のレーザー発信手段を有する。802は、上述した観測装置である。また、情報処理装置1は、例えば、ロボット、または自動車、AGV(無人搬送車)等の移動体である。 A specific operation of the information processing apparatus 1 according to the present embodiment will be described below. A conceptual diagram of the information processing apparatus 1 is shown in FIG. In FIG. 8, 801 is the information processing apparatus 1 . 802 is a LIDAR and has a number of laser emitting means. 802 is the observation device described above. The information processing device 1 is, for example, a mobile object such as a robot, an automobile, or an AGV (automated guided vehicle).

また、観測装置802が移動体に搭載されて、街中を移動していく、とする。そして、観測装置802が移動していく中で、2以上の各時点の元情報群が元情報格納部111に蓄積された、とする。例えば、観測装置802が移動体に搭載されて、街中を移動していく中で、図9に示すように、観測タイミング「T1」および「T2」の時点で、2つの各時点の元情報群が元情報格納部111に蓄積された、とする。また、観測タイミング「T1」において、電柱のオブジェクト901は全体が観測され、観測タイミング「T2」において、電柱のオブジェクト902は部分のみが観測されることとなる。 It is also assumed that the observation device 802 is mounted on a mobile object and moves through the city. Assume that two or more original information groups at each point in time are accumulated in the original information storage unit 111 while the observation device 802 is moving. For example, while the observation device 802 is mounted on a mobile body and moves through the city, two groups of original information at observation timings "T1" and "T2" are generated as shown in FIG. is stored in the original information storage unit 111 . At the observation timing "T1", the entire utility pole object 901 is observed, and at the observation timing "T2", only a portion of the utility pole object 902 is observed.

また、対応表格納部113には、図10に示す対応表が管理されている、とする。対応表は、2以上の対応情報を有する。対応情報は、「オブジェクト識別子」「特徴量」を有する。「オブジェクト識別子」は、ここでは、オブジェクトの種類またはオブジェクトの名前である。「特徴量」は、ここでは、サイズ情報、形状情報を含む。「サイズ情報」は、幅の範囲、高さの範囲の情報である。また、「形状情報」は、ここでは、表面形状、三次元形状を含む。また、「表面形状」は、ここでは平滑度である。さらに、「三次元形状」は、形状の名称でも良いし、形状を示す画像でも良い。また、三次元形状は、例えば、3Dモデルのデータを表すものであるが、3Dモデルのデータそのものでも良く、そのデータ構造は問わない。 It is also assumed that the correspondence table shown in FIG. 10 is managed in the correspondence table storage unit 113 . The correspondence table has two or more pieces of correspondence information. Correspondence information has an "object identifier" and a "feature amount". An "object identifier" here is the type of object or the name of the object. "Feature amount" includes size information and shape information here. "Size information" is information about the range of width and the range of height. Also, "shape information" includes surface shape and three-dimensional shape here. Also, the "surface profile" is smoothness here. Further, the "three-dimensional shape" may be the name of the shape or an image showing the shape. Also, the three-dimensional shape represents, for example, 3D model data, but may be the 3D model data itself, and its data structure does not matter.

かかる状況において、ユーザは、オブジェクト認識の指示を情報処理装置1に入力した、とする。すると、受付部12は、オブジェクト認識の指示を受け付ける。そして、処理部13は、オブジェクト認識のタイミングであると判断する。 Assume that the user inputs an object recognition instruction to the information processing apparatus 1 in such a situation. Then, the receiving unit 12 receives an instruction for object recognition. Then, the processing unit 13 determines that it is time to recognize the object.

次に、オブジェクト抽出部134は、上述したオブジェクト抽出処理により、時点「T1」の元情報群から、901の電柱(全体)を抽出する。また、オブジェクト抽出部134は、上述したオブジェクト抽出処理により、時点「T2」の元情報群から、902の電柱(部分)を抽出する。また、特徴量取得部135は、電柱901の絶対位置情報群を用いて、上述した処理により、サイズ情報(幅:Xa,高さ:Ya)を取得した、とする。さらに、特徴量取得部135は、電柱902の絶対位置情報群を用いて、上述した処理により、表面形状(平滑度:Sa)を取得した、とする。なお、平滑度は、例えば、上述の三次元形状を構成する表面と、実際の点群との誤差の大きさとして算出される。 Next, the object extraction unit 134 extracts the utility pole 901 (whole) from the original information group at the time point "T1" by the object extraction process described above. Further, the object extraction unit 134 extracts the utility pole (portion) 902 from the original information group at the time point "T2" by the object extraction process described above. It is also assumed that the feature amount acquisition unit 135 acquires size information (width: Xa, height: Ya) using the absolute position information group of the utility pole 901 through the above-described processing. Furthermore, it is assumed that the feature amount acquisition unit 135 acquires the surface shape (smoothness: Sa) using the absolute position information group of the utility pole 902 through the above-described processing. The smoothness is calculated, for example, as the size of the error between the surface forming the three-dimensional shape described above and the actual point cloud.

次に、同一オブジェクト認識部137は、上述したオブジェクト認識処理のうちの一部の処理により、電柱901と電柱902とは同じオブジェクトである、と認識する。 Next, the same object recognition unit 137 recognizes that the utility pole 901 and the utility pole 902 are the same object by part of the object recognition processing described above.

そして、特徴量合成部138は、電柱901のサイズ情報(幅:Xa,高さ:Ya)、電柱902の表面形状(平滑度:Sa)を取得する。なお、「Sa」は、「S」以下である、とする。 Then, the feature amount synthesizing unit 138 acquires the size information (width: Xa, height: Ya) of the utility pole 901 and the surface shape (smoothness: Sa) of the utility pole 902 . It is assumed that "Sa" is equal to or less than " S2 ".

次に、オブジェクト認識部139は、サイズ情報(幅:Xa,高さ:Ya)、表面形状(平滑度:Sa)に合致する対応情報を、図10の対応表から検索する。つまり、オブジェクト認識部139は、「ID=2」のレコードを検出する。次に、オブジェクト認識部139は、「ID=2」のレコードのオブジェクト識別子「電柱」を取得する。そして、オブジェクト認識部139は、当該オブジェクトの絶対位置情報群にオブジェクト識別子「電柱」を対応付けて蓄積する。 Next, the object recognition unit 139 searches the correspondence table of FIG. 10 for correspondence information that matches the size information (width: Xa, height: Ya) and surface shape (smoothness: Sa). That is, the object recognition unit 139 detects the record of "ID=2". Next, the object recognition unit 139 acquires the object identifier “telephone pole” of the record of “ID=2”. Then, the object recognition unit 139 stores the absolute position information group of the object in association with the object identifier “telephone pole”.

以上、本実施の形態によれば、移動体の周辺に存在するオブジェクトの特定の部分の3次元座標の集合である2以上の元情報群を用いて、オブジェクトを認識することが容易にできる。 As described above, according to the present embodiment, an object can be easily recognized using two or more original information groups, which are a set of three-dimensional coordinates of a specific portion of an object existing around a moving object.

なお、本実施の形態における出力図の例を図11に示す。出力図構成部140が構成し、図出力部141が出力した図である。図11では、オブジェクト識別子が配置されていないが、オブジェクト識別子が配置されることは好適である。また、図11の自己位置は、当該時点の移動体位置情報が示す位置である。 FIG. 11 shows an example of an output diagram in this embodiment. It is a diagram constructed by an output diagram construction unit 140 and output by a diagram output unit 141. FIG. In FIG. 11, the object identifier is not arranged, but it is preferred that the object identifier is arranged. Also, the self-position in FIG. 11 is the position indicated by the mobile body position information at that time.

さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における情報処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、例えば、移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報であり、前記オブジェクトの特定の部分の3次元座標の集合である2以上の元情報である元情報群を、2以上の各時点の前記移動体の位置を示す移動体位置情報に対応付けて格納される元情報格納部にアクセス可能なコンピュータを、前記2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出するオブジェクト抽出部と、前記2以上の各時点に対応付けている元情報群を用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの特徴量を取得する特徴量取得部と、前記2以上の各時点に対応付けている元情報群と前記2以上の各時点の移動体位置情報とを用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの絶対位置に関する絶対位置情報を取得する絶対位置情報取得部と、前記絶対位置情報取得部が取得した2以上の各時点ごと、1以上の各オブジェクトごとの絶対位置情報を用いて、2以上の異なる時点の同一のオブジェクトの対応を取る同一オブジェクト認識部と、前記同一オブジェクト認識部が対応を取った同一のオブジェクトの2以上の特徴量を取得し、当該2以上の特徴量を用いて、前記同一のオブジェクトの特徴量集合を取得する特徴量合成部と、前記特徴量合成部が取得した特徴量集合を用いて、前記同一のオブジェクトを識別するオブジェクト識別子を取得するオブジェクト認識部と、前記オブジェクト認識部が取得したオブジェクト識別子と、前記同一のオブジェクトの絶対位置情報とを出力する出力部として機能させるためのプログラムである。 Furthermore, the processing in this embodiment may be realized by software. Then, this software may be distributed by software download or the like. Also, this software may be recorded on a recording medium such as a CD-ROM and distributed. Note that this also applies to other embodiments in this specification. The software that implements the information processing apparatus according to the present embodiment is the following program. In other words, this program is, for example, information that is the basis for specifying the position in the three-dimensional space of an object that exists around a moving object, and two or more elements that are a set of three-dimensional coordinates of a specific part of the object. A computer capable of accessing an original information storage unit in which a group of original information, which is information, is stored in association with mobile body position information indicating the position of the mobile body at each of two or more points in time, at each of said two or more points in time an object extracting unit for extracting one or more objects using a group of associated original information; and one or more extracted by the object extracting unit using the group of original information associated with each of the two or more points in time. and the object extraction unit using the original information group associated with each of the two or more points of time and the moving body position information of each of the two or more points of time. an absolute position information acquisition unit that acquires absolute position information about the absolute position of each of the one or more objects extracted by the absolute position information acquisition unit, and the absolute position of each of the one or more objects at each of the two or more points in time acquired by the absolute position information acquisition unit using the information, a same object recognition unit for matching the same object at two or more different points in time, acquiring two or more feature amounts of the same object correlated by the same object recognition unit; and obtaining an object identifier that identifies the same object using the feature amount set obtained by the feature amount synthesizing unit. and an output unit that outputs an object identifier acquired by the object recognition unit and the absolute position information of the same object.

図12は、本実施の形態におけるプログラムを実行して、情報処理装置1を実現するコンピュータシステム300の外観図である。 FIG. 12 is an external view of a computer system 300 that implements the information processing apparatus 1 by executing the program according to this embodiment.

本実施の形態の各装置は、コンピュータハードウェアおよびその上で実行されるコンピュータプログラムによって実現され得る。図12において、コンピュータシステム300は、ディスクドライブ305を含むコンピュータ301と、キーボード302と、マウス303と、ディスプレイ304とを備える。なお、キーボード302やマウス303やディスプレイ304をも含むシステム全体をコンピュータと呼んでもよい。 Each device of this embodiment can be realized by computer hardware and a computer program executed thereon. In FIG. 12, computer system 300 comprises computer 301 including disk drive 305 , keyboard 302 , mouse 303 and display 304 . The entire system including the keyboard 302, mouse 303, and display 304 may be called a computer.

図13は、コンピュータシステム300の内部構成の一例を示す図である。図13において、コンピュータ301は、MPU3013と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013等に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM3016と、アプリケーションプログラム、システムプログラム、およびデータを記憶するハードディスク3017と、MPU3013やROM3015等を相互に接続するバス3014と等を備える。 FIG. 13 is a diagram showing an example of the internal configuration of the computer system 300. As shown in FIG. In FIG. 13, the computer 301 includes an MPU 3013, a ROM 3015 for storing programs such as a boot-up program, and a RAM 3016 connected to the MPU 3013 and the like for temporarily storing application program instructions and providing a temporary storage space. , a hard disk 3017 for storing application programs, system programs, and data, and a bus 3014 for interconnecting the MPU 3013, ROM 3015, and the like.

コンピュータシステム300に、情報処理装置1の機能を実行させるプログラムは、例えば、CD-ROM等のディスク3101に記憶されて、ディスクドライブ3012に挿入され、ハードディスク3017に転送されてもよい。これに代えて、そのプログラムは、ネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されてもよい。プログラムは、実行の際にRAM3016にロードされる。なお、プログラムは、ハードディスク3016、またはネットワークから直接、ロードされてもよい。また、ハードディスク3016に代えて他の着脱可能な記録媒体(例えば、DVDやメモリカード等)を介して、プログラムがコンピュータシステム300に読み込まれてもよい。 A program that causes the computer system 300 to execute the functions of the information processing apparatus 1 may be stored in a disk 3101 such as a CD-ROM, inserted into the disk drive 3012 , and transferred to the hard disk 3017 . Alternatively, the program may be transmitted to computer 301 via a network and stored on hard disk 3017 . Programs are loaded into RAM 3016 during execution. Note that the program may be loaded directly from the hard disk 3016 or from the network. Also, the program may be read into the computer system 300 via another removable recording medium (eg, DVD, memory card, etc.) instead of the hard disk 3016 .

プログラムは、コンピュータの詳細を示す901に、情報処理装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム300がどのように動作するのかについては周知であり、詳細な説明は省略する。なお、以上は例示であり、情報処理装置1を実現するコンピュータのハードウェア構成は問わない。 The program does not necessarily include an operating system (OS) or a third-party program that causes the information processing apparatus 1 to execute the functions of the computer details 901 . A program may contain only those portions of instructions that call the appropriate functions or modules in a controlled manner to produce the desired result. How the computer system 300 operates is well known and will not be described in detail. Note that the above is an example, and the hardware configuration of the computer that implements the information processing apparatus 1 does not matter.

また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。 Also, the number of computers that execute the above programs may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。 Further, in each of the above embodiments, each process may be implemented by centralized processing by a single device, or may be implemented by distributed processing by a plurality of devices.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることはいうまでもない。 It goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.

以上のように、本発明にかかる情報処理装置は、移動体の周辺に存在するオブジェクトの特定の部分の3次元座標の集合である2以上の元情報群を用いて、オブジェクトを認識することが容易にできるという効果を有し、情報処理装置等として有用である。 As described above, the information processing apparatus according to the present invention can recognize an object using two or more original information groups that are a set of three-dimensional coordinates of a specific portion of an object existing around a moving object. It has an effect that it can be easily performed, and is useful as an information processing device or the like.

1 情報処理装置
11 格納部
12 受付部
13 処理部
14 出力部
111 元情報格納部
112 学習器格納部
113 対応表格納部
131 元情報取得部
132 移動体位置情報取得部
133 元情報蓄積部
134 オブジェクト抽出部
135 特徴量取得部
136 絶対位置情報取得部
137 同一オブジェクト認識部
138 特徴量合成部
139 オブジェクト認識部
140 出力図構成部
141 図出力部
142 オブジェクト識別子出力部
1 information processing device 11 storage unit 12 reception unit 13 processing unit 14 output unit 111 original information storage unit 112 learning device storage unit 113 correspondence table storage unit 131 original information acquisition unit 132 moving body position information acquisition unit 133 original information storage unit 134 object Extraction unit 135 Feature amount acquisition unit 136 Absolute position information acquisition unit 137 Same object recognition unit 138 Feature amount synthesis unit 139 Object recognition unit 140 Output map configuration unit 141 Diagram output unit 142 Object identifier output unit

Claims (10)

移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報であり、前記オブジェクトの特定の部分の3次元座標の集合である2以上の元情報である元情報群を、2以上の各時点の前記移動体の位置を示す移動体位置情報に対応付けて格納される元情報格納部と、
前記2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出するオブジェクト抽出部と、
前記2以上の各時点に対応付けている元情報群を用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの特徴量を取得する特徴量取得部と、
2以上の異なる時点の同一のオブジェクトの対応を取る同一オブジェクト認識部と、
前記同一オブジェクト認識部が対応を取った同一のオブジェクトの2以上の特徴量を取得し、当該2以上の特徴量を用いて、前記同一のオブジェクトの特徴量集合を取得する特徴量合成部と、
前記特徴量合成部が取得した特徴量集合を用いて、前記同一のオブジェクトを識別するオブジェクト識別子を取得するオブジェクト認識部と、
前記オブジェクト認識部が取得したオブジェクト識別子を出力する出力部とを具備し、
前記特徴量取得部は、
第一時点の元情報群であり、一のオブジェクトの全体が特定可能な元情報群を用いて、前記一のオブジェクトの全体特徴量を取得し、かつ第二時点の元情報群であり、一のオブジェクトの一部が特定可能な元情報群を用いて、前記一のオブジェクトの部分特徴量を取得し、
前記特徴量合成部は、
前記同一オブジェクト認識部が対応を取った同一のオブジェクトの全体特徴量と部分特徴量とを取得し、当該全体特徴量と部分特徴量とを用いて、前記同一のオブジェクトの特徴量集合を取得する情報処理装置。
an original information group consisting of two or more pieces of original information that are information that is the basis for specifying the position in the three-dimensional space of an object that exists around a moving object and that is a set of three-dimensional coordinates of a specific part of the object; an original information storage unit stored in association with two or more moving body position information indicating the position of the moving body at each time point;
an object extraction unit that extracts one or more objects using the original information group associated with each of the two or more time points;
a feature amount acquisition unit that acquires a feature amount of each of the one or more objects extracted by the object extraction unit using the group of original information associated with the two or more points in time;
a same object recognition unit that takes correspondence of the same object at two or more different points in time;
a feature amount synthesizing unit that acquires two or more feature amounts of the same object that the same object recognition unit has taken correspondence with, and acquires a feature amount set of the same object using the two or more feature amounts;
an object recognition unit that acquires an object identifier that identifies the same object using the feature amount set acquired by the feature amount synthesizing unit;
an output unit that outputs the object identifier acquired by the object recognition unit ,
The feature quantity acquisition unit is
A group of original information at a first point in time, which is an original information group at a second point in time, and which is an original information group at a second point in time, using an original information group that can identify the entire one object. obtaining a partial feature amount of the one object using a group of original information that can identify a part of the object;
The feature quantity synthesizing unit
The same object recognition unit acquires the overall feature amount and the partial feature amount of the same object for which correspondence is obtained, and acquires the feature amount set of the same object using the overall feature amount and the partial feature amount. , information processing equipment.
前記全体特徴量は、オブジェクトのサイズに関するサイズ情報またはオブジェクトの縦横比であり、前記部分特徴量は、オブジェクトの形状に関する形状情報である請求項記載の情報処理装置。 2. The information processing apparatus according to claim 1 , wherein the overall feature amount is size information about the size of the object or the aspect ratio of the object, and the partial feature amount is shape information about the shape of the object. 2以上の各時点に対応付けている元情報群と2以上の各時点の移動体位置情報とを用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの絶対位置に関する1または2以上の絶対位置情報を取得する絶対位置情報取得部と、
前記移動体位置情報と前記1以上の各オブジェクトの2以上の絶対位置情報とを用いて、前記移動体と前記1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成部とをさらに具備し、
前記出力部は、
前記出力図を出力する図出力部と、
前記オブジェクト認識部が取得したオブジェクト識別子を、前記同一のオブジェクトの絶対位置情報に対応する位置に出力するオブジェクト識別子出力部とを具備する請求項1または請求項記載の情報処理装置。
One or more absolute positions of the one or more objects extracted by the object extracting unit using a group of original information associated with two or more points in time and moving body position information at two or more points in time. an absolute position information acquisition unit that acquires absolute position information;
FIG. 11 is a three-dimensional diagram in which a relative positional relationship between the moving body and the one or more objects can be recognized using the moving body position information and two or more absolute position information of the one or more objects. and an output diagram configuration unit that configures the output diagram,
The output unit
a diagram output unit that outputs the output diagram;
3. The information processing apparatus according to claim 1 , further comprising an object identifier output unit that outputs the object identifier acquired by the object recognition unit to a position corresponding to the absolute position information of the same object.
移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報であり、前記オブジェクトの特定の部分の3次元座標の集合である2以上の元情報である元情報群を、2以上の各時点の前記移動体の位置を示す移動体位置情報に対応付けて格納される元情報格納部と、an original information group consisting of two or more pieces of original information that are information that is the basis for specifying the position in the three-dimensional space of an object that exists around a moving object and that is a set of three-dimensional coordinates of a specific part of the object; an original information storage unit stored in association with two or more moving body position information indicating the position of the moving body at each time point;
前記2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出するオブジェクト抽出部と、an object extraction unit that extracts one or more objects using the original information group associated with each of the two or more time points;
前記2以上の各時点に対応付けている元情報群を用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの特徴量を取得する特徴量取得部と、a feature amount acquisition unit that acquires a feature amount of each of the one or more objects extracted by the object extraction unit using the group of original information associated with the two or more points in time;
2以上の異なる時点の同一のオブジェクトの対応を取る同一オブジェクト認識部と、a same object recognition unit that takes correspondence of the same object at two or more different points in time;
前記同一オブジェクト認識部が対応を取った同一のオブジェクトの2以上の特徴量を取得し、当該2以上の特徴量を用いて、前記同一のオブジェクトの特徴量集合を取得する特徴量合成部と、a feature amount synthesizing unit that acquires two or more feature amounts of the same object that the same object recognition unit has taken correspondence with, and acquires a feature amount set of the same object using the two or more feature amounts;
前記特徴量合成部が取得した特徴量集合を用いて、前記同一のオブジェクトを識別するオブジェクト識別子を取得するオブジェクト認識部と、an object recognition unit that acquires an object identifier that identifies the same object using the feature amount set acquired by the feature amount synthesis unit;
2以上の各時点に対応付けている元情報群と2以上の各時点の移動体位置情報とを用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの絶対位置に関する1または2以上の絶対位置情報を取得する絶対位置情報取得部と、One or more absolute positions of the one or more objects extracted by the object extracting unit using a group of original information associated with two or more points in time and moving body position information at two or more points in time. an absolute position information acquisition unit that acquires absolute position information;
前記移動体位置情報と前記1以上の各オブジェクトの2以上の絶対位置情報とを用いて、前記移動体と前記1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成部と、FIG. 10 is a three-dimensional diagram in which a relative positional relationship between the moving body and the one or more objects can be recognized using the moving body position information and two or more absolute position information of the one or more objects. an output diagram configuration unit that configures an output diagram;
前記出力図を出力する図出力部と、a diagram output unit that outputs the output diagram;
前記オブジェクト認識部が取得したオブジェクト識別子を、前記同一のオブジェクトの絶対位置情報に対応する位置に出力するオブジェクト識別子出力部とを具備する情報処理装置。and an object identifier output unit that outputs the object identifier acquired by the object recognition unit to a position corresponding to the absolute position information of the same object.
オブジェクトの特徴量集合とオブジェクト識別子とを有する2以上の組情報を用いて、機械学習のアルゴリズムにより学習処理されて取得された学習器が格納される学習器格納部をさらに具備し、
前記オブジェクト認識部は、
前記特徴量合成部が取得した特徴量集合を前記学習器に適用し、機械学習のアルゴリズムにより、オブジェクト識別子を取得する請求項1から請求項4いずれか一項に記載の情報処理装置。
further comprising a learning device storage unit that stores a learning device acquired by learning processing by a machine learning algorithm using two or more sets of information having an object feature set and an object identifier,
The object recognition unit
The information processing apparatus according to any one of claims 1 to 4, wherein the feature amount set acquired by the feature amount synthesizing unit is applied to the learning device, and an object identifier is acquired by a machine learning algorithm.
前記オブジェクト認識部は、
道路上の電柱、信号、またはポストのうちの1種類以上のオブジェクトを識別するオブジェクト識別子を取得する請求項1から請求項5いずれか一項に記載の情報処理装置。
The object recognition unit
6. The information processing apparatus according to any one of claims 1 to 5, wherein an object identifier for identifying one or more types of objects of a utility pole, a traffic light, or a post on a road is obtained.
移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報であり、前記オブジェクトの特定の部分の3次元座標の集合である2以上の元情報である元情報群を、2以上の各時点の前記移動体の位置を示す移動体位置情報に対応付けて格納される元情報格納部と、オブジェクト抽出部と、特徴量取得部と、同一オブジェクト認識部と、特徴量合成部と、オブジェクト認識部と、出力部とにより実現される情報処理方法であって、
前記オブジェクト抽出部が、前記2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出するオブジェクト抽出ステップと、
前記特徴量取得部が、前記2以上の各時点に対応付けている元情報群を用いて、前記オブジェクト抽出ステップで抽出された1以上の各オブジェクトの特徴量を取得する特徴量取得ステップと、
前記同一オブジェクト認識部が、2以上の異なる時点の同一のオブジェクトの対応を取る同一オブジェクト認識ステップと、
前記特徴量合成部が、前記同一オブジェクト認識ステップで対応が取られた同一のオブジェクトの2以上の特徴量を取得し、当該2以上の特徴量を用いて、前記同一のオブジェクトの特徴量集合を取得する特徴量合成ステップと、
前記オブジェクト認識部が、前記特徴量合成ステップで取得された特徴量集合を用いて、前記同一のオブジェクトを識別するオブジェクト識別子を取得するオブジェクト認識ステップと、
前記出力部が、前記オブジェクト認識ステップで取得されたオブジェクト識別子を出力する出力ステップとを具備し、
前記特徴量取得ステップにおいて、
第一時点の元情報群であり、一のオブジェクトの全体が特定可能な元情報群を用いて、前記一のオブジェクトの全体特徴量を取得し、かつ第二時点の元情報群であり、一のオブジェクトの一部が特定可能な元情報群を用いて、前記一のオブジェクトの部分特徴量を取得し、
前記特徴量合成ステップにおいて、
前記同一オブジェクト認識部が対応を取った同一のオブジェクトの全体特徴量と部分特徴量とを取得し、当該全体特徴量と部分特徴量とを用いて、前記同一のオブジェクトの特徴量集合を取得する情報処理方法。
an original information group consisting of two or more pieces of original information that are information that is the basis for specifying the position in the three-dimensional space of an object that exists around a moving object and that is a set of three-dimensional coordinates of a specific part of the object; An original information storage unit stored in association with moving body position information indicating the position of the moving body at each of two or more points in time; an object extraction unit; a feature amount acquisition unit; a same object recognition unit; An information processing method implemented by a unit, an object recognition unit, and an output unit,
an object extraction step in which the object extraction unit extracts one or more objects using the original information group associated with the two or more points in time;
a feature amount acquisition step in which the feature amount acquisition unit acquires the feature amount of each of the one or more objects extracted in the object extraction step using the group of original information associated with the two or more points in time;
a same object recognition step in which the same object recognition unit takes correspondence with the same object at two or more different points in time;
The feature amount synthesizing unit acquires two or more feature amounts of the same object whose correspondence is taken in the same object recognition step, and uses the two or more feature amounts to generate a feature amount set of the same object. a feature synthesis step to be obtained;
an object recognition step in which the object recognition unit acquires an object identifier that identifies the same object using the feature amount set acquired in the feature amount synthesizing step;
an output step in which the output unit outputs the object identifier acquired in the object recognition step ;
In the feature amount acquisition step,
A group of original information at a first point in time, which is an original information group at a second point in time, and which is an original information group at a second point in time, using an original information group that can identify the entire one object. obtaining a partial feature amount of the one object using a group of original information that can identify a part of the object;
In the feature amount synthesizing step,
The same object recognition unit acquires the overall feature amount and the partial feature amount of the same object for which correspondence is obtained, and acquires the feature amount set of the same object using the overall feature amount and the partial feature amount. , information processing methods.
移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報であり、前記オブジェクトの特定の部分の3次元座標の集合である2以上の元情報である元情報群を、2以上の各時点の前記移動体の位置を示す移動体位置情報に対応付けて格納される元情報格納部と、オブジェクト抽出部と、特徴量取得部と、同一オブジェクト認識部と、特徴量合成部と、オブジェクト認識部と、絶対位置情報取得部と、出力図構成部と、図出力部と、オブジェクト識別子出力部とにより実現される情報処理方法であって、an original information group consisting of two or more pieces of original information that are information that is the basis for specifying the position in the three-dimensional space of an object that exists around a moving object and that is a set of three-dimensional coordinates of a specific portion of the object; An original information storage unit stored in association with moving body position information indicating the position of the moving body at each of two or more points in time; an object extraction unit; a feature acquisition unit; a same object recognition unit; An information processing method implemented by a unit, an object recognition unit, an absolute position information acquisition unit, an output diagram configuration unit, a diagram output unit, and an object identifier output unit,
前記オブジェクト抽出部が、前記2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出するオブジェクト抽出ステップと、an object extraction step in which the object extraction unit extracts one or more objects using the original information group associated with the two or more points in time;
前記特徴量取得部が、前記2以上の各時点に対応付けている元情報群を用いて、前記オブジェクト抽出ステップで抽出された1以上の各オブジェクトの特徴量を取得する特徴量取得ステップと、a feature amount acquisition step in which the feature amount acquisition unit acquires the feature amount of each of the one or more objects extracted in the object extraction step using the group of original information associated with the two or more points in time;
前記同一オブジェクト認識部が、2以上の異なる時点の同一のオブジェクトの対応を取る同一オブジェクト認識ステップと、a same object recognition step in which the same object recognition unit takes correspondence with the same object at two or more different points in time;
前記特徴量合成部が、前記同一オブジェクト認識ステップで対応が取られた同一のオブジェクトの2以上の特徴量を取得し、当該2以上の特徴量を用いて、前記同一のオブジェクトの特徴量集合を取得する特徴量合成ステップと、The feature amount synthesizing unit acquires two or more feature amounts of the same object whose correspondence is taken in the same object recognition step, and uses the two or more feature amounts to generate a feature amount set of the same object. a feature synthesis step to be obtained;
前記オブジェクト認識部が、前記特徴量合成ステップで取得された特徴量集合を用いて、前記同一のオブジェクトを識別するオブジェクト識別子を取得するオブジェクト認識ステップと、an object recognition step in which the object recognition unit acquires an object identifier that identifies the same object using the feature amount set acquired in the feature amount synthesizing step;
前記絶対位置情報取得部が、2以上の各時点に対応付けている元情報群と2以上の各時点の移動体位置情報とを用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの絶対位置に関する1または2以上の絶対位置情報を取得する絶対位置情報取得ステップと、The absolute position information acquiring unit uses a group of original information associated with two or more points in time and moving body position information at two or more points in time to identify the one or more objects extracted by the object extraction unit. an absolute position information acquisition step of acquiring one or more absolute position information relating to the absolute position;
前記出力図構成部が、前記移動体位置情報と前記1以上の各オブジェクトの2以上の絶対位置情報とを用いて、前記移動体と前記1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成ステップと、The output diagram construction unit can recognize a relative positional relationship between the moving body and the one or more objects using the moving body position information and two or more absolute position information of the one or more objects. an output diagram construction step for constructing an output diagram that is a three-dimensional diagram;
前記図出力部が、前記出力図を出力する図出力ステップと、a diagram output step in which the diagram output unit outputs the output diagram;
前記オブジェクト識別子出力部が、前記オブジェクト認識ステップで取得されたオブジェクト識別子を、前記同一のオブジェクトの絶対位置情報に対応する位置に出力するオブジェクト識別子出力ステップとを具備する情報処理方法。and an object identifier output step in which the object identifier output unit outputs the object identifier acquired in the object recognition step to a position corresponding to the absolute position information of the same object.
移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報であり、前記オブジェクトの特定の部分の3次元座標の集合である2以上の元情報である元情報群を、2以上の各時点の前記移動体の位置を示す移動体位置情報に対応付けて格納される元情報格納部にアクセス可能なコンピュータを、
前記2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出するオブジェクト抽出部と、
前記2以上の各時点に対応付けている元情報群を用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの特徴量を取得する特徴量取得部と、
2以上の異なる時点の同一のオブジェクトの対応を取る同一オブジェクト認識部と、
前記同一オブジェクト認識部が対応を取った同一のオブジェクトの2以上の特徴量を取得し、当該2以上の特徴量を用いて、前記同一のオブジェクトの特徴量集合を取得する特徴量合成部と、
前記特徴量合成部が取得した特徴量集合を用いて、前記同一のオブジェクトを識別するオブジェクト識別子を取得するオブジェクト認識部と、
前記オブジェクト認識部が取得したオブジェクト識別子を出力する出力部として機能させるためのプログラムであって、
前記特徴量取得部は、
第一時点の元情報群であり、一のオブジェクトの全体が特定可能な元情報群を用いて、前記一のオブジェクトの全体特徴量を取得し、かつ第二時点の元情報群であり、一のオブジェクトの一部が特定可能な元情報群を用いて、前記一のオブジェクトの部分特徴量を取得し、
前記特徴量合成部は、
前記同一オブジェクト認識部が対応を取った同一のオブジェクトの全体特徴量と部分特徴量とを取得し、当該全体特徴量と部分特徴量とを用いて、前記同一のオブジェクトの特徴量集合を取得するものとして、前記コンピュータを機能させるためのプログラム
an original information group consisting of two or more pieces of original information that are information that is the basis for specifying the position in the three-dimensional space of an object that exists around a moving object and that is a set of three-dimensional coordinates of a specific part of the object; a computer capable of accessing an original information storage unit stored in association with two or more pieces of mobile body position information indicating the position of the mobile body at each time point;
an object extraction unit that extracts one or more objects using the original information group associated with each of the two or more time points;
a feature amount acquisition unit that acquires a feature amount of each of the one or more objects extracted by the object extraction unit using the group of original information associated with the two or more points in time;
a same object recognition unit that takes correspondence of the same object at two or more different points in time;
a feature amount synthesizing unit that acquires two or more feature amounts of the same object that the same object recognition unit has taken correspondence with, and acquires a feature amount set of the same object using the two or more feature amounts;
an object recognition unit that acquires an object identifier that identifies the same object using the feature amount set acquired by the feature amount synthesizing unit;
A program for functioning as an output unit that outputs the object identifier acquired by the object recognition unit ,
The feature quantity acquisition unit is
A group of original information at a first point in time, which is an original information group at a second point in time, and which is an original information group at a second point in time, using an original information group that can identify the entire one object. obtaining a partial feature amount of the one object using a group of original information that can identify a part of the object;
The feature quantity synthesizing unit
The same object recognition unit acquires the overall feature amount and the partial feature amount of the same object for which correspondence is obtained, and acquires the feature amount set of the same object using the overall feature amount and the partial feature amount. A program for making the computer function as a thing .
移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報であり、前記オブジェクトの特定の部分の3次元座標の集合である2以上の元情報である元情報群を、2以上の各時点の前記移動体の位置を示す移動体位置情報に対応付けて格納される元情報格納部にアクセス可能なコンピュータを、an original information group consisting of two or more pieces of original information that are information that is the basis for specifying the position in the three-dimensional space of an object that exists around a moving object and that is a set of three-dimensional coordinates of a specific part of the object; a computer capable of accessing an original information storage unit stored in association with two or more pieces of mobile body position information indicating the position of the mobile body at each time point;
前記2以上の各時点に対応付けている元情報群を用いて、1以上のオブジェクトを抽出するオブジェクト抽出部と、an object extraction unit that extracts one or more objects using the original information group associated with each of the two or more time points;
前記2以上の各時点に対応付けている元情報群を用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの特徴量を取得する特徴量取得部と、a feature amount acquisition unit that acquires a feature amount of each of the one or more objects extracted by the object extraction unit using the group of original information associated with the two or more points in time;
2以上の異なる時点の同一のオブジェクトの対応を取る同一オブジェクト認識部と、a same object recognition unit that takes correspondence of the same object at two or more different points in time;
前記同一オブジェクト認識部が対応を取った同一のオブジェクトの2以上の特徴量を取得し、当該2以上の特徴量を用いて、前記同一のオブジェクトの特徴量集合を取得する特徴量合成部と、a feature amount synthesizing unit that acquires two or more feature amounts of the same object that the same object recognition unit has taken correspondence with, and acquires a feature amount set of the same object using the two or more feature amounts;
前記特徴量合成部が取得した特徴量集合を用いて、前記同一のオブジェクトを識別するオブジェクト識別子を取得するオブジェクト認識部と、an object recognition unit that acquires an object identifier that identifies the same object using the feature amount set acquired by the feature amount synthesizing unit;
2以上の各時点に対応付けている元情報群と2以上の各時点の移動体位置情報とを用いて、前記オブジェクト抽出部が抽出した1以上の各オブジェクトの絶対位置に関する1または2以上の絶対位置情報を取得する絶対位置情報取得部と、One or more absolute positions of the one or more objects extracted by the object extracting unit using a group of original information associated with two or more points in time and moving body position information at two or more points in time. an absolute position information acquisition unit that acquires absolute position information;
前記移動体位置情報と前記1以上の各オブジェクトの2以上の絶対位置情報とを用いて、前記移動体と前記1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成部と、FIG. 11 is a three-dimensional diagram in which a relative positional relationship between the moving body and the one or more objects can be recognized using the moving body position information and two or more absolute position information of the one or more objects. an output diagram configuration unit that configures an output diagram;
前記出力図を出力する図出力部と、a diagram output unit that outputs the output diagram;
前記オブジェクト認識部が取得したオブジェクト識別子を、前記同一のオブジェクトの絶対位置情報に対応する位置に出力するオブジェクト識別子出力部として機能させるためのプログラム。A program for functioning as an object identifier output unit that outputs the object identifier acquired by the object recognition unit to a position corresponding to the absolute position information of the same object.
JP2018184763A 2018-09-28 2018-09-28 Information processing device, information processing method, and program Active JP7224592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018184763A JP7224592B2 (en) 2018-09-28 2018-09-28 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018184763A JP7224592B2 (en) 2018-09-28 2018-09-28 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2020052977A JP2020052977A (en) 2020-04-02
JP7224592B2 true JP7224592B2 (en) 2023-02-20

Family

ID=69997424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018184763A Active JP7224592B2 (en) 2018-09-28 2018-09-28 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7224592B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022056800A1 (en) * 2020-09-16 2022-03-24 苏州研科星智能科技有限公司 Industrial robot-based intelligent monitoring apparatus
CA3180339A1 (en) * 2021-06-18 2022-12-18 Space Shift, Inc. Signal processor, flying object and medium using synthetic aperture radar signal for observing an object or an environment
CN113284197B (en) * 2021-07-22 2021-11-23 浙江华睿科技股份有限公司 TOF camera external reference calibration method and device for AGV, and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016136321A (en) 2015-01-23 2016-07-28 トヨタ自動車株式会社 Object detection device and object detection method
JP2018088233A (en) 2016-11-24 2018-06-07 株式会社リコー Information processing device, imaging device, apparatus control system, movable body, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016136321A (en) 2015-01-23 2016-07-28 トヨタ自動車株式会社 Object detection device and object detection method
JP2018088233A (en) 2016-11-24 2018-06-07 株式会社リコー Information processing device, imaging device, apparatus control system, movable body, information processing method, and program

Also Published As

Publication number Publication date
JP2020052977A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
US10549430B2 (en) Mapping method, localization method, robot system, and robot
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
US9142011B2 (en) Shadow detection method and device
CN108801268B (en) Target object positioning method and device and robot
US8903161B2 (en) Apparatus for estimating robot position and method thereof
JP7224592B2 (en) Information processing device, information processing method, and program
WO2016210227A1 (en) Aligning 3d point clouds using loop closures
US20210174548A1 (en) Calibrating cameras using human skeleton
EP3574450A1 (en) Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory
CN110663060B (en) Method, device, system and vehicle/robot for representing environmental elements
JP2008304268A (en) Information processor, information processing method, and computer program
JP5807635B2 (en) Flow line detection system, flow line detection method, and flow line detection program
JP6681682B2 (en) Mobile object measuring system and mobile object measuring method
JP2018163096A (en) Information processing method and information processing device
CN112904369B (en) Robot repositioning method, apparatus, robot, and computer-readable storage medium
Liang et al. Image-based positioning of mobile devices in indoor environments
JP2020042447A (en) Device, program and method for estimating terminal position from immovable object information
JP7160257B2 (en) Information processing device, information processing method, and program
CN110751722A (en) Method and device for simultaneously positioning and establishing image
KR101698133B1 (en) Customized human body modeling apparatus and method
US20230367319A1 (en) Intelligent obstacle avoidance method and apparatus based on binocular vision, and non-transitory computer-readable storage medium
WO2020124091A1 (en) Automatic fine-grained radio map construction and adaptation
CN114494857A (en) Indoor target object identification and distance measurement method based on machine vision
CN116051775B (en) Semantic map construction method, mobile robot and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230131

R150 Certificate of patent or registration of utility model

Ref document number: 7224592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150