JP7160257B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7160257B2
JP7160257B2 JP2017202565A JP2017202565A JP7160257B2 JP 7160257 B2 JP7160257 B2 JP 7160257B2 JP 2017202565 A JP2017202565 A JP 2017202565A JP 2017202565 A JP2017202565 A JP 2017202565A JP 7160257 B2 JP7160257 B2 JP 7160257B2
Authority
JP
Japan
Prior art keywords
information
unit
position information
objects
pieces
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017202565A
Other languages
Japanese (ja)
Other versions
JP2019075037A (en
Inventor
大樹 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Control System Corp
Original Assignee
Nippon Control System Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Control System Corp filed Critical Nippon Control System Corp
Priority to JP2017202565A priority Critical patent/JP7160257B2/en
Publication of JP2019075037A publication Critical patent/JP2019075037A/en
Application granted granted Critical
Publication of JP7160257B2 publication Critical patent/JP7160257B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

特許法第30条第2項適用 平成29年5月9日 http://www.nippon-control-system.co.jp/products/greeen/index_lidar.html、http://www.nippon-control-system.co.jp/catalog/GREEENxLIDAR-brochure.pdf、http://www.nippon-control-system.co.jp/en/products/greeen/index_lidar.html、http://www.nippon-control-system.co.jp/en/catalog/GREEENxLIDAR-brouchure-en.pdfを通じて発表、平成29年5月10日~5月12日 リードエグジビションジャパン主催の「第20回組込みシステム開発技術展(ESEC)おいて出品、平成29年5月23日~5月26日 Fira de Barcelona主催のBB Construmat2017において公開、平成29年10月1日 産業開発機構株式会社発行の「映像情報インダストリアル2017年10月号 第49巻・第10号・通巻884号」に発表Application of Patent Act Article 30, Paragraph 2 May 9, 2017 http://www. nippon-control-system. co. jp/products/green/index_lidar. html, http://www. nippon-control-system. co. jp/catalog/GREEENxLIDAR-brochure. pdf, http://www. nippon-control-system. co. jp/en/products/green/index_lidar. html, http://www. nippon-control-system. co. jp/en/catalog/GREEENxLIDAR-brouchure-en. Announced via pdf, May 10-12, 2017 Exhibited at the 20th Embedded System Development Technology Expo (ESEC) sponsored by Reed Exhibitions Japan, May 23-26, 2017 Released at BB Construmat 2017 hosted by Fira de Barcelona, October 1, 2017 Published in "Visual Information Industrial October 2017 Issue Vol.

特許法第30条第2項適用 平成29年4月20日、平成29年4月21日、平成29年4月26日、平成29年5月16日、平成29年5月19日、平成29年5月26日、平成29年5月30日、平成29年6月1日、平成29年6月2日、平成29年6月5日、平成29年6月7日、平成29年6月9日、平成29年6月12日、平成29年6月13日、平成29年6月14日、平成29年6月15日、平成29年6月19日、平成29年6月21日、平成29年6月23日、平成29年6月27日、平成29年7月3日、平成29年7月4日、平成29年7月5日、平成29年7月7日、平成29年7月11日、平成29年7月12日、平成29年7月19日、平成29年7月21日、平成29年7月31日、平成29年8月1日、平成29年8月3日、平成29年8月4日、平成29年8月8日、平成29年8月9日、平成29年8月10日、平成29年8月15日、平成29年8月23日、平成29年8月25日、平成29年8月28日、平成29年8月29日、平成29年8月30日、平成29年9月1日、平成29年9月4日、平成29年9月6日、平成29年9月7日、平成29年9月8日、平成29年9月12日、平成29年9月13日、平成29年9月14日、平成29年9月15日、平成29年9月20日、平成29年9月21日、平成29年9月25日、平成29年9月26日、平成29年9月27日、平成29年9月28日、平成29年9月29日、平成29年10月3日、平成29年10月4日、平成29年10月5日、平成29年10月10日、平成29年10月13日、平成29年10月17日、平成29年10月18日、平成29年10月19日個別営業やメールを通じて公開Application of Article 30, Paragraph 2 of the Patent Act May 26, 2017, May 30, 2017, June 1, 2017, June 2, 2017, June 5, 2017, June 7, 2017, 2017 June 9, June 12, 2017, June 13, 2017, June 14, 2017, June 15, 2017, June 19, 2017, June 2017 21st, June 23, 2017, June 27, 2017, July 3, 2017, July 4, 2017, July 5, 2017, July 7, 2017 , July 11, 2017, July 12, 2017, July 19, 2017, July 21, 2017, July 31, 2017, August 1, 2017, Heisei August 3, 2017, August 4, 2017, August 8, 2017, August 9, 2017, August 10, 2017, August 15, 2017, 2017 August 23, August 25, 2017, August 28, 2017, August 29, 2017, August 30, 2017, September 1, 2017, September 2017 4th, September 6, 2017, September 7, 2017, September 8, 2017, September 12, 2017, September 13, 2017, September 14, 2017 , September 15, 2017, September 20, 2017, September 21, 2017, September 25, 2017, September 26, 2017, September 27, 2017, Heisei September 28, 2017, September 29, 2017, October 3, 2017, October 4, 2017, October 5, 2017, October 10, 2017, 2017 October 13, October 17, 2017, October 18, 2017, October 19, 2017 Released through individual sales and email

本発明は、移動体の周辺のオブジェクトの認識と当該移動体の位置認識とを共に行い、周辺オブジェクトと移動体との位置的関係が把握可能な図を構成し、出力する情報処理装置等に関するものである。 The present invention relates to an information processing apparatus or the like that recognizes an object in the vicinity of a moving body and recognizes the position of the moving body, composes and outputs a diagram in which the positional relationship between the surrounding object and the moving body can be grasped, and outputs the diagram. It is.

従来、LIDARという技術があった(例えば、非特許文献1参照)。LIDARは、光を用いたリモートセンシング技術の一つで、パルス状に発光するレーザー照射に対する散乱光を測定し、遠距離にある対象までの距離やその対象の性質を分析するものである。 Conventionally, there is a technology called LIDAR (see, for example, Non-Patent Document 1). LIDAR is one of the remote sensing technologies using light, which measures the scattered light from pulsed laser irradiation and analyzes the distance to a distant target and the properties of the target.

また、従来、距離画像カメラという技術があった(例えば、非特許文献2参照)。距離画像カメラは、立体的な距離情報がリアルタイムで得られるカメラである。 Also, conventionally, there is a technique called a distance image camera (see, for example, Non-Patent Document 2). A depth image camera is a camera that can obtain three-dimensional depth information in real time.

ウィキペディア、"LIDAR"、[online]、[平成29年8月26日検索]、インターネット[URL:https://ja.wikipedia.org/wiki/LIDAR]Wikipedia, "LIDAR", [online], [searched on August 26, 2017], Internet [URL: https://ja.wikipedia.org/wiki/LIDAR] "TOF 距離画像カメラの実力"、[online]、[平成29年8月26日検索]、インターネット[URL:http://www.brainvision.co.jp/wp/support/tech/capability_of_tofcamera.pdf#search=%27%E8%B7%9D%E9%9B%A2%E7%94%BB%E5%83%8F%E3%82%AB%E3%83%A1%E3%83%A9%27]"Capability of TOF range imaging camera", [online], [searched on August 26, 2017], Internet [URL: http://www.brainvision.co.jp/wp/support/tech/capability_of_tofcamera.pdf# search=%27%E8%B7%9D%E9%9B%A2%E7%94%BB%E5%83%8F%E3%82%AB%E3%83%A1%E3%83%A9%27]

しかしながら、従来技術を用いた場合、自動運転などの複雑かつ高度な認識が必要なアプリケーションでは、センサ・フュージョンが必要とされる。なお、センサ・フュージョンとは、アプリケーションやシステムの性能を向上させるために、複数 のセンサからのデータをインテリジェントに組み合わせるソフトウェアである。そして、センサ・フュージョンは異なる性質を持つセンサの組み合わせにより、短所を補完してより堅牢な認識を可能とする技術であるが、システムの構築には困難が伴う。 However, when using conventional technology, sensor fusion is required for applications that require complex and advanced recognition, such as autonomous driving. Sensor fusion is software that intelligently combines data from multiple sensors to improve the performance of applications and systems. Sensor fusion is a technology that compensates for shortcomings and enables more robust recognition by combining sensors with different properties, but it is difficult to build a system.

また、例えば、3Dセンサと従来の2次元カメラ等、異なる特徴を持つセンサを用いた認識結果を組み合わせて有用なデータとして活用するためには、単一の座標系においてそれらの認識結果を解釈できなければならず、精緻な設置及びキャリブレーションを必要とする。また異なる種類の認識(例えば、周辺のオブジェクトの認識と自己位置の認識)をそれぞれ異なるセンサの観測データを用いて実現する場合、各センサの短所(暗所に弱い等)が異なることで、特定の状況で当該の認識が不可能となってしまい、結果としてシステムの機能が不完全なものとなってしまう。さらに、異なる種類のセンサの観測データに対して独立した認識処理を個々に実行する必要があるため、多くの計算能力を必要とし、高度なアプリケーションで必要とされるリアルタイム性に悪影響を与える。 In addition, for example, in order to combine recognition results using sensors with different characteristics, such as a 3D sensor and a conventional two-dimensional camera, and use them as useful data, it is possible to interpret those recognition results in a single coordinate system. must be installed, requiring precise installation and calibration. In addition, when different types of recognition (for example, recognition of surrounding objects and self-position recognition) are realized using observation data from different sensors, each sensor has different weaknesses (vulnerability to dark places, etc.). In such a situation, the recognition becomes impossible, and as a result, the function of the system becomes imperfect. In addition, the need to perform independent recognition processes for different types of sensor observations individually requires a lot of computational power, adversely affecting the real-time required for advanced applications.

つまり、従来技術において、一つの観測データ(後述する元情報)から移動体の位置の認識と当該移動体の周辺のオブジェクトの認識とを両方を行い、移動体と当該移動体の周辺のオブジェクトとの位置関係を出力できなかった。 In other words, in the conventional technology, both the position recognition of the moving body and the recognition of the objects around the moving body are performed from one observation data (original information described later), and the moving body and the objects around the moving body are recognized. Could not output the positional relationship of

かかる背景に鑑み、本発明は、センサから取得できた同一のデータに基づき、移動体の周辺の「オブジェクト認識」と移動体の「自己位置認識」という2つの異なる情報の認識を実現することを目的とする。 In view of this background, the present invention aims to realize recognition of two different pieces of information, ie, "object recognition" around a moving object and "self-location recognition" of the moving object, based on the same data obtained from sensors. aim.

本第一の発明の情報処理装置は、移動する移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる1または2以上の元情報を取得する元情報取得部と、前記元情報取得部が取得した1以上の元情報を用いて、移動体の三次元空間における位置を特定する移動体位置情報を取得する移動体位置情報取得部と、元情報取得部が取得した1以上の元情報を用いて、1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付けるオブジェクト認識部と、移動体位置情報と1以上の各オブジェクトの2以上のオブジェクト位置情報とを用いて、移動体と1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成部と、出力図を出力する図出力部とを具備する情報処理装置である。 An information processing apparatus according to a first aspect of the present invention comprises an original information acquisition unit that acquires one or more pieces of original information that are used as a basis for specifying a position in a three-dimensional space of an object that exists around a moving mobile object; A moving object position information acquiring unit that acquires moving object position information that specifies a position of a moving object in a three-dimensional space using one or more pieces of original information acquired by the original information acquiring unit; an object recognition unit that identifies one or more objects using the above original information and associates each of the one or more objects with two or more pieces of object position information of each object; an output diagram construction unit that constructs an output diagram that is a three-dimensional diagram in which the relative positional relationship between a moving object and one or more objects can be recognized using two or more pieces of object position information; and outputting the output diagram. and a diagram output unit for processing.

かかる構成により、センサから取得できた同一のデータに基づき、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を行い、移動体と当該移動体の周辺のオブジェクトとの位置関係を出力できる。 With this configuration, based on the same data obtained from the sensor, the position of the moving body and the objects around the moving body are recognized, and the positional relationship between the moving body and the objects around the moving body is output. can.

また、本第二の発明の情報処理装置は、第一の発明に対して、元情報取得部は、移動体の周辺の360度をカバーする1以上の元情報を取得し、オブジェクト認識部は、1以上の元情報を用いて、360度の範囲に存在する1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付ける情報処理装置である。 Further, in the information processing apparatus of the second invention, in contrast to the first invention, the original information acquisition unit acquires one or more pieces of original information covering 360 degrees around the moving body, and the object recognition unit , using one or more pieces of original information to identify one or more objects existing within a 360-degree range, and associate each of the one or more objects with two or more pieces of object position information of each object.

かかる構成により、センサから取得できた同一のデータに基づき、移動体の位置の認識と当該移動体の全方位のオブジェクトの認識を行い、移動体と当該移動体の周辺のオブジェクトとの位置関係を出力できる。 With this configuration, based on the same data acquired from the sensor, the position of the moving body and the objects in all directions of the moving body are recognized, and the positional relationship between the moving body and objects around the moving body is determined. can be output.

また、本第三の発明の情報処理装置は、第一または第二の発明に対して、元情報取得部が取得した2以上の時点における2以上の元情報を用いて、オブジェクト認識部が特定した1以上の各オブジェクトの動作に関する動作情報を取得し、動作情報が予め決められた条件に合致するか否かを判断する判断部と、判断部が条件に合致すると判断した場合に、判断に関する判断情報を出力する判断情報出力部とをさらに具備する情報処理装置である。 Further, in the information processing apparatus of the third invention, in contrast to the first or second invention, the object recognition unit identifies a determining unit for acquiring motion information about the motion of each of the one or more objects, and determining whether or not the motion information matches a predetermined condition; The information processing apparatus further includes a determination information output unit that outputs determination information.

かかる構成により、センサから取得できた同一のデータに基づき、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を行い、かつオブジェクトの動作が条件に合致した場合(例えば、危険な場合)に、その旨を報知できる。 With this configuration, based on the same data acquired from the sensor, the position of the moving body and the objects around the moving body are recognized, and when the object's action meets the conditions (for example, when it is dangerous) ) can be notified to that effect.

また、本第四の発明の情報処理装置は、第一から第三いずれか1つの発明に対して、レーザー発信手段を識別するレーザー識別子とレーザー発信手段の位置を特定する発信手段位置情報とレーザー発信手段のレーダー発信の方向を特定する発信手段方向情報とを有する2以上のレーザー発信手段情報が格納される格納部をさらに具備し、元情報取得部は、2以上の各レーザー発信手段により発信されたレーザーの反射を受信し、レーザーの発信からその反射の受信までの戻り時間を取得し、戻り時間とレーザー発信手段を識別するレーザー識別子との組であるレーザー情報を、レーザー発信手段ごとに取得し、オブジェクト認識部は、元情報取得部が取得した2以上の各レーザー情報が有するレーザー識別子と対になる発信手段位置情報と発信手段方向情報と、レーザー情報が有する戻り時間とを用いて、オブジェクトのオブジェクト位置情報をレーザー情報ごとに取得し、取得した2以上のオブジェクト位置情報を用いて、1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付ける情報処理装置である。 Further, in the information processing apparatus of the fourth invention, in contrast to any one of the first to third inventions, the laser identifier for identifying the laser transmission means, the transmission means position information for specifying the position of the laser transmission means, and the laser Further comprising a storage unit for storing two or more laser transmission means information having transmission means direction information specifying the direction of radar transmission of the transmission means, and the original information acquisition part transmits by each of the two or more laser transmission means. receive the reflected laser, acquire the return time from the laser transmission to the reception of the reflection, and obtain the laser information, which is a set of the return time and the laser identifier that identifies the laser transmission means, for each laser transmission means The object recognition unit uses the transmitting means position information and transmitting means direction information paired with the laser identifiers possessed by each of the two or more pieces of laser information acquired by the original information acquiring unit, and the return time possessed by the laser information. , acquiring object position information of an object for each laser information, specifying one or more objects using the acquired two or more object position information, and determining each of the one or more objects and the two or more object position information of each object. is an information processing device that associates

かかる構成により、レーザーの技術を用いて、センサから取得できた同一のデータに基づき、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を行い、移動体と当該移動体の周辺のオブジェクトとの位置関係を出力できる。 With this configuration, using laser technology, based on the same data obtained from the sensor, the position of the moving body and the objects around the moving body are recognized, and the moving body and the surroundings of the moving body are recognized. You can output the positional relationship with the object.

また、本第五の発明の情報処理装置は、第一から第四いずれか1つの発明に対して、元情報取得部は、2以上の各時点における1以上の元情報を取得し、移動体位置情報取得部は、2以上の各時点における移動体位置情報を取得し、オブジェクト認識部は、2以上の各時点において、1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付け、出力図構成部は、2以上の各時点において、オブジェクト認識部が認識した1以上のオブジェクトが含まれる図であり、移動体位置情報取得部が取得した2以上の各時点における移動体位置情報により構成される移動体の移動軌跡を示す軌跡情報が含まれる図である出力図を構成する情報処理装置である。 Further, in the information processing apparatus of the fifth invention, in any one of the first to fourth inventions, the original information acquiring unit acquires one or more pieces of original information at each of two or more points of time, and The position information acquisition unit acquires position information of the mobile object at each of two or more points in time, and the object recognition unit identifies one or more objects at each of the two or more points in time, and identifies each of the one or more objects and two of each object. The above object position information is associated, and the output diagram construction unit is a diagram that includes one or more objects recognized by the object recognition unit at each of two or more points in time. This is an information processing apparatus that configures an output diagram that is a diagram that includes trajectory information indicating the movement trajectory of the mobile body that is configured from the mobile body position information at each of the above points.

かかる構成により、センサから取得できた同一のデータに基づき、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を行い、移動体移動履歴と、移動体と当該移動体の周辺のオブジェクトとの位置関係を出力できる。 With this configuration, based on the same data acquired from the sensor, the position of the moving body and the objects around the moving body are recognized, and the movement history of the moving body and the objects around the moving body are obtained. You can output the positional relationship with

本発明による情報処理装置によれば、センサから取得できた同一のデータに基づき、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を行い、移動体と当該移動体の周辺のオブジェクトとの位置関係を出力できる。 According to the information processing apparatus of the present invention, the position of the moving body and the objects around the moving body are recognized based on the same data acquired from the sensor, and the moving body and the objects around the moving body are recognized. You can output the positional relationship with

実施の形態1における情報処理装置1のブロック図Block diagram of information processing device 1 according to Embodiment 1 同情報処理装置1の動作例について説明するフローチャートFlowchart for explaining an operation example of the information processing device 1 同元情報取得処理について説明するフローチャートFlowchart for explaining same source information acquisition processing 同オブジェクト認識処理について説明するフローチャートFlowchart explaining the same object recognition processing 同出力図構成処理について説明するフローチャートFlowchart for explaining the same output diagram construction processing 同判断処理について説明するフローチャートFlowchart explaining the judgment process 同情報処理装置1の概念図Conceptual diagram of the same information processing device 1 同出力例を示す図Diagram showing the same output example 同出力例を示す図Diagram showing the same output example 同出力例を示す図Diagram showing the same output example 同出力例を示す図Diagram showing the same output example 同出力例を示す図Diagram showing the same output example 同コンピュータシステムの概観図Overview of the computer system 同コンピュータシステムのブロック図Block diagram of the same computer system

以下、情報処理装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。 Hereinafter, embodiments of an information processing apparatus and the like will be described with reference to the drawings. It should be noted that, since components denoted by the same reference numerals in the embodiments perform similar operations, repetitive description may be omitted.

(実施の形態1) (Embodiment 1)

本実施の形態において、周辺オブジェクト認識と移動体の位置認識とを共に行い、周辺オブジェクトと移動体との位置的関係が把握可能な図を構成し、出力する情報処理装置について説明する。なお、本実施の形態において、移動体に対して、360度の方向のオブジェクトを認識する情報処理装置について説明する。なお、移動体は、自動車、ロボットなどである。ただし、移動体の種類は問わない。 In the present embodiment, an information processing apparatus that performs both peripheral object recognition and position recognition of a moving body, constructs and outputs a diagram that enables the positional relationship between the peripheral object and the moving body to be grasped, will be described. In the present embodiment, an information processing apparatus for recognizing objects in 360-degree directions with respect to a moving object will be described. Note that the moving body is an automobile, a robot, or the like. However, the type of mobile object does not matter.

また、本実施の形態において、オブジェクトの動作に関する動作情報を取得し、動作情報が予め決められた条件に合致する場合に、合致する旨を出力する情報処理装置について説明する。 Further, in the present embodiment, an information processing apparatus that acquires motion information related to the motion of an object and outputs a match when the motion information matches a predetermined condition will be described.

さらに、本実施の形態において、移動体の移動履歴も出力できる情報処理装置について説明する。 Furthermore, in the present embodiment, an information processing apparatus capable of outputting a movement history of a moving object will be described.

図1は、本実施の形態における情報処理装置1のブロック図である。情報処理装置1は、格納部11、受付部12、処理部13、および出力部14を備える。なお、情報処理装置1は、移動体に設置されていても良いし、移動体から情報を取得して、所定の処理を行う装置でも良い。 FIG. 1 is a block diagram of an information processing device 1 according to this embodiment. The information processing device 1 includes a storage unit 11 , a reception unit 12 , a processing unit 13 and an output unit 14 . The information processing device 1 may be installed in a moving body, or may be a device that acquires information from the moving body and performs predetermined processing.

処理部13は、元情報取得部131、移動体位置情報取得部132、オブジェクト認識部133、出力図構成部134、および判断部135を備える。 The processing unit 13 includes an original information acquisition unit 131 , a moving body position information acquisition unit 132 , an object recognition unit 133 , an output diagram construction unit 134 and a judgment unit 135 .

出力部14は、図出力部141、および判断情報出力部142を備える。 The output unit 14 includes a diagram output unit 141 and a judgment information output unit 142 .

格納部11には、各種の情報が格納される。各種の情報とは、例えば、2以上のレーザー発信手段情報である。レーザー発信手段情報とは、レーザー発信手段を識別するレーザー識別子とレーザー発信手段の位置を特定する発信手段位置情報とレーザー発信手段のレーダー発信の方向を特定する発信手段方向情報とを有する情報である。なお、レーザー発信手段とは、レーザーを発信し、その反射の信号を受信する手段である。例えば、LIDARは、多数のレーザー発信手段を具備する。 Various types of information are stored in the storage unit 11 . Various types of information are, for example, two or more laser transmitting means information. The laser transmission means information is information having a laser identifier for identifying the laser transmission means, transmission means position information for specifying the position of the laser transmission means, and transmission means direction information for specifying the radar transmission direction of the laser transmission means. . Note that the laser transmission means is means for transmitting a laser and receiving its reflected signal. For example, LIDAR comprises a number of laser emitting means.

また、各種の情報とは、例えば、後述する元情報である。元情報は、元情報取得部131が取得した情報である。 Further, the various types of information are, for example, original information to be described later. The original information is information obtained by the original information obtaining unit 131 .

また、各種の情報とは、例えば、オブジェクト情報である。オブジェクト情報とは、認識したいオブジェクト(例えば、人、自動車、障害物など)に関する情報である。オブジェクト情報は、例えば、オブジェクトを識別するオブジェクト識別子と、オブジェクトの輪郭に関する情報(例えば、輪郭を構成する複数の点の座標情報)を有する。オブジェクト識別子は、オブジェクト名(例えば、人、自動車など)でも良い。オブジェクト情報は、例えば、オブジェクト識別子と、1以上のオブジェクトの画像である。また、オブジェクト情報は、例えば、オブジェクト識別子と、1以上のオブジェクトの画像から抽出された2以上の特徴量である。また、オブジェクト情報は、例えば、オブジェクト識別子と、1以上のオブジェクトの画像から抽出された2以上の特徴量とを学習させた学習情報でも良い。なお、学習は、例えば、深層学習、サポートベクターマシン、決定木等を用いた学習であり、機械学習の種類は問わない。なお、オブジェクトとは、シーンにおいて独立して存在する、人、移動体(自動車など)や機器等の物であり、「動く物体」(動体)とは限らない。何をオブジェクトとするかはアプリケーションに依存し、例えば、ポストや標識、あるいは建物をオブジェクトとして認識するシステムも有り得る。また、シーンとは、観測装置が観測している情景である。 Various types of information are, for example, object information. Object information is information about objects (for example, people, cars, obstacles, etc.) to be recognized. The object information includes, for example, an object identifier that identifies the object, and information on the contour of the object (for example, coordinate information of a plurality of points forming the contour). An object identifier may be an object name (eg, person, car, etc.). Object information is, for example, an object identifier and an image of one or more objects. Object information is, for example, an object identifier and two or more feature amounts extracted from one or more object images. Also, the object information may be, for example, learning information obtained by learning an object identifier and two or more feature amounts extracted from one or more object images. Note that learning is, for example, learning using deep learning, support vector machines, decision trees, or the like, and the type of machine learning does not matter. An object is a thing such as a person, a moving body (such as a car), or a device that exists independently in a scene, and is not limited to a "moving object" (moving body). What is defined as an object depends on the application. For example, there may be a system that recognizes a post, a sign, or a building as an object. A scene is a scene observed by an observation device.

また、各種の情報とは、例えば、予め決められた条件である。予め決められた条件は、判断部135が使用する条件であり、例えば、動作情報を用いた条件である。予め決められた条件は、例えば、動作情報が「移動体とオブジェクトとの距離が閾値以内であり、かつ移動体とオブジェクトとの距離が縮まっていることを示す情報であること」である。また、予め決められた条件は、例えば、「動作情報「移動体位置情報が示す移動体の位置とオブジェクト位置情報が示すオブジェクトの位置との距離」が閾値値以内であること」である。 Further, the various information is, for example, predetermined conditions. The predetermined condition is a condition used by the determination unit 135, for example, a condition using motion information. The predetermined condition is, for example, that the motion information is "information indicating that the distance between the moving body and the object is within a threshold and that the distance between the moving body and the object is decreasing". Further, the predetermined condition is, for example, that "the distance between the position of the moving body indicated by the positional information of the moving body and the position of the object indicated by the positional information of the moving body" of the motion information is within a threshold value.

また、各種の情報とは、例えば、判断情報である。また、各種の情報とは、例えば、「予め決められた条件」に対応付けられている判断情報である。判断情報は、例えば、注意を喚起するための情報であり、例えば、ブザー音、注意を喚起する文字列、図柄等である。 Moreover, various information is judgment information, for example. Further, the various types of information are, for example, determination information associated with "predetermined conditions". The determination information is, for example, information for calling attention, such as a buzzer sound, a character string for calling attention, or a pattern.

受付部12は、各種の指示や情報等を受け付ける。各種の指示や情報等とは、例えば、情報処理装置1の動作開始指示、動作終了指示である。また、動作開始指示は、情報処理装置1の動作の開始の指示であるが、移動体の移動の開始の指示でも良い。動作終了指示は、情報処理装置1の動作の終了の指示である。ここで、受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。 The reception unit 12 receives various instructions, information, and the like. Various instructions, information, and the like are, for example, an instruction to start operation and an instruction to end operation of the information processing apparatus 1 . Further, the operation start instruction is an instruction to start the operation of the information processing device 1, but may be an instruction to start moving the moving object. The operation end instruction is an instruction to end the operation of the information processing device 1 . Here, reception means reception of information input from input devices such as keyboards, mice, and touch panels, reception of information transmitted via wired or wireless communication lines, and recording on optical discs, magnetic discs, semiconductor memories, etc. This is a concept that includes acceptance of information read from a medium.

各種の指示や情報等の入力手段は、タッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。受付部12は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。 Any means such as a touch panel, keyboard, mouse, or menu screen may be used as input means for various instructions and information. The reception unit 12 can be realized by a device driver for input means such as a touch panel or a keyboard, control software for a menu screen, or the like.

処理部13は、各種の処理を行う。各種の処理とは、例えば、元情報取得部131、移動体位置情報取得部132、オブジェクト認識部133、出力図構成部134、判断部135が行う処理である。 The processing unit 13 performs various types of processing. The various types of processing are, for example, processing performed by the original information acquisition unit 131, the moving body position information acquisition unit 132, the object recognition unit 133, the output diagram construction unit 134, and the determination unit 135. FIG.

元情報取得部131は、1または2以上の元情報を取得する。元情報取得部131は、移動体の周辺の360度をカバーする1以上の元情報を取得することは好適である。元情報取得部131は、2以上の各時点における1以上の元情報を取得することは好適である。元情報取得部131は、一度に、一の時点における、移動体の周辺の360度をカバーする1以上の元情報を取得することは好適である。なお、元情報取得部131は、360度をカバーする2以上の元情報を取得する場合に、360度の範囲内の領域によって、時間遅れが発生していても良い。 The original information acquisition unit 131 acquires one or more pieces of original information. The original information acquisition unit 131 preferably acquires one or more pieces of original information covering 360 degrees around the moving object. It is preferable that the original information acquisition unit 131 acquires one or more pieces of original information at two or more points in time. It is preferable that the original information acquisition unit 131 acquires one or more pieces of original information covering 360 degrees around the moving object at one point in time. In addition, when the original information acquisition unit 131 acquires two or more pieces of original information covering 360 degrees, a time delay may occur depending on the region within the 360 degree range.

元情報は、移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる情報である。元情報は、図示しない観測装置の3次元データの集合を有する。元情報は、観測装置から観測される、周辺に存在する人やモノなどの特定の部分の3D座標を表す点の集合であり、例えば、距離画像データまたは点群(Point Cloud)データである。なお、観測装置は、観測データとして、3Dデータを連続的に取得可能な装置である。観測装置は、例えば、上述したLIDAR、3次元カメラ、ToFセンサ、ステレオカメラ等である。観測装置は、結果として同一の座標系の3Dデータを出力するものであれば、2以上の装置を組み合わせて構成されるシステムであってもよい。また、元情報取得部131は、観測装置を含むと考えても良いし、観測装置から元情報を取得すると考えても良い。また、3次元データは、例えば、観測装置または移動体を原点とする3次元の座標値である。 The original information is information that serves as a basis for specifying the position in the three-dimensional space of an object that exists around the moving object. The original information has a set of three-dimensional data of an observation device (not shown). The original information is a set of points representing the 3D coordinates of a specific part such as a person or thing existing in the vicinity observed from the observation device, and is, for example, range image data or point cloud data. Note that the observation device is a device capable of continuously acquiring 3D data as observation data. The observation device is, for example, the above-described LIDAR, three-dimensional camera, ToF sensor, stereo camera, or the like. The observation device may be a system configured by combining two or more devices as long as it outputs 3D data in the same coordinate system as a result. Also, the original information acquisition unit 131 may be considered to include an observation device, or may be considered to acquire original information from the observation device. Also, the three-dimensional data is, for example, three-dimensional coordinate values with an observation device or a moving object as an origin.

元情報は、例えば、レーザー情報である。レーザー情報は、戻り時間とレーザー識別子との組である。レーザー識別子は、レーザー発信手段を識別する情報である。レーザー識別子は、照射したレーザーの位置を特定する情報でも良い。元情報取得部131は、例えば、2以上の各レーザー発信手段により発信されたレーザーの反射を受信し、レーザーの発信からその反射の受信までの戻り時間を取得し、戻り時間とレーザー発信手段を識別するレーザー識別子との組であるレーザー情報を、レーザー発信手段ごとに取得するし。元情報取得部131は、レーザーを発信するLIDARを含むと考えても良いし、LIDARから元情報を取得するソフトウェアとMPU等から実現されても良い。なお、LIDARは、LiDARと言っても良い。 The original information is laser information, for example. The laser information is a set of return time and laser identifier. A laser identifier is information for identifying a laser transmission means. The laser identifier may be information specifying the position of the irradiated laser. For example, the original information acquisition unit 131 receives reflections of lasers transmitted by two or more laser transmission means, acquires the return time from the transmission of the laser to the reception of the reflection, and compares the return time with the laser transmission means. Laser information, which is a pair with a laser identifier for identification, is acquired for each laser transmission means. The original information acquisition unit 131 may be considered to include a LIDAR that emits a laser beam, or may be implemented by software, an MPU, or the like that acquires original information from the LIDAR. Note that LIDAR may also be referred to as LiDAR.

元情報は、例えば、距離画像でも良い。元情報取得部131は、例えば、距離画像カメラが撮影した1または2以上の距離画像を取得する。なお、距離画像は、画像の中の各画素の3次元空間上の座標値を含む。また、元情報取得部131は、距離画像を撮影するカメラ(距離画像センサと言っても良い)を含むと考えても良いし、カメラが撮影した距離画像を取得するソフトウェアとMPU等から実現されても良い。 The original information may be, for example, a distance image. The original information acquisition unit 131 acquires, for example, one or more distance images captured by a distance image camera. Note that the distance image includes coordinate values of each pixel in the image in a three-dimensional space. Also, the original information acquisition unit 131 may be considered to include a camera (which may be called a distance image sensor) that captures a distance image, and is implemented by software that acquires the distance image captured by the camera, an MPU, and the like. can be

移動体位置情報取得部132は、元情報取得部131が取得した1以上の元情報を用いて、移動する移動体の移動体位置情報を取得する。移動体位置情報は、通常、三次元空間(以下、単に「空間」という場合がある。)における位置を特定する情報である。移動体位置情報とは、通常、(x,y,z)の構造を有する。また、移動体位置情報は、通常、相対的な位置を示す情報である。移動体位置情報が相対的な位置を示す情報である場合、例えば、移動体の出発地点が原点(0,0,0)である。なお、移動体の出発地点の絶対位置(通常、(緯度,経度,高度))が分かれば、移動体位置情報は、絶対的な位置を示す情報に変換し得る。つまり、本明細書で扱う移動体位置情報やオブジェクト位置情報等の位置情報は、相対的な位置を示す情報でも良いし、絶対的な位置を示す情報でも良い。 The mobile body position information acquisition unit 132 acquires the mobile body position information of the moving mobile body using one or more pieces of original information acquired by the original information acquisition unit 131 . Mobile body position information is usually information that specifies a position in a three-dimensional space (hereinafter sometimes simply referred to as "space"). Mobile position information usually has a structure of (x, y, z). Also, the mobile body position information is usually information indicating a relative position. When the mobile body position information is information indicating a relative position, for example, the starting point of the mobile body is the origin (0, 0, 0). If the absolute position (usually (latitude, longitude, altitude)) of the starting point of the mobile body is known, the mobile body position information can be converted into information indicating the absolute position. In other words, position information such as mobile body position information and object position information handled in this specification may be information indicating a relative position or information indicating an absolute position.

移動体位置情報取得部132は、通常、1以上の元情報を用いて、2以上の各時点における移動体位置情報を取得する。 The mobile body position information acquisition unit 132 normally acquires mobile body position information at two or more points in time using one or more pieces of original information.

さらに具体的には、移動体位置情報取得部132は、例えば、異なる時点の2つの各元情報から特徴点を抽出し、2つの元情報の対応する2つの特徴点(例えば、(x11,y11,z11)と(x12,y12,z12))を検知し、当該特徴点の差異から移動量(例えば、(x12-x11,y12-y11,z12-z11)を算出する。そして、移動体位置情報取得部132は、例えば、移動体の直前の位置を示す移動体位置情報(例えば、(x,y,z))と移動量(例えば、(x12-x11,y12-y11,z12-z11)とを用いて、現時点の移動体位置情報(例えば、(x+x12-x11,y+y12-y11,z+z12-z11))を算出する。なお、特徴点とは、オブジェクトの角の点、オブジェクトの輪郭線上の特定の点などである。3次元データの集合である元情報から特徴点を取得する技術は公知技術である。 More specifically, the moving body position information acquiring unit 132, for example, extracts feature points from two pieces of original information at different points in time, and extracts two feature points corresponding to the two pieces of original information (for example, (x 11 , y 11 , z 11 ) and (x 12 , y 12 , z 12 )) are detected, and the amount of movement (for example, (x 12 −x 11 , y 12 −y 11 , z 12 −z 11 ).Then, the mobile body position information acquisition unit 132 calculates, for example, mobile body position information (eg, (x 0 , y 0 , z 0 )) indicating the immediately preceding position of the mobile body and the amount of movement (eg, , (x 12 −x 11 , y 12 −y 11 , z 12 −z 11 ) and the current position information of the mobile unit (for example, (x 0 +x 12 −x 11 , y 0 +y 12 −y 11 , z 0 +z 12 −z 11 )), where the feature points are corner points of the object, specific points on the outline of the object, etc. From the original information, which is a set of three-dimensional data, the feature points Techniques for obtaining points are well known.

オブジェクト認識部133は、元情報取得部131が取得した1以上の元情報を用いて、1以上のオブジェクトを特定(「特定」を「認識」、と言っても良い)し、当該1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付ける。なお、オブジェクト認識部133は、移動体の周辺のすべてのオブジェクトを認識する必要はなく、特定のオブジェクト(例えば、人、車など)のみを認識しても良い。また、オブジェクト位置情報とは、オブジェクトを構成する点の位置を示す情報であり、通常、三次元の座標情報である。オブジェクト位置情報は、通常、移動体位置情報に対して、相対的な位置を示す座標情報である。 The object recognition unit 133 uses the one or more pieces of original information acquired by the original information acquisition unit 131 to identify one or more objects (“identification” may also be called “recognition”), and identifies the one or more objects. Each object is associated with two or more pieces of object position information of each object. Note that the object recognition unit 133 does not need to recognize all objects around the moving body, and may recognize only specific objects (for example, people, cars, etc.). Also, the object position information is information indicating the positions of points that constitute an object, and is usually three-dimensional coordinate information. Object position information is usually coordinate information indicating a position relative to mobile object position information.

オブジェクト認識部133は、オブジェクト位置情報は、通常、元情報が有する各三次元の座標情報と移動体位置情報とを用いて、2以上のオブジェクト位置情報を算出する。つまり、オブジェクト認識部133は、元情報が有する三次元の座標情報(例えば、(x,y,z))にオフセットとして移動体位置情報(例えば、(x,y,z))を加えて、相対的な三次元の座標情報であるオブジェクト位置情報(例えば、(x+x,y+y,z+z))を算出する。 The object recognition unit 133 normally calculates two or more pieces of object position information using each three-dimensional coordinate information and moving body position information included in the original information. That is, the object recognition unit 133 uses the three-dimensional coordinate information (e.g., (x a , y a , za )) of the original information as an offset to the mobile body position information (e.g., (x b , y b , z b )) to calculate object position information (eg, ( xa + xb , ya+ yb , za + zb ) ), which is relative three-dimensional coordinate information.

また、オブジェクト認識部133は、元情報取得部131が取得した1以上の元情報を用いて、移動体の周辺のすべてのオブジェクトを構成するすべての座標情報を取得することは好適である。この座標情報は、オブジェクト位置情報である。 Also, it is preferable that the object recognition unit 133 acquires all coordinate information constituting all objects around the moving object using one or more pieces of original information acquired by the original information acquisition unit 131 . This coordinate information is object position information.

また、オブジェクト認識部133は、通常、元情報取得部131が取得した1以上の元情報を用いて、移動体の周辺のオブジェクトのすべてのオブジェクト位置情報を取得する。次に、オブジェクト認識部133は、当該すべてのオブジェクト位置情報から、1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付ける。 Also, the object recognition unit 133 normally uses one or more pieces of original information acquired by the original information acquisition unit 131 to acquire all object position information of objects around the moving body. Next, the object recognition unit 133 identifies one or more objects from all the object position information, and associates each of the one or more objects with two or more pieces of object position information of each object.

オブジェクト認識部133は、1以上の元情報を用いて、360度の範囲に存在する1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付けることは好適である。なお、360度をカバーする1以上の元情報を取得する場合に時間遅れが発生する場合、オブジェクト認識部133は、通常、当該時間遅れを考慮して、オブジェクト位置情報を取得する。なお、時間遅れを考慮することは、例えば、時間遅れの分の移動量を算出し、取得された座標値を移動量の分だけ修正(補正)することである。 The object recognition unit 133 uses one or more pieces of original information to identify one or more objects existing within a 360-degree range, and associates each of the one or more objects with two or more pieces of object position information of each object. preferred. If a time delay occurs when obtaining one or more pieces of original information covering 360 degrees, the object recognition unit 133 normally obtains object position information in consideration of the time delay. Considering the time delay means, for example, calculating the amount of movement corresponding to the time delay and correcting (correcting) the acquired coordinate values by the amount of movement.

また、オブジェクト認識部133は、特定したオブジェクトの属性値を取得することは好適である。属性値とは、例えば、オブジェクトの種類、形状特徴量等である。なお、形状特徴量は、例えば、サイズ、平面度等である。 Also, the object recognition unit 133 preferably acquires the attribute value of the specified object. The attribute value is, for example, the type of object, the shape feature amount, and the like. Note that the shape feature amount is, for example, size, flatness, and the like.

オブジェクト認識部133は、例えば、以下の(1)~(3)のいずれかの処理を行う。
(1)オブジェクト認識部133の第一の処理例
The object recognition unit 133 performs, for example, one of the following processes (1) to (3).
(1) First processing example of the object recognition unit 133

第一の処理例は、独立した認識処理によりオブジェクト認識と自己位置認識を行う場合のオブジェクト認識の処理である。 A first example of processing is object recognition processing when object recognition and self-position recognition are performed by independent recognition processing.

オブジェクト認識部133は、例えば、1以上の元情報が有する3次元座標値(「3D点」という。)の集合を用いて、以下のような処理を行う。まず、オブジェクト認識部133は、1または2以上の3D点の集合を用いて、オブジェクト認識処理を行う。オブジェクト認識処理は、一つのオブジェクトを構成する3D点の集合を特定する処理である。次に、オブジェクト認識部133は、例えば、各オブジェクトの3D点の集合から、各オブジェクトの形状に関する特徴量である1または2以上の形状特徴量を取得する。形状特徴量は、例えば、サイズ(例えば、幅、高さ、奥行き)、平面度等である。次に、オブジェクト認識部133は、例えば、1以上の形状特徴量を用いて、オブジェクトの種類(オブジェクトの属性値の一例)を決定する。なお、オブジェクトの種類を決定する処理は、例えば、決定木、深層学習、サポートベクターマシン、決定木等の機械学習の技術が利用可能である。次に、オブジェクト認識部133は、決定したオブジェクトの種類の情報に対応付けて、3D点(オブジェクト位置情報と言っても良い。)の集合を取得する。 The object recognition unit 133 performs the following processing using, for example, a set of three-dimensional coordinate values (referred to as “3D points”) possessed by one or more pieces of original information. First, the object recognition unit 133 performs object recognition processing using a set of one or more 3D points. Object recognition processing is processing for identifying a set of 3D points that constitute one object. Next, the object recognition unit 133 acquires one or more shape feature amounts, which are feature amounts related to the shape of each object, for example, from a set of 3D points of each object. The shape feature amount is, for example, size (for example, width, height, depth), flatness, and the like. Next, the object recognition unit 133 determines the type of object (an example of the attribute value of the object) using one or more shape feature values, for example. Machine learning techniques such as decision trees, deep learning, support vector machines, and decision trees can be used for the process of determining the type of object. Next, the object recognition unit 133 acquires a set of 3D points (which may also be called object position information) in association with the determined object type information.

なお、オブジェクト認識処理は、具体的には、例えば、以下の方法がある。まず、第一のオブジェクト認識処理について説明する。オブジェクト認識部133は、複数の各3D点の距離が予め決められた条件を満たすほど近い点の集合を同一のオブジェクトを構成する点である、と判断し、オブジェクトごとに3D点をまとめる。 In addition, the object recognition process has the following method specifically, for example. First, the first object recognition processing will be explained. The object recognizing unit 133 determines that a set of points that are so close that the distance between each of the plurality of 3D points satisfies a predetermined condition constitutes the same object, and collects the 3D points for each object.

また、オブジェクト認識部133は、例えば、以下のグリッドマップの手法である第二の方法によるオブジェクト認識処理を行っても良い。つまり、オブジェクト認識部133は、3次元空間の複数のBOXに区切る。そして、オブジェクト認識部133は、各BOXに存在するすべての3D点を同一のオブジェクトを構成する3D点である、と仮定する。次に、オブジェクト認識部133は、各BOXの3D点から特徴点(例えば、最も中心に近い点、複数の点の中央値など)を取得する。次に、特徴点が予め決められた条件を満たすほど近いBOXを同一のオブジェクトを構成するBOXである、と判断する。以上により、一のオブジェクトを構成する3D点の集合が検知できた(オブジェクト認識ができた)。なお、BOXとは、通常、3次元の立方体または直方体である。 Further, the object recognition unit 133 may perform object recognition processing by, for example, a second method, which is a grid map method described below. In other words, the object recognition unit 133 partitions the three-dimensional space into a plurality of BOXes. Then, the object recognition unit 133 assumes that all 3D points existing in each BOX are 3D points forming the same object. Next, the object recognition unit 133 acquires feature points (for example, the point closest to the center, the median value of a plurality of points, etc.) from the 3D points of each BOX. Next, BOXes whose feature points are close enough to satisfy a predetermined condition are determined to be BOXes forming the same object. As described above, a set of 3D points forming one object has been detected (object recognition has been completed). A BOX is generally a three-dimensional cube or rectangular parallelepiped.

そして、例えば、オブジェクト認識部133は、同一の元情報から取得された移動体位置情報に対応付けて、各オブジェクトの2以上のオブジェクト位置情報を図示しないバッファに蓄積する。なお、オブジェクト認識部133は、各オブジェクトの属性値をも一緒に、図示しないバッファに蓄積することは好適である。
(2)オブジェクト認識部133の第二の処理例
Then, for example, the object recognition unit 133 stores two or more pieces of object position information of each object in a buffer (not shown) in association with the moving body position information acquired from the same original information. It is preferable that the object recognition unit 133 also store the attribute values of each object together in a buffer (not shown).
(2) Second processing example of the object recognition unit 133

第二の処理例は、過去に認識したオブジェクトの履歴を保存しておき、自己位置の変化を踏まえて、今回のオブジェクトに該当する過去のオブジェクトを取得する処理である。第二の処理例では、オブジェクトの位置変化量(速度)をオブジェクト認識に利用できる。また、第二の処理例では、過去に認識済みの属性も利用できる。 A second processing example is a process of storing the history of objects recognized in the past and acquiring past objects corresponding to the current object based on changes in the self-position. In the second processing example, the amount of position change (velocity) of the object can be used for object recognition. In addition, in the second processing example, previously recognized attributes can also be used.

なお、第二の処理例では、過去の各オブジェクトの(基準座標系での)位置と移動ベクトルの履歴」から、過去の各オブジェクトが今回存在し得る(基準座標系での)位置を推定し、それを基に過去の各オブジェクトと現在のオブジェクトの関連付けを行うものである。かかる位置推定の処理には、カルマンフィルタ等が利用可能である。なお、この処理の実現には、少なくとも過去の1以上の時点における、移動体の位置と各オブジェクトの位置が保存されている必要がある。 In the second processing example, the position (in the reference coordinate system) where each past object can currently exist is estimated from the history of the past position (in the reference coordinate system) of each object and the movement vector. , based on which each object in the past is associated with the current object. A Kalman filter or the like can be used for such position estimation processing. In order to implement this process, it is necessary to store the position of the moving body and the position of each object at least at one or more times in the past.

さらに具体的には、まず、移動体位置情報取得部132は、上述した処理により、特徴点の移動量(例えば、(x-xt-1,y-yt-1,z-zt-1))算出する。そして、移動体位置情報取得部132は、過去の一時点(例えば、その直前の時点)(t-1)の移動体位置情報(例えば、(xt-1,yt-1,zt-1))と移動量とから、現時点(t)の移動体位置情報(例えば、(x,y,z))を取得する。 More specifically, first, the moving object position information acquiring unit 132 performs the above-described processing to determine the amount of movement of the feature point (for example, (x t −x t−1 , y t −y t−1 , z t − z t−1 )) Calculate. Then, the mobile body position information acquiring unit 132 acquires the mobile body position information (eg, (x t-1 , y t-1 , z t- 1 ))) and the amount of movement, the position information of the mobile object at the current time point (t) (for example, (x t , y t , z t )) is acquired.

次に、オブジェクト認識部133は、現時点の1以上の元情報が有する3D点の集合を用いて、上記のオブジェクト認識処理により、オブジェクトを認識する。次に、オブジェクト認識部133は、例えば、各オブジェクトの3D点の集合から、各オブジェクトの形状に関する特徴量である1または2以上の形状特徴量を取得する。次に、オブジェクト認識部133は、例えば、1以上の形状特徴量から現時点のオブジェクトの属性値(例えば、オブジェクトの種類)を取得する。 Next, the object recognition unit 133 recognizes an object by the above-described object recognition processing using a set of 3D points possessed by one or more pieces of original information at the current time. Next, the object recognition unit 133 acquires one or more shape feature amounts, which are feature amounts related to the shape of each object, for example, from a set of 3D points of each object. Next, the object recognition unit 133 acquires the current attribute value of the object (for example, the type of object) from one or more shape feature values, for example.

次に、オブジェクト認識部133は、過去の1以上の時点のオブジェクトと現時点のオブジェクトの対応付けを行うために、現時点のオブジェクトのオブジェクト位置情報を、移動体位置情報を用いて補正する。次に、過去の各オブジェクトの現時点における位置を、過去の移動量の履歴から推定する。なお、かかる処理において、カルマンフィルタ等を用いる処理がある。次に、現時点のオブジェクトの属性値と過去のオブジェクトの属性値とを比較し、現時点のオブジェクトと過去のオブジェクトとの対応付けを行う。なお、対応付けられる現時点のオブジェクトと過去のオブジェクトとは、同一または類似の属性値を有し、現時点における位置に対応する座標値と予測位置に対応する座標値との差異が予め決められた範囲の差異に留まるオブジェクトである。また、過去の1以上の時点のオブジェクトと現時点のオブジェクトの対応付けが行えた場合、現時点のオブジェクトの1または2以上のオブジェクト位置情報が取得される。 Next, the object recognition unit 133 corrects the object position information of the object at the present time using the mobile body position information in order to associate the object at one or more past points in time with the object at the present time. Next, the current position of each object in the past is estimated from the history of the amount of movement in the past. It should be noted that such processing includes processing using a Kalman filter or the like. Next, the attribute value of the current object and the attribute value of the past object are compared to establish a correspondence between the current object and the past object. The current object and the past object to be associated have the same or similar attribute values, and the difference between the coordinate value corresponding to the current position and the coordinate value corresponding to the predicted position is within a predetermined range. It is an object that stays in the difference between Also, when the object at one or more points in the past and the object at the present point in time can be associated with each other, one or more pieces of object position information of the object at the present point in time are acquired.

そして、例えば、オブジェクト認識部133は、同一の元情報から取得された移動体位置情報に対応付けて、各オブジェクトの1または2以上のオブジェクト位置情報を図示しないバッファに蓄積する。なお、オブジェクト認識部133は、各オブジェクトの属性値をも一緒に、図示しないバッファに蓄積することは好適である。
(3)オブジェクト認識部133の第三の処理例
Then, for example, the object recognition unit 133 stores one or more pieces of object position information of each object in a buffer (not shown) in association with the moving body position information acquired from the same original information. It is preferable that the object recognition unit 133 also store the attribute values of each object together in a buffer (not shown).
(3) Third processing example of the object recognition unit 133

第三の処理例は、過去の3D点の集合を保存しておき、自己位置の変化を反映した3D点の集合と比較し、動体と非動体に分けて3D点の集合を検知する方法である。第三の処理例において、定点観測時の差分処理と同様の効果があるため、移動観測の場合でも、オブジェクト点群の取得をより堅牢に行うことが可能となる。なお、ここで「動体」とは、「一部または全体の(基準座標系における)位置が変化するオブジェクト」である。一部の位置が変化するオブジェクトは、例えば、手だけが動いている人間である。 さらに具体的には、まず、移動体位置情報取得部132は、上述した処理により、特徴点の移動量(例えば、(x-xt-1,y-yt-1,z-zt-1))算出する。そして、移動体位置情報取得部132は、過去の一時点(例えば、その直前の時点)(t-1)の移動体位置情報(例えば、(xt-1,yt-1,zt-1))と移動量とから、現時点(t)の移動体位置情報(例えば、(x,y,z))を取得する。 A third processing example is a method of storing a set of past 3D points, comparing it with a set of 3D points reflecting changes in the self-position, and detecting a set of 3D points divided into moving and non-moving objects. be. In the third processing example, the same effect as the differential processing during fixed-point observation is obtained, so even in the case of moving observation, it is possible to acquire the object point group more robustly. It should be noted that the "moving object" here means "an object whose position (in the reference coordinate system) changes partially or wholly". An object whose position changes partly is, for example, a human being whose only hands are moving. More specifically, first, the moving object position information acquiring unit 132 performs the above-described processing to determine the amount of movement of the feature point (for example, (x t −x t−1 , y t −y t−1 , z t − z t−1 )) Calculate. Then, the mobile body position information acquiring unit 132 acquires the mobile body position information (eg, (x t-1 , y t-1 , z t- 1 ))) and the amount of movement, the position information of the mobile object at the current time point (t) (for example, (x t , y t , z t )) is acquired.

次に、オブジェクト認識部133は、過去の1以上の時点(例えば、直前の時点)の3D点の集合と現時点の3D点の集合との同期を取るために、現時点の3D点の集合を、移動体位置情報を用いて補正する。 Next, in order to synchronize the set of 3D points at one or more past points in time (for example, the immediately preceding point) with the set of 3D points at the present time, the object recognition unit 133 converts the set of 3D points at the present point into Correction is performed using the moving object position information.

次に、オブジェクト認識部133は、現時点の3D点の集合に対してオブジェクト認識処理を行う。 Next, the object recognition unit 133 performs object recognition processing on the current set of 3D points.

具体的には、オブジェクト認識部133は、過去の3D点と同じ位置に存在するかどうかを考慮して、現在の各3D点が動体に属するかどうかを判定しながら、現時点の3D点の集合に対してオブジェクト認識処理を行う。ここで、考慮するとは、例えば、複数の各3D点の距離を基準としてオブジェクトを構成する3D点の集合を特定する際に、その複数の3D点が双方とも過去の3D点と同じ位置に存在するかどうかによって距離に重みづけを行うことをいう。 次に、オブジェクト認識部133は、過去の時点(例えば、直前の時点)の3D点の集合から得られた各オブジェクトの1または2以上の各オブジェクト位置情報または/および属性値と、現時点の3D点の集合に対する各オブジェクトの1または2以上の各オブジェクト位置情報または/および属性値とを対比し、過去の時点の3D点の集合から得られた各オブジェクトと現時点の3D点の集合に対する各オブジェクトとの対応を決定する。 Specifically, the object recognition unit 133 determines whether each current 3D point belongs to a moving object, considering whether it exists at the same position as a past 3D point, object recognition processing. Here, taking into consideration means that, for example, when specifying a set of 3D points forming an object based on the distance between each of the plurality of 3D points, both of the plurality of 3D points exist at the same positions as the past 3D points. It refers to weighting the distance depending on whether or not Next, the object recognition unit 133 recognizes one or more object position information and/or attribute values of each object obtained from a set of 3D points at a past time (for example, immediately before), and a current 3D point. Each object obtained from a set of 3D points in the past and each object for a set of 3D points at the present time by comparing one or more object position information and/or attribute values of each object with respect to the set of points determine how to deal with

なお、過去の時点において動体または非動体であったオブジェクトが、現時点においては、過去の判断とは異なり、非動体または動体として判断される場合がある。例えば、立ち止まっていた人間が歩き始めた、動いていた車が駐車した等の場合である。また、オブジェクトが動体であるか非動体であるかのフラグ情報は、オブジェクトの属性値の一種である、とする。なお、ここで、(2)で説明した、過去のオブジェクトの移動量を考慮したオブジェクトの対応付けを行ってもよい。 Note that an object that was moving or non-moving in the past may now be determined to be non-moving or moving, unlike past determinations. For example, a person who was standing still starts walking, or a moving car is parked. It is also assumed that flag information indicating whether an object is moving or non-moving is a kind of attribute value of the object. Here, the objects may be associated in consideration of the amount of movement of the objects in the past as described in (2).

そして、例えば、オブジェクト認識部133は、同一の元情報から取得された移動体位置情報に対応付けて、各オブジェクトの1または2以上のオブジェクト位置情報を図示しないバッファに蓄積する。なお、オブジェクト認識部133は、各オブジェクトの属性値をも一緒に、図示しないバッファに蓄積することは好適である。 Then, for example, the object recognition unit 133 stores one or more pieces of object position information of each object in a buffer (not shown) in association with the moving body position information acquired from the same original information. It is preferable that the object recognition unit 133 also store the attribute values of each object together in a buffer (not shown).

オブジェクト認識部133は、例えば、元情報取得部131が取得した2以上の各レーザー情報が有するレーザー識別子と対になる発信手段位置情報と発信手段方向情報と、レーザー情報が有する戻り時間とを用いて、オブジェクトのオブジェクト位置情報をレーザー情報ごとに取得し、取得した2以上のオブジェクト位置情報を用いて、1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付ける。 The object recognition unit 133 uses, for example, the transmitting means position information and the transmitting means direction information paired with the laser identifiers possessed by the two or more pieces of laser information acquired by the original information acquisition unit 131, and the return time possessed by the laser information. object position information of each object is obtained for each laser information, one or more objects are identified using the obtained two or more object position information, and each of the one or more objects and two or more object position information of each object are identified. and

オブジェクト認識部133は、2以上の各時点において、1以上のオブジェクトを特定し、1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付けることは好適である。 It is preferable that the object recognition unit 133 identifies one or more objects at each of two or more points in time, and associates each of the one or more objects with two or more pieces of object position information of each object.

元情報がレーザー識別子と戻り時間との組である場合、オブジェクト認識部133は、元情報から、移動体位置情報に対する三次元空間内の相対位置を示すオブジェクト位置情報を取得する。例えば、2以上のオブジェクト位置情報からオブジェクトの輪郭抽出を行い、輪郭に対応する格納部11のオブジェクト情報を選択し、オブジェクト情報が有するオブジェクト識別子を取得する。そして、オブジェクト識別子で識別されるオブジェクトの輪郭を構成する2以上のオブジェクト位置情報とオブジェクト識別子とを対にして保持する。かかる場合、格納部11には、1以上のオブジェクト情報が格納されている。なお、オブジェクト認識部133は、オブジェクトの輪郭を構成する2以上のオブジェクト位置情報に加えて、オブジェクトの内部のオブジェクト位置情報をもオブジェクト識別子と対にして保持しても良いことは言うまでもない。 When the original information is a set of a laser identifier and a return time, the object recognition unit 133 acquires object position information indicating a relative position within the three-dimensional space with respect to the moving body position information from the original information. For example, the outline of the object is extracted from two or more pieces of object position information, the object information in the storage unit 11 corresponding to the outline is selected, and the object identifier of the object information is acquired. Then, two or more pieces of object position information forming the outline of the object identified by the object identifier and the object identifier are paired and held. In such a case, the storage unit 11 stores one or more pieces of object information. It goes without saying that the object recognition unit 133 may hold object position information inside the object in addition to the two or more pieces of object position information forming the outline of the object, paired with the object identifier.

また、元情報が距離画像の場合、距離画像から空間内のオブジェクトを認識し、オブジェクト識別子を取得する。画像からオブジェクトを認識する技術は公知技術である。オブジェクト認識部133は、深層学習などの機械学習技術やオブジェクト情報とのパターンマッチングの技術等が利用可能である。そして、オブジェクト認識部133は、オブジェクト識別子と認識したオブジェクトを構成する2以上のオブジェクト位置情報とを対にして保持する。 Also, when the original information is a range image, an object in space is recognized from the range image and an object identifier is acquired. A technique for recognizing an object from an image is a known technique. The object recognition unit 133 can use a machine learning technique such as deep learning, a technique of pattern matching with object information, or the like. Then, the object recognition unit 133 holds the object identifier and two or more pieces of object position information forming the recognized object as a pair.

なお、オブジェクト認識部133がオブジェクト識別子と2以上のオブジェクト位置情報とを対にして保持する場所は、格納部11でも良いし、図示しないバッファ等でも良い。 The location where the object recognition unit 133 holds the pair of object identifiers and two or more pieces of object position information may be the storage unit 11 or a buffer (not shown).

出力図構成部134は、移動体位置情報と1以上の各オブジェクトの2以上のオブジェクト位置情報とを用いて、出力図を構成する。出力図とは、移動体と1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である。出力図の具体例は後述する。なお、出力図構成部134が用いる移動体位置情報とオブジェクト位置情報とは、同一の1以上の元情報から取得された情報である。また、1以上の各オブジェクトの2以上のオブジェクト位置情報とは、1以上の各オブジェクトの認識結果である、と言っても良い。 出力図構成部134は、2以上の各時点において、オブジェクト認識部133が認識した1以上のオブジェクトが含まれる図であり、移動体位置情報取得部132が取得した2以上の各時点における移動体位置情報により構成される移動体の移動軌跡を示す軌跡情報が含まれる図である出力図を構成する。 The output diagram constructing unit 134 constructs an output diagram using the moving body position information and two or more object position information of one or more objects. The output drawing is a three-dimensional drawing that allows recognition of the relative positional relationship between the moving object and one or more objects. A specific example of the output diagram will be described later. It should be noted that the moving body position information and the object position information used by the output diagram construction unit 134 are information acquired from the same one or more pieces of original information. Also, it can be said that two or more pieces of object position information of each of one or more objects are recognition results of each of one or more objects. The output diagram construction unit 134 is a diagram including one or more objects recognized by the object recognition unit 133 at each of two or more points in time. An output diagram, which is a diagram including trajectory information indicating the movement trajectory of the moving object configured by the position information, is constructed.

判断部135は、元情報取得部131が取得した2以上の時点における2以上の元情報を用いて、オブジェクト認識部133が特定した1以上の各オブジェクトの動作に関する動作情報を取得し、動作情報が予め決められた条件に合致するか否かを判断する。動作情報は、例えば、移動体とオブジェクトとの距離の変化の履歴(例えば、「15m,12m,6m等」)である。動作情報は、例えば、移動体とオブジェクトとの距離が縮まっていることを示す情報である。動作情報は、例えば、オブジェクトのオブジェクト位置情報群の2以上の時点の集合である。オブジェクト位置情報群は、一のオブジェクトを特定する2以上のオブジェクト位置情報の集合である。 The determination unit 135 acquires motion information about the motion of each of the one or more objects identified by the object recognition unit 133 using the two or more pieces of original information acquired by the original information acquisition unit 131 at two or more points in time, and obtains the motion information. matches a predetermined condition. The motion information is, for example, a history of changes in the distance between the moving object and the object (for example, "15m, 12m, 6m, etc."). The motion information is, for example, information indicating that the distance between the moving body and the object is decreasing. The motion information is, for example, a set of two or more time points of the object position information group of the object. An object position information group is a set of two or more pieces of object position information specifying one object.

出力部14は、各種の情報を出力する。ここで、出力とは、通常、ディスプレイへの表示であるが、プロジェクターを用いた投影、プリンタでの印字、外部の装置(通常、表示装置)への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。 The output unit 14 outputs various information. Here, output usually means display on a display, but projection using a projector, printing with a printer, transmission to an external device (usually a display device), storage in a recording medium, and other processing This is a concept including delivery of processing results to devices and other programs.

図出力部141は、出力図構成部134が構成した出力図を出力する。出力図の態様は問わない。出力図の例は後述する。出力図において、オブジェクト認識部133が認識したオブジェクトを特定する2以上のオブジェクト位置情報が、他のオブジェクト位置情報と区別可能な態様であることは好適である。出力図において、オブジェクト認識部133が認識したオブジェクトが認識可能な態様であることは好適である。また、出力図は、動体と非動体とが区別可能な態様であることは好適である。 The diagram output unit 141 outputs the output diagram configured by the output diagram configuration unit 134 . The form of the output diagram does not matter. An example of the output diagram will be described later. In the output diagram, it is preferable that the two or more pieces of object position information specifying the object recognized by the object recognition unit 133 are distinguishable from other object position information. In the output drawing, it is preferable that the object recognized by the object recognition unit 133 is in a recognizable form. In addition, it is preferable that the output diagram be in a mode in which a moving object and a non-moving object can be distinguished.

判断情報出力部142は、判断部135が条件に合致すると判断した場合に、判断に関する判断情報を出力する。判断情報出力部142は、判断部135が条件に合致すると判断した場合に、当該条件に対応する判断情報を格納部11から取得し、当該情報を用いて、判断情報を出力する。 The determination information output unit 142 outputs determination information regarding the determination when the determination unit 135 determines that the conditions are met. If the determination unit 135 determines that the condition is met, the determination information output unit 142 acquires determination information corresponding to the condition from the storage unit 11, and uses the information to output the determination information.

ここで、出力とは、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、部の装置(通常、表示装置)への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。 Here, output means display on a display, projection using a projector, printing on a printer, sound output, transmission to a device in the department (usually a display device), storage in a recording medium, storage in a recording medium, other processing devices, or This is a concept that includes the delivery of processing results to other programs.

格納部11は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。格納部11に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部11で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部11で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部11で記憶されるようになってもよい。 The storage unit 11 is preferably a non-volatile recording medium, but can also be realized with a volatile recording medium. The process by which the information is stored in the storage unit 11 does not matter. For example, information may be stored in the storage unit 11 via a recording medium, information transmitted via a communication line or the like may be stored in the storage unit 11, or Information input via an input device may be stored in the storage unit 11 .

処理部13、元情報取得部131、移動体位置情報取得部132、オブジェクト認識部133、出力図構成部134、および判断部135は、通常、MPUやメモリ等から実現され得る。処理部13等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。 The processing unit 13, the original information acquisition unit 131, the moving body position information acquisition unit 132, the object recognition unit 133, the output diagram construction unit 134, and the judgment unit 135 can be usually implemented by an MPU, memory, or the like. The processing procedure of the processing unit 13 and the like is normally realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

出力部14、図出力部141、および判断情報出力部142は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力部14等は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。 The output unit 14, the diagram output unit 141, and the judgment information output unit 142 may or may not include output devices such as displays and speakers. The output unit 14 and the like can be realized by output device driver software, or by output device driver software and an output device.

次に、情報処理装置1の動作例について、図2のフローチャートを用いて説明する。 Next, an operation example of the information processing apparatus 1 will be described using the flowchart of FIG.

(ステップS201)受付部12は、動作開始指示を受け付けたか否かを判断する。動作開始指示を受け付けた場合はステップS202に行き、動作開始指示を受け付けない場合はステップS201に戻る。 (Step S201) The reception unit 12 determines whether or not an operation start instruction has been received. If the operation start instruction is received, the process goes to step S202, and if the operation start instruction is not received, the process returns to step S201.

(ステップS202)元情報取得部131は、元情報を取得する。かかる元情報取得処理について、図3のフローチャートを用いて説明する。 (Step S202) The original information acquisition unit 131 acquires original information. Such original information acquisition processing will be described with reference to the flowchart of FIG.

(ステップS203)移動体位置情報取得部132は、移動体位置情報を取得する。なお、移動体位置情報取得部132が相対的な位置を示す移動体位置情報を取得する場合、最初は、例えば、原点(0,0,0)を取得する。移動体位置情報取得処理の例について、図4のフローチャートを用いて説明する。 (Step S203) The mobile position information acquisition unit 132 acquires mobile position information. When the moving body position information acquiring unit 132 acquires moving body position information indicating a relative position, the origin (0, 0, 0) is acquired first, for example. An example of mobile body position information acquisition processing will be described with reference to the flowchart of FIG.

(ステップS204)オブジェクト認識部133は、オブジェクト認識処理を行う。かかるオブジェクト認識処理の例について、図5のフローチャートを用いて説明する。 (Step S204) The object recognition unit 133 performs object recognition processing. An example of such object recognition processing will be described with reference to the flowchart of FIG.

(ステップS205)出力図構成部134は、出力図の構成を行う。かかる出力図構成処理について、図6のフローチャートを用いて説明する。 (Step S205) The output diagram configuration unit 134 configures the output diagram. Such output diagram construction processing will be described with reference to the flowchart of FIG.

(ステップS206)図出力部141は、ステップS205で構成された出力図を出力する。 (Step S206) The diagram output unit 141 outputs the output diagram configured in step S205.

(ステップS207)判断部135は、移動物に対する判断処理を行う。かかる判断処理について、図7のフローチャートを用いて説明する。 (Step S207) The determination unit 135 performs determination processing on the moving object. Such determination processing will be described with reference to the flowchart of FIG.

(ステップS208)判断情報出力部142は、ステップS207における判断処理の結果、判断情報が得られたか否かを判断する。判断情報が得られた場合はステップS209に行き、判断情報が得られない場合はステップS210に行く。 (Step S208) The determination information output unit 142 determines whether or not determination information has been obtained as a result of the determination processing in step S207. If the judgment information is obtained, the process goes to step S209, and if the judgment information is not obtained, the process goes to step S210.

(ステップS209)判断情報出力部142は、ステップS207で得られた1以上の判断情報を出力する。 (Step S209) The determination information output unit 142 outputs one or more pieces of determination information obtained in step S207.

(ステップS210)受付部12は、動作終了指示を受け付けたか否かを判断する。動作終了指示を受け付けた場合は処理を終了し、動作終了指示を受け付けない場合はステップS201に戻る。 (Step S210) The reception unit 12 determines whether or not an operation end instruction has been received. If the operation end instruction is accepted, the process is terminated, and if the operation end instruction is not accepted, the process returns to step S201.

次に、ステップS203の元情報取得処理の例について、図3のフローチャートを用いて説明する。 Next, an example of the original information acquisition process in step S203 will be described using the flowchart of FIG.

(ステップS301)元情報取得部131は、カウンタiに1を代入する。 (Step S301) The original information acquisition unit 131 substitutes 1 for the counter i.

(ステップS302)元情報取得部131は、i番目のレーザー発信手段が存在するか否かを判断する。i番目のレーザー発信手段が存在する場合はステップS303に行き、i番目のレーザー発信手段が存在しない場合はステップS307に行く。 (Step S302) The original information acquisition unit 131 determines whether or not the i-th laser transmitting means exists. If the i-th laser transmission means exists, go to step S303, and if the i-th laser transmission means does not exist, go to step S307.

(ステップS303)元情報取得部131は、i番目のレーザー発信手段のレーザー識別子を取得する。なお、レーザー識別子は、通常、格納部11に格納されている。 (Step S303) The original information acquisition unit 131 acquires the laser identifier of the i-th laser transmission means. Note that the laser identifier is normally stored in the storage unit 11 .

(ステップS304)元情報取得部131は、i番目のレーザー発信手段が発信したレーザーの戻り時間を取得する。なお、かかる処理は、LIDARの公知技術である。 (Step S304) The original information acquisition unit 131 acquires the return time of the laser transmitted by the i-th laser transmission means. It should be noted that such processing is a known technology of LIDAR.

(ステップS305)元情報取得部131は、ステップS303で取得したレーザー識別子とステップS304で取得した戻り時間とを有する元情報を構成する。なお、元情報取得部131は、レーザー識別子と戻り時間とから3次元座標値を算出し、当該3次元座標値を有する元情報を構成しても良い。かかる場合、元情報取得部131は、戻り時間から原点に対する距離を取得し、レーザー識別子に対応する原点に対する角度を取得し、当該距離と角度とから、原点に対する3次元座標値を算出する。かかる処理は公知技術である。また、レーザー識別子に対応付けて、原点に対する角度が、格納部11に格納されている。 (Step S305) The original information acquisition unit 131 configures original information having the laser identifier acquired in step S303 and the return time acquired in step S304. Note that the original information acquisition unit 131 may calculate three-dimensional coordinate values from the laser identifier and the return time, and configure the original information having the three-dimensional coordinate values. In such a case, the original information acquisition unit 131 acquires the distance to the origin from the return time, acquires the angle to the origin corresponding to the laser identifier, and calculates the three-dimensional coordinate value to the origin from the distance and the angle. Such treatments are known in the art. Also, the angle with respect to the origin is stored in the storage unit 11 in association with the laser identifier.

(ステップS306)元情報取得部131は、カウンタiを1、インクリメントする。ステップS302に戻る。 (Step S306) The original information acquisition unit 131 increments the counter i by 1. Return to step S302.

(ステップS307)元情報取得部131は、この時点の元情報群を構成し、図示しないバッファに一時蓄積する。上位処理にリターンする。なお、元情報群は、ステップS305で構成された2以上の元情報の集合である。 (Step S307) The original information acquisition unit 131 constructs the original information group at this time and temporarily stores it in a buffer (not shown). Return to upper process. Note that the original information group is a set of two or more pieces of original information configured in step S305.

なお、図3のフローチャートにおいて、この時点の元情報群は、例えば、一時点における移動体の周辺、360度(一周)分の元情報の集合であることは好適である。 In the flowchart of FIG. 3, it is preferable that the original information group at this point is, for example, a set of original information for 360 degrees (one round) around the mobile object at one point.

また、図3のフローチャートにおいて、元情報取得部131は、移動体の周辺の1以上の距離画像を取得しても良い。 In addition, in the flowchart of FIG. 3, the original information acquisition unit 131 may acquire one or more distance images around the moving object.

次に、ステップS203の移動体位置情報取得処理の例について、図4のフローチャートを用いて説明する。 Next, an example of the mobile body position information acquisition processing in step S203 will be described using the flowchart of FIG.

(ステップS401)移動体位置情報取得部132は、元情報取得部131が取得した1以上の各元情報が有する3次元空間上の座標値の集合、または1以上の各元情報から取得される3次元空間上の座標値の集合から、1以上の特徴点を取得し、図示しないバッファに一時蓄積する。なお、特徴点は、3Dの座標値である。 (Step S401) The moving body position information acquisition unit 132 acquires from a set of coordinate values in a three-dimensional space possessed by one or more pieces of original information acquired by the original information acquisition unit 131, or from one or more pieces of each piece of original information. One or more feature points are acquired from a set of coordinate values in the three-dimensional space and temporarily stored in a buffer (not shown). Note that the feature points are 3D coordinate values.

(ステップS402)移動体位置情報取得部132は、図示しないバッファに、直前の時点の1以上の特徴点が格納されているか否かを判断する。1以上の特徴点が格納されている場合はステップS403に行き、格納されていない場合はステップS408に行く。 (Step S402) The mobile body position information acquisition unit 132 determines whether or not one or more feature points at the immediately preceding point are stored in a buffer (not shown). If one or more feature points are stored, go to step S403, otherwise go to step S408.

(ステップS403)移動体位置情報取得部132は、移動体位置情報取得部132は、図示しないバッファから、直前の時点の1以上の特徴点を読み出す。 (Step S403) The moving body position information acquisition unit 132 reads one or more feature points at the immediately preceding point from a buffer (not shown).

(ステップS404)移動体位置情報取得部132は、ステップS401で取得した1以上の特徴点のうちのいずれか1以上の各特徴点に対応する特徴点であり、直前の時点の1以上の特徴点を決定する。 (Step S404) The moving body position information acquiring unit 132 acquires feature points corresponding to one or more feature points among the one or more feature points acquired in step S401. determine the point.

(ステップS405)移動体位置情報取得部132は、対応する2つの特徴点の差異である移動量を算出する。なお、対応する2つの特徴点は、ステップS401で取得した現時点の特徴点と、直前の時点の特徴点である。対応するとは、例えば、周辺の点の集合から構成される形状が類似し、距離が一定範囲に留まることである。また、ここで、移動量を算出するために使用する特徴点は、非動体のオブジェクトの特徴点である。また、移動体位置情報取得部132は、2以上の特徴点の組の差異を算出し、最も多い値の差異を移動量としても良い。なお、特徴点の組とは、対応する2つの特徴点である。 (Step S405) The mobile body position information acquisition unit 132 calculates the movement amount, which is the difference between the two corresponding feature points. Note that the corresponding two feature points are the current feature point acquired in step S401 and the previous feature point. Corresponding means, for example, that the shapes formed by a set of peripheral points are similar and the distance remains within a certain range. Also, the feature points used for calculating the amount of movement are the feature points of the non-moving object. Further, the moving body position information acquiring unit 132 may calculate differences between sets of two or more feature points, and use the largest difference as the amount of movement. Note that a set of feature points is two corresponding feature points.

(ステップS406)移動体位置情報取得部132は、図示しないバッファから、直前の時点の移動体位置情報を読み出す。 (Step S406) The moving body position information acquisition unit 132 reads the immediately preceding moving body position information from a buffer (not shown).

(ステップS407)移動体位置情報取得部132は、ステップS406で読み出した移動体位置情報と、ステップS405で取得した移動量とから、現時点の移動体位置情報を算出する。上位処理にリターンする。 (Step S407) The mobile body position information acquisition unit 132 calculates current mobile body position information from the mobile body position information read out in step S406 and the amount of movement acquired in step S405. Return to upper process.

(ステップS408)移動体位置情報取得部132は、ステップS401で取得した1以上の特徴点に対して、原点を対応付ける。なお、原点は、開始時の移動体位置情報である。上位処理にリターンする。 次に、ステップS204のオブジェクト認識処理の例について、図5のフローチャートを用いて説明する。 (Step S408) The moving body position information acquisition unit 132 associates the origin with one or more feature points acquired in step S401. Note that the origin is the mobile body position information at the start. Return to upper process. Next, an example of object recognition processing in step S204 will be described using the flowchart of FIG.

(ステップS501)オブジェクト認識部133は、カウンタiに1を代入する。 (Step S501) The object recognition unit 133 substitutes 1 for the counter i.

(ステップS502)オブジェクト認識部133は、図示しないバッファに一時蓄積された元情報群の中に、i番目の元情報が存在するか否かを判断する。i番目の元情報が存在する場合はステップS503に行き、i番目の元情報が存在しない場合はステップS506に行く。 (Step S502) The object recognition unit 133 determines whether or not the i-th original information exists in the original information group temporarily accumulated in the buffer (not shown). If the i-th original information exists, go to step S503, and if the i-th original information does not exist, go to step S506.

(ステップS503)オブジェクト認識部133は、i番目の元情報からi番目のオブジェクト位置情報を取得する。オブジェクト認識部133は、例えば、i番目の元情報が有するレーザー識別子と対になる発信手段位置情報と発信手段方向情報とを格納部11から取得し、当該発信手段位置情報と発信手段方向情報とi番目の元情報が有する戻り時間とを用いて、i番目の元情報に対応する移動体位置情報に対する相対的な三次元座標値を取得する。そして、オブジェクト認識部133は、例えば、当該移動体位置情報と当該三次元座標値とを用いて、i番目のオブジェクト位置情報を取得する。 (Step S503) The object recognition unit 133 acquires the i-th object position information from the i-th original information. For example, the object recognition unit 133 acquires from the storage unit 11 the transmitting means position information and transmitting means direction information paired with the laser identifier possessed by the i-th original information, and stores the transmitting means position information and transmitting means direction information. Using the return time included in the i-th original information, the relative three-dimensional coordinate values with respect to the moving body position information corresponding to the i-th original information are obtained. Then, the object recognition unit 133 acquires the i-th object position information, for example, using the mobile body position information and the three-dimensional coordinate values.

(ステップS504)オブジェクト認識部133は、ステップS503で取得したi番目のオブジェクト位置情報を図示しないバッファに一時蓄積する。 (Step S504) The object recognition unit 133 temporarily accumulates the i-th object position information acquired in step S503 in a buffer (not shown).

(ステップS505)オブジェクト認識部133は、カウンタiを1、インクリメントする。ステップS502に戻る。 (Step S505) The object recognition unit 133 increments the counter i by 1. Return to step S502.

(ステップS506)オブジェクト認識部133は、カウンタjに1を代入する。 (Step S506) The object recognition unit 133 substitutes 1 for the counter j.

(ステップS507)オブジェクト認識部133は、図示しないバッファにj番目のオブジェクト位置情報が存在するか否かを判断する。j番目のオブジェクト位置情報が存在する場合はステップS508に行き、j番目のオブジェクト位置情報が存在しない場合は上位処理にリターンする。 (Step S507) The object recognition unit 133 determines whether or not j-th object position information exists in a buffer (not shown). If the j-th object position information exists, go to step S508, and if the j-th object position information does not exist, return to the upper process.

(ステップS508)オブジェクト認識部133は、図示しないバッファからj番目のオブジェクト位置情報を取得する。 (Step S508) The object recognition unit 133 acquires j-th object position information from a buffer (not shown).

(ステップS509)オブジェクト認識部133は、ステップS508で取得したj番目のオブジェクト位置情報を含むオブジェクト位置情報群であり、j番目のオブジェクト位置情報が構成する一のオブジェクトを構成するオブジェクト位置情報群を取得する。なお、このオブジェクト位置情報群は、当該一のオブジェクトを構成するオブジェクト位置情報の集合であり、j番目のオブジェクト位置情報を含む。なお、一のオブジェクトを構成するオブジェクト位置情報の集合は、例えば、予め決められた関係を満たすほど近い位置のオブジェクト位置情報の集合である。 (Step S509) The object recognition unit 133 recognizes an object position information group including the j-th object position information acquired in step S508, and an object position information group constituting one object formed by the j-th object position information. get. Note that this object position information group is a set of object position information forming the one object, and includes the j-th object position information. A set of object position information forming one object is, for example, a set of object position information of positions close enough to satisfy a predetermined relationship.

(ステップS510)オブジェクト認識部133は、直前の時点のオブジェクト位置情報群の中に、ステップS509で取得したオブジェクト位置情報群に対応するオブジェクト位置情報群が存在するか否かを判断する。存在する場合はステップS511に行き、存在しない場合はステップS514に行く。 (Step S510) The object recognition unit 133 determines whether or not an object position information group corresponding to the object position information group acquired in step S509 exists in the immediately preceding object position information group. If it exists, go to step S511; if not, go to step S514.

なお、ステップS509で取得したオブジェクト位置情報群に対応するオブジェクト位置情報群とは、ステップS509で取得したオブジェクト位置情報群と同じオブジェクトのオブジェクト位置情報群である。なお、このオブジェクト位置情報群により特定されるオブジェクトは、静止しているオブジェクトでも、移動物のオブジェクトでも良い。静止しているオブジェクトの場合、時点が異なる同一のオブジェクトを特定する2つのオブジェクト位置情報群は、同じ情報または一方が他方に含まれる情報である。また、移動物のオブジェクトの場合、時点が異なる同一のオブジェクトを特定する2つのオブジェクト位置情報群は、複数のオブジェクト位置情報が一定割合以上、同一幅でずれている情報である。なお、一度に移動体の360度の周辺のオブジェクト認識を行う場合、現在の時点がN回目の周辺オブジェクトの認識を行う時点である場合、直前の時点とは、(N-1)回目の周辺オブジェクトの認識を行った時点である。 The object position information group corresponding to the object position information group acquired in step S509 is the object position information group of the same object as the object position information group acquired in step S509. The object specified by this object position information group may be a stationary object or a moving object. For stationary objects, two sets of object position information specifying the same object at different times are the same information or information contained one in the other. Also, in the case of a moving object, two groups of object position information specifying the same object at different points in time are information in which a plurality of pieces of object position information are shifted in the same width by a certain ratio or more. Note that when recognizing objects around 360 degrees of a moving object at one time, if the current time is the N-th time of recognizing the surrounding objects, the immediately preceding time is the (N−1)th time of This is the point at which object recognition is performed.

(ステップS511)オブジェクト認識部133は、ステップS509で取得したオブジェクト位置情報群と、ステップS509で取得したオブジェクト位置情報群に対応するオブジェクト位置情報群(以前の時点のオブジェクト位置情報群)とから、当該オブジェクト位置情報群に対応するオブジェクトが移動しているか否かを判断する。移動している場合はステップS512に行き、移動していない場合はステップS513に行く。なお、オブジェクト認識部133は、移動体の移動量を用いて、オブジェクトが移動しているか否かを判断する。 (Step S511) The object recognition unit 133, from the object position information group acquired in step S509 and the object position information group corresponding to the object position information group acquired in step S509 (the object position information group at the previous point in time), It is determined whether or not the object corresponding to the object position information group is moving. If it has moved, go to step S512; if not, go to step S513. The object recognition unit 133 uses the amount of movement of the moving object to determine whether the object is moving.

(ステップS512)オブジェクト認識部133は、ステップS509で取得したオブジェクト位置情報群に対応付けて、当該オブジェクトが移動物であることを示す移動物フラグを付加する。 (Step S512) The object recognition unit 133 adds a moving object flag indicating that the object is a moving object in association with the object position information group acquired in step S509.

(ステップS513)オブジェクト認識部133は、ステップS509で取得したオブジェクト位置情報群に対応付けて、当該オブジェクトが移動物でないことを示す非移動物フラグを付加する。 (Step S513) The object recognition unit 133 adds a non-moving object flag indicating that the object is not a moving object in association with the object position information group acquired in step S509.

(ステップS514)カウンタiをNだけ、インクリメントする。ステップS507に戻る。なお、Nは、一のオブジェクトを構成するオブジェクト位置情報の数である。 (Step S514) The counter i is incremented by N. Return to step S507. Note that N is the number of pieces of object position information forming one object.

なお、図5のフローチャートにおいて、上述した他のオブジェクト認識処理のアルゴリズムを用いても良い。 次に、ステップS205の出力図構成処理の例について、図6のフローチャートを用いて説明する。 In addition, in the flowchart of FIG. 5, you may use the algorithm of the other object recognition processing mentioned above. Next, an example of the output diagram construction processing in step S205 will be described with reference to the flowchart of FIG.

(ステップS601)出力図構成部134は、直前の出力図が存在するか否かを判断する。直前の出力図が存在する場合はステップS602に行き、直前の出力図が存在しない場合はステップS603に行く。なお、直前の出力図とは、直前の時点で出力した出力図である。直前の時点で出力した出力図とは、現時点の直前の時点で取得した元情報の集合を用いて構成された出力図である。 (Step S601) The output diagram configuration unit 134 determines whether or not the previous output diagram exists. If the previous output map exists, the process goes to step S602, and if the previous output map does not exist, the process goes to step S603. It should be noted that the immediately preceding output diagram is the output diagram output immediately before. The output map output immediately before is an output map configured using a set of original information acquired at the point immediately before the current time.

(ステップS602)出力図構成部134は、図示しないバッファから、直前の出力図を構成したオブジェクト位置情報を取得する。 (Step S602) The output diagram construction unit 134 acquires the object position information that constructed the previous output diagram from a buffer (not shown).

(ステップS603)出力図構成部134は、カウンタiに1を代入する。 (Step S603) The output diagram construction unit 134 substitutes 1 for the counter i.

(ステップS604)出力図構成部134は、移動物フラグに対応するi番目のオブジェクト位置情報群が存在するか否かを判断する。存在する場合はステップS605に行き、存在しない場合はステップS607に行く。なお、移動物フラグに対応するオブジェクト位置情報群とは、移動物であるオブジェクトのオブジェクト位置情報群である。 (Step S604) The output diagram construction unit 134 determines whether or not the i-th object position information group corresponding to the moving object flag exists. If it exists, go to step S605; if not, go to step S607. The object position information group corresponding to the moving object flag is the object position information group of objects that are moving objects.

(ステップS605)出力図構成部134は、移動物フラグに対応するi番目のオブジェクト位置情報群に対して、削除フラグを付加する。なお、削除フラグが付加されたオブジェクト位置情報群は、出力図を構成するために使用されない。削除フラグを付加することは、削除することでも良い。 (Step S605) The output diagram construction unit 134 adds a deletion flag to the i-th object position information group corresponding to the moving object flag. Note that the object position information group to which the deletion flag is added is not used for constructing the output drawing. Adding a deletion flag may be deletion.

(ステップS606)出力図構成部134は、カウンタiを1、インクリメントする。ステップS604に戻る。 (Step S606) The output diagram construction unit 134 increments the counter i by 1. Return to step S604.

(ステップS607)出力図構成部134は、現時点に取得したオブジェクト位置情報の集合を、出力図を構成するオブジェクト位置情報の集合に付加する。なお、ここで、現時点に取得したオブジェクト位置情報の集合の中で、同一オブジェクトを構成する同一のオブジェクト位置情報が、出力図を構成するオブジェクト位置情報の集合の中に存在する場合、出力図構成部134は、当該オブジェクト位置情報を、出力図を構成するオブジェクト位置情報の集合の中に付加しないことは好適である。 (Step S607) The output diagram construction unit 134 adds the currently acquired set of object position information to the set of object position information constituting the output diagram. Here, in the set of object position information acquired at the present time, if the same object position information constituting the same object exists in the set of object position information constituting the output map, the output map configuration Preferably, unit 134 does not add the object location information to the collection of object location information that makes up the output view.

(ステップS608)出力図構成部134は、ステップS202で取得されてきた1以上の移動体位置情報を用いて、移動体の移動軌跡を示す軌跡情報を取得する。 (Step S608) The output diagram construction unit 134 acquires trajectory information indicating the movement trajectory of the moving body using the one or more pieces of moving body position information acquired in step S202.

(ステップS609)出力図構成部134は、ステップS607で取得したオブジェクト位置情報の集合と、ステップS608で取得した軌跡情報とを用いて、出力図を構成する。上位処理にリターンする。 (Step S609) The output diagram constructing unit 134 constructs an output diagram using the set of object position information obtained in step S607 and the trajectory information obtained in step S608. Return to upper process.

なお、図6のフローチャートにおいて、軌跡情報に代えて、現時点の移動体の位置を示す移動体位置情報に基づいて、移動体の現在の位置を示す出力図を構成しても良い。 In the flowchart of FIG. 6, the output diagram showing the current position of the moving object may be constructed based on the moving object position information showing the current position of the moving object instead of the trajectory information.

次に、ステップS207の判断処理の例について、図7のフローチャートを用いて説明する。 Next, an example of determination processing in step S207 will be described using the flowchart of FIG.

(ステップS701)判断部135は、カウンタiに1を代入する。 (Step S701) The determination unit 135 substitutes 1 for the counter i.

(ステップS702)判断部135は、バッファの中のオブジェクト位置情報群を用いて、i番目の移動物が存在するか否かを判断する。i番目の移動物が存在する場合はステップS703に行き、i番目の移動物が存在しない場合は上位処理にリターンする。 (Step S702) The determination unit 135 determines whether or not the i-th moving object exists using the object position information group in the buffer. If the i-th moving object exists, go to step S703, and if the i-th moving object does not exist, return to the higher-level processing.

(ステップS703)判断部135は、i番目の移動物のオブジェクト位置情報群を、図示しないバッファから取得する。 (Step S703) The determination unit 135 acquires the object position information group of the i-th moving object from a buffer (not shown).

(ステップS704)判断部135は、カウンタjに1を代入する。 (Step S704) The determination unit 135 substitutes 1 for the counter j.

(ステップS705)判断部135は、j番目の予め決められた条件が格納部11に存在するか否かを判断する。条件が存在する場合はステップS706に行き、条件が存在しない場合は、ステップS709に行く。 (Step S<b>705 ) The determination unit 135 determines whether or not the j-th predetermined condition exists in the storage unit 11 . If the condition exists, go to step S706; otherwise, go to step S709.

(ステップS706)判断部135は、ステップS703で取得したi番目の移動物のオブジェクト位置情報群に対応するi番目の移動物のオブジェクトが、j番目の予め決められた条件に合致するか否かを判断する。合致する場合はステップS707に行き、合致しない場合は」ステップS708に行く。ここで、判断部135は、i番目の移動物の、異なる2以上の時点のオブジェクト位置情報群(移動の軌跡を示す情報)を、j番目の予め決められた条件に適用し、当該条件を満たすか否かを判断することは好適である。 (Step S706) The determination unit 135 determines whether the object of the i-th moving object corresponding to the object position information group of the i-th moving object acquired in step S703 matches the j-th predetermined condition. to judge. If they match, go to step S707; if they do not match, go to step S708. Here, the determination unit 135 applies the object position information group (information indicating the trajectory of movement) of the i-th moving object at two or more different points in time to the j-th predetermined condition, and applies the condition. It is preferable to determine whether it satisfies.

(ステップS707)判断部135は、j番目の予め決められた条件に対応する判断情報を取得する。なお、この判断情報は、i番目の移動物のオブジェクト位置情報群にも対応していることは好適である。かかる場合、判断情報は、i番目の移動物のオブジェクトを特定する情報を含む。i番目の移動物のオブジェクトを特定する情報は、i番目の移動物のオブジェクト位置情報群でも良いし、i番目の移動物のオブジェクト識別子でも良い。なお、判断部135は、例えば、j番目の予め決められた条件に対応する判断情報を格納部11から読出す。 (Step S707) The determination unit 135 acquires determination information corresponding to the j-th predetermined condition. It is preferable that this judgment information also corresponds to the object position information group of the i-th moving object. In this case, the determination information includes information identifying the i-th moving object. The information specifying the object of the i-th moving object may be an object position information group of the i-th moving object or an object identifier of the i-th moving object. Note that the determination unit 135 reads, for example, determination information corresponding to the j-th predetermined condition from the storage unit 11 .

(ステップS708)判断部135は、カウンタjを1、インクリメントする。ステップS705に戻る。 (Step S708) The determination unit 135 increments the counter j by 1. Return to step S705.

(ステップS709)判断部135は、カウンタiを1、インクリメントする。ステップS702に戻る。 (Step S709) The determination unit 135 increments the counter i by 1. Return to step S702.

以下、本実施の形態における情報処理装置1の具体的な動作について説明する。情報処理装置1の概念図は図8である。図8において、801は、情報処理装置1である。802は、LIDARであり、多数のレーザー発信手段を有する。また、情報処理装置1は、ここでは、例えば、ロボット、または自動車等の移動体、AGV(無人搬送車)等である。かかる場合、以下の4つの具体例を説明する。
(具体例1)
A specific operation of the information processing apparatus 1 according to the present embodiment will be described below. A conceptual diagram of the information processing apparatus 1 is shown in FIG. In FIG. 8, 801 is the information processing apparatus 1 . 802 is a LIDAR and has a number of laser emitting means. Further, the information processing apparatus 1 is, for example, a robot, a mobile object such as an automobile, an AGV (automated guided vehicle), or the like. In such a case, the following four specific examples will be described.
(Specific example 1)

情報処理装置1の元情報取得部131は、上述した処理により、LIDAR802から多数の元情報を取得する。なお、LIDAR802は、移動体の周辺の360度に対してレーザーを発信し、当該レーザーの反射を受信し、一度に元情報を取得する、とする。 The original information acquisition unit 131 of the information processing device 1 acquires a large amount of original information from the LIDAR 802 through the above-described processing. It should be noted that the LIDAR 802 emits a laser to 360 degrees around the moving object, receives the reflected laser, and acquires the original information at once.

次に、移動体位置情報取得部132は、元情報取得部131が取得した元情報を用いて、上述した処理により、移動体位置情報を取得する。 Next, using the original information acquired by the original information acquisition unit 131, the mobile location information acquisition unit 132 acquires the mobile location information through the above-described processing.

次に、オブジェクト認識部133は、移動体位置情報取得部132が使用した元情報と同じ元情報を用いて、上述した処理により、移動体である情報処理装置1の周辺のオブジェクトを認識する。 Next, the object recognizing unit 133 uses the same original information as the original information used by the moving body position information acquisition unit 132 and recognizes objects around the information processing device 1, which is a moving body, through the above-described process.

そして、オブジェクト認識部133は、同じ元情報を用いて取得された移動体位置情報とオブジェクトの認識結果とを、対応付けてバッファに蓄積する。なお、オブジェクトの認識結果とは、例えば、各オブジェクトの2以上のオブジェクト位置情報、1以上の属性値である。 Then, the object recognition unit 133 associates the moving body position information acquired using the same original information with the object recognition result and accumulates them in a buffer. Note that the object recognition result is, for example, two or more pieces of object position information and one or more attribute values of each object.

そして、出力図構成部134は、上述した処理により、例えば、複数のオブジェクトを含む出力図を構成し、図出力部141は、かかる出力図を出力する。出力図の例は、図9である。図9において、オブジェクト認識部133が認識したオブジェクト901、902、903は、直方体のBOXにより囲われている。 Then, the output diagram construction unit 134 constructs an output diagram including, for example, a plurality of objects through the above-described processing, and the diagram output unit 141 outputs the output diagram. An example of an output diagram is shown in FIG. In FIG. 9, objects 901, 902, and 903 recognized by the object recognition unit 133 are surrounded by a rectangular parallelepiped BOX.

図9において、移動体の周辺から人やモノを検出し、識別・解析・追跡することができる。また、例えば、情報処理装置1によれば、特定の範囲に存在する人間や車輌などを検知してトラッキングすることで、自律移動システムにおける状況判断や、人流・動線の解析などが可能となる。
(具体例2)
In FIG. 9, it is possible to detect, identify, analyze, and track people and things around the moving object. Further, for example, according to the information processing device 1, by detecting and tracking a person or vehicle existing within a specific range, it becomes possible to determine the situation in an autonomous mobile system and analyze the flow of people and flow lines. .
(Specific example 2)

情報処理装置1の元情報取得部131は、上述した処理により、LIDAR802から多数の元情報を取得する。 The original information acquisition unit 131 of the information processing device 1 acquires a large amount of original information from the LIDAR 802 through the above-described processing.

次に、オブジェクト認識部133は、上述した処理により、移動体である情報処理装置1の周辺のオブジェクトを認識する。 Next, the object recognition unit 133 recognizes objects around the information processing device 1, which is a moving object, by the above-described processing.

また、移動体位置情報取得部132は、上述した処理により、移動体位置情報を取得する。 Further, the moving body position information acquisition unit 132 acquires the moving body position information through the above-described processing.

なお、移動体位置情報取得部132もオブジェクト認識部133も、同一の元情報を用いて、処理を行う。なお、同一の元情報を用いることは、例えば、移動体位置情報取得部132が元情報を用いて取得した情報を、オブジェクト認識部133が用いることも含む、とする。 Note that both the moving body position information acquisition unit 132 and the object recognition unit 133 perform processing using the same original information. Note that using the same original information includes, for example, the object recognition unit 133 using information obtained by the moving body position information obtaining unit 132 using the original information.

そして、出力図構成部134は、上述した処理により、例えば、複数のオブジェクト、および移動体の軌跡を示す軌跡情報を含む出力図を構成する。 Then, the output diagram constructing unit 134 constructs an output diagram including, for example, trajectory information indicating trajectories of a plurality of objects and a moving body, through the above-described processing.

次に、図出力部141は、かかる出力図を出力する。出力図の例は、図10である。図10において、1001が現在の移動体の位置を示す図である。 Next, the diagram output unit 141 outputs such an output diagram. An example of the output diagram is shown in FIG. In FIG. 10, 1001 is a diagram showing the current position of the moving object.

移動体位置情報取得部132は、連続的な3Dデータから観測点(情報処理装置1)の移動量を推定する(移動体位置情報を取得する)。そして、図10において、情報処理装置1は、実世界における移動体の位置をリアルタイムで認識することができる。かかることは、自動運転における自己位置の認識や、搬送機器のトレースによる貨物配置の把握などを可能とすることを示す。
(具体例3)
The mobile body position information acquisition unit 132 estimates the amount of movement of the observation point (information processing device 1) from continuous 3D data (acquires mobile body position information). Then, in FIG. 10, the information processing device 1 can recognize the position of the moving object in the real world in real time. This indicates that it is possible to recognize the self-position in automatic driving and grasp the cargo arrangement by tracing the transport equipment.
(Specific example 3)

情報処理装置1の元情報取得部131は、上述した処理により、LIDAR802から多数の元情報を取得する。 The original information acquisition unit 131 of the information processing device 1 acquires a large amount of original information from the LIDAR 802 through the above-described processing.

次に、移動体位置情報取得部132は、上述した処理により、移動体位置情報を取得する。 Next, the moving body position information acquisition unit 132 acquires the moving body position information through the processing described above.

次に、オブジェクト認識部133は、上述した処理により、移動体である情報処理装置1の周辺のオブジェクトを認識する。 Next, the object recognition unit 133 recognizes objects around the information processing device 1, which is a moving body, by the above-described processing.

また、判断部135は、上述した処理により、例えば、近接する人間について、手の動きや姿勢といった動作を認識することが可能である。そして、判断部135は、危険なシーンの検出や、サービスロボットにおけるインタラクションなど、多様な機能の実現を可能とする(図11参照)。 In addition, the determination unit 135 can recognize, for example, the movement of a hand or the posture of an approaching person through the above-described processing. Then, the determination unit 135 enables realization of various functions such as detection of a dangerous scene and interaction with the service robot (see FIG. 11).

なお、判断情報出力部142は、例えば、「危険であることを示す情報」等を出力したり、危険な人を出力図の中で目立つ態様で出力したりする。
(具体例4)
Note that the judgment information output unit 142 outputs, for example, "information indicating danger" or the like, or outputs a dangerous person in a conspicuous manner in the output diagram.
(Specific example 4)

情報処理装置1の元情報取得部131は、上述した処理により、LIDAR802から多数の元情報を取得する。 The original information acquisition unit 131 of the information processing device 1 acquires a large amount of original information from the LIDAR 802 through the above-described processing.

次に、オブジェクト認識部133は、上述した処理により、移動体である情報処理装置1の周辺のオブジェクトを認識する。 Next, the object recognition unit 133 recognizes objects around the information processing device 1, which is a moving body, by the above-described processing.

また、移動体位置情報取得部132は、上述した処理により、移動体位置情報を取得する。そして、出力図構成部134は、上述した処理により、例えば、複数のオブジェクト、および移動体の軌跡を示す軌跡情報を含む出力図を構成する。なお、かかる出力図は、移動体による移動観測により得られるデータを自己位置認識に基づき統合した3次元マップである。 Further, the moving body position information acquisition unit 132 acquires the moving body position information through the above-described processing. Then, the output diagram constructing unit 134 constructs an output diagram including, for example, trajectory information indicating trajectories of a plurality of objects and a moving body, through the above-described processing. This output map is a three-dimensional map obtained by integrating data obtained by movement observation by a moving object based on self-position recognition.

そして、図出力部141は、出力図を出力する。また、かかる出力例は、図12である。図12によれば、例えば、特定の範囲を立体的に把握することが可能となり、施工結果の確認や計画との差異の検証に使用することができる。 Then, the diagram output unit 141 outputs an output diagram. An example of such an output is shown in FIG. According to FIG. 12, for example, it is possible to grasp a specific range three-dimensionally, and it can be used for confirmation of construction results and verification of differences from plans.

以上、本実施の形態によれば、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を同時に行い、移動体と周辺のオブジェクトとの位置関係をリアルタイムに出力できる。 As described above, according to the present embodiment, the position of a moving body and the objects around the moving body can be recognized at the same time, and the positional relationship between the moving body and the objects around the moving body can be output in real time.

また、本実施の形態によれば、移動体の位置の認識と当該移動体の全方位のオブジェクトの認識を同時に行い、移動体と周辺のオブジェクトとの位置関係をリアルタイムに出力できる。 Further, according to this embodiment, the position of a moving body and the objects in all directions of the moving body can be recognized at the same time, and the positional relationship between the moving body and surrounding objects can be output in real time.

また、本実施の形態によれば、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を同時に行い、かつオブジェクトの動作が条件に合致した場合(例えば、危険な場合)に、その旨を報知できる。 Further, according to the present embodiment, the position of a moving body and the objects around the moving body are recognized at the same time, and when the motion of the object matches the conditions (for example, when it is dangerous), the can be notified.

さらに、本実施の形態によれば、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を同時に行い、移動体移動履歴と、移動体と周辺のオブジェクトとの位置関係をリアルタイムに出力できる。 Furthermore, according to this embodiment, the position of a moving body and the objects around the moving body are recognized at the same time, and the movement history of the moving body and the positional relationship between the moving body and the objects around the moving body are output in real time. can.

なお、本実施の形態における情報処理装置1によれば、例えば、自動車・建設機械・搬送機器・サービスロボットなどの自律移動システムにおいて、実世界における自己の位置を認識しつつ、周辺環境に存在する人やモノを検出・識別し、行動計画の策定を可能とする。また、情報処理装置1によれば、例えば、施設内や地下といった、GPSの使用が困難な場所においても自己位置を認識することができる。また、情報処理装置1は、周辺の車輌・作業員の検出や、寸法などの施工状態のリアルタイムな計測により、無人化施工を総合的に支援できる。また、情報処理装置1において、搬送機器の移動経路をトレースし、運搬された貨物の場所を記録できる。また、サイズなどの問題で管理が難しかった資材についても、必要になった時点で容易に配置を確認・把握することが可能である。さらに、広い視野を持つLIDARにより、広範囲を対象とした人流の計測が可能である。また、複数のセンサを効率的に配置することで、空港などの大規模施設においても滞留箇所などの解析を実現することができる。 According to the information processing apparatus 1 according to the present embodiment, for example, in an autonomous mobile system such as an automobile, a construction machine, a carrier, a service robot, while recognizing its own position in the real world, It detects and identifies people and things, and makes it possible to formulate action plans. Further, according to the information processing device 1, it is possible to recognize the self-position even in a place where it is difficult to use GPS, such as inside a facility or underground. In addition, the information processing device 1 can comprehensively support unmanned construction by detecting surrounding vehicles and workers and by real-time measurement of construction conditions such as dimensions. Further, in the information processing device 1, it is possible to trace the moving route of the conveying equipment and record the location of the conveyed cargo. In addition, it is possible to easily check and grasp the placement of materials that were difficult to manage due to problems such as size, when needed. Furthermore, LIDAR, which has a wide field of view, can measure the flow of people over a wide range. In addition, by efficiently arranging multiple sensors, it is possible to analyze stagnation points even in large-scale facilities such as airports.

なお、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における情報処理装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、例えば、コンピュータを、移動する移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる1または2以上の元情報を取得する元情報取得部と、前記元情報取得部が取得した1以上の元情報を用いて、移動する移動体の三次元空間における位置を特定する移動体位置情報を取得する移動体位置情報取得部と、前記元情報取得部が取得した1以上の元情報を用いて、1以上のオブジェクトを特定し、当該1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付けるオブジェクト認識部と、前記移動体位置情報と前記1以上の各オブジェクトの2以上のオブジェクト位置情報とを用いて、前記移動体と前記1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成部と、前記出力図を出力する図出力部として機能させるためのプログラムである。 Note that the processing in this embodiment may be realized by software. Then, this software may be distributed by software download or the like. Also, this software may be recorded on a recording medium such as a CD-ROM and distributed. Note that this also applies to other embodiments in this specification. The software that implements the information processing apparatus 1 according to the present embodiment is the following program. In other words, the program comprises, for example, a computer, an original information acquisition unit that acquires one or more pieces of original information that are used to specify the position in a three-dimensional space of an object that exists around a moving mobile object; A mobile body position information acquisition unit that acquires mobile body position information specifying a position of a moving mobile body in a three-dimensional space using one or more pieces of original information acquired by the original information acquisition unit, and the original information acquisition unit an object recognition unit that identifies one or more objects using one or more pieces of acquired original information and associates each of the one or more objects with two or more pieces of object position information of each object; An output diagram that constitutes an output diagram that is a three-dimensional diagram in which relative positional relationships between the moving object and the one or more objects can be recognized using two or more pieces of object position information of the one or more objects. A configuration unit and a program for functioning as a diagram output unit for outputting the output diagram.

図13は、本実施の形態におけるプログラムを実行して、情報処理装置1を実現するコンピュータシステム300の外観図である。 FIG. 13 is an external view of a computer system 300 that implements the information processing apparatus 1 by executing the program according to this embodiment.

本実施の形態の各装置は、コンピュータハードウェアおよびその上で実行されるコンピュータプログラムによって実現され得る。図13において、コンピュータシステム300は、ディスクドライブ305を含むコンピュータ301と、キーボード302と、マウス303と、ディスプレイ304とを備える。なお、キーボード302やマウス303やディスプレイ304をも含むシステム全体をコンピュータと呼んでもよい。 Each device of this embodiment can be realized by computer hardware and a computer program executed thereon. In FIG. 13, computer system 300 comprises computer 301 including disk drive 305 , keyboard 302 , mouse 303 and display 304 . The entire system including the keyboard 302, mouse 303, and display 304 may be called a computer.

図14は、コンピュータシステム300の内部構成の一例を示す図である。図14において、コンピュータ301は、MPU3013と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013等に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM3016と、アプリケーションプログラム、システムプログラム、およびデータを記憶するハードディスク3017と、MPU3013やROM3015等を相互に接続するバス3014と等を備える。 FIG. 14 is a diagram showing an example of the internal configuration of the computer system 300. As shown in FIG. 14, a computer 301 includes an MPU 3013, a ROM 3015 for storing programs such as a boot-up program, and a RAM 3016 connected to the MPU 3013 and the like for temporarily storing instructions of application programs and providing a temporary storage space. , a hard disk 3017 for storing application programs, system programs, and data, and a bus 3014 for interconnecting the MPU 3013, ROM 3015, and the like.

コンピュータシステム300に、情報処理装置1の機能を実行させるプログラムは、例えば、CD-ROM等のディスク3101に記憶されて、ディスクドライブ3012に挿入され、ハードディスク3017に転送されてもよい。これに代えて、そのプログラムは、ネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されてもよい。プログラムは、実行の際にRAM3016にロードされる。なお、プログラムは、ハードディスク3016、またはネットワークから直接、ロードされてもよい。また、ハードディスク3016に代えて他の着脱可能な記録媒体(例えば、DVDやメモリカード等)を介して、プログラムがコンピュータシステム300に読み込まれてもよい。 A program that causes the computer system 300 to execute the functions of the information processing apparatus 1 may be stored in a disk 3101 such as a CD-ROM, inserted into the disk drive 3012 , and transferred to the hard disk 3017 . Alternatively, the program may be transmitted to computer 301 via a network and stored on hard disk 3017 . Programs are loaded into RAM 3016 during execution. Note that the program may be loaded directly from the hard disk 3016 or from the network. Also, the program may be read into the computer system 300 via another removable recording medium (eg, DVD, memory card, etc.) instead of the hard disk 3016 .

プログラムは、コンピュータの詳細を示す901に、情報処理装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム300がどのように動作するのかについては周知であり、詳細な説明は省略する。なお、以上は例示であり、情報処理装置1を実現するコンピュータのハードウェア構成は問わない。 The program does not necessarily include an operating system (OS) or a third-party program that causes the information processing apparatus 1 to execute the functions of the computer details 901 . A program may contain only those portions of instructions that call the appropriate functions or modules in a controlled manner to produce the desired result. How the computer system 300 operates is well known and will not be described in detail. Note that the above is an example, and the hardware configuration of the computer that implements the information processing apparatus 1 does not matter.

また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。 Also, the number of computers that execute the above programs may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。 Further, in each of the above embodiments, each process may be implemented by centralized processing by a single device, or may be implemented by distributed processing by a plurality of devices.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることはいうまでもない。 It goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.

以上のように、本発明にかかる情報処理装置は、移動体の位置の認識と当該移動体の周辺のオブジェクトの認識を同時に行い、移動体と周辺のオブジェクトとの位置関係をリアルタイムに出力できるという効果を有し、情報処理装置等として有用である。 As described above, the information processing apparatus according to the present invention can simultaneously recognize the position of a moving body and objects around the moving body, and can output the positional relationship between the moving body and the surrounding objects in real time. It has an effect and is useful as an information processing device or the like.

1 情報処理装置
11 格納部
12 受付部
13 処理部
14 出力部
131 元情報取得部
132 移動体位置情報取得部
133 オブジェクト認識部
134 出力図構成部
135 判断部
141 図出力部
142 判断情報出力部
1 information processing device 11 storage unit 12 reception unit 13 processing unit 14 output unit 131 original information acquisition unit 132 moving body position information acquisition unit 133 object recognition unit 134 output map configuration unit 135 determination unit 141 diagram output unit 142 determination information output unit

Claims (7)

移動する移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる1または2以上の元情報であり、観測装置が取得した3次元データの集合である1以上の元情報を取得する元情報取得部と、
前記元情報取得部が取得した1以上の元情報を用いて、移動体の三次元空間における位置を特定する移動体位置情報を取得する移動体位置情報取得部と、
前記元情報取得部が取得した1以上の元情報を用いて、特定の1以上のオブジェクトを認識し、当該特定の1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付けるオブジェクト認識部と、
前記移動体位置情報と前記1以上の各オブジェクトの2以上のオブジェクト位置情報とを用いて、前記移動体と前記1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成部と、
前記出力図を出力する図出力部と、
前記元情報取得部が取得した2以上の時点における2以上の元情報を用いて、前記オブジェクト認識部が認識した前記特定の1以上の各オブジェクトのみに対して、当該特定の1以上の各オブジェクトと前記移動体との距離の変化の履歴である動作情報、または当該特定の1以上の各オブジェクトを特定するオブジェクト位置情報の集合であるオブジェクト位置情報群の2以上の時点の集合である動作情報を取得し、当該動作情報が予め決められた条件に合致するか否かを判断する判断部と、
前記判断部が前記条件に合致すると判断した場合に、当該判断に関する判断情報を出力する判断情報出力部とを具備する情報処理装置。
1 or 2 or more pieces of original information that serve as the basis for specifying the position in the 3D space of an object that exists around a moving object, and that is a set of 3D data acquired by an observation device. an original information acquisition unit to acquire;
a moving body position information acquiring unit that acquires moving body position information specifying a position of a moving body in a three-dimensional space using one or more pieces of original information acquired by the original information acquiring unit;
Object recognition that recognizes one or more specific objects using one or more pieces of original information acquired by the original information acquisition unit, and associates each of the one or more pieces of specific objects with two or more pieces of object position information of each object Department and
3D is a three-dimensional diagram in which relative positional relationships between the moving body and the one or more objects can be recognized using the moving body position information and two or more pieces of object position information of the one or more objects. an output diagram configuration unit that configures an output diagram;
a diagram output unit that outputs the output diagram;
Only the one or more specific objects recognized by the object recognition unit using the two or more pieces of original information acquired by the original information acquisition unit at two or more points in time , the specific one or more objects action information that is a history of changes in the distance between the object and the moving object, or action information that is a set of two or more time points of an object position information group that is a set of object position information that specifies the specific one or more objects and a determination unit that determines whether or not the motion information matches a predetermined condition;
and a determination information output unit configured to output determination information related to the determination when the determination unit determines that the condition is met.
前記オブジェクト認識部は、
前記2以上の各オブジェクトの3次元座標値の集合から、各オブジェクトの形状に関する特徴量である2以上の形状特徴量を取得し、当該2以上の形状特徴量と、オブジェクトの種類を示すオブジェクト識別子と当該オブジェクトの2以上の特徴量とを有する2以上のオブジェクト情報を機械学習の学習処理により学習させた学習情報とを用いて、機械学習の予測処理を行い、前記2以上の各オブジェクトの種類を決定し、当該2以上の各オブジェクトの種類を前記2以上の各オブジェクト位置情報に対応付けて蓄積する、請求項1記載の情報処理装置。
The object recognition unit
Obtaining two or more shape feature amounts, which are feature amounts relating to the shape of each object, from the set of three-dimensional coordinate values of each of the two or more objects, and acquiring the two or more shape feature amounts and an object identifier indicating the type of the object. Machine learning prediction processing is performed using learning information obtained by learning two or more object information having two or more feature amounts of the object by machine learning learning processing, and the types of each of the two or more objects 2. The information processing apparatus according to claim 1, wherein the type of each of the two or more objects is associated with the position information of each of the two or more objects and stored.
レーザー発信手段を識別するレーザー識別子と当該レーザー発信手段の位置を特定する発信手段位置情報と当該レーザー発信手段のレーダー発信の方向を特定する発信手段方向情報とを有する2以上のレーザー発信手段情報が格納される格納部をさらに具備し、
前記元情報取得部は、
2以上の各レーザー発信手段により発信されたレーザーの反射を受信し、レーザーの発信からその反射の受信までの戻り時間を取得し、当該戻り時間と前記レーザー発信手段を識別するレーザー識別子との組であるレーザー情報を、レーザー発信手段ごとに取得し、
前記オブジェクト認識部は、
前記元情報取得部が取得した2以上の各レーザー情報が有するレーザー識別子と対になる発信手段位置情報と発信手段方向情報と、当該レーザー情報が有する戻り時間とを用いて、オブジェクトのオブジェクト位置情報をレーザー情報ごとに取得し、当該取得した2以上のオブジェクト位置情報を用いて、前記特定の1以上のオブジェクトを認識し、当該1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付ける請求項1または請求項2記載の情報処理装置。
Two or more pieces of laser transmission means information having a laser identifier for identifying a laser transmission means, transmission means position information for specifying the position of the laser transmission means, and transmission means direction information for specifying the direction of radar transmission of the laser transmission means. further comprising a storage unit to be stored,
The original information acquisition unit
Receiving the reflection of the laser transmitted by each of the two or more laser transmission means, acquiring the return time from the transmission of the laser to the reception of the reflection, and combining the return time with a laser identifier that identifies the laser transmission means is acquired for each laser transmission means,
The object recognition unit
Object position information of an object using transmitting means position information and transmitting means direction information paired with a laser identifier possessed by each of the two or more pieces of laser information acquired by the original information acquisition unit, and using the return time possessed by the laser information. is acquired for each laser information, the specific one or more objects are recognized using the acquired two or more object position information, and the one or more objects and the two or more object position information of each object are recognized. 3. The information processing apparatus according to claim 1 or 2, to be associated.
前記オブジェクト認識部は、
前記元情報取得部が取得した2以上の元情報を用いて、前記特定した2以上の各オブジェクトが動体であるか非動体であるかをも決定し、
前記出力図構成部は、
2以上の各オブジェクトが動体であるか、非動体であるかが、区別可能な態様の出力図を構成する請求項1から請求項3いずれか一項に記載の情報処理装置。
The object recognition unit
Also determining whether each of the identified two or more objects is a moving body or a non-moving body using the two or more pieces of original information acquired by the original information acquisition unit;
The output diagram configuration unit
4. The information processing apparatus according to any one of claims 1 to 3, wherein each of the two or more objects is a moving object or a non-moving object constitutes an output diagram in a manner distinguishable.
前記特定の1以上の各オブジェクトは、人または車である、請求項1から請求項4いずれか一項に記載の情報処理装置。The information processing apparatus according to any one of claims 1 to 4, wherein each of the one or more specific objects is a person or a vehicle. 元情報取得部、移動体位置情報取得部、オブジェクト認識部、出力図構成部、図出力部、判断部、および判断情報出力部により実現される情報処理方法であって、
前記元情報取得部が、移動する移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる1または2以上の元情報であり、観測装置が取得した3次元データの集合である1以上の元情報を取得する元情報取得ステップと、
前記移動体位置情報取得部が、前記元情報取得ステップで取得された1以上の元情報を用いて、移動体の三次元空間における位置を特定する移動体位置情報を取得する移動体位置情報取得ステップと、
前記オブジェクト認識部が、前記元情報取得ステップで取得された1以上の元情報を用いて、特定の1以上のオブジェクトを認識し、当該特定の1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付けるオブジェクト認識ステップと、
前記出力図構成部が、前記移動体位置情報と前記1以上の各オブジェクトの2以上のオブジェクト位置情報とを用いて、前記移動体と前記1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成ステップと、
前記図出力部が、前記出力図を出力する図出力ステップと、
前記判断部が、前記元情報取得部が取得した2以上の時点における2以上の元情報を用いて、前記オブジェクト認識部が認識した前記特定の1以上の各オブジェクトのみに対して、当該特定の1以上の各オブジェクトと前記移動体との距離の変化の履歴である動作情報、または当該特定の1以上の各オブジェクトを特定するオブジェクト位置情報の集合であるオブジェクト位置情報群の2以上の時点の集合である動作情報を取得し、当該動作情報が予め決められた条件に合致するか否かを判断する判断ステップと、
前記判断情報出力部が、前記判断ステップで前記条件に合致すると判断された場合に、当該判断に関する判断情報を出力する判断情報出力ステップとを具備する情報処理方法。
An information processing method realized by an original information acquisition unit, a mobile position information acquisition unit, an object recognition unit, an output diagram configuration unit, a diagram output unit, a determination unit, and a determination information output unit,
The original information acquisition unit is a set of three-dimensional data acquired by an observation device, which is one or more pieces of original information that are the basis for specifying the position in the three-dimensional space of an object existing around a moving mobile object. an original information obtaining step of obtaining one or more pieces of original information;
Acquisition of mobile body position information, wherein the mobile body position information acquisition unit acquires mobile body position information specifying a position of the mobile body in a three-dimensional space, using the one or more pieces of original information acquired in the original information acquisition step. a step;
The object recognition unit recognizes one or more specific objects using the one or more original information obtained in the original information obtaining step, and recognizes the one or more specific objects and two or more objects of each object. an object recognition step that associates position information;
The output diagram construction unit can recognize a relative positional relationship between the moving body and the one or more objects using the moving body position information and two or more object position information of the one or more objects. an output diagram construction step for constructing an output diagram that is a three-dimensional diagram;
a diagram output step in which the diagram output unit outputs the output diagram;
The determination unit uses two or more pieces of original information acquired by the original information acquisition unit at two or more points in time to obtain only the one or more specific objects recognized by the object recognition unit. Two or more time points of an object position information group that is a set of object position information specifying one or more specific objects, or motion information that is a history of changes in the distance between one or more objects and the moving body a determination step of acquiring motion information as a set and determining whether or not the motion information matches a predetermined condition;
and a determination information output step, wherein the determination information output unit outputs determination information related to the determination when it is determined in the determination step that the condition is met.
コンピュータを、
移動する移動体の周辺に存在するオブジェクトの三次元空間における位置を特定する元になる1または2以上の元情報であり、観測装置が取得した3次元データの集合である1以上の元情報を取得する元情報取得部と、
前記元情報取得部が取得した1以上の元情報を用いて、移動体の三次元空間における位置を特定する移動体位置情報を取得する移動体位置情報取得部と、
前記元情報取得部が取得した1以上の元情報を用いて、特定の1以上のオブジェクトを認識し、当該特定の1以上の各オブジェクトと各オブジェクトの2以上のオブジェクト位置情報とを対応付けるオブジェクト認識部と、
前記移動体位置情報と前記1以上の各オブジェクトの2以上のオブジェクト位置情報とを用いて、前記移動体と前記1以上の各オブジェクトの相対的な位置関係が認識可能な三次元の図である出力図を構成する出力図構成部と、
前記出力図を出力する図出力部と、
前記元情報取得部が取得した2以上の時点における2以上の元情報を用いて、前記オブジェクト認識部が認識した前記特定の1以上の各オブジェクトのみに対して、当該特定の1以上の各オブジェクトと前記移動体との距離の変化の履歴である動作情報、または当該特定の1以上の各オブジェクトを特定するオブジェクト位置情報の集合であるオブジェクト位置情報群の2以上の時点の集合である動作情報を取得し、当該動作情報が予め決められた条件に合致するか否かを判断する判断部と、
前記判断部が前記条件に合致すると判断した場合に、当該判断に関する判断情報を出力する判断情報出力部として機能させるためのプログラム。
the computer,
1 or 2 or more pieces of original information that serve as the basis for specifying the position in the 3D space of an object that exists around a moving object, and that is a set of 3D data acquired by an observation device. an original information acquisition unit to acquire;
a moving body position information acquiring unit that acquires moving body position information specifying a position of a moving body in a three-dimensional space using one or more pieces of original information acquired by the original information acquiring unit;
Object recognition that recognizes one or more specific objects using one or more pieces of original information acquired by the original information acquisition unit, and associates each of the one or more pieces of specific objects with two or more pieces of object position information of each object Department and
3D is a three-dimensional diagram in which relative positional relationships between the moving body and the one or more objects can be recognized using the moving body position information and two or more pieces of object position information of the one or more objects. an output diagram configuration unit that configures an output diagram;
a diagram output unit that outputs the output diagram;
Only the one or more specific objects recognized by the object recognition unit using the two or more pieces of original information acquired by the original information acquisition unit at two or more points in time , the specific one or more objects action information that is a history of changes in the distance between the object and the moving object, or action information that is a set of two or more time points of an object position information group that is a set of object position information that specifies the specific one or more objects and a determination unit that determines whether or not the motion information matches a predetermined condition;
A program for functioning as a determination information output unit that outputs determination information regarding the determination when the determination unit determines that the condition is met.
JP2017202565A 2017-10-19 2017-10-19 Information processing device, information processing method, and program Active JP7160257B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017202565A JP7160257B2 (en) 2017-10-19 2017-10-19 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202565A JP7160257B2 (en) 2017-10-19 2017-10-19 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2019075037A JP2019075037A (en) 2019-05-16
JP7160257B2 true JP7160257B2 (en) 2022-10-25

Family

ID=66545162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202565A Active JP7160257B2 (en) 2017-10-19 2017-10-19 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7160257B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101066B (en) * 2019-06-17 2024-03-08 商汤集团有限公司 Target detection method and device, intelligent driving method and device and storage medium
JP7151654B2 (en) 2019-07-26 2022-10-12 トヨタ自動車株式会社 Search device, learning device, search system, search program, and learning program
CN115485742B (en) * 2021-06-18 2023-06-27 空间转移株式会社 Learning model, signal processing device, flying object, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002046506A (en) 2000-04-24 2002-02-12 Matsushita Electric Ind Co Ltd Navigation device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5875408A (en) * 1995-07-17 1999-02-23 Imra America, Inc. Automated vehicle guidance system and method for automatically guiding a vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002046506A (en) 2000-04-24 2002-02-12 Matsushita Electric Ind Co Ltd Navigation device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宮阪 健夫 他,高解像度レーザレーダを用いた走行環境における移動物の追跡と識別,映像情報インダストリアル,日本,産業開発機構(株),2011年02月01日,第43巻 第2号,pp.61~69

Also Published As

Publication number Publication date
JP2019075037A (en) 2019-05-16

Similar Documents

Publication Publication Date Title
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
US7627447B2 (en) Method and apparatus for localizing and mapping the position of a set of points on a digital model
WO2019179417A1 (en) Data fusion method and related device
CN103913162B (en) The mobile platform of enhancing positions
EP3012659A2 (en) Surveying areas using a radar system and an unmanned aerial vehicle
KR102157537B1 (en) Apparatus and method for data visualization in 3D digital twin for facility safety inspection
JP2021530821A (en) Methods, equipment and computer programs for performing 3D wireless model construction
US20170075348A1 (en) System and method for mobile robot teleoperation
JP7160257B2 (en) Information processing device, information processing method, and program
US20200233061A1 (en) Method and system for creating an inverse sensor model and method for detecting obstacles
JP7113611B2 (en) LOCATION IDENTIFICATION APPARATUS, LOCATION IDENTIFICATION PROGRAM AND LOCATION IDENTIFICATION METHOD, PHOTOGRAPHED IMAGE REGISTRATION APPARATUS, PHOTOGRAPHED IMAGE REGISTRATION PROGRAM AND PHOTOGRAPHIED IMAGE REGISTRATION METHOD
KR102075844B1 (en) Localization system merging results of multi-modal sensor based positioning and method thereof
Liang et al. Image-based positioning of mobile devices in indoor environments
Tamjidi et al. 6-DOF pose estimation of a portable navigation aid for the visually impaired
CN110470308A (en) A kind of obstacle avoidance system and method
Zhang et al. Seeing Eye Phone: a smart phone-based indoor localization and guidance system for the visually impaired
CN108459595A (en) A kind of method in mobile electronic device and the mobile electronic device
KR102408681B1 (en) Method and apparatus for determining the location of a static object
Han et al. Optimization‐based humanoid robot navigation using monocular camera within indoor environment
US11561553B1 (en) System and method of providing a multi-modal localization for an object
KR102383567B1 (en) Method and system for localization based on processing visual information
KR20180066668A (en) Apparatus and method constructing driving environment of unmanned vehicle
US11763492B1 (en) Apparatus and methods to calibrate a stereo camera pair
Malla et al. Object level mapping of an indoor environment using RFID
WO2021024685A1 (en) Information processing device, information processing method, information processing program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221003

R150 Certificate of patent or registration of utility model

Ref document number: 7160257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150