JP2017223587A - Tracking object discovery device, tracking object discovery method and program - Google Patents

Tracking object discovery device, tracking object discovery method and program Download PDF

Info

Publication number
JP2017223587A
JP2017223587A JP2016120045A JP2016120045A JP2017223587A JP 2017223587 A JP2017223587 A JP 2017223587A JP 2016120045 A JP2016120045 A JP 2016120045A JP 2016120045 A JP2016120045 A JP 2016120045A JP 2017223587 A JP2017223587 A JP 2017223587A
Authority
JP
Japan
Prior art keywords
tracking
environment
information
unit
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016120045A
Other languages
Japanese (ja)
Other versions
JP6738662B2 (en
Inventor
雅人 河村
Masahito Kawamura
雅人 河村
康平 小島
Kohei Kojima
康平 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2016120045A priority Critical patent/JP6738662B2/en
Publication of JP2017223587A publication Critical patent/JP2017223587A/en
Application granted granted Critical
Publication of JP6738662B2 publication Critical patent/JP6738662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To recognize an object as an individual object.SOLUTION: A tracking object discovery device comprises: a distance measurement sensor for measuring a distance between the device and each object out of plural objects in an environment; an environment map generation part for generating an environment map, based on the distance between the device and each object out of the plural objects, measured by the distance measurement sensor; a map information storage part for storing the environment map generated by the environment map generation part; an object movement information acquisition part for acquiring object movement information indicating that, the object moved; and an object tracking part for, based on information indicating a difference between the environment map which was generated before the object moved, and environment map which is generated after the object moved, and the object movement information, identifying the object which moved, and identifying a position of the identified object after the object moved.SELECTED DRAWING: Figure 2

Description

本発明は、追跡物体発見装置、追跡物体発見方法、およびプログラムに関する。   The present invention relates to a tracking object discovery device, a tracking object discovery method, and a program.

ロボットが人間の生活空間で移動や作業を行う場合、ロボットは人間の生活空間の状態を把握する必要がある。具体的には、ロボットが、環境地図および環境における対象物の位置を正確に知っている必要がある。
ロボットが利用する環境地図は、一般的に、測距センサ(例えば、カメラおよびLRF(Laser Range Finder;レーザー照準機)などが備えられたセンサ)を用いて作成される。例えば、特許文献1に記載の環境情報作成方法では、周囲に存在する物体の移動体本体からみた相対位置を示す計測値を取得するセンサを用いて、物体の形状や位置を示す環境情報が作成される。
When a robot moves or works in a human living space, the robot needs to grasp the state of the human living space. Specifically, the robot needs to accurately know the position of the object in the environment map and the environment.
The environment map used by the robot is generally created using a distance measuring sensor (for example, a sensor equipped with a camera and a laser range finder (LRF)). For example, in the environment information creation method described in Patent Document 1, environment information that indicates the shape and position of an object is created using a sensor that acquires a measurement value that indicates the relative position of the object that is present in the surroundings as viewed from the moving body. Is done.

特開2009−174898号公報JP 2009-174898 A

特許文献1に記載の環境情報作成方法においては、例えば、測定する環境の一部であるテーブルの上に測定対象物が乗っているような場合など、2つの物体が接している場合には、測定対象物の形状データを予め用意せずに、テーブルと測定対象物とを個々の物体として認識することは難しい。また、例えば、布や紙のように形状が不定である測定対象物を、個々の物体として認識することも困難である。   In the environment information creation method described in Patent Document 1, for example, when two objects are in contact, such as when a measurement object is on a table that is a part of the environment to be measured, It is difficult to recognize the table and the measurement object as individual objects without preparing the shape data of the measurement object in advance. In addition, for example, it is difficult to recognize a measurement object having an indefinite shape such as cloth or paper as an individual object.

本発明は上記の点に鑑みてなされたものであり、対象物を個々の物体として認識することができる追跡物体発見装置、追跡物体発見方法、およびプログラムを提供する。   The present invention has been made in view of the above points, and provides a tracking object discovery device, a tracking object discovery method, and a program capable of recognizing an object as an individual object.

(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様としては、環境内の複数の物体それぞれとの距離を計測する測距センサと、前記測距センサによって計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成部と、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶部と、前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得部と、前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡部と、を備えることを特徴とする追跡物体発見装置である。 (1) The present invention has been made to solve the above-described problems. As one aspect of the present invention, a distance measuring sensor that measures a distance from each of a plurality of objects in the environment, and the distance measuring sensor An environment map creation unit that creates an environment map based on the distances to the plurality of objects measured by the map, a map information storage unit that stores the environment map created by the environment map creation unit, and A difference between an object movement information acquisition unit that acquires object movement information indicating that an object has moved, and the environment map that is created before the object moves and the environment map that is created after the object moves A tracking object generator comprising: an object tracking unit that identifies the moved object based on the information indicating and the object movement information, and identifies a position after the movement of the identified object. It is a device.

(2)また、本発明の一態様としては、前記物体移動情報取得部は、前記物体に搭載された加速度センサによって計測された加速度情報に基づく前記物体移動情報を取得することを特徴とする(1)に記載の追跡物体発見装置である。 (2) As an aspect of the present invention, the object movement information acquisition unit acquires the object movement information based on acceleration information measured by an acceleration sensor mounted on the object. The tracking object finding device according to 1).

(3)また、本発明の一態様としては、記物体移動情報取得部が、複数の前記物体についての物体移動情報を取得した場合、前記物体追跡部は、複数の前記物体が移動する前に作成された前記環境地図と複数の前記物体が移動した後に作成された前記環境地図との複数の前記差異を示す情報と、複数の前記物体の前記物体移動情報を時系列に分析した情報と、に基づいて、移動した複数の前記物体をそれぞれ識別し、識別された複数の前記物体の移動後の位置をそれぞれ特定することを特徴とする(1)または(2)に記載の追跡物体発見装置である。 (3) Moreover, as one aspect of the present invention, when the object movement information acquisition unit acquires object movement information about a plurality of the objects, the object tracking unit is configured to move the object tracking information before the plurality of objects move. Information indicating a plurality of differences between the created environment map and the environment map created after the plurality of objects have moved; information analyzing the object movement information of the plurality of objects in time series; The tracked object finding device according to (1) or (2), wherein the plurality of moved objects are respectively identified based on the information, and the moved positions of the identified objects are respectively identified. It is.

(4)また、本発明の一態様としては、前記物体追跡部は、特定の前記物体についての物体移動情報を取得したことに基づいて、前記地図情報記憶部に記憶された複数の前記環境地図が示す複数の前記環境のうち、自己の追跡物体発見装置が存在する前記環境がどの環境であるかを特定することを特徴とする(1)から(3)までのいずれか一つに記載の追跡物体発見装置である。 (4) Moreover, as one aspect of the present invention, the object tracking unit acquires a plurality of environment maps stored in the map information storage unit based on acquiring object movement information about the specific object. The environment according to any one of (1) to (3) is characterized in that the environment in which the tracking object discovery device of the self exists is identified among the plurality of environments indicated by It is a tracking object discovery device.

(5)また、本発明の一態様としては、前記物体を識別する識別情報と前記物体の位置と前記物体の特徴を表す属性情報とを対応付ける物体管理情報を記憶する物体管理情報記憶部を備えることを特徴とする(1)から(4)までのいずれか一つに記載の追跡物体発見装置である。 (5) Moreover, as one aspect of the present invention, an object management information storage unit is provided that stores object management information that associates identification information for identifying the object, attribute information representing the position of the object, and characteristics of the object. The tracking object finding apparatus according to any one of (1) to (4), characterized in that:

(6)また、本発明の一態様としては、ユーザからの問い合わせを示す情報の入力を受け付け、前記物体管理情報に基づく前記ユーザへの応答を示す情報を出力する対話部を備えることを特徴とする(5)に記載の追跡物体発見装置である。 (6) Moreover, as one aspect of the present invention, the information processing apparatus includes an interaction unit that receives input of information indicating an inquiry from a user and outputs information indicating a response to the user based on the object management information. The tracking object finding device according to (5).

(7)また、本発明の一態様としては、コンピュータを用いた追跡物体発見方法であって、測距センサが、環境内の複数の物体それぞれとの距離を計測する測距ステップと、環境地図作成部が、前記測距センサによって計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、地図情報記憶部が、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶ステップと、物体移動情報取得部が、前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、物体追跡部が、前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、を有することを特徴とする追跡物体発見方法である。 (7) According to another aspect of the present invention, there is provided a tracking object finding method using a computer, in which a distance measurement sensor measures a distance from each of a plurality of objects in the environment, and an environment map. An environment map creating step in which the creating unit creates an environment map based on each of the distances to the plurality of objects measured by the distance measuring sensor, and a map information storage unit is created by the environment map creating unit. A map information storage step for storing the environmental map, an object movement information acquisition unit for acquiring object movement information indicating that the object has moved, and an object tracking unit for moving the object. Information indicating the difference between the environmental map created before and the environmental map created after the object has moved, and the object movement information, the moved Identifying the body, and a tracking object finding method characterized by having, an object tracking step of identifying the position after the movement of the identified said object.

(8)また、本発明の一態様としては、コンピュータに、環境内の複数の物体それぞれとの距離を計測する測距ステップと、前記測距ステップにおいて計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、前記環境地図作成ステップにおいて作成された前記環境地図を記憶する地図情報記憶ステップと、前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、を実行させるためのプログラムである。 (8) Further, as one aspect of the present invention, a computer includes a distance measuring step for measuring the distance to each of a plurality of objects in the environment, and each of the plurality of objects measured in the distance measuring step. An environment map creation step for creating an environment map based on the distance, a map information storage step for storing the environment map created in the environment map creation step, and object movement information indicating that the object has moved are acquired. An object movement information acquisition step, information indicating a difference between the environmental map created before the object moves and the environmental map created after the object moves, and the object movement information And an object tracking step for identifying the moved object and identifying the position of the identified object after the movement. .

本発明によれば、対象物を個々の物体として認識することができる。   According to the present invention, an object can be recognized as an individual object.

本発明の実施形態に係る追跡物体発見システム1による物体の追跡を示す概略図である。It is the schematic which shows the tracking of the object by the tracking object discovery system 1 which concerns on embodiment of this invention. 本発明の実施形態に係る追跡物体発見システム1の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the tracking object discovery system 1 which concerns on embodiment of this invention. 本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する加速度情報1033の構成の一例を示す図である。It is a figure which shows an example of a structure of the acceleration information 1033 which the memory | storage part 103 of the tracking object discovery apparatus 10 concerning embodiment of this invention memorize | stores. 本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する物体管理情報1032の構成の一例を示す図である。It is a figure which shows an example of a structure of the object management information 1032 which the memory | storage part 103 of the tracking object discovery apparatus 10 which concerns on embodiment of this invention memorize | stores. 本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。It is the schematic which shows the identification of the moved object and position by the tracking object discovery apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係る追跡物体発見装置10の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the tracking object discovery apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。It is the schematic which shows the identification of the moved object and position by the tracking object discovery apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係る追跡物体発見装置10による環境の特定を示す概略図である。It is the schematic which shows specification of the environment by the tracking object discovery apparatus 10 which concerns on embodiment of this invention.

(実施形態)
以下、本発明の実施形態における物体の追跡の概要について、図面を参照しながら説明する。
図1は、本発明の実施形態に係る追跡物体発見システム1による物体の追跡を示す概略図である。図示するように、測定対象の環境である空間spc1には、追跡物体発見装置10と、3つの物体(物体obj1、物体obj2、および物体obj3)が置かれている。なお、追跡物体発見装置10、複数のセンサタグ20、および当該追跡物体発見装置10とセンサタグ20とを無線通信接続する通信ネットワークを含めて、以下、追跡物体発見システム1という。
(Embodiment)
Hereinafter, an outline of tracking an object according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram illustrating tracking of an object by a tracking object discovery system 1 according to an embodiment of the present invention. As shown in the drawing, in the space spc1, which is the environment to be measured, the tracking object finding device 10 and three objects (object obj1, object obj2, and object obj3) are placed. The tracking object discovery apparatus 10, the plurality of sensor tags 20, and the communication network that wirelessly connects the tracking object discovery apparatus 10 and the sensor tag 20 are hereinafter referred to as a tracking object discovery system 1.

追跡物体発見装置10は、追跡物体発見装置10から空間spc1内に置かれた複数の物体それぞれごとの距離を計測することができる測距センサ101を備える装置(例えば、ロボット)である。例えば、測距センサ101が備える光源(例えば、LED(light emitting diode;発光ダイオード)、またはレーザーダイオード)から照射された光が、空間spc1に置かれた物体(物体obj1、物体obj2、または物体obj3)に当たると反射され、測距センサ101が備える受光素子によって受光される。測距センサ101は、受光した光を解析することにより、追跡物体発見装置10から物体それぞれとの距離を計測する。追跡物体発見装置10は、計測された距離に基づいて、空間spc1におけるそれぞれの物体の位置を特定し、環境地図を作成する。   The tracking object finding device 10 is a device (for example, a robot) including a distance measuring sensor 101 that can measure the distance of each of a plurality of objects placed in the space spc1 from the tracking object finding device 10. For example, an object (object obj1, object obj2, or object obj3) in which light emitted from a light source (for example, an LED (light emitting diode) or laser diode) included in the distance measuring sensor 101 is placed in the space spc1 is used. ) And is received by a light receiving element included in the distance measuring sensor 101. The distance measuring sensor 101 measures the distance from the tracking object finding device 10 to each object by analyzing the received light. The tracking object finding device 10 identifies the position of each object in the space spc1 based on the measured distance, and creates an environment map.

物体obj1および物体obj2には、加速度センサが搭載されたセンサタグ20がそれぞれ設置されている。これにより、センサタグ20が設置された物体が移動した場合や故意に動かされた場合、追跡物体発見装置10は、加速度情報をセンサタグ20から受信することで当該物体がいつどれくらいの加速度で移動したのかを認識することができる。   Sensor tags 20 on which acceleration sensors are mounted are respectively installed on the objects obj1 and obj2. As a result, when the object on which the sensor tag 20 is installed moves or is intentionally moved, the tracking object discovery device 10 receives acceleration information from the sensor tag 20 to determine when the object has moved at what acceleration. Can be recognized.

センサタグ20が設置された物体(物体obj1および物体obj2)は、追跡物体発見装置10による追跡の対象とする物体である。また、センサタグ20が設置されていない物体(物体obj3)は、測定する環境の一部であり、追跡物体発見装置10による追跡の対象とはしない物体である。   The objects (object obj1 and object obj2) on which the sensor tag 20 is installed are objects to be tracked by the tracking object finding device 10. Further, the object (object obj3) where the sensor tag 20 is not installed is a part of the environment to be measured, and is not an object to be tracked by the tracking object discovery device 10.

センサタグ20が設置された物体(物体obj1または物体obj2)が移動した場合、センサタグ20が備える加速度センサは、当該物体の移動に伴う加速度の変化を検知し、検知した加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報を、センサタグ20が備える無線通信モジュールによって無線通信の通信ネットワークを介して追跡物体発見装置10へ送信する。   When the object (object obj1 or object obj2) on which the sensor tag 20 is installed moves, the acceleration sensor included in the sensor tag 20 detects a change in acceleration accompanying the movement of the object, and information indicating the detected acceleration and the sensor tag 20 ( And the acceleration information associated with the identification information for identifying the object) is transmitted to the tracking object discovery apparatus 10 via the wireless communication network by the wireless communication module provided in the sensor tag 20.

追跡物体発見装置10は、センサタグ20から、加速度情報を受信すると、測距センサ101により追跡物体発見装置10から物体それぞれとの距離を再び計測して、計測された距離に基づいて空間spc1におけるそれぞれの物体の位置を再び特定し、環境地図を作成する。   When the tracking object finding device 10 receives the acceleration information from the sensor tag 20, the distance measuring sensor 101 again measures the distance from the tracking object finding device 10 to each of the objects, and the tracking object finding device 10 in the space spc1 based on the measured distance. The position of the object is identified again, and an environmental map is created.

そして、追跡物体発見装置10は、物体が移動する前に作成した環境地図と物体が移動した後に作成した環境地図との差異を示す情報、および、物体の加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報を解析し、どの物体がどの位置へ移動したのかを特定する。なお、移動した物体および移動した物体の位置の特定方法の詳細については、後述する。   Then, the tracking object discovery device 10 includes information indicating the difference between the environment map created before the object moves and the environment map created after the object moves, information indicating the acceleration of the object, and the sensor tag 20 (and the object). ) Is analyzed to identify which object has moved to which position. The details of the moving object and the method for specifying the position of the moved object will be described later.

なお、上記においては、測距センサ101は追跡物体発見装置10のみに備えられているものとしたが、これに限られない。例えば、複数の測距センサ101を空間spc1内の異なる位置に設置して、複数の位置から物体それぞれとの距離を計測することによって、物体の位置の測定精度をより高めることができる。また、これにより、測定対象の物体が、他の物体の陰に隠れることによって距離の計測できないようなケースを削減することができる。   In the above description, it is assumed that the distance measuring sensor 101 is provided only in the tracking object finding device 10, but the present invention is not limited to this. For example, by installing a plurality of distance measuring sensors 101 at different positions in the space spc1, and measuring the distance from each of the objects from the plurality of positions, the measurement accuracy of the position of the object can be further improved. In addition, this can reduce cases where the distance to be measured cannot be measured because the object to be measured is hidden behind another object.

(追跡物体発見システムの構成)
以下、追跡物体発見システム1の構成について、図面を参照しながら説明する。
図2は、本発明の実施形態に係る追跡物体発見システム1の機能構成を示すブロック図である。図示するように、追跡物体発見システム1は、追跡物体発見装置10と、複数のセンサタグ20(センサタグ群)と、通信ネットワーク30と、を含んで構成される。
(Configuration of tracking object discovery system)
Hereinafter, the configuration of the tracking object finding system 1 will be described with reference to the drawings.
FIG. 2 is a block diagram showing a functional configuration of the tracking object discovery system 1 according to the embodiment of the present invention. As shown in the drawing, the tracking object discovery system 1 includes a tracking object discovery device 10, a plurality of sensor tags 20 (sensor tag group), and a communication network 30.

追跡物体発見装置10は、測距センサ101と、環境地図作成部102と、記憶部103と、加速度情報取得部104と、加速度情報書込み部105と、物体追跡部106と、環境構造管理部107と、対話部108と、を含んで構成される。   The tracking object discovery device 10 includes a distance measuring sensor 101, an environment map creation unit 102, a storage unit 103, an acceleration information acquisition unit 104, an acceleration information writing unit 105, an object tracking unit 106, and an environmental structure management unit 107. And a dialogue unit 108.

測距センサ101は、追跡物体発見装置10から環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)までのそれぞれの距離を計測する。
環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、一般的な環境地図作成手法、例えば、SLAM(Simultaneous Localization and Mapping)のような手法を用いて環境地図を作成する。
The distance measuring sensor 101 measures each distance from the tracking object finding device 10 to a plurality of objects (for example, the object obj1, object obj2, and object obj3) in the environment (for example, the space spc1).
The environment map creation unit 102 identifies the positions of a plurality of objects based on the distances measured by the distance measuring sensor 101, and a general environment map creation method, for example, SLAM (Simultaneous Localization and Mapping). An environmental map using various techniques.

記憶部103は、環境地図作成部102によって作成された環境地図に基づく地図情報1031を記憶する。また、記憶部103は、後述する加速度情報書込み部105によって時系列に書込まれる加速度情報1033を記憶する。また、記憶部103は、センサタグ20(および、センサタグ20が設置された物体)を識別する識別情報、当該センサタグ20が設置された物体の名称、当該物体の位置を示す情報、および当該物体の属性情報(例えば、当該物体の特徴に関する情報など)を対応付ける物体管理情報1032を記憶する。   The storage unit 103 stores map information 1031 based on the environment map created by the environment map creation unit 102. The storage unit 103 also stores acceleration information 1033 written in time series by an acceleration information writing unit 105 described later. The storage unit 103 also includes identification information for identifying the sensor tag 20 (and the object on which the sensor tag 20 is installed), the name of the object on which the sensor tag 20 is installed, information indicating the position of the object, and attributes of the object Object management information 1032 that associates information (for example, information related to the feature of the object) is stored.

加速度情報取得部104(物体移動情報取得部)は、センサタグ20から送信された、物体の加速度を示す情報(物体が移動したことを示す物体移動情報)とセンサタグ20(および物体)を識別する識別情報とを対応付ける加速度情報1033を、通信ネットワーク30を介して受信する。
加速度情報書込み部105は、加速度情報取得部104が受信した加速度情報1033を、記憶部103に書込む。
The acceleration information acquisition unit 104 (object movement information acquisition unit) identifies the information indicating the acceleration of the object (object movement information indicating that the object has moved) and the sensor tag 20 (and the object) transmitted from the sensor tag 20. Acceleration information 1033 that associates the information is received via the communication network 30.
The acceleration information writing unit 105 writes the acceleration information 1033 received by the acceleration information acquisition unit 104 into the storage unit 103.

物体追跡部106は、環境地図からセンサタグ20が設置された物体を切り出し、当該物体の位置を特定するための仕組みである。物体追跡部106は、記憶部103に記憶された加速度情報1033を監視し、当該加速度情報1033が更新されたタイミングで、物体の位置を特定するための処理を行う。物体追跡部106は、物体が移動する前に環境地図作成部102によって作成された環境地図と物体が移動した後に環境地図作成部102によって作成された環境地図との差異を示す情報と、加速度情報1033と、に基づいて、移動した物体を識別し、識別された物体の移動後の位置を特定する。
環境構造管理部107は、物体追跡部106によって特定された移動後の物体の位置を示す情報に基づいて、記憶部103に記憶された物体管理情報1032を更新する。
The object tracking unit 106 is a mechanism for extracting an object on which the sensor tag 20 is installed from the environment map and specifying the position of the object. The object tracking unit 106 monitors the acceleration information 1033 stored in the storage unit 103, and performs processing for specifying the position of the object at a timing when the acceleration information 1033 is updated. The object tracking unit 106 includes information indicating a difference between the environment map created by the environment map creating unit 102 before the object moves and the environment map created by the environment map creating unit 102 after the object moves, and acceleration information 1033, the moved object is identified, and the position of the identified object after the movement is specified.
The environment structure management unit 107 updates the object management information 1032 stored in the storage unit 103 based on the information indicating the position of the moved object specified by the object tracking unit 106.

対話部108は、図2に図示するように、対話入出力部1081と対話制御部1082とを含んで構成される。
対話入出力部1081は、追跡物体発見装置10(例えば、ユーザとの対話機能を有する対話ロボット)と対話するユーザからの情報の入力を受け付けたり、当該ユーザに対して情報を出力したりするための入出力インターフェースである。対話部108は、例えば、マイクロフォン、スピーカー、またはタッチパネル式の液晶ディスプレイなどを含んで構成される。
The dialogue unit 108 includes a dialogue input / output unit 1081 and a dialogue control unit 1082 as shown in FIG.
The dialogue input / output unit 1081 receives an input of information from a user who interacts with the tracking object finding device 10 (for example, a dialogue robot having a dialogue function with the user) or outputs information to the user. I / O interface. The dialogue unit 108 includes, for example, a microphone, a speaker, or a touch panel type liquid crystal display.

対話制御部1082は、ユーザによって対話入出力部1081へ入力された情報を解析し、ユーザからの要求内容を認識する。そして、対話制御部1082は、ユーザからの要求内容を示す情報を環境構造管理部107へ出力する。
環境構造管理部107は、対話制御部1082から入力された情報に基づいて、物体管理情報1032を参照し、当該入力された情報に対する応答を生成するための情報を物体管理情報1032から取得する。環境構造管理部107は、物体管理情報1032から取得した情報を、対話制御部1082へ出力する。
対話制御部1082は、環境構造管理部107から入力された情報に基づいて、ユーザからの要求内容に対する応答を示す情報を生成し、対話入出力部1081へ出力する。
対話入出力部1081は、対話制御部1082から入力された情報を、ユーザが認識可能なデータ形式(例えば、音声データ)に変換して、(ユーザに対して)出力する。
なお、上記の、追跡物体発見装置10とユーザとの対話の詳細については、後述する。
The dialogue control unit 1082 analyzes the information input to the dialogue input / output unit 1081 by the user, and recognizes the content requested by the user. Then, the dialogue control unit 1082 outputs information indicating the request contents from the user to the environmental structure management unit 107.
The environment structure management unit 107 refers to the object management information 1032 based on the information input from the dialogue control unit 1082, and acquires information for generating a response to the input information from the object management information 1032. The environment structure management unit 107 outputs the information acquired from the object management information 1032 to the dialogue control unit 1082.
The dialogue control unit 1082 generates information indicating a response to the request content from the user based on the information input from the environment structure management unit 107 and outputs the information to the dialogue input / output unit 1081.
The dialogue input / output unit 1081 converts the information input from the dialogue control unit 1082 into a data format (for example, voice data) that can be recognized by the user, and outputs (to the user).
The details of the dialogue between the tracking object finding device 10 and the user will be described later.

(加速度情報の構成)
以下に、加速度情報1033の構成について、図面を参照しながら説明する。
図3は、本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する加速度情報1033の構成の一例を示す図である。図示するように、加速度情報1033は、「センサタグID」、「タイムスタンプ」、および「加速度値」の3つのデータ項目の列からなる2次元の表形式のデータである。
(Configuration of acceleration information)
Hereinafter, the configuration of the acceleration information 1033 will be described with reference to the drawings.
FIG. 3 is a diagram illustrating an example of the configuration of the acceleration information 1033 stored in the storage unit 103 of the tracking object discovery device 10 according to the embodiment of the present invention. As shown in the figure, the acceleration information 1033 is two-dimensional tabular data composed of three data item columns of “sensor tag ID”, “time stamp”, and “acceleration value”.

図3に示すように、例えば、加速度情報1033の1行目のデータは、「センサタグID」の項目の値である「A001」、「タイムスタンプ」の項目の値である「1463987325」、および「加速度値」の項目の値である「5.236」からなるデータである。このデータは、「A001」というセンサタグIDが付与されたセンサタグ20(が設置された物体)が、「1463987325」というタイムスタンプに基づく時刻に、「5.236」の加速度値で移動をしていたことを表す。   As illustrated in FIG. 3, for example, the data in the first row of the acceleration information 1033 includes “A001” that is the value of the “sensor tag ID” item, “14636938725” that is the value of the “time stamp” item, and “ This is data consisting of “5.236” which is the value of the item of “acceleration value”. This data shows that the sensor tag 20 to which the sensor tag ID “A001” is assigned (the object on which the sensor tag 20 is installed) has moved at an acceleration value of “5.236” at the time based on the time stamp “14636932525”. Represents that.

加速度情報1033は、センサタグ20が加速度を検知した時に、センサタグ20から通信ネットワーク30を介して追跡物体発見装置10の加速度情報取得部104へ送信される。そして、加速度情報取得部104が受信した加速度情報1033は、加速度情報書込み部105によって記憶部103に書込まれる。センサタグ20は、加速度を検知してから、物体が停止するまでの間、例えば、30Hzの周期で定期的に加速度情報1033を計測し、加速度情報取得部104へ送信する。   The acceleration information 1033 is transmitted from the sensor tag 20 to the acceleration information acquisition unit 104 of the tracking object finding device 10 via the communication network 30 when the sensor tag 20 detects acceleration. The acceleration information 1033 received by the acceleration information acquisition unit 104 is written into the storage unit 103 by the acceleration information writing unit 105. The sensor tag 20 measures the acceleration information 1033 periodically at a period of 30 Hz, for example, after detecting the acceleration until the object stops, and transmits it to the acceleration information acquisition unit 104.

(物体管理情報の構成)
以下に、物体管理情報1032の構成について、図面を参照しながら説明する。
図4は、本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する物体管理情報1032の構成の一例を示す図である。図示するように、物体管理情報1032は、「センサタグID」、「物体名」、「座標値」、および「属性値」の4つのデータ項目の列からなる2次元の表形式のデータである。
(Composition of object management information)
Hereinafter, the configuration of the object management information 1032 will be described with reference to the drawings.
FIG. 4 is a diagram illustrating an example of the configuration of the object management information 1032 stored in the storage unit 103 of the tracking object discovery device 10 according to the embodiment of the present invention. As shown in the figure, the object management information 1032 is data in a two-dimensional tabular format composed of four data item columns of “sensor tag ID”, “object name”, “coordinate value”, and “attribute value”.

図4に示すように、例えば、物体管理情報1032の1行目のデータは、「センサタグID」の項目の値である「A001」、「物体名」の項目の値である「リモコン」、および「座標値」の項目の値である「(25,36)」、および「属性値」の項目の値である「ディスプレイ1用のリモコン」からなるデータである。このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が設置された物体の「物体名」が、「リモコン」であることを表す。また、このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が、「(25,36)」という座標値によって表される座標に位置していることを表す。また、このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が設置された物体が、「ディスプレイ1用のリモコン」であるという「属性値」(属性情報)を持った物体であることを表す。   As shown in FIG. 4, for example, the data in the first row of the object management information 1032 includes “A001” that is the value of the “sensor tag ID” item, “remote control” that is the value of the “object name” item, and The data is composed of “(25, 36)” that is the value of the item of “coordinate value” and “remote control for display 1” that is the value of the item of “attribute value”. This data indicates that the “object name” of the object on which the sensor tag 20 to which the sensor tag ID “A001” is assigned is “remote control”. Further, this data indicates that the sensor tag 20 to which the sensor tag ID “A001” is assigned is located at the coordinates represented by the coordinate value “(25, 36)”. Further, this data indicates that the object on which the sensor tag 20 to which the sensor tag ID “A001” is assigned is installed is an object having “attribute value” (attribute information) that is “remote control for display 1”. Represents.

また、図4に示すように、例えば、物体管理情報1032の4行目のデータについてはは、「センサタグID」の項目には値が格納されていない。また、「物体名」の項目の値は「テーブル1」、「座標値」の項目の値は「(25,30)」、および「属性値」の項目の値は「中央の大テーブル」である。このデータは、センサタグ20が設置されていない物体であって「物体名」が「テーブル1」である物体が、「(25,30)」という座標値によって表される座標に位置しており、「中央の大テーブル」であるという「属性値」(属性情報)を持っていることを表す。   As shown in FIG. 4, for example, for the data in the fourth row of the object management information 1032, no value is stored in the item “sensor tag ID”. In addition, the value of the “object name” item is “table 1”, the value of the “coordinate value” item is “(25, 30)”, and the value of the “attribute value” item is “central large table”. is there. In this data, an object in which the sensor tag 20 is not installed and an object whose “object name” is “table 1” is located at a coordinate represented by a coordinate value “(25, 30)”. It represents having an “attribute value” (attribute information) indicating that it is a “central large table”.

図4に示す物体管理情報1032の1行目から3行目までのデータように、「センサタグID」の項目に値が格納されている場合には、当該センサタグIDが付与されたセンサタグ20が設置された物体は、追跡物体発見装置10が追跡する対象とする物体である。一方、図4に示す物体管理情報1032の4行目のデータように、「センサタグID」の項目に値が格納されていない場合には、当該データの「物体名」によって示される物体は、センサタグ20が設置されていない物体であり、追跡物体発見装置10が追跡する対象とはしていない物体である。   When a value is stored in the item “sensor tag ID” as in the data from the first line to the third line of the object management information 1032 shown in FIG. 4, the sensor tag 20 to which the sensor tag ID is assigned is installed. The detected object is an object to be tracked by the tracking object finding device 10. On the other hand, when no value is stored in the item “sensor tag ID” as in the data on the fourth line of the object management information 1032 shown in FIG. 4, the object indicated by the “object name” of the data is the sensor tag. Reference numeral 20 denotes an object that is not installed, and is an object that is not a target to be tracked by the tracking object discovery device 10.

追跡物体発見装置10が追跡する対象とする物体に対応するデータ(図4に示す物体管理情報1032の1行目から3行目までのデータ)については、「センサタグID」、および「物体名」、および「属性値」の3つの項目の値は、予め記憶されている。また、「座標値」の項目の値は、当該物体が移動したことが検知される度に、環境構造管理部107によって更新される。なお、「属性値」の項目に値が格納されているか否かは任意である。   For data corresponding to an object to be tracked by the tracking object discovery device 10 (data from the first line to the third line of the object management information 1032 shown in FIG. 4), “sensor tag ID” and “object name” The values of the three items “attribute value” are stored in advance. The value of the item “coordinate value” is updated by the environmental structure management unit 107 every time it is detected that the object has moved. Whether or not a value is stored in the item “attribute value” is arbitrary.

また、追跡物体発見装置10が追跡する対象とはしていない物体に対応するデータ(図4に示す物体管理情報1032の4行目のデータ)については、「物体名」、「座標値」、および「属性値」の3つの項目の値は、予め記憶されている。なお、「センサタグID」の項目の値は格納されておらず、また、「属性値」の項目に値が格納されているか否かは任意である。   For data corresponding to an object that is not a target to be tracked by the tracking object discovery device 10 (data in the fourth row of the object management information 1032 shown in FIG. 4), “object name”, “coordinate value”, The values of the three items “attribute value” are stored in advance. Note that the value of the “sensor tag ID” item is not stored, and whether or not the value is stored in the “attribute value” item is arbitrary.

(移動した物体および位置の特定)
以下、追跡物体発見装置10による、移動した物体の特定、および移動した物体の移動後の位置の特定について、図面を参照しながら説明する。
図5は、本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。
(Identification of moved object and position)
Hereinafter, the specification of the moved object and the position of the moved object after the movement by the tracking object discovery device 10 will be described with reference to the drawings.
FIG. 5 is a schematic diagram illustrating the identification of the moved object and the position by the tracking object discovery device 10 according to the embodiment of the present invention.

図5(A)は、図1に示した空間spc1に実際に存在する物体(例えば、物体obj1、物体obj2、および物体obj3)の位置(座標)を、追跡物体発見装置10の位置を原点とした2次元の座標平面上に表したものである。なお、説明を簡略化するため、ここではx軸およびy軸からなる座標平面を例として説明するが、x軸、y軸、およびz軸からなる3次元の座標空間であってもよい。   FIG. 5A shows the positions (coordinates) of objects (for example, the object obj1, object obj2, and object obj3) that actually exist in the space spc1 shown in FIG. 1, and the position of the tracking object finding device 10 as the origin. It is represented on a two-dimensional coordinate plane. In order to simplify the description, a coordinate plane composed of an x-axis and a y-axis will be described as an example here, but a three-dimensional coordinate space composed of an x-axis, a y-axis, and a z-axis may be used.

図5(B)は、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図5(B)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。   In FIG. 5B, the distance from the tracking object finding device 10 to each object existing in the space spc1 is measured by the distance measuring sensor 101 of the tracking object finding device 10, and the position (coordinates) is measured by the environment map creating unit 102. Is represented on a coordinate plane with the position of the tracking object finding device 10 as the origin. A portion indicated by a broken line in FIG. 5B represents a range in which light emitted from the distance measuring sensor 101 of the tracking object finding device 10 is reflected from the position of the origin 0.

図5(C)は、物体obj2が座標crd1の位置へ移動した後に、再び追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図5(B)と同様に、図5(C)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。   FIG. 5C shows the measurement of the distance from the tracking object finding device 10 to each object existing in the space spc1 by the distance measuring sensor 101 of the tracking object finding device 10 again after the object obj2 moves to the position of the coordinate crd1. The object whose position (coordinates) is specified by the environment map creation unit 102 is represented on a coordinate plane with the position of the tracking object finding device 10 as the origin. Similar to FIG. 5B, the part indicated by the broken line in FIG. 5C represents the range in which the light irradiated by the distance measuring sensor 101 of the tracking object finding device 10 is reflected from the position of the origin 0. Is.

追跡物体発見装置10の物体追跡部106は、物体が移動する前に作成された環境地図と、物体が移動した後に作成された環境地図との差異を解析することにより、何らかの物体が移動したことを認識することができる。具体的には、物体が移動する前に作成された環境地図においては物体が存在するが、物体が移動した後に作成された環境地図においては物体が存在しない座標を、物体追跡部106は、何らかの物体の移動元の座標であると認識する。また、物体が移動する前に作成された環境地図においては物体が存在しないが、物体が移動した後に作成された環境地図においては物体が存在する座標を、物体追跡部106は、何らかの物体の移動元の座標であると認識する。   The object tracking unit 106 of the tracking object discovery device 10 analyzes that a certain object has moved by analyzing the difference between the environment map created before the object moves and the environment map created after the object moves. Can be recognized. Specifically, the object tracking unit 106 uses coordinates where the object exists in the environment map created before the object moves but does not exist in the environment map created after the object moves. Recognize the coordinates of the movement source of the object. In addition, the object tracking unit 106 uses the coordinates where the object exists in the environment map created after the object moves, but the object tracking unit 106 moves the object in the environment map created before the object moves. Recognize the original coordinates.

物体追跡部106は、物体が移動する前に作成された環境地図が作成された時間と物体が移動した後に作成された環境地図が作成された時間との間の時間帯に該当するタイムスタンプを示すデータを、記憶部103の加速度情報1033から抽出し、抽出された当該タイムスタンプに対応付けられたセンサタグIDを取得する。これにより、物体追跡部106は、取得されたセンサタグIDに基づいて、移動元の座標から移動先の座標へ移動した物体に設置されたセンサタグIDを推測することができる。
物体追跡部106は、上記において推測されたセンサタグID、および移動先の座標を示す情報を、環境構造管理部107へ出力する。
The object tracking unit 106 displays a time stamp corresponding to a time zone between the time when the environment map created before the object moves and the time when the environment map created after the object moves. The indicated data is extracted from the acceleration information 1033 of the storage unit 103, and the sensor tag ID associated with the extracted time stamp is acquired. Accordingly, the object tracking unit 106 can infer the sensor tag ID installed on the object moved from the movement source coordinate to the movement destination coordinate based on the acquired sensor tag ID.
The object tracking unit 106 outputs information indicating the sensor tag ID estimated in the above and the coordinates of the movement destination to the environment structure management unit 107.

環境構造管理部107は、記憶部103に記憶された物体管理情報1032において、物体追跡部106から入力されたセンサタグIDに対応付けられている座標値を、物体追跡部106から入力された移動先の座標によって更新する。
環境構造管理部107は、記憶部103に記憶された物体管理情報1032において、物体追跡部106から入力されたセンサタグIDに対応付けられている物体名を参照することにより、移動した物体の物体名を認識することができる。
The environment structure management unit 107 uses the coordinate value associated with the sensor tag ID input from the object tracking unit 106 in the object management information 1032 stored in the storage unit 103 as the movement destination input from the object tracking unit 106. Update with the coordinates of.
The environment structure management unit 107 refers to the object name associated with the sensor tag ID input from the object tracking unit 106 in the object management information 1032 stored in the storage unit 103, thereby identifying the object name of the moved object. Can be recognized.

なお、上記においては、物体追跡部106は、センサタグIDを加速度情報1033から取得することによって、どの物体が移動したかを推測したが、これに限られない。例えば、物体追跡部106は、加速度情報1033に含まれるセンサタグIDごとの加速度値の推移に基づいて、当該センサタグIDに対応する物体の推定移動距離を算出し、算出された推定移動距離と、上記の環境地図における移動元の座標と移動先の座標との間の距離と、を比較することによって、移動した物体を特定するようにしてもよい。   In the above description, the object tracking unit 106 estimates which object has moved by acquiring the sensor tag ID from the acceleration information 1033. However, the present invention is not limited to this. For example, the object tracking unit 106 calculates the estimated moving distance of the object corresponding to the sensor tag ID based on the transition of the acceleration value for each sensor tag ID included in the acceleration information 1033, the calculated estimated moving distance, and the above The moved object may be specified by comparing the distance between the movement source coordinate and the movement destination coordinate in the environmental map.

なお、センサタグ20にジャイロスコープを搭載し、物体追跡部106が、当該ジャイロスコープによって計測された物体の姿勢や角速度等を示す情報も用いて、移動した物体の特定をするようにしてもよい。複数の種類のセンサによって計測された情報を用いることによって、物体追跡部106は、より精度高く、移動した物体の特定を行うことができる。   Note that a gyroscope may be mounted on the sensor tag 20, and the object tracking unit 106 may identify the moved object using information indicating the posture, angular velocity, and the like of the object measured by the gyroscope. By using information measured by a plurality of types of sensors, the object tracking unit 106 can identify the moved object with higher accuracy.

なお、本実施形態に係る追跡物体発見装置10は、加速度センサによって取得される加速度値を用いて物体の移動を検知するが、物体の移動を検知することが可能なその他のセンサ等によって取得される情報に基づいて物体の移動を検知するような構成であってもよい。例えば、センサタグ20が、気圧センサを備え、当該気圧センサによって取得される気圧の変化に基づいて物体の位置の高度変化を検知するような構成であってもよい。   The tracking object discovery device 10 according to the present embodiment detects the movement of the object using the acceleration value acquired by the acceleration sensor, but is acquired by other sensors that can detect the movement of the object. It may be configured to detect the movement of the object based on the information. For example, the sensor tag 20 may be configured to include an atmospheric pressure sensor and detect an altitude change in the position of the object based on a change in atmospheric pressure acquired by the atmospheric pressure sensor.

(追跡物体発見装置の動作)
以下、追跡物体発見装置10の動作の概略について、図面を参照しながら説明する。
図6は、本発明の実施形態に係る追跡物体発見装置10の動作を示すフローチャートである。本フローチャートの処理は、追跡物体発見装置10が、空間spc1において、物体の追跡を開始した際に開始する。
(Operation of tracking object detection device)
Hereinafter, an outline of the operation of the tracking object finding apparatus 10 will be described with reference to the drawings.
FIG. 6 is a flowchart showing the operation of the tracking object finding apparatus 10 according to the embodiment of the present invention. The processing of this flowchart starts when the tracking object discovery device 10 starts tracking an object in the space spc1.

(ステップS001)追跡物体発見装置10の測距センサ101は、追跡物体発見装置10と、環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)とのそれぞれの距離を計測する。その後、ステップS002へ進む。 (Step S001) The distance measuring sensor 101 of the tracking object discovery device 10 includes the tracking object discovery device 10 and a plurality of objects (for example, the object obj1, the object obj2, and the object obj3) in the environment (for example, the space spc1). Measure each distance. Thereafter, the process proceeds to step S002.

(ステップS002)追跡物体発見装置10の環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、環境地図を作成する。その後、ステップS003へ進む。 (Step S002) Based on the distance measured by the distance measuring sensor 101, the environment map creating unit 102 of the tracking object finding apparatus 10 identifies the positions of a plurality of objects and creates an environment map. Thereafter, the process proceeds to step S003.

(ステップS003)追跡物体発見装置10の環境地図作成部102は、作成した環境地図に基づく地図情報1031を記憶部103に記憶させる。その後、ステップS004へ進む。 (Step S003) The environment map creation unit 102 of the tracking object finding apparatus 10 stores map information 1031 based on the created environment map in the storage unit 103. Thereafter, the process proceeds to step S004.

(ステップS004)追跡物体発見装置10の加速度情報取得部104は、センサタグ20から送信された、(物体が移動したことを示す)物体の加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報1033を、通信ネットワーク30を介して受信する。加速度情報書込み部105は、加速度情報取得部104が受信した加速度情報1033を、記憶部103に書込む。その後、ステップS005へ進む。 (Step S004) The acceleration information acquisition unit 104 of the tracking object finding apparatus 10 identifies the information transmitted from the sensor tag 20 indicating the acceleration of the object (indicating that the object has moved) and the sensor tag 20 (and the object). Acceleration information 1033 associated with the information is received via the communication network 30. The acceleration information writing unit 105 writes the acceleration information 1033 received by the acceleration information acquisition unit 104 into the storage unit 103. Thereafter, the process proceeds to step S005.

(ステップS005)追跡物体発見装置10の測距センサ101は、追跡物体発見装置10と、環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)とのそれぞれの距離を計測する。その後、ステップS006へ進む。 (Step S005) The distance measuring sensor 101 of the tracking object finding device 10 and the tracking object finding device 10 and a plurality of objects (for example, the object obj1, the object obj2, and the object obj3) in the environment (for example, the space spc1). Measure each distance. Thereafter, the process proceeds to step S006.

(ステップS006)追跡物体発見装置10の環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、環境地図を作成する。その後、ステップS007へ進む。 (Step S006) The environment map creation unit 102 of the tracking object finding device 10 identifies the positions of a plurality of objects based on the distance measured by the distance measuring sensor 101, and creates an environment map. Thereafter, the process proceeds to step S007.

(ステップS007)追跡物体発見装置10の環境地図作成部102は、作成した環境地図に基づく地図情報1031を記憶部103に記憶させる。その後、ステップS008へ進む。 (Step S007) The environment map creating unit 102 of the tracking object finding apparatus 10 stores map information 1031 based on the created environment map in the storage unit 103. Thereafter, the process proceeds to step S008.

(ステップS008)追跡物体発見装置10の物体追跡部106は、物体が移動する前に環境地図作成部102によって作成された環境地図と物体が移動した後に環境地図作成部102によって作成された環境地図との差異を抽出する。その後、ステップS009へ進む。 (Step S008) The object tracking unit 106 of the tracked object finding apparatus 10 includes the environment map created by the environment map creating unit 102 before the object moves and the environment map created by the environment map creating unit 102 after the object moves. And the difference is extracted. Thereafter, the process proceeds to step S009.

(ステップS009)追跡物体発見装置10の物体追跡部106は、ステップS007で抽出した環境地図の差異を示す情報と、加速度情報1033と、に基づいて、移動した物体を識別し、識別された物体の移動後の位置を特定する。その後、ステップS010へ進む。 (Step S009) The object tracking unit 106 of the tracking object discovery device 10 identifies the moved object based on the information indicating the difference between the environmental maps extracted in step S007 and the acceleration information 1033, and the identified object Specify the position after moving. Thereafter, the process proceeds to step S010.

(ステップS010)追跡物体発見装置10が、空間spc1における物体の追跡を終了した場合には、本フローチャートの処理が終了する。そうでない場合は、ステップS004へ戻る。 (Step S010) When the tracked object finding device 10 finishes tracking an object in the space spc1, the process of this flowchart is finished. Otherwise, the process returns to step S004.

(複数の物体が移動した場合の物体および位置の特定)
以下、追跡物体発見装置10による、複数の物体が移動した場合における、移動した物体の特定、および移動した物体の移動後の位置の特定について、図面を参照しながら説明する。
図7は、本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。
(Identification of object and position when multiple objects move)
Hereinafter, the identification of the moved object and the position of the moved object after the movement when the plurality of objects move by the tracking object finding device 10 will be described with reference to the drawings.
FIG. 7 is a schematic diagram illustrating identification of a moved object and a position by the tracking object discovery device 10 according to the embodiment of the present invention.

図7(A)は、物体obj1および物体obj2が移動した後に、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図7(A)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。   In FIG. 7A, after the object obj1 and the object obj2 move, the distance sensor 101 of the tracking object discovery device 10 measures the distance from the tracking object discovery device 10 to each object existing in the space spc1. An object whose position (coordinates) is specified by the environment map creation unit 102 is represented on a coordinate plane with the position of the tracking object finding device 10 as the origin. A portion indicated by a broken line in FIG. 7A represents a range in which light irradiated by the distance measuring sensor 101 of the tracking object finding device 10 is reflected from the position of the origin 0.

図7(A)に示している物体obj1および物体obj2が表示されている座標は、物体obj1および物体obj2が移動する前に作成された環境地図におけるそれぞれの物体の位置を表す。また、図7(A)に点線で示している座標crd11および座標crd12は、物体obj1および物体obj2が移動した後に作成された環境地図におけるそれぞれの物体の位置を表す。すなわち、図7(A)は、2つの物体がそれぞれ座標crd11または座標crd12へ移動したと推測される状態を表す。   The coordinates where the object obj1 and the object obj2 shown in FIG. 7A are displayed represent the positions of the respective objects in the environment map created before the object obj1 and the object obj2 move. In addition, coordinates crd11 and coordinates crd12 indicated by dotted lines in FIG. 7A represent the positions of the objects in the environment map created after the objects obj1 and obj2 move. That is, FIG. 7A shows a state in which two objects are estimated to have moved to the coordinates crd11 or the coordinates crd12, respectively.

複数の物体が移動した場合、物体追跡部106は、加速度情報1033を参照して加速度が検知された物体を特定することにより、移動した複数の物体をそれぞれ特定することはできるが、移動した複数の物体がそれぞれどの位置へ移動したのかを特定することはできない。   When a plurality of objects move, the object tracking unit 106 can identify each of the plurality of moved objects by identifying the object whose acceleration is detected with reference to the acceleration information 1033. It is impossible to specify to which position each object has moved.

図7(B)は、物体obj1が再び移動した後に、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図7(A)と同様、図7(B)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。   In FIG. 7B, after the object obj1 moves again, the distance sensor 101 of the tracking object finding device 10 measures the distance from the tracking object finding device 10 to each object existing in the space spc1, and the environment map The object whose position (coordinates) is specified by the creating unit 102 is represented on a coordinate plane with the position of the tracking object finding device 10 as the origin. Similar to FIG. 7A, the portion indicated by the broken line in FIG. 7B represents the range in which the light irradiated by the distance measuring sensor 101 of the tracking object finding device 10 is reflected from the position of the origin 0. It is.

図7(B)に点線で示している座標crd11および座標crd12は、物体obj1が再び移動する前に作成された環境地図におけるそれぞれの物体の位置を表す。また、図7(B)に点線で示している座標crd13および座標crd12は、物体obj1が再び移動した後に作成された環境地図におけるそれぞれの物体の位置を表す。よって、座標crd12は、物体obj1が再び移動する前に作成された環境地図、および物体obj1が再び移動した後に作成された環境地図のいずれにおいても物体が存在すると測定された座標である。すなわち、図7(B)は、1つの物体のみが移動したと推測される状態を表す。   The coordinates crd11 and the coordinates crd12 indicated by dotted lines in FIG. 7B represent the positions of the respective objects in the environment map created before the object obj1 moves again. In addition, coordinates crd13 and coordinates crd12 indicated by dotted lines in FIG. 7B represent the positions of the respective objects in the environment map created after the object obj1 has moved again. Therefore, the coordinate crd12 is a coordinate measured when the object exists in both the environment map created before the object obj1 moves again and the environment map created after the object obj1 moves again. That is, FIG. 7B shows a state where it is estimated that only one object has moved.

図7(A)における物体の移動時においては、記憶部103に記憶されている加速度情報1033には、物体obj1および物体obj2にそれぞれ設置されたセンサタグ20に付与されているセンサタグIDを示す情報が含まれるため、物体追跡部106は、物体obj1および物体obj2が移動したことは検知することができる。しかしながら、物体obj1および物体obj2のそれぞれが座標crd11または座標crd12のどちらへそれぞれ移動したのかについては認識することができない。   At the time of the movement of the object in FIG. 7A, the acceleration information 1033 stored in the storage unit 103 includes information indicating the sensor tag ID given to the sensor tag 20 installed in each of the objects obj1 and obj2. Therefore, the object tracking unit 106 can detect that the object obj1 and the object obj2 have moved. However, it cannot be recognized which of the objects obj1 and obj2 has moved to the coordinates crd11 or the coordinates crd12.

そして、図7(B)における物体の移動時においては、記憶部103に記憶されている加速度情報1033には、物体obj1に設置されたセンサタグ20に付与されているセンサタグIDを示す情報のみが含まれるため、物体obj1が移動したことを検知することができる。これにより、物体追跡部106は、物体obj1が、図7(A)における物体の移動時に、座標crd11へ移動し、次に、図7(B)における物体の移動時に、座標crd11から座標crd13へさらに移動したことを推測することができる。また、これにより、物体追跡部106は、物体obj2が、図7(A)における物体の移動時に、座標crd12へ移動したことを推測することができる。   7B, the acceleration information 1033 stored in the storage unit 103 includes only information indicating the sensor tag ID given to the sensor tag 20 installed in the object obj1. Therefore, it is possible to detect that the object obj1 has moved. Accordingly, the object tracking unit 106 moves the object obj1 to the coordinate crd11 when the object in FIG. 7A moves, and then moves from the coordinate crd11 to the coordinate crd13 when the object in FIG. 7B moves. Further, it can be estimated that the robot has moved. Accordingly, the object tracking unit 106 can infer that the object obj2 has moved to the coordinate crd12 when the object in FIG.

上記のように、加速度情報取得部104が、複数の物体についての加速度情報1033を取得した場合、物体追跡部106は、複数の物体が移動する前に作成された環境地図と複数の物体が移動した後に作成された環境地図との複数の差異を示す情報と、複数の物体の加速度情報1033を時系列に分析した情報と、に基づいて、移動した複数の物体をそれぞれ識別し、識別された複数の物体の移動後の位置をそれぞれ特定する。   As described above, when the acceleration information acquisition unit 104 acquires the acceleration information 1033 for a plurality of objects, the object tracking unit 106 moves the environment map created before the plurality of objects move and the plurality of objects. The plurality of moved objects are identified and identified based on information indicating a plurality of differences from the created environment map and information obtained by analyzing the acceleration information 1033 of the plurality of objects in time series. The position after the movement of a plurality of objects is specified.

(類似する環境が複数存在する場合における環境の特定)
以下、追跡物体発見装置10による、類似する環境が複数存在する場合における環境の特定について、図面を参照しながら説明する。
図8は、本発明の実施形態に係る追跡物体発見装置10による環境の特定を示す概略図である。
(Identification of environment when there are multiple similar environments)
Hereinafter, identification of an environment when there are a plurality of similar environments by the tracking object discovery apparatus 10 will be described with reference to the drawings.
FIG. 8 is a schematic diagram showing the specification of the environment by the tracking object discovery device 10 according to the embodiment of the present invention.

図8(A)は環境Aにおける環境地図を表し、図8(B)は環境Aとは別の環境である環境Bにおける環境地図を表す。また、図8(C)は追跡物体発見装置10が実際に位置する環境を表したものである。なお、追跡物体発見装置10は、環境Aまたは環境Bのいずれかの環境に位置しているが、どちらの環境に位置しているかについては事前に認識はしていない。   FIG. 8A shows an environment map in environment A, and FIG. 8B shows an environment map in environment B, which is an environment different from environment A. FIG. 8C shows an environment where the tracking object finding apparatus 10 is actually located. The tracking object finding device 10 is located in either environment A or environment B, but it does not recognize in advance which environment it is located in.

追跡物体発見装置10は、環境Aの環境地図および環境Bの環境地図を、それぞれ記憶部103に記憶している。図8に図示するように、環境Aと環境Bとは、物体の配置が類似している環境である。例えば、ビル内のオフィスのような環境において、各階のフロアのレイアウトがこのように似通った環境になっている場合がある。
なお、追跡物体発見装置10は、環境Aにおける加速度情報1033と、環境Bにおける加速度情報1033とをそれぞれ記憶部103に記憶している。
The tracking object discovery device 10 stores an environment map of environment A and an environment map of environment B in the storage unit 103, respectively. As illustrated in FIG. 8, environment A and environment B are environments in which the arrangement of objects is similar. For example, in an environment such as an office in a building, the floor layout of each floor may be similar to this.
The tracking object finding device 10 stores acceleration information 1033 in the environment A and acceleration information 1033 in the environment B in the storage unit 103, respectively.

追跡物体発見装置10は、環境Aまたは環境Bのいずれかの環境に位置しているが、どちらの環境に位置しているのかを認識していない場合、自らの追跡物体発見装置10が位置する環境に存在する任意の物体(測定対象物)を移動させる。例えば、図8(C)に示すように、追跡物体発見装置10は、obj8を座標crd21の位置へ移動させる。すると、追跡物体発見装置10が実際に位置している環境における加速度情報1033が更新される。これにより、追跡物体発見装置10の物体追跡部106は、自らの追跡物体発見装置10が位置している環境が、どの環境であるのか(環境Aであるのか、または環境Bであるのか)を特定することができる。
なお、追跡物体発見装置10が自ら任意の物体(測定対象物)を移動させるのではなく、例えば、ユーザ等の第三者が任意の物体(測定対象物)を移動させたことに基づいて、追跡物体発見装置10の物体追跡部106が、自らの追跡物体発見装置10が位置している環境がどの環境であるのかを特定してもよい。
The tracking object discovery device 10 is located in either environment A or environment B, but if it does not recognize which environment it is located, its own tracking object discovery device 10 is located. Move any object (measuring object) present in the environment. For example, as shown in FIG. 8C, the tracking object finding apparatus 10 moves obj8 to the position of the coordinate crd21. Then, the acceleration information 1033 in the environment where the tracking object finding device 10 is actually located is updated. As a result, the object tracking unit 106 of the tracking object discovery device 10 determines which environment (environment A or environment B) the environment in which the tracking object discovery device 10 is located is. Can be identified.
The tracking object discovery device 10 does not move an arbitrary object (measurement object) by itself, but based on, for example, a third party such as a user moving an arbitrary object (measurement object), The object tracking unit 106 of the tracking object discovery device 10 may specify which environment the environment where the tracking object discovery device 10 is located is.

上記のように、物体追跡部106は、特定の物体についての加速度情報1033を取得したことに基づいて、記憶部103に記憶された複数の環境地図が示す複数の環境のうち、自己の追跡物体発見装置10が存在する環境がどの環境であるかを特定する。   As described above, the object tracking unit 106 acquires its own tracking object among a plurality of environments indicated by the plurality of environment maps stored in the storage unit 103 based on the acquisition of the acceleration information 1033 for the specific object. The environment in which the discovery device 10 exists is specified.

(対話部による対話制御)
以下、追跡物体発見装置10の対話部108による、ユーザとの対話の対話制御について説明する。
追跡物体発見装置10は、ユーザからの問い合わせ、例えば、空間spc1内における特定の物体の位置に関する問い合わせを受け付けて、それに対する回答をユーザに対して提示することができる。
(Dialogue control by dialogue part)
Hereinafter, dialogue control of dialogue with the user by the dialogue unit 108 of the tracking object finding apparatus 10 will be described.
The tracking object discovery device 10 can receive an inquiry from the user, for example, an inquiry about the position of a specific object in the space spc1, and present an answer to the inquiry to the user.

例えば、ユーザは、追跡物体発見装置10(例えば、ロボット)に対して、「リモコンはどこ?」という内容の問い合わせを行う。すると、追跡物体発見装置10の対話入出力部1081が備えるマイクロフォンは、当該ユーザからの問い合わせに基づく音声を取得し、音声信号に変換する。対話入出力部1081は変換した音声信号を、対話制御部1082へ出力する。   For example, the user makes an inquiry to the tracking object finding device 10 (for example, a robot) as “Where is the remote control?”. Then, the microphone included in the dialogue input / output unit 1081 of the tracking object finding device 10 acquires the voice based on the inquiry from the user and converts it into a voice signal. The dialogue input / output unit 1081 outputs the converted audio signal to the dialogue control unit 1082.

対話制御部1082は、対話入出力部1081から入力された音声信号を解析し、ユーザからの要求内容を認識する。対話制御部1082は、ユーザからの問い合わせが、「リモコン」の位置を問い合わせる内容であることを認識すると、環境構造管理部107を介して、記憶部103に記憶された物体管理情報1032、例えば、図4に示す物体管理情報1032を参照する。図4に図示するように、「リモコン」の座標値は「(25,36)」である。また、図4に示す物体管理情報1032には、当該座標値の近傍を示す座標値として「(25,30)」が記憶されている。そして、対話制御部1082は、この座標値に対応する物体名の項目の値である「テーブル1」を取得する。   The dialogue control unit 1082 analyzes the audio signal input from the dialogue input / output unit 1081 and recognizes the content requested by the user. When the dialog control unit 1082 recognizes that the inquiry from the user is the content for inquiring the position of the “remote control”, the object management information 1032 stored in the storage unit 103 via the environmental structure management unit 107, for example, Reference is made to the object management information 1032 shown in FIG. As shown in FIG. 4, the coordinate value of “remote control” is “(25, 36)”. In the object management information 1032 illustrated in FIG. 4, “(25, 30)” is stored as a coordinate value indicating the vicinity of the coordinate value. Then, the dialogue control unit 1082 acquires “table 1” which is the value of the object name item corresponding to this coordinate value.

対話制御部1082は、上記において取得した「テーブル1」を示す情報に基づいて、「テーブル1の近くです」という応答文を生成する。そして、対話制御部1082は、当該応答文を音声信号に変換し、対話入出力部1081へ出力する。対話入出力部1081は、対話制御部1082から入力された音声信号に基づいて対話制御部1082が備えるスピーカーによって音声を出力する。   The dialogue control unit 1082 generates a response sentence “near table 1” based on the information indicating “table 1” acquired above. Then, the dialogue control unit 1082 converts the response sentence into a voice signal and outputs it to the dialogue input / output unit 1081. The dialogue input / output unit 1081 outputs a voice through a speaker included in the dialogue control unit 1082 based on the voice signal input from the dialogue control unit 1082.

このように、本実施形態に係る追跡物体発見装置10は、特定の物体の位置に関する問い合わせを受けた際に、当該物体の座標値を示すデータをそのまま提示するのではなく、当該物体をユーザが発見するための「目印となるもの(例えば、当該物体の近傍にあるもの)」をユーザに提示することができる。これにより、追跡物体発見装置10は、ユーザに、特定の物体をより簡単に発見させることができる。   As described above, when the tracking object discovery device 10 according to the present embodiment receives an inquiry about the position of a specific object, the tracking object discovery apparatus 10 does not present data indicating the coordinate value of the object as it is, but the user does not present the object. It is possible to present to the user “a mark (for example, a thing in the vicinity of the object)” for discovery. Thereby, the tracking object discovery apparatus 10 can make a user discover a specific object more easily.

なお、上記の「目印となるもの」としては、静的なもの(移動しないもの)や、大きなもの、例えばテーブルなど、が用いられるようにしてもよい。また、上記の「目印となるもの」として、「センサタグ20が設置された物体(例えば、物体A)の中で最も移動していないもの」が用いられることにより、対話部108は、例えば、「物体Aがよく置かれている場所の近くです」といった応答文をユーザに提示することができる。   In addition, as the “marker” described above, a static object (not moving) or a large object such as a table may be used. In addition, as the “marking object” described above, the “part of the object (for example, the object A) on which the sensor tag 20 is most moved” is used. A response sentence such as “near the place where the object A is often placed” can be presented to the user.

なお、上記の「目印となるもの」は、環境地図作成部102により環境地図が作成とあわせて設定され、記憶部103が記憶する物体管理情報1032に登録されるようにしてもよい。   Note that the “marker” may be set together with the creation of the environment map by the environment map creation unit 102 and registered in the object management information 1032 stored in the storage unit 103.

なお、上記の例においては、追跡物体発見装置10は、対話部108が備えるマイクロフォンやスピーカー等により音声によってユーザとの対話を行ったが、これに限られない。例えば、追跡物体発見装置10は、対話部108が備えるタッチパネル式の液晶ディスプレイ等による入出力によってユーザとの対話を行うような構成であってもよい。   In the above example, the tracking object discovery device 10 performs dialogue with the user by voice using a microphone, a speaker, or the like provided in the dialogue unit 108. However, the present invention is not limited to this. For example, the tracking object finding device 10 may be configured to perform a dialogue with the user by input / output using a touch panel type liquid crystal display or the like provided in the dialogue unit 108.

なお、上記の例においては、対話部108は、ユーザに対して文章によって応答したが、これに限られない。例えば、測距センサ101に搭載されたカメラが、ユーザが探している物体、または上記の「目印となるもの」を撮影し、撮影された画像を対話部108がユーザに対して提示するようにしてもよい。   In the above example, the dialogue unit 108 responds to the user with text, but is not limited thereto. For example, a camera mounted on the distance measuring sensor 101 captures an object that the user is looking for, or the above “marker”, and the dialog unit 108 presents the captured image to the user. May be.

以上、この発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   The embodiment of the present invention has been described in detail above, but the specific configuration is not limited to the above-described one, and various design changes and the like can be made without departing from the scope of the present invention. is there.

なお、上述した実施形態における追跡物体発見装置10の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。   In addition, you may make it implement | achieve part or all of the tracking object discovery apparatus 10 in embodiment mentioned above with a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed.

なお、ここでいう「コンピュータシステム」とは、追跡物体発見装置10に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Here, the “computer system” is a computer system built in the tracking object finding apparatus 10 and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信回線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   Further, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, a volatile memory inside a computer system that serves as a server or a client may be included that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

また、上述した実施形態における追跡物体発見装置10を、LSI(Large Scale Integration)等の集積回路として実現してもよい。追跡物体発見装置10の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Further, the tracking object finding device 10 in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the tracking object finding apparatus 10 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

1・・・追跡物体発見システム、10・・・追跡物体発見装置、20・・・センサタグ、30・・・通信ネットワーク、101・・測距センサ、102・・・環境地図作成部、103・・・記憶部、104・・・加速度情報取得部、105・・・加速度情報書込み部、106・・・物体追跡部、107・・・環境構造管理部、108・・・対話部、1031・・・地図情報、1032・・・物体管理情報、1033・・・加速度情報、1081・・・対話入出力部、1082・・・対話制御部 DESCRIPTION OF SYMBOLS 1 ... Tracking object discovery system, 10 ... Tracking object discovery apparatus, 20 ... Sensor tag, 30 ... Communication network, 101 ... Distance measuring sensor, 102 ... Environmental map creation part, 103 ... Storage unit 104 ... Acceleration information acquisition unit 105 ... Acceleration information writing unit 106 ... Object tracking unit 107 ... Environmental structure management unit 108 ... Interaction unit 1031 ... Map information, 1032 ... Object management information, 1033 ... Acceleration information, 1081 ... Dialog input / output unit, 1082 ... Dialog control unit

Claims (8)

環境内の複数の物体それぞれとの距離を計測する測距センサと、
前記測距センサによって計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成部と、
前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶部と、
前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得部と、
前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡部と、
を備えることを特徴とする追跡物体発見装置。
A distance measuring sensor that measures the distance to each of a plurality of objects in the environment;
An environment map creation unit that creates an environment map based on each of the distances to the plurality of objects measured by the distance sensor;
A map information storage unit for storing the environmental map created by the environmental map creation unit;
An object movement information acquisition unit that acquires object movement information indicating that the object has moved;
The moved object is identified based on the information indicating the difference between the environment map created before the object moves and the environment map created after the object moves, and the object movement information. An object tracking unit that identifies a position of the identified object after movement;
A tracking object finding device comprising:
前記物体移動情報取得部は、前記物体に搭載された加速度センサによって計測された加速度情報に基づく前記物体移動情報を取得する
ことを特徴とする請求項1に記載の追跡物体発見装置。
The tracking object finding apparatus according to claim 1, wherein the object movement information acquisition unit acquires the object movement information based on acceleration information measured by an acceleration sensor mounted on the object.
前記物体移動情報取得部が、複数の前記物体についての物体移動情報を取得した場合、
前記物体追跡部は、複数の前記物体が移動する前に作成された前記環境地図と複数の前記物体が移動した後に作成された前記環境地図との複数の前記差異を示す情報と、複数の前記物体の前記物体移動情報を時系列に分析した情報と、に基づいて、移動した複数の前記物体をそれぞれ識別し、識別された複数の前記物体の移動後の位置をそれぞれ特定する
ことを特徴とする請求項1または請求項2に記載の追跡物体発見装置。
When the object movement information acquisition unit acquires object movement information for a plurality of the objects,
The object tracking unit includes information indicating a plurality of differences between the environment map created before the plurality of objects move and the environment map created after the plurality of objects moved, A plurality of moved objects are identified on the basis of information obtained by analyzing the object movement information of the objects in time series, and the moved positions of the identified objects are respectively identified. The tracking object finding device according to claim 1 or 2.
前記物体追跡部は、特定の前記物体についての物体移動情報を取得したことに基づいて、前記地図情報記憶部に記憶された複数の前記環境地図が示す複数の前記環境のうち、自己の追跡物体発見装置が存在する前記環境がどの環境であるかを特定する
ことを特徴とする請求項1から請求項3までのいずれか一項に記載の追跡物体発見装置。
Based on the fact that the object tracking unit has acquired object movement information about the specific object, the object tracking unit among the plurality of environments indicated by the plurality of environment maps stored in the map information storage unit The tracking object discovery device according to any one of claims 1 to 3, wherein the environment in which the discovery device exists is specified.
前記物体を識別する識別情報と前記物体の位置と前記物体の特徴を表す属性情報とを対応付ける物体管理情報を記憶する物体管理情報記憶部
を備えることを特徴とする請求項1から請求項4までのいずれか一項に記載の追跡物体発見装置。
5. An object management information storage unit that stores object management information that associates identification information that identifies the object, attribute information that represents the position of the object, and characteristics of the object. The tracking object discovery device according to any one of the above.
ユーザからの問い合わせを示す情報の入力を受け付け、前記物体管理情報に基づく前記ユーザへの応答を示す情報を出力する対話部
を備えることを特徴とする請求項5に記載の追跡物体発見装置。
The tracking object discovery apparatus according to claim 5, further comprising: an interactive unit that receives an input of information indicating an inquiry from a user and outputs information indicating a response to the user based on the object management information.
コンピュータを用いた追跡物体発見方法であって、
測距センサが、環境内の複数の物体それぞれとの距離を計測する測距ステップと、
環境地図作成部が、前記測距センサによって計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、
地図情報記憶部が、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶ステップと、
物体移動情報取得部が、前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、
物体追跡部が、前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、
を有することを特徴とする追跡物体発見方法。
A method for finding a tracking object using a computer,
A ranging step in which the distance measuring sensor measures the distance to each of a plurality of objects in the environment;
An environment map creating step for creating an environment map based on the distances to the plurality of objects measured by the distance sensor;
A map information storage step for storing the environmental map created by the environmental map creation unit;
An object movement information acquisition unit that acquires object movement information indicating that the object has moved; and
The object tracking unit moves based on the information indicating the difference between the environment map created before the object moves and the environment map created after the object moves, and the object movement information. An object tracking step of identifying the object and identifying a position of the identified object after movement;
The tracking object discovery method characterized by having.
コンピュータに、
環境内の複数の物体それぞれとの距離を計測する測距ステップと、
前記測距ステップにおいて計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、
前記環境地図作成ステップにおいて作成された前記環境地図を記憶する地図情報記憶ステップと、
前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、
前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、
を実行させるためのプログラム。
On the computer,
A ranging step for measuring the distance to each of a plurality of objects in the environment;
An environmental map creating step for creating an environmental map based on the distances to the plurality of objects measured in the ranging step;
A map information storing step for storing the environmental map created in the environmental map creating step;
An object movement information acquisition step of acquiring object movement information indicating that the object has moved;
The moved object is identified based on the information indicating the difference between the environment map created before the object moves and the environment map created after the object moves, and the object movement information. And an object tracking step for identifying the moved position of the identified object;
A program for running
JP2016120045A 2016-06-16 2016-06-16 Tracking object finding device, tracking object finding method, and program Active JP6738662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016120045A JP6738662B2 (en) 2016-06-16 2016-06-16 Tracking object finding device, tracking object finding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016120045A JP6738662B2 (en) 2016-06-16 2016-06-16 Tracking object finding device, tracking object finding method, and program

Publications (2)

Publication Number Publication Date
JP2017223587A true JP2017223587A (en) 2017-12-21
JP6738662B2 JP6738662B2 (en) 2020-08-12

Family

ID=60686947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016120045A Active JP6738662B2 (en) 2016-06-16 2016-06-16 Tracking object finding device, tracking object finding method, and program

Country Status (1)

Country Link
JP (1) JP6738662B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102400512B1 (en) * 2020-11-17 2022-05-23 한국과학기술연구원 Semantic mapping system and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096501A (en) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp System and method for detecting position of mobile object and program
JP2004171189A (en) * 2002-11-19 2004-06-17 Honda Motor Co Ltd Moving object detection device, moving object detection method and moving object detection program
JP2008217544A (en) * 2007-03-06 2008-09-18 Yaskawa Electric Corp Object detection method, object detector, and robot provided with the same
JP2009174898A (en) * 2008-01-22 2009-08-06 Toyota Motor Corp Moving body and environmental information generation method
JP2009252162A (en) * 2008-04-10 2009-10-29 Toyota Motor Corp Apparatus and method for generating map data
JP2014002638A (en) * 2012-06-20 2014-01-09 Mitsuba Corp Autonomous travel device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096501A (en) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp System and method for detecting position of mobile object and program
JP2004171189A (en) * 2002-11-19 2004-06-17 Honda Motor Co Ltd Moving object detection device, moving object detection method and moving object detection program
JP2008217544A (en) * 2007-03-06 2008-09-18 Yaskawa Electric Corp Object detection method, object detector, and robot provided with the same
JP2009174898A (en) * 2008-01-22 2009-08-06 Toyota Motor Corp Moving body and environmental information generation method
JP2009252162A (en) * 2008-04-10 2009-10-29 Toyota Motor Corp Apparatus and method for generating map data
JP2014002638A (en) * 2012-06-20 2014-01-09 Mitsuba Corp Autonomous travel device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102400512B1 (en) * 2020-11-17 2022-05-23 한국과학기술연구원 Semantic mapping system and method

Also Published As

Publication number Publication date
JP6738662B2 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
US11481999B2 (en) Maintenance work support system and maintenance work support method
US11127203B2 (en) Leveraging crowdsourced data for localization and mapping within an environment
KR102399630B1 (en) Method and apparatus for determining position and orientation of bucket of excavator
TWI574223B (en) Navigation system using augmented reality technology
Scott et al. Audio location: Accurate low-cost location sensing
US11365974B2 (en) Navigation system
CN112189218A (en) Site-based augmented reality method and device
CN103365411A (en) Information input apparatus, information input method, and computer program
CN105359002B (en) For marking the system and method for crowdsourcing data
JP2019067383A5 (en)
US20200258515A1 (en) Information processing device, information processing method, and program
Kandalan et al. Techniques for constructing indoor navigation systems for the visually impaired: A review
JP6127564B2 (en) Touch determination device, touch determination method, and touch determination program
US20140359437A1 (en) Method, device, and system for providing sensory information and sense
US20190138117A1 (en) Information processing device, information processing method, and program
JPWO2019193859A1 (en) Camera calibration method, camera calibration device, camera calibration system and camera calibration program
JP6738662B2 (en) Tracking object finding device, tracking object finding method, and program
US20130096869A1 (en) Information processing apparatus, information processing method, and computer readable medium storing program
CN111316059A (en) Method and apparatus for determining size of object using proximity device
KR101956035B1 (en) Interactive display device and controlling method thereof
KR20190068006A (en) Method for providing route through marker recognition and server using the same
EP3392748B1 (en) System and method for position tracking in a virtual reality system
JP2019186941A (en) Object tracking using receivers
US10735902B1 (en) Method and computer program for taking action based on determined movement path of mobile devices
JP6260450B2 (en) Function assignment method, function assignment program, and terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R150 Certificate of patent or registration of utility model

Ref document number: 6738662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350