JP6738662B2 - Tracking object finding device, tracking object finding method, and program - Google Patents

Tracking object finding device, tracking object finding method, and program Download PDF

Info

Publication number
JP6738662B2
JP6738662B2 JP2016120045A JP2016120045A JP6738662B2 JP 6738662 B2 JP6738662 B2 JP 6738662B2 JP 2016120045 A JP2016120045 A JP 2016120045A JP 2016120045 A JP2016120045 A JP 2016120045A JP 6738662 B2 JP6738662 B2 JP 6738662B2
Authority
JP
Japan
Prior art keywords
tracking
information
environment
map
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016120045A
Other languages
Japanese (ja)
Other versions
JP2017223587A (en
Inventor
雅人 河村
雅人 河村
康平 小島
康平 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2016120045A priority Critical patent/JP6738662B2/en
Publication of JP2017223587A publication Critical patent/JP2017223587A/en
Application granted granted Critical
Publication of JP6738662B2 publication Critical patent/JP6738662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、追跡物体発見装置、追跡物体発見方法、およびプログラムに関する。 The present invention relates to a tracking object finding device, a tracking object finding method, and a program.

ロボットが人間の生活空間で移動や作業を行う場合、ロボットは人間の生活空間の状態を把握する必要がある。具体的には、ロボットが、環境地図および環境における対象物の位置を正確に知っている必要がある。
ロボットが利用する環境地図は、一般的に、測距センサ(例えば、カメラおよびLRF(Laser Range Finder;レーザー照準機)などが備えられたセンサ)を用いて作成される。例えば、特許文献1に記載の環境情報作成方法では、周囲に存在する物体の移動体本体からみた相対位置を示す計測値を取得するセンサを用いて、物体の形状や位置を示す環境情報が作成される。
When the robot moves or works in the human living space, the robot needs to know the state of the human living space. Specifically, the robot needs to know the environment map and the position of the object in the environment accurately.
The environment map used by the robot is generally created using a distance measuring sensor (for example, a sensor equipped with a camera and an LRF (Laser Range Finder)). For example, in the environment information creating method described in Patent Document 1, environment information indicating the shape and position of an object is created by using a sensor that acquires a measurement value indicating the relative position of an object existing in the surroundings as viewed from the moving body. To be done.

特開2009−174898号公報JP, 2009-174898, A

特許文献1に記載の環境情報作成方法においては、例えば、測定する環境の一部であるテーブルの上に測定対象物が乗っているような場合など、2つの物体が接している場合には、測定対象物の形状データを予め用意せずに、テーブルと測定対象物とを個々の物体として認識することは難しい。また、例えば、布や紙のように形状が不定である測定対象物を、個々の物体として認識することも困難である。 In the environment information creating method described in Patent Document 1, for example, when two objects are in contact with each other, such as when a measurement target object is placed on a table that is a part of the environment to be measured, It is difficult to recognize the table and the measurement object as individual objects without preparing the shape data of the measurement object in advance. In addition, it is difficult to recognize, as an individual object, an object to be measured whose shape is indefinite such as cloth or paper.

本発明は上記の点に鑑みてなされたものであり、対象物を個々の物体として認識することができる追跡物体発見装置、追跡物体発見方法、およびプログラムを提供する。 The present invention has been made in view of the above points, and provides a tracking object finding device, a tracking object finding method, and a program capable of recognizing an object as an individual object.

(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様としては、物体が移動したことを示す物体移動情報を取得する物体移動情報取得部と、最初に環境内の複数の前記物体それぞれとの距離を計測し、前記物体移動情報取得部が前記物体移動情報を取得すると、前記環境内の複数の物体それぞれとの距離を再び計測する測距センサと、前記測距センサ計測するごとに、前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成部と、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶部と、前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡部と、を備えることを特徴とする追跡物体発見装置である。
(1) The present invention has been made to solve the above problems, and as one aspect of the present invention, an object movement information acquisition unit that acquires object movement information indicating that an object has moved, and first, measuring the distance between each of the plurality of the objects in the environment, if the object movement information acquisition section acquires the object movement information, a distance measuring sensor for re-measuring the distance between each of the plurality of objects within the environment, each time the distance measuring sensor measures the environmental map creation unit for creating an environmental map on the basis of each of the distances to the plurality of objects, a map that stores the environmental map created by the environmental map creation unit an information storage unit, and the environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit, the environmental map created immediately following the timing Based on the information indicating the difference between the object movement information acquired at the timing, and the object moving unit is identified, the object tracking unit that identifies the position after the movement of the identified object, It is a tracking object finding device characterized by including.

(2)また、本発明の一態様としては、前記物体移動情報取得部は、前記物体に搭載された加速度センサによって計測された加速度情報に基づく前記物体移動情報を取得することを特徴とする(1)に記載の追跡物体発見装置である。 (2) Further, as an aspect of the present invention, the object movement information acquisition unit acquires the object movement information based on acceleration information measured by an acceleration sensor mounted on the object ( The tracking object finding device according to 1).

(3)また、本発明の一態様としては、前記物体移動情報取得部が、複数の前記物体についての物体移動情報を取得した場合、前記測距センサは、前記環境内の複数の物体それぞれとの距離を再び計測し、前記物体追跡部は、前記地図情報記憶部に記憶されている前記環境地図の中で複数の前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との複数の前記差異を示す情報と、当該タイミングで取得された複数の前記物体の前記物体移動情報を時系列に分析した情報と、に基づいて、移動した複数の前記物体をそれぞれ識別し、識別された複数の前記物体の移動後の位置をそれぞれ特定することを特徴とする(1)または(2)に記載の追跡物体発見装置である。
(3) Further, as an aspect of the present invention, when the object movement information acquisition unit acquires object movement information about a plurality of the objects, the distance measurement sensor is configured to detect a plurality of objects in the environment. distance was measured again, and the object tracking unit includes: the environmental map created in the immediately preceding timing in which a plurality of the object has moved in the environmental map stored in the map information storage unit, the information indicating a plurality of the difference between the environmental map created immediately following timing, the information analyzing the object movement information of a plurality of the object obtained in the timing in time series, based on the moving The tracking object finding apparatus according to (1) or (2), characterized in that the plurality of objects are identified, and the positions of the identified objects after the movement are identified.

(4)また、本発明の一態様としては、前記物体追跡部は、特定の前記物体についての物体移動情報を取得したことに基づいて、前記地図情報記憶部に記憶された複数の前記環境地図が示す複数の前記環境のうち、自己の追跡物体発見装置が存在する前記環境がどの環境であるかを特定することを特徴とする(1)から(3)までのいずれか一つに記載の追跡物体発見装置である。 (4) Further, as one aspect of the present invention, the object tracking unit acquires a plurality of the environmental maps stored in the map information storage unit based on acquisition of object movement information about the specific object. (1) to (3), wherein the environment in which the self-tracking object finding device exists is specified from among the plurality of environments indicated by (1) to (3). It is a tracking object finding device.

(5)また、本発明の一態様としては、前記物体を識別する識別情報と前記物体の位置と前記物体の特徴を表す属性情報とを対応付ける物体管理情報を記憶する物体管理情報記憶部を備えることを特徴とする(1)から(4)までのいずれか一つに記載の追跡物体発見装置である。 (5) As another aspect of the present invention, an object management information storage unit that stores object management information that associates identification information that identifies the object, the position of the object, and attribute information that represents the characteristics of the object is provided. The tracking object finding device according to any one of (1) to (4).

(6)また、本発明の一態様としては、ユーザからの問い合わせを示す情報の入力を受け付け、前記物体管理情報に基づく前記ユーザへの応答を示す情報を出力する対話部を備えることを特徴とする(5)に記載の追跡物体発見装置である。
(7)また、本発明の一態様としては、前記ユーザからの問い合わせを示す情報は、前記物体の位置に関する問い合わせを示す情報であり、前記対話部は、前記ユーザへの応答を示す情報として、問い合わせた前記物体の近傍に位置する他の前記物体と、問い合わせた前記物体との位置関係を提示する情報を出力することを特徴とする(6)に記載の追跡物体発見装置である。
(8)また、本発明の一態様としては、前記他の物体は、最も移動していない物体である
ことを特徴とする(7)に記載の追跡物体発見装置である。
(6) Further, as an aspect of the present invention, it is provided with a dialogue unit that receives an input of information indicating an inquiry from a user and outputs information indicating a response to the user based on the object management information. The tracking object finding apparatus according to (5).
(7) Further, as an aspect of the present invention, the information indicating the inquiry from the user is information indicating an inquiry about the position of the object, and the dialogue unit is information indicating a response to the user, The tracking object finding device described in (6) is characterized in that information for presenting a positional relationship between the inquired object and another object located in the vicinity of the inquired object is output.
(8) Further, as an aspect of the present invention, the other object is an object that is not moving most.
The tracking object finding device according to (7) is characterized in that:

)また、本発明の一態様としては、測距センサを備えるコンピュータを用いた追跡物体発見方法であって、物体移動情報取得部が、物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、前記測距センサが、最初に環境内の複数の前記物体それぞれとの距離を計測し、前記物体移動情報取得部が前記物体移動情報を取得すると、前記環境内の複数の物体それぞれとの距離を再び計測する測距ステップと、環境地図作成部が、前記測距センサ計測するごとに前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、地図情報記憶部が、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶ステップと、物体追跡部が、前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、を有することを特徴とする追跡物体発見方法である。
( 9 ) Further, as an aspect of the present invention, there is provided a tracking object finding method using a computer having a distance measuring sensor , wherein the object movement information acquisition unit acquires object movement information indicating that the object has moved. and the object movement information acquisition step, the distance measuring sensor, initially measuring the distance between each of the plurality of the objects in the environment, if the object movement information acquisition section acquires the object movement information, a plurality of said environment a distance measuring step of measuring the object distance with each again, environmental map creation unit, environmental map the distance measuring sensor to create an environmental map on the basis of each of the distances to the plurality of objects each time measure A map information storing step of a creating step, a map information storing section storing the environment map created by the environment map creating section, and an object tracking section of the environment map stored in the map information storing section. It said environmental map the object was created prior to direct the timing moving at medium, and information indicating a difference between the environmental map created immediately following the timing, and the object movement information acquired in the time And an object tracking step of identifying the moved object based on, and specifying the position of the identified object after the movement.

10)また、本発明の一態様としては、測距センサを備えるコンピュータに、物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、最初に環境内の複数の前記物体それぞれとの距離を前記測距センサに計測させ、前記物体移動情報取得ステップにおいて、前記物体移動情報が取得されると、前記環境内の複数の物体それぞれとの距離を再び前記測距センサに計測させる測距ステップと、前記測距ステップにおいて計測されるごとに、前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、前記環境地図作成ステップにおいて作成された前記環境地図を地図情報記憶部に記憶させる地図情報記憶ステップと、前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、を実行させるためのプログラムである。
(10) Further, as an embodiment of the present invention, the computer having a distance measuring sensor, and the object movement information acquisition step of acquiring object movement information indicating that the object has moved, a plurality of the object first in the environment When the object movement information is acquired in the object movement information acquisition step by causing the distance measurement sensor to measure the distance to each of them, the distance measurement sensor measures the distance to each of the plurality of objects in the environment again. and causes the distance measuring step, the Rugoto measured in the distance measuring step, and the environment map generating step of generating an environmental map on the basis of each of the distances to the plurality of objects, created in the environmental map creation step a map information storage step of causing storing said environmental map in the map information storage unit, and the environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit , information indicating the difference between the environmental map created immediately following the timing, and the object movement information acquired in the time, based on, identifies the object that has moved, identified in the object This is a program for executing an object tracking step of specifying a position after movement.

本発明によれば、対象物を個々の物体として認識することができる。 According to the present invention, an object can be recognized as an individual object.

本発明の実施形態に係る追跡物体発見システム1による物体の追跡を示す概略図である。It is a schematic diagram showing tracking of an object by tracking object discovery system 1 concerning an embodiment of the present invention. 本発明の実施形態に係る追跡物体発見システム1の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the tracking object discovery system 1 which concerns on embodiment of this invention. 本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する加速度情報1033の構成の一例を示す図である。It is a figure which shows an example of a structure of the acceleration information 1033 which the memory|storage part 103 of the tracking object discovery apparatus 10 which concerns on embodiment of this invention memorize|stores. 本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する物体管理情報1032の構成の一例を示す図である。It is a figure which shows an example of a structure of the object management information 1032 which the memory|storage part 103 of the tracking object discovery apparatus 10 which concerns on embodiment of this invention memorize|stores. 本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。It is a schematic diagram showing specification of a moved object and a position by tracking object discovery device 10 concerning an embodiment of the present invention. 本発明の実施形態に係る追跡物体発見装置10の動作を示すフローチャートである。It is a flow chart which shows operation of tracking object discovery device 10 concerning an embodiment of the present invention. 本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。It is a schematic diagram showing specification of a moved object and a position by tracking object discovery device 10 concerning an embodiment of the present invention. 本発明の実施形態に係る追跡物体発見装置10による環境の特定を示す概略図である。It is a schematic diagram showing specification of an environment by tracking object discovery device 10 concerning an embodiment of the present invention.

(実施形態)
以下、本発明の実施形態における物体の追跡の概要について、図面を参照しながら説明する。
図1は、本発明の実施形態に係る追跡物体発見システム1による物体の追跡を示す概略図である。図示するように、測定対象の環境である空間spc1には、追跡物体発見装置10と、3つの物体(物体obj1、物体obj2、および物体obj3)が置かれている。なお、追跡物体発見装置10、複数のセンサタグ20、および当該追跡物体発見装置10とセンサタグ20とを無線通信接続する通信ネットワークを含めて、以下、追跡物体発見システム1という。
(Embodiment)
Hereinafter, an outline of object tracking in the embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram showing tracking of an object by a tracking object finding system 1 according to an embodiment of the present invention. As shown in the figure, a tracking object finding apparatus 10 and three objects (object obj1, object obj2, and object obj3) are placed in a space spc1 which is the environment of the measurement target. The tracking object finding device 10, the plurality of sensor tags 20, and the communication network for wirelessly connecting the tracking object finding device 10 and the sensor tag 20 together will be referred to as a tracking object finding system 1.

追跡物体発見装置10は、追跡物体発見装置10から空間spc1内に置かれた複数の物体それぞれごとの距離を計測することができる測距センサ101を備える装置(例えば、ロボット)である。例えば、測距センサ101が備える光源(例えば、LED(light emitting diode;発光ダイオード)、またはレーザーダイオード)から照射された光が、空間spc1に置かれた物体(物体obj1、物体obj2、または物体obj3)に当たると反射され、測距センサ101が備える受光素子によって受光される。測距センサ101は、受光した光を解析することにより、追跡物体発見装置10から物体それぞれとの距離を計測する。追跡物体発見装置10は、計測された距離に基づいて、空間spc1におけるそれぞれの物体の位置を特定し、環境地図を作成する。 The tracking object finding device 10 is a device (for example, a robot) including a distance measuring sensor 101 capable of measuring the distance from the tracking object finding device 10 for each of a plurality of objects placed in the space spc1. For example, light emitted from a light source (for example, an LED (light emitting diode) or a laser diode) included in the distance measuring sensor 101 is placed in a space spc1 (object obj1, object obj2, or object obj3). ) Is reflected and is received by the light receiving element of the distance measuring sensor 101. The distance measuring sensor 101 measures the distance from the tracking object finding device 10 to each of the objects by analyzing the received light. The tracking object finding device 10 specifies the position of each object in the space spc1 based on the measured distance and creates an environment map.

物体obj1および物体obj2には、加速度センサが搭載されたセンサタグ20がそれぞれ設置されている。これにより、センサタグ20が設置された物体が移動した場合や故意に動かされた場合、追跡物体発見装置10は、加速度情報をセンサタグ20から受信することで当該物体がいつどれくらいの加速度で移動したのかを認識することができる。 The object obj1 and the object obj2 are provided with sensor tags 20 each having an acceleration sensor. As a result, when the object on which the sensor tag 20 is installed moves or is intentionally moved, the tracking object finding device 10 receives the acceleration information from the sensor tag 20 to determine when and at what acceleration the object moved. Can be recognized.

センサタグ20が設置された物体(物体obj1および物体obj2)は、追跡物体発見装置10による追跡の対象とする物体である。また、センサタグ20が設置されていない物体(物体obj3)は、測定する環境の一部であり、追跡物体発見装置10による追跡の対象とはしない物体である。 The objects (object obj1 and object obj2) on which the sensor tag 20 is installed are the objects to be tracked by the tracking object finding apparatus 10. An object (object obj3) on which the sensor tag 20 is not installed is a part of the environment to be measured, and is not an object to be tracked by the tracked object finding apparatus 10.

センサタグ20が設置された物体(物体obj1または物体obj2)が移動した場合、センサタグ20が備える加速度センサは、当該物体の移動に伴う加速度の変化を検知し、検知した加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報を、センサタグ20が備える無線通信モジュールによって無線通信の通信ネットワークを介して追跡物体発見装置10へ送信する。 When an object (object obj1 or object obj2) on which the sensor tag 20 is installed moves, an acceleration sensor included in the sensor tag 20 detects a change in acceleration accompanying the movement of the object, and information indicating the detected acceleration and the sensor tag 20 ( And acceleration information associated with identification information for identifying the object) is transmitted to the tracking object finding apparatus 10 via a wireless communication network by a wireless communication module included in the sensor tag 20.

追跡物体発見装置10は、センサタグ20から、加速度情報を受信すると、測距センサ101により追跡物体発見装置10から物体それぞれとの距離を再び計測して、計測された距離に基づいて空間spc1におけるそれぞれの物体の位置を再び特定し、環境地図を作成する。 When the tracking object finding device 10 receives the acceleration information from the sensor tag 20, the distance measuring sensor 101 measures the distances from the tracking object finding device 10 to the respective objects again, and the distances in the space spc1 are measured based on the measured distances. Re-specify the position of the object and create an environment map.

そして、追跡物体発見装置10は、物体が移動する前に作成した環境地図と物体が移動した後に作成した環境地図との差異を示す情報、および、物体の加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報を解析し、どの物体がどの位置へ移動したのかを特定する。なお、移動した物体および移動した物体の位置の特定方法の詳細については、後述する。 Then, the tracking object finding device 10 has information indicating the difference between the environment map created before the object moves and the environment map created after the object moves, and the information indicating the acceleration of the object and the sensor tag 20 (and the object). ) Is identified and the acceleration information associated with the identification information is analyzed to identify which object has moved to which position. The details of the moving object and the method of identifying the position of the moving object will be described later.

なお、上記においては、測距センサ101は追跡物体発見装置10のみに備えられているものとしたが、これに限られない。例えば、複数の測距センサ101を空間spc1内の異なる位置に設置して、複数の位置から物体それぞれとの距離を計測することによって、物体の位置の測定精度をより高めることができる。また、これにより、測定対象の物体が、他の物体の陰に隠れることによって距離の計測できないようなケースを削減することができる。 In the above description, the distance measuring sensor 101 is provided only in the tracking object finding device 10, but the present invention is not limited to this. For example, by installing a plurality of distance measuring sensors 101 at different positions in the space spc1 and measuring distances from the plurality of positions to the respective objects, it is possible to further improve the measurement accuracy of the position of the object. Further, this makes it possible to reduce the case where the object to be measured is hidden behind another object and the distance cannot be measured.

(追跡物体発見システムの構成)
以下、追跡物体発見システム1の構成について、図面を参照しながら説明する。
図2は、本発明の実施形態に係る追跡物体発見システム1の機能構成を示すブロック図である。図示するように、追跡物体発見システム1は、追跡物体発見装置10と、複数のセンサタグ20(センサタグ群)と、通信ネットワーク30と、を含んで構成される。
(Structure of tracking object discovery system)
Hereinafter, the configuration of the tracking object finding system 1 will be described with reference to the drawings.
FIG. 2 is a block diagram showing a functional configuration of the tracking object finding system 1 according to the embodiment of the present invention. As illustrated, the tracked object finding system 1 includes a tracked object finding apparatus 10, a plurality of sensor tags 20 (sensor tag group), and a communication network 30.

追跡物体発見装置10は、測距センサ101と、環境地図作成部102と、記憶部103と、加速度情報取得部104と、加速度情報書込み部105と、物体追跡部106と、環境構造管理部107と、対話部108と、を含んで構成される。 The tracking object finding device 10 includes a distance measuring sensor 101, an environment map creation unit 102, a storage unit 103, an acceleration information acquisition unit 104, an acceleration information writing unit 105, an object tracking unit 106, and an environmental structure management unit 107. And a dialogue unit 108.

測距センサ101は、追跡物体発見装置10から環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)までのそれぞれの距離を計測する。
環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、一般的な環境地図作成手法、例えば、SLAM(Simultaneous Localization and Mapping)のような手法を用いて環境地図を作成する。
The distance measuring sensor 101 measures each distance from the tracking object finding device 10 to a plurality of objects (for example, the object obj1, the object obj2, and the object obj3) in the environment (for example, the space spc1).
The environment map creation unit 102 identifies respective positions of a plurality of objects based on the distance measured by the distance measurement sensor 101, and a general environment map creation method, for example, SLAM (Simultaneous Localization and Mapping) is used. Environment map using various methods.

記憶部103は、環境地図作成部102によって作成された環境地図に基づく地図情報1031を記憶する。また、記憶部103は、後述する加速度情報書込み部105によって時系列に書込まれる加速度情報1033を記憶する。また、記憶部103は、センサタグ20(および、センサタグ20が設置された物体)を識別する識別情報、当該センサタグ20が設置された物体の名称、当該物体の位置を示す情報、および当該物体の属性情報(例えば、当該物体の特徴に関する情報など)を対応付ける物体管理情報1032を記憶する。 The storage unit 103 stores map information 1031 based on the environment map created by the environment map creation unit 102. The storage unit 103 also stores acceleration information 1033 written in time series by the acceleration information writing unit 105 described later. The storage unit 103 also identifies information for identifying the sensor tag 20 (and the object on which the sensor tag 20 is installed), the name of the object on which the sensor tag 20 is installed, information indicating the position of the object, and the attribute of the object. Object management information 1032 that correlates information (for example, information about characteristics of the object) is stored.

加速度情報取得部104(物体移動情報取得部)は、センサタグ20から送信された、物体の加速度を示す情報(物体が移動したことを示す物体移動情報)とセンサタグ20(および物体)を識別する識別情報とを対応付ける加速度情報1033を、通信ネットワーク30を介して受信する。
加速度情報書込み部105は、加速度情報取得部104が受信した加速度情報1033を、記憶部103に書込む。
The acceleration information acquisition unit 104 (object movement information acquisition unit) identifies the information indicating the acceleration of the object (object movement information indicating that the object has moved) and the sensor tag 20 (and the object) transmitted from the sensor tag 20. The acceleration information 1033, which is associated with the information, is received via the communication network 30.
The acceleration information writing unit 105 writes the acceleration information 1033 received by the acceleration information acquisition unit 104 in the storage unit 103.

物体追跡部106は、環境地図からセンサタグ20が設置された物体を切り出し、当該物体の位置を特定するための仕組みである。物体追跡部106は、記憶部103に記憶された加速度情報1033を監視し、当該加速度情報1033が更新されたタイミングで、物体の位置を特定するための処理を行う。物体追跡部106は、物体が移動する前に環境地図作成部102によって作成された環境地図と物体が移動した後に環境地図作成部102によって作成された環境地図との差異を示す情報と、加速度情報1033と、に基づいて、移動した物体を識別し、識別された物体の移動後の位置を特定する。
環境構造管理部107は、物体追跡部106によって特定された移動後の物体の位置を示す情報に基づいて、記憶部103に記憶された物体管理情報1032を更新する。
The object tracking unit 106 is a mechanism for cutting out the object on which the sensor tag 20 is installed from the environment map and specifying the position of the object. The object tracking unit 106 monitors the acceleration information 1033 stored in the storage unit 103, and performs processing for identifying the position of the object at the timing when the acceleration information 1033 is updated. The object tracking unit 106 includes information indicating a difference between the environment map created by the environment map creation unit 102 before the object moves and the environment map created by the environment map creation unit 102 after the object moves, and acceleration information. Based on 1033, the moved object is identified, and the position of the identified object after the movement is specified.
The environmental structure management unit 107 updates the object management information 1032 stored in the storage unit 103, based on the information indicating the position of the moved object specified by the object tracking unit 106.

対話部108は、図2に図示するように、対話入出力部1081と対話制御部1082とを含んで構成される。
対話入出力部1081は、追跡物体発見装置10(例えば、ユーザとの対話機能を有する対話ロボット)と対話するユーザからの情報の入力を受け付けたり、当該ユーザに対して情報を出力したりするための入出力インターフェースである。対話部108は、例えば、マイクロフォン、スピーカー、またはタッチパネル式の液晶ディスプレイなどを含んで構成される。
As shown in FIG. 2, the dialogue unit 108 includes a dialogue input/output unit 1081 and a dialogue control unit 1082.
The dialogue input/output unit 1081 receives an input of information from a user who interacts with the tracking object finding apparatus 10 (for example, a dialogue robot having a dialogue function with a user) and outputs information to the user. Is the input/output interface of. The dialogue unit 108 is configured to include, for example, a microphone, a speaker, or a touch panel type liquid crystal display.

対話制御部1082は、ユーザによって対話入出力部1081へ入力された情報を解析し、ユーザからの要求内容を認識する。そして、対話制御部1082は、ユーザからの要求内容を示す情報を環境構造管理部107へ出力する。
環境構造管理部107は、対話制御部1082から入力された情報に基づいて、物体管理情報1032を参照し、当該入力された情報に対する応答を生成するための情報を物体管理情報1032から取得する。環境構造管理部107は、物体管理情報1032から取得した情報を、対話制御部1082へ出力する。
対話制御部1082は、環境構造管理部107から入力された情報に基づいて、ユーザからの要求内容に対する応答を示す情報を生成し、対話入出力部1081へ出力する。
対話入出力部1081は、対話制御部1082から入力された情報を、ユーザが認識可能なデータ形式(例えば、音声データ)に変換して、(ユーザに対して)出力する。
なお、上記の、追跡物体発見装置10とユーザとの対話の詳細については、後述する。
The dialogue control unit 1082 analyzes the information input to the dialogue input/output unit 1081 by the user and recognizes the content of the request from the user. Then, the dialogue control unit 1082 outputs information indicating the content of the request from the user to the environment structure management unit 107.
The environmental structure management unit 107 refers to the object management information 1032 based on the information input from the dialogue control unit 1082, and acquires information for generating a response to the input information from the object management information 1032. The environmental structure management unit 107 outputs the information acquired from the object management information 1032 to the dialogue control unit 1082.
The dialogue control unit 1082 generates information indicating a response to the request content from the user based on the information input from the environment structure management unit 107, and outputs the information to the dialogue input/output unit 1081.
The dialogue input/output unit 1081 converts the information input from the dialogue control unit 1082 into a data format recognizable by the user (for example, voice data), and outputs (to the user).
The details of the interaction between the tracking object finding device 10 and the user will be described later.

(加速度情報の構成)
以下に、加速度情報1033の構成について、図面を参照しながら説明する。
図3は、本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する加速度情報1033の構成の一例を示す図である。図示するように、加速度情報1033は、「センサタグID」、「タイムスタンプ」、および「加速度値」の3つのデータ項目の列からなる2次元の表形式のデータである。
(Structure of acceleration information)
The configuration of the acceleration information 1033 will be described below with reference to the drawings.
FIG. 3 is a diagram showing an example of the configuration of acceleration information 1033 stored in the storage unit 103 of the tracking object finding device 10 according to the embodiment of the present invention. As shown in the figure, the acceleration information 1033 is two-dimensional tabular data composed of columns of three data items of “sensor tag ID”, “time stamp”, and “acceleration value”.

図3に示すように、例えば、加速度情報1033の1行目のデータは、「センサタグID」の項目の値である「A001」、「タイムスタンプ」の項目の値である「1463987325」、および「加速度値」の項目の値である「5.236」からなるデータである。このデータは、「A001」というセンサタグIDが付与されたセンサタグ20(が設置された物体)が、「1463987325」というタイムスタンプに基づく時刻に、「5.236」の加速度値で移動をしていたことを表す。 As shown in FIG. 3, for example, the data in the first row of the acceleration information 1033 is “A001” which is the value of the item “sensor tag ID”, “1463938725” which is the value of the item “time stamp”, and “ The data is composed of "5.236" which is the value of the item "acceleration value". In this data, the sensor tag 20 (the object on which the sensor tag 20 is attached) to which the sensor tag ID “A001” is attached is moving at the acceleration value of “5.236” at the time based on the time stamp of “1463987325”. It means that.

加速度情報1033は、センサタグ20が加速度を検知した時に、センサタグ20から通信ネットワーク30を介して追跡物体発見装置10の加速度情報取得部104へ送信される。そして、加速度情報取得部104が受信した加速度情報1033は、加速度情報書込み部105によって記憶部103に書込まれる。センサタグ20は、加速度を検知してから、物体が停止するまでの間、例えば、30Hzの周期で定期的に加速度情報1033を計測し、加速度情報取得部104へ送信する。 The acceleration information 1033 is transmitted from the sensor tag 20 to the acceleration information acquisition unit 104 of the tracking object finding device 10 via the communication network 30 when the sensor tag 20 detects the acceleration. Then, the acceleration information 1033 received by the acceleration information acquisition unit 104 is written in the storage unit 103 by the acceleration information writing unit 105. The sensor tag 20 measures the acceleration information 1033 periodically, for example, at a cycle of 30 Hz from the time when the acceleration is detected until the object stops, and transmits the acceleration information 1033 to the acceleration information acquisition unit 104.

(物体管理情報の構成)
以下に、物体管理情報1032の構成について、図面を参照しながら説明する。
図4は、本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する物体管理情報1032の構成の一例を示す図である。図示するように、物体管理情報1032は、「センサタグID」、「物体名」、「座標値」、および「属性値」の4つのデータ項目の列からなる2次元の表形式のデータである。
(Structure of object management information)
The configuration of the object management information 1032 will be described below with reference to the drawings.
FIG. 4 is a diagram showing an example of the configuration of the object management information 1032 stored in the storage unit 103 of the tracking object finding device 10 according to the embodiment of the present invention. As shown in the figure, the object management information 1032 is two-dimensional tabular data composed of four data item columns of “sensor tag ID”, “object name”, “coordinate value”, and “attribute value”.

図4に示すように、例えば、物体管理情報1032の1行目のデータは、「センサタグID」の項目の値である「A001」、「物体名」の項目の値である「リモコン」、および「座標値」の項目の値である「(25,36)」、および「属性値」の項目の値である「ディスプレイ1用のリモコン」からなるデータである。このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が設置された物体の「物体名」が、「リモコン」であることを表す。また、このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が、「(25,36)」という座標値によって表される座標に位置していることを表す。また、このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が設置された物体が、「ディスプレイ1用のリモコン」であるという「属性値」(属性情報)を持った物体であることを表す。 As shown in FIG. 4, for example, the data in the first line of the object management information 1032 is “A001” which is the value of the item “sensor tag ID”, “remote control” which is the value of the item “object name”, and The data is composed of “(25, 36)” which is the value of the item “coordinate value” and “remote control for display 1” which is the value of the item “attribute value”. This data indicates that the “object name” of the object on which the sensor tag 20 assigned the sensor tag ID “A001” is installed is the “remote control”. In addition, this data indicates that the sensor tag 20 to which the sensor tag ID “A001” is added is located at the coordinate represented by the coordinate value “(25,36)”. Further, this data indicates that the object on which the sensor tag 20 to which the sensor tag ID “A001” is attached is installed has an “attribute value” (attribute information) that is “remote control for display 1”. Represents.

また、図4に示すように、例えば、物体管理情報1032の4行目のデータについてはは、「センサタグID」の項目には値が格納されていない。また、「物体名」の項目の値は「テーブル1」、「座標値」の項目の値は「(25,30)」、および「属性値」の項目の値は「中央の大テーブル」である。このデータは、センサタグ20が設置されていない物体であって「物体名」が「テーブル1」である物体が、「(25,30)」という座標値によって表される座標に位置しており、「中央の大テーブル」であるという「属性値」(属性情報)を持っていることを表す。 Further, as shown in FIG. 4, for example, for the data on the fourth line of the object management information 1032, no value is stored in the item “sensor tag ID”. In addition, the value of the item of "object name" is "table 1", the value of the item of "coordinate value" is "(25, 30)", and the value of the item of "attribute value" is "central large table". is there. In this data, an object in which the sensor tag 20 is not installed and whose "object name" is "table 1" is located at the coordinates represented by the coordinate value "(25,30)". It indicates that it has an "attribute value" (attribute information) that it is a "central large table".

図4に示す物体管理情報1032の1行目から3行目までのデータように、「センサタグID」の項目に値が格納されている場合には、当該センサタグIDが付与されたセンサタグ20が設置された物体は、追跡物体発見装置10が追跡する対象とする物体である。一方、図4に示す物体管理情報1032の4行目のデータように、「センサタグID」の項目に値が格納されていない場合には、当該データの「物体名」によって示される物体は、センサタグ20が設置されていない物体であり、追跡物体発見装置10が追跡する対象とはしていない物体である。 When a value is stored in the item “sensor tag ID” like the data from the first line to the third line of the object management information 1032 shown in FIG. 4, the sensor tag 20 to which the sensor tag ID is given is installed. The removed object is an object to be tracked by the tracking object finding device 10. On the other hand, if no value is stored in the "sensor tag ID" item as in the data on the fourth line of the object management information 1032 shown in FIG. 4, the object indicated by the "object name" of the data is the sensor tag. 20 is an object that is not installed, and is an object that is not targeted for tracking by the tracking object finding device 10.

追跡物体発見装置10が追跡する対象とする物体に対応するデータ(図4に示す物体管理情報1032の1行目から3行目までのデータ)については、「センサタグID」、および「物体名」、および「属性値」の3つの項目の値は、予め記憶されている。また、「座標値」の項目の値は、当該物体が移動したことが検知される度に、環境構造管理部107によって更新される。なお、「属性値」の項目に値が格納されているか否かは任意である。 Regarding the data (data from the first line to the third line of the object management information 1032 shown in FIG. 4) corresponding to the object to be tracked by the tracking object finding apparatus 10, the “sensor tag ID” and the “object name” , And the value of the three items of “attribute value” are stored in advance. In addition, the value of the item “coordinate value” is updated by the environmental structure management unit 107 each time it is detected that the object has moved. Whether or not a value is stored in the “attribute value” item is arbitrary.

また、追跡物体発見装置10が追跡する対象とはしていない物体に対応するデータ(図4に示す物体管理情報1032の4行目のデータ)については、「物体名」、「座標値」、および「属性値」の3つの項目の値は、予め記憶されている。なお、「センサタグID」の項目の値は格納されておらず、また、「属性値」の項目に値が格納されているか否かは任意である。 Further, regarding data (data on the fourth line of the object management information 1032 shown in FIG. 4) corresponding to an object which is not a tracking target by the tracking object finding apparatus 10, the “object name”, the “coordinate value”, The values of the three items of “and attribute value” are stored in advance. The value of the item "sensor tag ID" is not stored, and whether or not the value is stored in the item "attribute value" is arbitrary.

(移動した物体および位置の特定)
以下、追跡物体発見装置10による、移動した物体の特定、および移動した物体の移動後の位置の特定について、図面を参照しながら説明する。
図5は、本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。
(Identification of moved object and position)
Hereinafter, identification of a moved object and identification of a position of the moved object after movement by the tracking object finding device 10 will be described with reference to the drawings.
FIG. 5 is a schematic diagram showing identification of a moved object and position by the tracking object finding apparatus 10 according to the embodiment of the present invention.

図5(A)は、図1に示した空間spc1に実際に存在する物体(例えば、物体obj1、物体obj2、および物体obj3)の位置(座標)を、追跡物体発見装置10の位置を原点とした2次元の座標平面上に表したものである。なお、説明を簡略化するため、ここではx軸およびy軸からなる座標平面を例として説明するが、x軸、y軸、およびz軸からなる3次元の座標空間であってもよい。 In FIG. 5A, the positions (coordinates) of objects (eg, object obj1, object obj2, and object obj3) actually existing in the space spc1 shown in FIG. It is represented on the two-dimensional coordinate plane. It should be noted that, for simplification of description, a coordinate plane composed of the x-axis and the y-axis is described here as an example, but a three-dimensional coordinate space composed of the x-axis, the y-axis, and the z-axis may be used.

図5(B)は、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図5(B)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。 In FIG. 5B, the distance measurement sensor 101 of the tracking object finding apparatus 10 measures the distance from the tracking object finding apparatus 10 to each object existing in the space spc1, and the environment map creating unit 102 positions (coordinates) the position. The object identified by is represented on a coordinate plane whose origin is the position of the tracking object finding apparatus 10. The part indicated by the broken line in FIG. 5B represents the range in which the light emitted by the distance measuring sensor 101 of the tracking object finding device 10 is reflected from the position of the origin 0.

図5(C)は、物体obj2が座標crd1の位置へ移動した後に、再び追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図5(B)と同様に、図5(C)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。 In FIG. 5C, after the object obj2 moves to the position of the coordinate crd1, the distance measurement sensor 101 of the tracking object finding apparatus 10 measures the distance from the tracking object finding apparatus 10 to each object existing in the space spc1 again. The object whose position (coordinates) has been specified by the environment map creation unit 102 is represented on the coordinate plane with the position of the tracking object finding apparatus 10 as the origin. Similar to FIG. 5B, the portion indicated by the broken line in FIG. 5C represents a range in which the light emitted by the distance measuring sensor 101 of the tracking object finding apparatus 10 is reflected from the position of the origin 0. It is a thing.

追跡物体発見装置10の物体追跡部106は、物体が移動する前に作成された環境地図と、物体が移動した後に作成された環境地図との差異を解析することにより、何らかの物体が移動したことを認識することができる。具体的には、物体が移動する前に作成された環境地図においては物体が存在するが、物体が移動した後に作成された環境地図においては物体が存在しない座標を、物体追跡部106は、何らかの物体の移動元の座標であると認識する。また、物体が移動する前に作成された環境地図においては物体が存在しないが、物体が移動した後に作成された環境地図においては物体が存在する座標を、物体追跡部106は、何らかの物体の移動元の座標であると認識する。 The object tracking unit 106 of the tracking object finding apparatus 10 analyzes that a certain object has moved by analyzing the difference between the environment map created before the object moves and the environment map created after the object moves. Can be recognized. Specifically, the object tracking unit 106 determines the coordinates where the object exists in the environment map created before the object moves but does not exist in the environment map created after the object moves, Recognize that it is the coordinates of the movement source of the object. In addition, the object tracking unit 106 determines the coordinates at which the object does not exist in the environment map created before the object moves but does exist in the environment map created after the object moves, by the object tracking unit 106. Recognize as the original coordinates.

物体追跡部106は、物体が移動する前に作成された環境地図が作成された時間と物体が移動した後に作成された環境地図が作成された時間との間の時間帯に該当するタイムスタンプを示すデータを、記憶部103の加速度情報1033から抽出し、抽出された当該タイムスタンプに対応付けられたセンサタグIDを取得する。これにより、物体追跡部106は、取得されたセンサタグIDに基づいて、移動元の座標から移動先の座標へ移動した物体に設置されたセンサタグIDを推測することができる。
物体追跡部106は、上記において推測されたセンサタグID、および移動先の座標を示す情報を、環境構造管理部107へ出力する。
The object tracking unit 106 outputs a time stamp corresponding to a time zone between the time when the environment map created before the object moves and the time when the environment map created after the object moves. The data shown is extracted from the acceleration information 1033 in the storage unit 103, and the sensor tag ID associated with the extracted time stamp is acquired. Thereby, the object tracking unit 106 can infer the sensor tag ID installed on the object moved from the coordinates of the movement source to the coordinates of the movement destination, based on the acquired sensor tag ID.
The object tracking unit 106 outputs the sensor tag ID estimated above and information indicating the coordinates of the movement destination to the environmental structure management unit 107.

環境構造管理部107は、記憶部103に記憶された物体管理情報1032において、物体追跡部106から入力されたセンサタグIDに対応付けられている座標値を、物体追跡部106から入力された移動先の座標によって更新する。
環境構造管理部107は、記憶部103に記憶された物体管理情報1032において、物体追跡部106から入力されたセンサタグIDに対応付けられている物体名を参照することにより、移動した物体の物体名を認識することができる。
The environmental structure management unit 107 sets the coordinate values associated with the sensor tag ID input from the object tracking unit 106 in the object management information 1032 stored in the storage unit 103, to the movement destination input from the object tracking unit 106. Update with the coordinates of.
The environmental structure management unit 107 refers to the object name associated with the sensor tag ID input from the object tracking unit 106 in the object management information 1032 stored in the storage unit 103, and thereby the object name of the moved object Can be recognized.

なお、上記においては、物体追跡部106は、センサタグIDを加速度情報1033から取得することによって、どの物体が移動したかを推測したが、これに限られない。例えば、物体追跡部106は、加速度情報1033に含まれるセンサタグIDごとの加速度値の推移に基づいて、当該センサタグIDに対応する物体の推定移動距離を算出し、算出された推定移動距離と、上記の環境地図における移動元の座標と移動先の座標との間の距離と、を比較することによって、移動した物体を特定するようにしてもよい。 In the above description, the object tracking unit 106 estimates which object has moved by acquiring the sensor tag ID from the acceleration information 1033, but the present invention is not limited to this. For example, the object tracking unit 106 calculates the estimated moving distance of the object corresponding to the sensor tag ID based on the transition of the acceleration value for each sensor tag ID included in the acceleration information 1033, and the calculated estimated moving distance and The moved object may be specified by comparing the distance between the coordinates of the movement source and the coordinates of the movement destination in the environment map of FIG.

なお、センサタグ20にジャイロスコープを搭載し、物体追跡部106が、当該ジャイロスコープによって計測された物体の姿勢や角速度等を示す情報も用いて、移動した物体の特定をするようにしてもよい。複数の種類のセンサによって計測された情報を用いることによって、物体追跡部106は、より精度高く、移動した物体の特定を行うことができる。 Note that a gyroscope may be mounted on the sensor tag 20, and the object tracking unit 106 may identify the moved object also by using information indicating the attitude, angular velocity, etc. of the object measured by the gyroscope. By using the information measured by the plurality of types of sensors, the object tracking unit 106 can identify the moved object with higher accuracy.

なお、本実施形態に係る追跡物体発見装置10は、加速度センサによって取得される加速度値を用いて物体の移動を検知するが、物体の移動を検知することが可能なその他のセンサ等によって取得される情報に基づいて物体の移動を検知するような構成であってもよい。例えば、センサタグ20が、気圧センサを備え、当該気圧センサによって取得される気圧の変化に基づいて物体の位置の高度変化を検知するような構成であってもよい。 The tracking object finding apparatus 10 according to the present embodiment detects movement of an object using the acceleration value acquired by the acceleration sensor, but is acquired by another sensor or the like capable of detecting movement of the object. The configuration may be such that the movement of the object is detected based on the information described above. For example, the sensor tag 20 may be configured to include an atmospheric pressure sensor and detect a change in altitude of the position of an object based on a change in atmospheric pressure acquired by the atmospheric pressure sensor.

(追跡物体発見装置の動作)
以下、追跡物体発見装置10の動作の概略について、図面を参照しながら説明する。
図6は、本発明の実施形態に係る追跡物体発見装置10の動作を示すフローチャートである。本フローチャートの処理は、追跡物体発見装置10が、空間spc1において、物体の追跡を開始した際に開始する。
(Operation of the tracking object finding device)
Hereinafter, the outline of the operation of the tracking object finding apparatus 10 will be described with reference to the drawings.
FIG. 6 is a flowchart showing the operation of the tracking object finding device 10 according to the embodiment of the present invention. The process of this flowchart starts when the tracking object finding device 10 starts tracking an object in the space spc1.

(ステップS001)追跡物体発見装置10の測距センサ101は、追跡物体発見装置10と、環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)とのそれぞれの距離を計測する。その後、ステップS002へ進む。 (Step S001) The ranging sensor 101 of the tracking object finding device 10 includes the tracking object finding device 10 and a plurality of objects (for example, the object obj1, the object obj2, and the object obj3) in the environment (for example, the space spc1). Measure each distance. Then, it progresses to step S002.

(ステップS002)追跡物体発見装置10の環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、環境地図を作成する。その後、ステップS003へ進む。 (Step S002) The environment map creation unit 102 of the tracked object finding device 10 identifies each position of a plurality of objects based on the distance measured by the distance measurement sensor 101 and creates an environment map. Then, it progresses to step S003.

(ステップS003)追跡物体発見装置10の環境地図作成部102は、作成した環境地図に基づく地図情報1031を記憶部103に記憶させる。その後、ステップS004へ進む。 (Step S003) The environment map creating unit 102 of the tracking object finding apparatus 10 stores the map information 1031 based on the created environment map in the storage unit 103. Then, it progresses to step S004.

(ステップS004)追跡物体発見装置10の加速度情報取得部104は、センサタグ20から送信された、(物体が移動したことを示す)物体の加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報1033を、通信ネットワーク30を介して受信する。加速度情報書込み部105は、加速度情報取得部104が受信した加速度情報1033を、記憶部103に書込む。その後、ステップS005へ進む。 (Step S004) The acceleration information acquisition unit 104 of the tracking object finding device 10 identifies the sensor tag 20 (and the object), which is transmitted from the sensor tag 20 and indicates the acceleration of the object (indicating that the object has moved). The acceleration information 1033 associated with the information is received via the communication network 30. The acceleration information writing unit 105 writes the acceleration information 1033 received by the acceleration information acquisition unit 104 in the storage unit 103. Then, it progresses to step S005.

(ステップS005)追跡物体発見装置10の測距センサ101は、追跡物体発見装置10と、環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)とのそれぞれの距離を計測する。その後、ステップS006へ進む。 (Step S005) The ranging sensor 101 of the tracking object finding device 10 includes the tracking object finding device 10 and a plurality of objects (for example, the object obj1, the object obj2, and the object obj3) in the environment (for example, the space spc1). Measure each distance. Then, it progresses to step S006.

(ステップS006)追跡物体発見装置10の環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、環境地図を作成する。その後、ステップS007へ進む。 (Step S006) The environment map creation unit 102 of the tracked object finding device 10 identifies each position of a plurality of objects based on the distance measured by the distance measuring sensor 101 and creates an environment map. Then, it progresses to step S007.

(ステップS007)追跡物体発見装置10の環境地図作成部102は、作成した環境地図に基づく地図情報1031を記憶部103に記憶させる。その後、ステップS008へ進む。 (Step S007) The environment map creating unit 102 of the tracking object finding apparatus 10 stores the map information 1031 based on the created environment map in the storage unit 103. Then, it progresses to step S008.

(ステップS008)追跡物体発見装置10の物体追跡部106は、物体が移動する前に環境地図作成部102によって作成された環境地図と物体が移動した後に環境地図作成部102によって作成された環境地図との差異を抽出する。その後、ステップS009へ進む。 (Step S008) The object tracking unit 106 of the tracking object finding apparatus 10 uses the environment map created by the environment map creation unit 102 before the object moves and the environment map created by the environment map creation unit 102 after the object moves. Extract the difference from. Then, it progresses to step S009.

(ステップS009)追跡物体発見装置10の物体追跡部106は、ステップS007で抽出した環境地図の差異を示す情報と、加速度情報1033と、に基づいて、移動した物体を識別し、識別された物体の移動後の位置を特定する。その後、ステップS010へ進む。 (Step S009) The object tracking unit 106 of the tracked object finding apparatus 10 identifies the moved object based on the information indicating the difference between the environment maps extracted in step S007 and the acceleration information 1033, and identifies the identified object. Specify the position after the move. Then, it progresses to step S010.

(ステップS010)追跡物体発見装置10が、空間spc1における物体の追跡を終了した場合には、本フローチャートの処理が終了する。そうでない場合は、ステップS004へ戻る。 (Step S010) When the tracked object finding apparatus 10 finishes tracking the object in the space spc1, the process of this flowchart ends. If not, the process returns to step S004.

(複数の物体が移動した場合の物体および位置の特定)
以下、追跡物体発見装置10による、複数の物体が移動した場合における、移動した物体の特定、および移動した物体の移動後の位置の特定について、図面を参照しながら説明する。
図7は、本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。
(Identification of object and position when multiple objects move)
Hereinafter, identification of a moved object and identification of a position of the moved object after the movement by the tracking object finding device 10 when a plurality of objects move will be described with reference to the drawings.
FIG. 7 is a schematic diagram showing identification of a moved object and position by the tracking object finding apparatus 10 according to the embodiment of the present invention.

図7(A)は、物体obj1および物体obj2が移動した後に、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図7(A)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。 In FIG. 7A, after the object obj1 and the object obj2 have moved, the distance measurement sensor 101 of the tracking object finding apparatus 10 measures the distance from the tracking object finding apparatus 10 to each object existing in the space spc1, The object whose position (coordinates) is specified by the environment map creation unit 102 is represented on a coordinate plane with the position of the tracking object finding device 10 as the origin. The part indicated by the broken line in FIG. 7A represents the range in which the light emitted by the distance measuring sensor 101 of the tracking object finding device 10 is reflected from the position of the origin 0.

図7(A)に示している物体obj1および物体obj2が表示されている座標は、物体obj1および物体obj2が移動する前に作成された環境地図におけるそれぞれの物体の位置を表す。また、図7(A)に点線で示している座標crd11および座標crd12は、物体obj1および物体obj2が移動した後に作成された環境地図におけるそれぞれの物体の位置を表す。すなわち、図7(A)は、2つの物体がそれぞれ座標crd11または座標crd12へ移動したと推測される状態を表す。 The coordinates of the object obj1 and the object obj2 shown in FIG. 7A represent the position of each object in the environment map created before the object obj1 and the object obj2 move. Further, the coordinates crd11 and the coordinates crd12 shown by dotted lines in FIG. 7A represent the positions of the respective objects in the environment map created after the objects obj1 and obj2 have moved. That is, FIG. 7A shows a state in which it is estimated that the two objects have moved to the coordinates crd11 or the coordinates crd12, respectively.

複数の物体が移動した場合、物体追跡部106は、加速度情報1033を参照して加速度が検知された物体を特定することにより、移動した複数の物体をそれぞれ特定することはできるが、移動した複数の物体がそれぞれどの位置へ移動したのかを特定することはできない。 When a plurality of objects have moved, the object tracking unit 106 can identify the plurality of moved objects by identifying the object whose acceleration is detected by referring to the acceleration information 1033. It is not possible to specify to which position each of the objects has moved.

図7(B)は、物体obj1が再び移動した後に、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図7(A)と同様、図7(B)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。 In FIG. 7B, after the object obj1 moves again, the distance measurement sensor 101 of the tracking object finding apparatus 10 measures the distance from the tracking object finding apparatus 10 to each object existing in the space spc1, and the environment map The object whose position (coordinates) is specified by the creation unit 102 is represented on a coordinate plane with the position of the tracking object finding device 10 as the origin. Similar to FIG. 7A, the portion indicated by the broken line in FIG. 7B represents the range in which the light emitted by the distance measuring sensor 101 of the tracking object finding device 10 is reflected from the position of the origin 0. Is.

図7(B)に点線で示している座標crd11および座標crd12は、物体obj1が再び移動する前に作成された環境地図におけるそれぞれの物体の位置を表す。また、図7(B)に点線で示している座標crd13および座標crd12は、物体obj1が再び移動した後に作成された環境地図におけるそれぞれの物体の位置を表す。よって、座標crd12は、物体obj1が再び移動する前に作成された環境地図、および物体obj1が再び移動した後に作成された環境地図のいずれにおいても物体が存在すると測定された座標である。すなわち、図7(B)は、1つの物体のみが移動したと推測される状態を表す。 Coordinates crd11 and coordinates crd12 shown by dotted lines in FIG. 7B represent the positions of the respective objects in the environment map created before the object obj1 moves again. Further, the coordinates crd13 and the coordinates crd12 shown by dotted lines in FIG. 7B represent the positions of the respective objects in the environment map created after the object obj1 moves again. Therefore, the coordinate crd12 is the coordinate measured as the existence of the object in both the environment map created before the object obj1 moves again and the environment map created after the object obj1 moves again. That is, FIG. 7B shows a state in which it is estimated that only one object has moved.

図7(A)における物体の移動時においては、記憶部103に記憶されている加速度情報1033には、物体obj1および物体obj2にそれぞれ設置されたセンサタグ20に付与されているセンサタグIDを示す情報が含まれるため、物体追跡部106は、物体obj1および物体obj2が移動したことは検知することができる。しかしながら、物体obj1および物体obj2のそれぞれが座標crd11または座標crd12のどちらへそれぞれ移動したのかについては認識することができない。 When the object in FIG. 7A is moving, the acceleration information 1033 stored in the storage unit 103 includes information indicating the sensor tag IDs given to the sensor tags 20 installed in the objects obj1 and obj2, respectively. Since it is included, the object tracking unit 106 can detect that the objects obj1 and obj2 have moved. However, it cannot be recognized which of the coordinates crd11 and the coordinates crd12 of the object obj1 and the object obj2, respectively.

そして、図7(B)における物体の移動時においては、記憶部103に記憶されている加速度情報1033には、物体obj1に設置されたセンサタグ20に付与されているセンサタグIDを示す情報のみが含まれるため、物体obj1が移動したことを検知することができる。これにより、物体追跡部106は、物体obj1が、図7(A)における物体の移動時に、座標crd11へ移動し、次に、図7(B)における物体の移動時に、座標crd11から座標crd13へさらに移動したことを推測することができる。また、これにより、物体追跡部106は、物体obj2が、図7(A)における物体の移動時に、座標crd12へ移動したことを推測することができる。 Then, when the object is moving in FIG. 7B, the acceleration information 1033 stored in the storage unit 103 includes only the information indicating the sensor tag ID given to the sensor tag 20 installed in the object obj1. Therefore, it is possible to detect that the object obj1 has moved. As a result, the object tracking unit 106 moves the object obj1 to the coordinate crd11 when the object moves in FIG. 7A, and then moves the coordinate crd11 to the coordinate crd13 when the object moves in FIG. 7B. You can infer that you have moved further. Further, from this, the object tracking unit 106 can infer that the object obj2 has moved to the coordinate crd12 when the object in FIG. 7A moves.

上記のように、加速度情報取得部104が、複数の物体についての加速度情報1033を取得した場合、物体追跡部106は、複数の物体が移動する前に作成された環境地図と複数の物体が移動した後に作成された環境地図との複数の差異を示す情報と、複数の物体の加速度情報1033を時系列に分析した情報と、に基づいて、移動した複数の物体をそれぞれ識別し、識別された複数の物体の移動後の位置をそれぞれ特定する。 As described above, when the acceleration information acquisition unit 104 acquires the acceleration information 1033 about a plurality of objects, the object tracking unit 106 moves the environment map and the plurality of objects created before the plurality of objects move. A plurality of moved objects are respectively identified and identified based on information indicating a plurality of differences from the environment map created after that and information obtained by analyzing the acceleration information 1033 of the plurality of objects in time series. The positions of the plurality of objects after the movement are respectively specified.

(類似する環境が複数存在する場合における環境の特定)
以下、追跡物体発見装置10による、類似する環境が複数存在する場合における環境の特定について、図面を参照しながら説明する。
図8は、本発明の実施形態に係る追跡物体発見装置10による環境の特定を示す概略図である。
(Identification of environment when multiple similar environments exist)
Hereinafter, the identification of the environment by the tracking object finding apparatus 10 when there are a plurality of similar environments will be described with reference to the drawings.
FIG. 8 is a schematic diagram showing the identification of the environment by the tracking object finding apparatus 10 according to the embodiment of the present invention.

図8(A)は環境Aにおける環境地図を表し、図8(B)は環境Aとは別の環境である環境Bにおける環境地図を表す。また、図8(C)は追跡物体発見装置10が実際に位置する環境を表したものである。なお、追跡物体発見装置10は、環境Aまたは環境Bのいずれかの環境に位置しているが、どちらの環境に位置しているかについては事前に認識はしていない。 8A shows an environment map in environment A, and FIG. 8B shows an environment map in environment B, which is an environment different from environment A. In addition, FIG. 8C illustrates an environment in which the tracking object finding device 10 is actually located. Although the tracking object finding apparatus 10 is located in either environment A or environment B, it is not aware in advance which environment it is located in.

追跡物体発見装置10は、環境Aの環境地図および環境Bの環境地図を、それぞれ記憶部103に記憶している。図8に図示するように、環境Aと環境Bとは、物体の配置が類似している環境である。例えば、ビル内のオフィスのような環境において、各階のフロアのレイアウトがこのように似通った環境になっている場合がある。
なお、追跡物体発見装置10は、環境Aにおける加速度情報1033と、環境Bにおける加速度情報1033とをそれぞれ記憶部103に記憶している。
The tracking object finding apparatus 10 stores an environment map of environment A and an environment map of environment B in the storage unit 103, respectively. As illustrated in FIG. 8, environment A and environment B are environments in which the arrangement of objects is similar. For example, in an environment such as an office in a building, the floor layout of each floor may be similar in this way.
The tracking object finding apparatus 10 stores the acceleration information 1033 in the environment A and the acceleration information 1033 in the environment B in the storage unit 103, respectively.

追跡物体発見装置10は、環境Aまたは環境Bのいずれかの環境に位置しているが、どちらの環境に位置しているのかを認識していない場合、自らの追跡物体発見装置10が位置する環境に存在する任意の物体(測定対象物)を移動させる。例えば、図8(C)に示すように、追跡物体発見装置10は、obj8を座標crd21の位置へ移動させる。すると、追跡物体発見装置10が実際に位置している環境における加速度情報1033が更新される。これにより、追跡物体発見装置10の物体追跡部106は、自らの追跡物体発見装置10が位置している環境が、どの環境であるのか(環境Aであるのか、または環境Bであるのか)を特定することができる。
なお、追跡物体発見装置10が自ら任意の物体(測定対象物)を移動させるのではなく、例えば、ユーザ等の第三者が任意の物体(測定対象物)を移動させたことに基づいて、追跡物体発見装置10の物体追跡部106が、自らの追跡物体発見装置10が位置している環境がどの環境であるのかを特定してもよい。
The tracking object finding apparatus 10 is located in either environment A or environment B, but if it does not recognize which environment it is located in, the tracking object finding apparatus 10 is located there. An arbitrary object (measurement target) existing in the environment is moved. For example, as shown in FIG. 8C, the tracking object finding device 10 moves obj8 to the position of the coordinate crd21. Then, the acceleration information 1033 in the environment in which the tracking object finding device 10 is actually located is updated. As a result, the object tracking unit 106 of the tracking object finding device 10 determines which environment the environment in which the tracking object finding device 10 is located is (the environment A or the environment B). Can be specified.
Note that the tracking object finding device 10 does not move an arbitrary object (measurement target) by itself, but based on, for example, a third party such as a user moving an arbitrary object (measurement target), The object tracking unit 106 of the tracking object finding device 10 may specify which environment the environment in which the tracking object finding device 10 is located is.

上記のように、物体追跡部106は、特定の物体についての加速度情報1033を取得したことに基づいて、記憶部103に記憶された複数の環境地図が示す複数の環境のうち、自己の追跡物体発見装置10が存在する環境がどの環境であるかを特定する。 As described above, the object tracking unit 106, based on the acquisition of the acceleration information 1033 for a specific object, selects the tracking object of its own among the plurality of environments indicated by the plurality of environment maps stored in the storage unit 103. The environment in which the discovery device 10 exists is specified.

(対話部による対話制御)
以下、追跡物体発見装置10の対話部108による、ユーザとの対話の対話制御について説明する。
追跡物体発見装置10は、ユーザからの問い合わせ、例えば、空間spc1内における特定の物体の位置に関する問い合わせを受け付けて、それに対する回答をユーザに対して提示することができる。
(Dialogue control by the dialogue unit)
Hereinafter, the dialogue control of the dialogue with the user by the dialogue unit 108 of the tracking object finding device 10 will be described.
The tracking object finding device 10 can accept an inquiry from the user, for example, an inquiry about the position of a specific object in the space spc1, and present the answer to the inquiry to the user.

例えば、ユーザは、追跡物体発見装置10(例えば、ロボット)に対して、「リモコンはどこ?」という内容の問い合わせを行う。すると、追跡物体発見装置10の対話入出力部1081が備えるマイクロフォンは、当該ユーザからの問い合わせに基づく音声を取得し、音声信号に変換する。対話入出力部1081は変換した音声信号を、対話制御部1082へ出力する。 For example, the user makes an inquiry to the tracking object finding apparatus 10 (for example, a robot) about the content of “where is the remote controller?”. Then, the microphone included in the dialogue input/output unit 1081 of the tracking object finding device 10 acquires the voice based on the inquiry from the user and converts the voice into a voice signal. The dialogue input/output unit 1081 outputs the converted voice signal to the dialogue control unit 1082.

対話制御部1082は、対話入出力部1081から入力された音声信号を解析し、ユーザからの要求内容を認識する。対話制御部1082は、ユーザからの問い合わせが、「リモコン」の位置を問い合わせる内容であることを認識すると、環境構造管理部107を介して、記憶部103に記憶された物体管理情報1032、例えば、図4に示す物体管理情報1032を参照する。図4に図示するように、「リモコン」の座標値は「(25,36)」である。また、図4に示す物体管理情報1032には、当該座標値の近傍を示す座標値として「(25,30)」が記憶されている。そして、対話制御部1082は、この座標値に対応する物体名の項目の値である「テーブル1」を取得する。 The dialogue control unit 1082 analyzes the voice signal input from the dialogue input/output unit 1081 and recognizes the content of the request from the user. When the dialogue control unit 1082 recognizes that the inquiry from the user is the content to inquire about the position of the “remote control”, the dialogue control unit 1082 causes the environment structure management unit 107 to store the object management information 1032 stored in the storage unit 103, for example, Reference is made to the object management information 1032 shown in FIG. As shown in FIG. 4, the coordinate value of the "remote control" is "(25,36)". Further, the object management information 1032 shown in FIG. 4 stores “(25, 30)” as the coordinate value indicating the vicinity of the coordinate value. Then, the dialogue control unit 1082 acquires “table 1” which is the value of the item of the object name corresponding to this coordinate value.

対話制御部1082は、上記において取得した「テーブル1」を示す情報に基づいて、「テーブル1の近くです」という応答文を生成する。そして、対話制御部1082は、当該応答文を音声信号に変換し、対話入出力部1081へ出力する。対話入出力部1081は、対話制御部1082から入力された音声信号に基づいて対話制御部1082が備えるスピーカーによって音声を出力する。 The dialogue control unit 1082 generates a response sentence “near table 1” based on the information indicating “table 1” acquired above. Then, the dialogue control unit 1082 converts the response sentence into a voice signal and outputs it to the dialogue input/output unit 1081. The dialogue input/output unit 1081 outputs a voice through a speaker included in the dialogue control unit 1082 based on the voice signal input from the dialogue control unit 1082.

このように、本実施形態に係る追跡物体発見装置10は、特定の物体の位置に関する問い合わせを受けた際に、当該物体の座標値を示すデータをそのまま提示するのではなく、当該物体をユーザが発見するための「目印となるもの(例えば、当該物体の近傍にあるもの)」をユーザに提示することができる。これにより、追跡物体発見装置10は、ユーザに、特定の物体をより簡単に発見させることができる。 As described above, when the tracking object finding apparatus 10 according to the present embodiment receives an inquiry about the position of a specific object, the user does not present the data indicating the coordinate value of the object as it is, but the user does not present the data. It is possible to present the user with "a mark (for example, a mark near the object)" for discovery. Accordingly, the tracking object finding device 10 can make the user find the specific object more easily.

なお、上記の「目印となるもの」としては、静的なもの(移動しないもの)や、大きなもの、例えばテーブルなど、が用いられるようにしてもよい。また、上記の「目印となるもの」として、「センサタグ20が設置された物体(例えば、物体A)の中で最も移動していないもの」が用いられることにより、対話部108は、例えば、「物体Aがよく置かれている場所の近くです」といった応答文をユーザに提示することができる。 As the above-mentioned "mark", a static one (not moving) or a large one such as a table may be used. Further, as the “mark”, “the object that has not moved most among the objects (for example, the object A) on which the sensor tag 20 is installed” is used, so that the dialogue unit 108 can, for example, It is possible to present a response sentence to the user such as "around the place where the object A is often placed."

なお、上記の「目印となるもの」は、環境地図作成部102により環境地図が作成とあわせて設定され、記憶部103が記憶する物体管理情報1032に登録されるようにしてもよい。 The “mark” may be set by the environment map creation unit 102 together with the creation of the environment map and registered in the object management information 1032 stored in the storage unit 103.

なお、上記の例においては、追跡物体発見装置10は、対話部108が備えるマイクロフォンやスピーカー等により音声によってユーザとの対話を行ったが、これに限られない。例えば、追跡物体発見装置10は、対話部108が備えるタッチパネル式の液晶ディスプレイ等による入出力によってユーザとの対話を行うような構成であってもよい。 In the above example, the tracking object finding device 10 has a dialogue with the user by voice using a microphone, a speaker, or the like included in the dialogue unit 108, but the present invention is not limited to this. For example, the tracking object finding device 10 may be configured to have a dialogue with a user by inputting and outputting through a touch panel liquid crystal display or the like included in the dialogue unit 108.

なお、上記の例においては、対話部108は、ユーザに対して文章によって応答したが、これに限られない。例えば、測距センサ101に搭載されたカメラが、ユーザが探している物体、または上記の「目印となるもの」を撮影し、撮影された画像を対話部108がユーザに対して提示するようにしてもよい。 In the above example, the dialogue unit 108 responds to the user with a sentence, but the present invention is not limited to this. For example, the camera mounted on the distance measuring sensor 101 captures an object that the user is looking for or the above-mentioned “mark”, and the dialogue unit 108 presents the captured image to the user. May be.

以上、この発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiment of the present invention has been described in detail above, the specific configuration is not limited to the above, and various design changes can be made without departing from the scope of the present invention. is there.

なお、上述した実施形態における追跡物体発見装置10の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。 A part or all of the tracking object finding device 10 in the above-described embodiment may be realized by a computer. In that case, the program for realizing this control function may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read by a computer system and executed.

なお、ここでいう「コンピュータシステム」とは、追跡物体発見装置10に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 The “computer system” mentioned here is a computer system built in the tracking object finding apparatus 10 and includes an OS and hardware such as peripheral devices. The "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信回線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 Further, "computer-readable recording medium" means a program that dynamically holds a program for a short time, such as a communication line when transmitting the program through a network such as the Internet or a communication line such as a telephone line. In such a case, a volatile memory that holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server or a client, may be included. Further, the program may be one for realizing some of the functions described above, and may be one that can realize the functions described above in combination with a program already recorded in the computer system.

また、上述した実施形態における追跡物体発見装置10を、LSI(Large Scale Integration)等の集積回路として実現してもよい。追跡物体発見装置10の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Further, the tracking object finding device 10 in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the tracking object finding device 10 may be individually implemented as a processor, or part or all of the functional blocks may be integrated and implemented as a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when a technique for forming an integrated circuit that replaces the LSI appears due to the progress of semiconductor technology, an integrated circuit according to the technique may be used.

1・・・追跡物体発見システム、10・・・追跡物体発見装置、20・・・センサタグ、30・・・通信ネットワーク、101・・測距センサ、102・・・環境地図作成部、103・・・記憶部、104・・・加速度情報取得部、105・・・加速度情報書込み部、106・・・物体追跡部、107・・・環境構造管理部、108・・・対話部、1031・・・地図情報、1032・・・物体管理情報、1033・・・加速度情報、1081・・・対話入出力部、1082・・・対話制御部 DESCRIPTION OF SYMBOLS 1... Tracking object finding system, 10... Tracking object finding device, 20... Sensor tag, 30... Communication network, 101... Distance measuring sensor, 102... Environment map creation section, 103... Storage unit 104... Acceleration information acquisition unit 105... Acceleration information writing unit 106... Object tracking unit 107... Environmental structure management unit 108... Dialogue unit 1031... Map information, 1032... Object management information, 1033... Acceleration information, 1081... Dialogue input/output unit, 1082... Dialogue control unit

Claims (10)

物体が移動したことを示す物体移動情報を取得する物体移動情報取得部と、
最初に環境内の複数の前記物体それぞれとの距離を計測し、前記物体移動情報取得部が前記物体移動情報を取得すると、前記環境内の複数の物体それぞれとの距離を再び計測する測距センサと、
前記測距センサ計測するごとに、前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成部と、
前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶部と、
前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡部と、
を備えることを特徴とする追跡物体発見装置。
An object movement information acquisition unit that acquires object movement information indicating that the object has moved,
Initially measuring the distance between each of the plurality of the objects in the environment, if the object movement information acquisition section acquires the object information of moving distance measuring sensor again measures the distance between each of the plurality of objects within the environment When,
And environmental map creation unit for creating an environmental map on the basis of each of the distance every time the distance measuring sensor is measured to said plurality of objects,
A map information storage unit that stores the environment map created by the environment map creation unit;
Indicating said environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit, the difference between the environmental map created immediately following the timing Based on the information and the object movement information acquired at the timing, the object tracking unit that identifies the moved object and identifies the position of the identified object after the movement,
A tracking object finding device comprising:
前記物体移動情報取得部は、前記物体に搭載された加速度センサによって計測された加速度情報に基づく前記物体移動情報を取得する
ことを特徴とする請求項1に記載の追跡物体発見装置。
The tracking object finding device according to claim 1, wherein the object movement information acquisition unit acquires the object movement information based on acceleration information measured by an acceleration sensor mounted on the object.
前記物体移動情報取得部が、複数の前記物体についての物体移動情報を取得した場合、
前記測距センサは、
前記環境内の複数の物体それぞれとの距離を再び計測し、
前記物体追跡部は、
前記地図情報記憶部に記憶されている前記環境地図の中で複数の前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との複数の前記差異を示す情報と、当該タイミングで取得された複数の前記物体の前記物体移動情報を時系列に分析した情報と、に基づいて、移動した複数の前記物体をそれぞれ識別し、識別された複数の前記物体の移動後の位置をそれぞれ特定する
ことを特徴とする請求項1または請求項2に記載の追跡物体発見装置。
When the object movement information acquisition unit acquires object movement information about a plurality of the objects,
The distance measuring sensor,
Again measuring the distance to each of the plurality of objects in the environment,
The object tracking unit,
A plurality of said environmental map created in the immediately preceding timing in which a plurality of the object has moved in the environmental map stored in the map information storage unit, and the environmental map created immediately following the timing Based on the information indicating the difference, and information obtained by analyzing the object movement information of the plurality of objects acquired at the timing in time series, the plurality of moved objects are respectively identified and identified. The tracking object finding device according to claim 1 or 2, wherein the positions of the plurality of objects after the movement are respectively specified.
前記物体追跡部は、特定の前記物体についての物体移動情報を取得したことに基づいて、前記地図情報記憶部に記憶された複数の前記環境地図が示す複数の前記環境のうち、自己の追跡物体発見装置が存在する前記環境がどの環境であるかを特定する
ことを特徴とする請求項1から請求項3までのいずれか一項に記載の追跡物体発見装置。
The object tracking unit, based on having acquired the object movement information about the specific object, among the plurality of environments indicated by the plurality of environment maps stored in the map information storage unit, the tracking object of its own. The tracking object finding device according to any one of claims 1 to 3, characterized in that the environment in which the finding device exists is specified.
前記物体を識別する識別情報と前記物体の位置と前記物体の特徴を表す属性情報とを対応付ける物体管理情報を記憶する物体管理情報記憶部
を備えることを特徴とする請求項1から請求項4までのいずれか一項に記載の追跡物体
発見装置。
An object management information storage unit that stores object management information that associates identification information that identifies the object, position of the object, and attribute information that represents the characteristics of the object with each other. The tracking object finding device according to any one of items 1 to 10.
ユーザからの問い合わせを示す情報の入力を受け付け、前記物体管理情報に基づく前記ユーザへの応答を示す情報を出力する対話部
を備えることを特徴とする請求項5に記載の追跡物体発見装置。
The tracking object finding device according to claim 5, further comprising: a dialogue unit that receives an input of information indicating a query from a user and outputs information indicating a response to the user based on the object management information.
前記ユーザからの問い合わせを示す情報は、前記物体の位置に関する問い合わせを示す情報であり、前記対話部は、前記ユーザへの応答を示す情報として、問い合わせた前記物体の近傍に位置する他の前記物体と、問い合わせた前記物体との位置関係を提示する情報を出力するThe information indicating the inquiry from the user is information indicating an inquiry about the position of the object, and the dialogue unit, as the information indicating the response to the user, the other object located near the inquired object. And output information presenting the positional relationship with the inquired object.
ことを特徴とする請求項6に記載の追跡物体発見装置。7. The tracking object finding device according to claim 6, wherein:
前記他の物体は、最も移動していない物体であるThe other object is the least moving object
ことを特徴とする請求項7に記載の追跡物体発見装置。The tracking object finding device according to claim 7, wherein
測距センサを備えるコンピュータを用いた追跡物体発見方法であって、
物体移動情報取得部が、物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、
前記測距センサが、最初に環境内の複数の前記物体それぞれとの距離を計測し、前記物体移動情報取得部が前記物体移動情報を取得すると、前記環境内の複数の物体それぞれとの距離を再び計測する測距ステップと、
環境地図作成部が、前記測距センサ計測するごとに前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、
地図情報記憶部が、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶ステップと、
物体追跡部が、前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、
を有することを特徴とする追跡物体発見方法。
A method of finding a tracking object using a computer equipped with a distance measuring sensor ,
An object movement information acquisition step in which the object movement information acquisition unit acquires object movement information indicating that the object has moved,
The distance measuring sensor, initially measuring the distance between each of the plurality of the objects in the environment, if the object movement information acquisition section acquires the object movement information, the distance between each of the plurality of objects within the environment Distance measuring step to measure again ,
Environmental map creation unit, and the environmental map generation step of generating an environmental map on the basis of each of the distances to the plurality of objects each time the distance measuring sensor is measured,
A map information storage step of storing the environment map created by the environment map creation section;
Object tracking section, and the environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit, the environmental map created immediately following the timing Based on the information indicating the difference between the object movement information acquired at the timing and the object movement information, an object tracking step of identifying the moved object, and identifying the position after the movement of the identified object,
A method for finding a tracked object, which comprises:
測距センサを備えるコンピュータに、
物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、
最初に環境内の複数の前記物体それぞれとの距離を前記測距センサに計測させ、前記物体移動情報取得ステップにおいて、前記物体移動情報が取得されると、前記環境内の複数の物体それぞれとの距離を再び前記測距センサに計測させる測距ステップと、
前記測距ステップにおいて計測されるごとに、前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、
前記環境地図作成ステップにおいて作成された前記環境地図を地図情報記憶部に記憶させる地図情報記憶ステップと、
前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、
を実行させるためのプログラム。
In a computer equipped with a distance measuring sensor ,
An object movement information acquisition step of acquiring object movement information indicating that the object has moved,
First be measuring the distance between each of the plurality of the objects in the environment to the distance measuring sensor, in the object movement information acquisition step, when the object movement information is acquired, the plurality of objects within the environment A distance measuring step for causing the distance measuring sensor to measure the distance again ,
And environmental map creation step of creating an environmental map on the basis of each of the distances of the Rugoto measured in the distance measuring step, until the plurality of objects,
A map information storage step of storing the environment map created in the environment map creation step in a map information storage unit ;
Indicating said environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit, the difference between the environmental map created immediately following the timing Based on the information and the object movement information acquired at the timing, the object tracking step of identifying the moved object, and identifying the position after the movement of the identified object,
A program to execute.
JP2016120045A 2016-06-16 2016-06-16 Tracking object finding device, tracking object finding method, and program Active JP6738662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016120045A JP6738662B2 (en) 2016-06-16 2016-06-16 Tracking object finding device, tracking object finding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016120045A JP6738662B2 (en) 2016-06-16 2016-06-16 Tracking object finding device, tracking object finding method, and program

Publications (2)

Publication Number Publication Date
JP2017223587A JP2017223587A (en) 2017-12-21
JP6738662B2 true JP6738662B2 (en) 2020-08-12

Family

ID=60686947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016120045A Active JP6738662B2 (en) 2016-06-16 2016-06-16 Tracking object finding device, tracking object finding method, and program

Country Status (1)

Country Link
JP (1) JP6738662B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102400512B1 (en) * 2020-11-17 2022-05-23 한국과학기술연구원 Semantic mapping system and method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096501A (en) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp System and method for detecting position of mobile object and program
JP3952460B2 (en) * 2002-11-19 2007-08-01 本田技研工業株式会社 Moving object detection apparatus, moving object detection method, and moving object detection program
JP4766269B2 (en) * 2007-03-06 2011-09-07 株式会社安川電機 Object detection method, object detection apparatus, and robot equipped with the same
JP2009174898A (en) * 2008-01-22 2009-08-06 Toyota Motor Corp Moving body and environmental information generation method
JP4930443B2 (en) * 2008-04-10 2012-05-16 トヨタ自動車株式会社 Map data generation apparatus and map data generation method
JP5959053B2 (en) * 2012-06-20 2016-08-02 株式会社ミツバ Autonomous traveling device

Also Published As

Publication number Publication date
JP2017223587A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
US11127203B2 (en) Leveraging crowdsourced data for localization and mapping within an environment
US11481999B2 (en) Maintenance work support system and maintenance work support method
KR102606785B1 (en) Systems and methods for simultaneous localization and mapping
TWI574223B (en) Navigation system using augmented reality technology
US8396254B1 (en) Methods and systems for estimating a location of a robot
CN103365411A (en) Information input apparatus, information input method, and computer program
JP2019067383A5 (en)
US20150138086A1 (en) Calibrating control device for use with spatial operating system
TW201911133A (en) Controller tracking for multiple degrees of freedom
JP2017196414A (en) Walk analysis support robot
US20200258515A1 (en) Information processing device, information processing method, and program
JP2007064684A (en) Marker arrangement assisting method and device therefor
Kandalan et al. Techniques for constructing indoor navigation systems for the visually impaired: A review
WO2019193859A1 (en) Camera calibration method, camera calibration device, camera calibration system and camera calibration program
CN112154345A (en) Acoustic positioning transmitter and receiver system and method
CN109313019A (en) For identification and confirm the CMM equipment of contact pilotage
JP6738662B2 (en) Tracking object finding device, tracking object finding method, and program
US20200264769A1 (en) System, method and devices for touch, user and object sensing for iot experiences
EP3392748B1 (en) System and method for position tracking in a virtual reality system
JP7291251B2 (en) ENVIRONMENTAL MAP MANAGEMENT DEVICE, ENVIRONMENTAL MAP MANAGEMENT METHOD AND PROGRAM
JP2023531302A (en) Systems and methods for dynamic shape sketching
US10735902B1 (en) Method and computer program for taking action based on determined movement path of mobile devices
JP6670682B2 (en) Position detection method and position detection system
Ullah et al. Systematic augmentation of artoolkit markers for indoor navigation and guidance: systematic augmentation of artoolkit markers for indoor navigation and guidance
JP6260450B2 (en) Function assignment method, function assignment program, and terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R150 Certificate of patent or registration of utility model

Ref document number: 6738662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350