JP6738662B2 - Tracking object finding device, tracking object finding method, and program - Google Patents
Tracking object finding device, tracking object finding method, and program Download PDFInfo
- Publication number
- JP6738662B2 JP6738662B2 JP2016120045A JP2016120045A JP6738662B2 JP 6738662 B2 JP6738662 B2 JP 6738662B2 JP 2016120045 A JP2016120045 A JP 2016120045A JP 2016120045 A JP2016120045 A JP 2016120045A JP 6738662 B2 JP6738662 B2 JP 6738662B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- information
- environment
- map
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 230000001133 acceleration Effects 0.000 claims description 73
- 230000007613 environmental effect Effects 0.000 claims description 45
- 230000004044 response Effects 0.000 claims description 9
- 238000005259 measurement Methods 0.000 description 18
- 101100257467 Dictyostelium discoideum spcs1 gene Proteins 0.000 description 17
- 101100395426 Schizosaccharomyces pombe (strain 972 / ATCC 24843) sty1 gene Proteins 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、追跡物体発見装置、追跡物体発見方法、およびプログラムに関する。 The present invention relates to a tracking object finding device, a tracking object finding method, and a program.
ロボットが人間の生活空間で移動や作業を行う場合、ロボットは人間の生活空間の状態を把握する必要がある。具体的には、ロボットが、環境地図および環境における対象物の位置を正確に知っている必要がある。
ロボットが利用する環境地図は、一般的に、測距センサ(例えば、カメラおよびLRF(Laser Range Finder;レーザー照準機)などが備えられたセンサ)を用いて作成される。例えば、特許文献1に記載の環境情報作成方法では、周囲に存在する物体の移動体本体からみた相対位置を示す計測値を取得するセンサを用いて、物体の形状や位置を示す環境情報が作成される。
When the robot moves or works in the human living space, the robot needs to know the state of the human living space. Specifically, the robot needs to know the environment map and the position of the object in the environment accurately.
The environment map used by the robot is generally created using a distance measuring sensor (for example, a sensor equipped with a camera and an LRF (Laser Range Finder)). For example, in the environment information creating method described in Patent Document 1, environment information indicating the shape and position of an object is created by using a sensor that acquires a measurement value indicating the relative position of an object existing in the surroundings as viewed from the moving body. To be done.
特許文献1に記載の環境情報作成方法においては、例えば、測定する環境の一部であるテーブルの上に測定対象物が乗っているような場合など、2つの物体が接している場合には、測定対象物の形状データを予め用意せずに、テーブルと測定対象物とを個々の物体として認識することは難しい。また、例えば、布や紙のように形状が不定である測定対象物を、個々の物体として認識することも困難である。 In the environment information creating method described in Patent Document 1, for example, when two objects are in contact with each other, such as when a measurement target object is placed on a table that is a part of the environment to be measured, It is difficult to recognize the table and the measurement object as individual objects without preparing the shape data of the measurement object in advance. In addition, it is difficult to recognize, as an individual object, an object to be measured whose shape is indefinite such as cloth or paper.
本発明は上記の点に鑑みてなされたものであり、対象物を個々の物体として認識することができる追跡物体発見装置、追跡物体発見方法、およびプログラムを提供する。 The present invention has been made in view of the above points, and provides a tracking object finding device, a tracking object finding method, and a program capable of recognizing an object as an individual object.
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様としては、物体が移動したことを示す物体移動情報を取得する物体移動情報取得部と、最初に環境内の複数の前記物体それぞれとの距離を計測し、前記物体移動情報取得部が前記物体移動情報を取得すると、前記環境内の複数の物体それぞれとの距離を再び計測する測距センサと、前記測距センサが計測するごとに、前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成部と、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶部と、前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡部と、を備えることを特徴とする追跡物体発見装置である。
(1) The present invention has been made to solve the above problems, and as one aspect of the present invention, an object movement information acquisition unit that acquires object movement information indicating that an object has moved, and first, measuring the distance between each of the plurality of the objects in the environment, if the object movement information acquisition section acquires the object movement information, a distance measuring sensor for re-measuring the distance between each of the plurality of objects within the environment, each time the distance measuring sensor measures the environmental map creation unit for creating an environmental map on the basis of each of the distances to the plurality of objects, a map that stores the environmental map created by the environmental map creation unit an information storage unit, and the environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit, the environmental map created immediately following the timing Based on the information indicating the difference between the object movement information acquired at the timing, and the object moving unit is identified, the object tracking unit that identifies the position after the movement of the identified object, It is a tracking object finding device characterized by including.
(2)また、本発明の一態様としては、前記物体移動情報取得部は、前記物体に搭載された加速度センサによって計測された加速度情報に基づく前記物体移動情報を取得することを特徴とする(1)に記載の追跡物体発見装置である。 (2) Further, as an aspect of the present invention, the object movement information acquisition unit acquires the object movement information based on acceleration information measured by an acceleration sensor mounted on the object ( The tracking object finding device according to 1).
(3)また、本発明の一態様としては、前記物体移動情報取得部が、複数の前記物体についての物体移動情報を取得した場合、前記測距センサは、前記環境内の複数の物体それぞれとの距離を再び計測し、前記物体追跡部は、前記地図情報記憶部に記憶されている前記環境地図の中で複数の前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との複数の前記差異を示す情報と、当該タイミングで取得された複数の前記物体の前記物体移動情報を時系列に分析した情報と、に基づいて、移動した複数の前記物体をそれぞれ識別し、識別された複数の前記物体の移動後の位置をそれぞれ特定することを特徴とする(1)または(2)に記載の追跡物体発見装置である。
(3) Further, as an aspect of the present invention, when the object movement information acquisition unit acquires object movement information about a plurality of the objects, the distance measurement sensor is configured to detect a plurality of objects in the environment. distance was measured again, and the object tracking unit includes: the environmental map created in the immediately preceding timing in which a plurality of the object has moved in the environmental map stored in the map information storage unit, the information indicating a plurality of the difference between the environmental map created immediately following timing, the information analyzing the object movement information of a plurality of the object obtained in the timing in time series, based on the moving The tracking object finding apparatus according to (1) or (2), characterized in that the plurality of objects are identified, and the positions of the identified objects after the movement are identified.
(4)また、本発明の一態様としては、前記物体追跡部は、特定の前記物体についての物体移動情報を取得したことに基づいて、前記地図情報記憶部に記憶された複数の前記環境地図が示す複数の前記環境のうち、自己の追跡物体発見装置が存在する前記環境がどの環境であるかを特定することを特徴とする(1)から(3)までのいずれか一つに記載の追跡物体発見装置である。 (4) Further, as one aspect of the present invention, the object tracking unit acquires a plurality of the environmental maps stored in the map information storage unit based on acquisition of object movement information about the specific object. (1) to (3), wherein the environment in which the self-tracking object finding device exists is specified from among the plurality of environments indicated by (1) to (3). It is a tracking object finding device.
(5)また、本発明の一態様としては、前記物体を識別する識別情報と前記物体の位置と前記物体の特徴を表す属性情報とを対応付ける物体管理情報を記憶する物体管理情報記憶部を備えることを特徴とする(1)から(4)までのいずれか一つに記載の追跡物体発見装置である。 (5) As another aspect of the present invention, an object management information storage unit that stores object management information that associates identification information that identifies the object, the position of the object, and attribute information that represents the characteristics of the object is provided. The tracking object finding device according to any one of (1) to (4).
(6)また、本発明の一態様としては、ユーザからの問い合わせを示す情報の入力を受け付け、前記物体管理情報に基づく前記ユーザへの応答を示す情報を出力する対話部を備えることを特徴とする(5)に記載の追跡物体発見装置である。
(7)また、本発明の一態様としては、前記ユーザからの問い合わせを示す情報は、前記物体の位置に関する問い合わせを示す情報であり、前記対話部は、前記ユーザへの応答を示す情報として、問い合わせた前記物体の近傍に位置する他の前記物体と、問い合わせた前記物体との位置関係を提示する情報を出力することを特徴とする(6)に記載の追跡物体発見装置である。
(8)また、本発明の一態様としては、前記他の物体は、最も移動していない物体である
ことを特徴とする(7)に記載の追跡物体発見装置である。
(6) Further, as an aspect of the present invention, it is provided with a dialogue unit that receives an input of information indicating an inquiry from a user and outputs information indicating a response to the user based on the object management information. The tracking object finding apparatus according to (5).
(7) Further, as an aspect of the present invention, the information indicating the inquiry from the user is information indicating an inquiry about the position of the object, and the dialogue unit is information indicating a response to the user, The tracking object finding device described in (6) is characterized in that information for presenting a positional relationship between the inquired object and another object located in the vicinity of the inquired object is output.
(8) Further, as an aspect of the present invention, the other object is an object that is not moving most.
The tracking object finding device according to (7) is characterized in that:
(9)また、本発明の一態様としては、測距センサを備えるコンピュータを用いた追跡物体発見方法であって、物体移動情報取得部が、物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、前記測距センサが、最初に環境内の複数の前記物体それぞれとの距離を計測し、前記物体移動情報取得部が前記物体移動情報を取得すると、前記環境内の複数の物体それぞれとの距離を再び計測する測距ステップと、環境地図作成部が、前記測距センサが計測するごとに前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、地図情報記憶部が、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶ステップと、物体追跡部が、前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、を有することを特徴とする追跡物体発見方法である。
( 9 ) Further, as an aspect of the present invention, there is provided a tracking object finding method using a computer having a distance measuring sensor , wherein the object movement information acquisition unit acquires object movement information indicating that the object has moved. and the object movement information acquisition step, the distance measuring sensor, initially measuring the distance between each of the plurality of the objects in the environment, if the object movement information acquisition section acquires the object movement information, a plurality of said environment a distance measuring step of measuring the object distance with each again, environmental map creation unit, environmental map the distance measuring sensor to create an environmental map on the basis of each of the distances to the plurality of objects each time measure A map information storing step of a creating step, a map information storing section storing the environment map created by the environment map creating section, and an object tracking section of the environment map stored in the map information storing section. It said environmental map the object was created prior to direct the timing moving at medium, and information indicating a difference between the environmental map created immediately following the timing, and the object movement information acquired in the time And an object tracking step of identifying the moved object based on, and specifying the position of the identified object after the movement.
(10)また、本発明の一態様としては、測距センサを備えるコンピュータに、物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、最初に環境内の複数の前記物体それぞれとの距離を前記測距センサに計測させ、前記物体移動情報取得ステップにおいて、前記物体移動情報が取得されると、前記環境内の複数の物体それぞれとの距離を再び前記測距センサに計測させる測距ステップと、前記測距ステップにおいて計測されるごとに、前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、前記環境地図作成ステップにおいて作成された前記環境地図を地図情報記憶部に記憶させる地図情報記憶ステップと、前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、を実行させるためのプログラムである。
(10) Further, as an embodiment of the present invention, the computer having a distance measuring sensor, and the object movement information acquisition step of acquiring object movement information indicating that the object has moved, a plurality of the object first in the environment When the object movement information is acquired in the object movement information acquisition step by causing the distance measurement sensor to measure the distance to each of them, the distance measurement sensor measures the distance to each of the plurality of objects in the environment again. and causes the distance measuring step, the Rugoto measured in the distance measuring step, and the environment map generating step of generating an environmental map on the basis of each of the distances to the plurality of objects, created in the environmental map creation step a map information storage step of causing storing said environmental map in the map information storage unit, and the environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit , information indicating the difference between the environmental map created immediately following the timing, and the object movement information acquired in the time, based on, identifies the object that has moved, identified in the object This is a program for executing an object tracking step of specifying a position after movement.
本発明によれば、対象物を個々の物体として認識することができる。 According to the present invention, an object can be recognized as an individual object.
(実施形態)
以下、本発明の実施形態における物体の追跡の概要について、図面を参照しながら説明する。
図1は、本発明の実施形態に係る追跡物体発見システム1による物体の追跡を示す概略図である。図示するように、測定対象の環境である空間spc1には、追跡物体発見装置10と、3つの物体(物体obj1、物体obj2、および物体obj3)が置かれている。なお、追跡物体発見装置10、複数のセンサタグ20、および当該追跡物体発見装置10とセンサタグ20とを無線通信接続する通信ネットワークを含めて、以下、追跡物体発見システム1という。
(Embodiment)
Hereinafter, an outline of object tracking in the embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram showing tracking of an object by a tracking object finding system 1 according to an embodiment of the present invention. As shown in the figure, a tracking
追跡物体発見装置10は、追跡物体発見装置10から空間spc1内に置かれた複数の物体それぞれごとの距離を計測することができる測距センサ101を備える装置(例えば、ロボット)である。例えば、測距センサ101が備える光源(例えば、LED(light emitting diode;発光ダイオード)、またはレーザーダイオード)から照射された光が、空間spc1に置かれた物体(物体obj1、物体obj2、または物体obj3)に当たると反射され、測距センサ101が備える受光素子によって受光される。測距センサ101は、受光した光を解析することにより、追跡物体発見装置10から物体それぞれとの距離を計測する。追跡物体発見装置10は、計測された距離に基づいて、空間spc1におけるそれぞれの物体の位置を特定し、環境地図を作成する。
The tracking object finding
物体obj1および物体obj2には、加速度センサが搭載されたセンサタグ20がそれぞれ設置されている。これにより、センサタグ20が設置された物体が移動した場合や故意に動かされた場合、追跡物体発見装置10は、加速度情報をセンサタグ20から受信することで当該物体がいつどれくらいの加速度で移動したのかを認識することができる。
The object obj1 and the object obj2 are provided with
センサタグ20が設置された物体(物体obj1および物体obj2)は、追跡物体発見装置10による追跡の対象とする物体である。また、センサタグ20が設置されていない物体(物体obj3)は、測定する環境の一部であり、追跡物体発見装置10による追跡の対象とはしない物体である。
The objects (object obj1 and object obj2) on which the
センサタグ20が設置された物体(物体obj1または物体obj2)が移動した場合、センサタグ20が備える加速度センサは、当該物体の移動に伴う加速度の変化を検知し、検知した加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報を、センサタグ20が備える無線通信モジュールによって無線通信の通信ネットワークを介して追跡物体発見装置10へ送信する。
When an object (object obj1 or object obj2) on which the
追跡物体発見装置10は、センサタグ20から、加速度情報を受信すると、測距センサ101により追跡物体発見装置10から物体それぞれとの距離を再び計測して、計測された距離に基づいて空間spc1におけるそれぞれの物体の位置を再び特定し、環境地図を作成する。
When the tracking object finding
そして、追跡物体発見装置10は、物体が移動する前に作成した環境地図と物体が移動した後に作成した環境地図との差異を示す情報、および、物体の加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報を解析し、どの物体がどの位置へ移動したのかを特定する。なお、移動した物体および移動した物体の位置の特定方法の詳細については、後述する。
Then, the tracking object finding
なお、上記においては、測距センサ101は追跡物体発見装置10のみに備えられているものとしたが、これに限られない。例えば、複数の測距センサ101を空間spc1内の異なる位置に設置して、複数の位置から物体それぞれとの距離を計測することによって、物体の位置の測定精度をより高めることができる。また、これにより、測定対象の物体が、他の物体の陰に隠れることによって距離の計測できないようなケースを削減することができる。
In the above description, the
(追跡物体発見システムの構成)
以下、追跡物体発見システム1の構成について、図面を参照しながら説明する。
図2は、本発明の実施形態に係る追跡物体発見システム1の機能構成を示すブロック図である。図示するように、追跡物体発見システム1は、追跡物体発見装置10と、複数のセンサタグ20(センサタグ群)と、通信ネットワーク30と、を含んで構成される。
(Structure of tracking object discovery system)
Hereinafter, the configuration of the tracking object finding system 1 will be described with reference to the drawings.
FIG. 2 is a block diagram showing a functional configuration of the tracking object finding system 1 according to the embodiment of the present invention. As illustrated, the tracked object finding system 1 includes a tracked
追跡物体発見装置10は、測距センサ101と、環境地図作成部102と、記憶部103と、加速度情報取得部104と、加速度情報書込み部105と、物体追跡部106と、環境構造管理部107と、対話部108と、を含んで構成される。
The tracking
測距センサ101は、追跡物体発見装置10から環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)までのそれぞれの距離を計測する。
環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、一般的な環境地図作成手法、例えば、SLAM(Simultaneous Localization and Mapping)のような手法を用いて環境地図を作成する。
The
The environment
記憶部103は、環境地図作成部102によって作成された環境地図に基づく地図情報1031を記憶する。また、記憶部103は、後述する加速度情報書込み部105によって時系列に書込まれる加速度情報1033を記憶する。また、記憶部103は、センサタグ20(および、センサタグ20が設置された物体)を識別する識別情報、当該センサタグ20が設置された物体の名称、当該物体の位置を示す情報、および当該物体の属性情報(例えば、当該物体の特徴に関する情報など)を対応付ける物体管理情報1032を記憶する。
The storage unit 103 stores map
加速度情報取得部104(物体移動情報取得部)は、センサタグ20から送信された、物体の加速度を示す情報(物体が移動したことを示す物体移動情報)とセンサタグ20(および物体)を識別する識別情報とを対応付ける加速度情報1033を、通信ネットワーク30を介して受信する。
加速度情報書込み部105は、加速度情報取得部104が受信した加速度情報1033を、記憶部103に書込む。
The acceleration information acquisition unit 104 (object movement information acquisition unit) identifies the information indicating the acceleration of the object (object movement information indicating that the object has moved) and the sensor tag 20 (and the object) transmitted from the
The acceleration
物体追跡部106は、環境地図からセンサタグ20が設置された物体を切り出し、当該物体の位置を特定するための仕組みである。物体追跡部106は、記憶部103に記憶された加速度情報1033を監視し、当該加速度情報1033が更新されたタイミングで、物体の位置を特定するための処理を行う。物体追跡部106は、物体が移動する前に環境地図作成部102によって作成された環境地図と物体が移動した後に環境地図作成部102によって作成された環境地図との差異を示す情報と、加速度情報1033と、に基づいて、移動した物体を識別し、識別された物体の移動後の位置を特定する。
環境構造管理部107は、物体追跡部106によって特定された移動後の物体の位置を示す情報に基づいて、記憶部103に記憶された物体管理情報1032を更新する。
The
The environmental
対話部108は、図2に図示するように、対話入出力部1081と対話制御部1082とを含んで構成される。
対話入出力部1081は、追跡物体発見装置10(例えば、ユーザとの対話機能を有する対話ロボット)と対話するユーザからの情報の入力を受け付けたり、当該ユーザに対して情報を出力したりするための入出力インターフェースである。対話部108は、例えば、マイクロフォン、スピーカー、またはタッチパネル式の液晶ディスプレイなどを含んで構成される。
As shown in FIG. 2, the
The dialogue input/
対話制御部1082は、ユーザによって対話入出力部1081へ入力された情報を解析し、ユーザからの要求内容を認識する。そして、対話制御部1082は、ユーザからの要求内容を示す情報を環境構造管理部107へ出力する。
環境構造管理部107は、対話制御部1082から入力された情報に基づいて、物体管理情報1032を参照し、当該入力された情報に対する応答を生成するための情報を物体管理情報1032から取得する。環境構造管理部107は、物体管理情報1032から取得した情報を、対話制御部1082へ出力する。
対話制御部1082は、環境構造管理部107から入力された情報に基づいて、ユーザからの要求内容に対する応答を示す情報を生成し、対話入出力部1081へ出力する。
対話入出力部1081は、対話制御部1082から入力された情報を、ユーザが認識可能なデータ形式(例えば、音声データ)に変換して、(ユーザに対して)出力する。
なお、上記の、追跡物体発見装置10とユーザとの対話の詳細については、後述する。
The
The environmental
The
The dialogue input/
The details of the interaction between the tracking
(加速度情報の構成)
以下に、加速度情報1033の構成について、図面を参照しながら説明する。
図3は、本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する加速度情報1033の構成の一例を示す図である。図示するように、加速度情報1033は、「センサタグID」、「タイムスタンプ」、および「加速度値」の3つのデータ項目の列からなる2次元の表形式のデータである。
(Structure of acceleration information)
The configuration of the
FIG. 3 is a diagram showing an example of the configuration of
図3に示すように、例えば、加速度情報1033の1行目のデータは、「センサタグID」の項目の値である「A001」、「タイムスタンプ」の項目の値である「1463987325」、および「加速度値」の項目の値である「5.236」からなるデータである。このデータは、「A001」というセンサタグIDが付与されたセンサタグ20(が設置された物体)が、「1463987325」というタイムスタンプに基づく時刻に、「5.236」の加速度値で移動をしていたことを表す。
As shown in FIG. 3, for example, the data in the first row of the
加速度情報1033は、センサタグ20が加速度を検知した時に、センサタグ20から通信ネットワーク30を介して追跡物体発見装置10の加速度情報取得部104へ送信される。そして、加速度情報取得部104が受信した加速度情報1033は、加速度情報書込み部105によって記憶部103に書込まれる。センサタグ20は、加速度を検知してから、物体が停止するまでの間、例えば、30Hzの周期で定期的に加速度情報1033を計測し、加速度情報取得部104へ送信する。
The
(物体管理情報の構成)
以下に、物体管理情報1032の構成について、図面を参照しながら説明する。
図4は、本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する物体管理情報1032の構成の一例を示す図である。図示するように、物体管理情報1032は、「センサタグID」、「物体名」、「座標値」、および「属性値」の4つのデータ項目の列からなる2次元の表形式のデータである。
(Structure of object management information)
The configuration of the
FIG. 4 is a diagram showing an example of the configuration of the
図4に示すように、例えば、物体管理情報1032の1行目のデータは、「センサタグID」の項目の値である「A001」、「物体名」の項目の値である「リモコン」、および「座標値」の項目の値である「(25,36)」、および「属性値」の項目の値である「ディスプレイ1用のリモコン」からなるデータである。このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が設置された物体の「物体名」が、「リモコン」であることを表す。また、このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が、「(25,36)」という座標値によって表される座標に位置していることを表す。また、このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が設置された物体が、「ディスプレイ1用のリモコン」であるという「属性値」(属性情報)を持った物体であることを表す。
As shown in FIG. 4, for example, the data in the first line of the
また、図4に示すように、例えば、物体管理情報1032の4行目のデータについてはは、「センサタグID」の項目には値が格納されていない。また、「物体名」の項目の値は「テーブル1」、「座標値」の項目の値は「(25,30)」、および「属性値」の項目の値は「中央の大テーブル」である。このデータは、センサタグ20が設置されていない物体であって「物体名」が「テーブル1」である物体が、「(25,30)」という座標値によって表される座標に位置しており、「中央の大テーブル」であるという「属性値」(属性情報)を持っていることを表す。
Further, as shown in FIG. 4, for example, for the data on the fourth line of the
図4に示す物体管理情報1032の1行目から3行目までのデータように、「センサタグID」の項目に値が格納されている場合には、当該センサタグIDが付与されたセンサタグ20が設置された物体は、追跡物体発見装置10が追跡する対象とする物体である。一方、図4に示す物体管理情報1032の4行目のデータように、「センサタグID」の項目に値が格納されていない場合には、当該データの「物体名」によって示される物体は、センサタグ20が設置されていない物体であり、追跡物体発見装置10が追跡する対象とはしていない物体である。
When a value is stored in the item “sensor tag ID” like the data from the first line to the third line of the
追跡物体発見装置10が追跡する対象とする物体に対応するデータ(図4に示す物体管理情報1032の1行目から3行目までのデータ)については、「センサタグID」、および「物体名」、および「属性値」の3つの項目の値は、予め記憶されている。また、「座標値」の項目の値は、当該物体が移動したことが検知される度に、環境構造管理部107によって更新される。なお、「属性値」の項目に値が格納されているか否かは任意である。
Regarding the data (data from the first line to the third line of the
また、追跡物体発見装置10が追跡する対象とはしていない物体に対応するデータ(図4に示す物体管理情報1032の4行目のデータ)については、「物体名」、「座標値」、および「属性値」の3つの項目の値は、予め記憶されている。なお、「センサタグID」の項目の値は格納されておらず、また、「属性値」の項目に値が格納されているか否かは任意である。
Further, regarding data (data on the fourth line of the
(移動した物体および位置の特定)
以下、追跡物体発見装置10による、移動した物体の特定、および移動した物体の移動後の位置の特定について、図面を参照しながら説明する。
図5は、本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。
(Identification of moved object and position)
Hereinafter, identification of a moved object and identification of a position of the moved object after movement by the tracking
FIG. 5 is a schematic diagram showing identification of a moved object and position by the tracking
図5(A)は、図1に示した空間spc1に実際に存在する物体(例えば、物体obj1、物体obj2、および物体obj3)の位置(座標)を、追跡物体発見装置10の位置を原点とした2次元の座標平面上に表したものである。なお、説明を簡略化するため、ここではx軸およびy軸からなる座標平面を例として説明するが、x軸、y軸、およびz軸からなる3次元の座標空間であってもよい。 In FIG. 5A, the positions (coordinates) of objects (eg, object obj1, object obj2, and object obj3) actually existing in the space spc1 shown in FIG. It is represented on the two-dimensional coordinate plane. It should be noted that, for simplification of description, a coordinate plane composed of the x-axis and the y-axis is described here as an example, but a three-dimensional coordinate space composed of the x-axis, the y-axis, and the z-axis may be used.
図5(B)は、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図5(B)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。
In FIG. 5B, the
図5(C)は、物体obj2が座標crd1の位置へ移動した後に、再び追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図5(B)と同様に、図5(C)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。
In FIG. 5C, after the object obj2 moves to the position of the coordinate crd1, the
追跡物体発見装置10の物体追跡部106は、物体が移動する前に作成された環境地図と、物体が移動した後に作成された環境地図との差異を解析することにより、何らかの物体が移動したことを認識することができる。具体的には、物体が移動する前に作成された環境地図においては物体が存在するが、物体が移動した後に作成された環境地図においては物体が存在しない座標を、物体追跡部106は、何らかの物体の移動元の座標であると認識する。また、物体が移動する前に作成された環境地図においては物体が存在しないが、物体が移動した後に作成された環境地図においては物体が存在する座標を、物体追跡部106は、何らかの物体の移動元の座標であると認識する。
The
物体追跡部106は、物体が移動する前に作成された環境地図が作成された時間と物体が移動した後に作成された環境地図が作成された時間との間の時間帯に該当するタイムスタンプを示すデータを、記憶部103の加速度情報1033から抽出し、抽出された当該タイムスタンプに対応付けられたセンサタグIDを取得する。これにより、物体追跡部106は、取得されたセンサタグIDに基づいて、移動元の座標から移動先の座標へ移動した物体に設置されたセンサタグIDを推測することができる。
物体追跡部106は、上記において推測されたセンサタグID、および移動先の座標を示す情報を、環境構造管理部107へ出力する。
The
The
環境構造管理部107は、記憶部103に記憶された物体管理情報1032において、物体追跡部106から入力されたセンサタグIDに対応付けられている座標値を、物体追跡部106から入力された移動先の座標によって更新する。
環境構造管理部107は、記憶部103に記憶された物体管理情報1032において、物体追跡部106から入力されたセンサタグIDに対応付けられている物体名を参照することにより、移動した物体の物体名を認識することができる。
The environmental
The environmental
なお、上記においては、物体追跡部106は、センサタグIDを加速度情報1033から取得することによって、どの物体が移動したかを推測したが、これに限られない。例えば、物体追跡部106は、加速度情報1033に含まれるセンサタグIDごとの加速度値の推移に基づいて、当該センサタグIDに対応する物体の推定移動距離を算出し、算出された推定移動距離と、上記の環境地図における移動元の座標と移動先の座標との間の距離と、を比較することによって、移動した物体を特定するようにしてもよい。
In the above description, the
なお、センサタグ20にジャイロスコープを搭載し、物体追跡部106が、当該ジャイロスコープによって計測された物体の姿勢や角速度等を示す情報も用いて、移動した物体の特定をするようにしてもよい。複数の種類のセンサによって計測された情報を用いることによって、物体追跡部106は、より精度高く、移動した物体の特定を行うことができる。
Note that a gyroscope may be mounted on the
なお、本実施形態に係る追跡物体発見装置10は、加速度センサによって取得される加速度値を用いて物体の移動を検知するが、物体の移動を検知することが可能なその他のセンサ等によって取得される情報に基づいて物体の移動を検知するような構成であってもよい。例えば、センサタグ20が、気圧センサを備え、当該気圧センサによって取得される気圧の変化に基づいて物体の位置の高度変化を検知するような構成であってもよい。
The tracking
(追跡物体発見装置の動作)
以下、追跡物体発見装置10の動作の概略について、図面を参照しながら説明する。
図6は、本発明の実施形態に係る追跡物体発見装置10の動作を示すフローチャートである。本フローチャートの処理は、追跡物体発見装置10が、空間spc1において、物体の追跡を開始した際に開始する。
(Operation of the tracking object finding device)
Hereinafter, the outline of the operation of the tracking
FIG. 6 is a flowchart showing the operation of the tracking
(ステップS001)追跡物体発見装置10の測距センサ101は、追跡物体発見装置10と、環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)とのそれぞれの距離を計測する。その後、ステップS002へ進む。
(Step S001) The ranging
(ステップS002)追跡物体発見装置10の環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、環境地図を作成する。その後、ステップS003へ進む。
(Step S002) The environment
(ステップS003)追跡物体発見装置10の環境地図作成部102は、作成した環境地図に基づく地図情報1031を記憶部103に記憶させる。その後、ステップS004へ進む。
(Step S003) The environment
(ステップS004)追跡物体発見装置10の加速度情報取得部104は、センサタグ20から送信された、(物体が移動したことを示す)物体の加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報1033を、通信ネットワーク30を介して受信する。加速度情報書込み部105は、加速度情報取得部104が受信した加速度情報1033を、記憶部103に書込む。その後、ステップS005へ進む。
(Step S004) The acceleration
(ステップS005)追跡物体発見装置10の測距センサ101は、追跡物体発見装置10と、環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)とのそれぞれの距離を計測する。その後、ステップS006へ進む。
(Step S005) The ranging
(ステップS006)追跡物体発見装置10の環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、環境地図を作成する。その後、ステップS007へ進む。
(Step S006) The environment
(ステップS007)追跡物体発見装置10の環境地図作成部102は、作成した環境地図に基づく地図情報1031を記憶部103に記憶させる。その後、ステップS008へ進む。
(Step S007) The environment
(ステップS008)追跡物体発見装置10の物体追跡部106は、物体が移動する前に環境地図作成部102によって作成された環境地図と物体が移動した後に環境地図作成部102によって作成された環境地図との差異を抽出する。その後、ステップS009へ進む。
(Step S008) The
(ステップS009)追跡物体発見装置10の物体追跡部106は、ステップS007で抽出した環境地図の差異を示す情報と、加速度情報1033と、に基づいて、移動した物体を識別し、識別された物体の移動後の位置を特定する。その後、ステップS010へ進む。
(Step S009) The
(ステップS010)追跡物体発見装置10が、空間spc1における物体の追跡を終了した場合には、本フローチャートの処理が終了する。そうでない場合は、ステップS004へ戻る。
(Step S010) When the tracked
(複数の物体が移動した場合の物体および位置の特定)
以下、追跡物体発見装置10による、複数の物体が移動した場合における、移動した物体の特定、および移動した物体の移動後の位置の特定について、図面を参照しながら説明する。
図7は、本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。
(Identification of object and position when multiple objects move)
Hereinafter, identification of a moved object and identification of a position of the moved object after the movement by the tracking
FIG. 7 is a schematic diagram showing identification of a moved object and position by the tracking
図7(A)は、物体obj1および物体obj2が移動した後に、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図7(A)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。
In FIG. 7A, after the object obj1 and the object obj2 have moved, the
図7(A)に示している物体obj1および物体obj2が表示されている座標は、物体obj1および物体obj2が移動する前に作成された環境地図におけるそれぞれの物体の位置を表す。また、図7(A)に点線で示している座標crd11および座標crd12は、物体obj1および物体obj2が移動した後に作成された環境地図におけるそれぞれの物体の位置を表す。すなわち、図7(A)は、2つの物体がそれぞれ座標crd11または座標crd12へ移動したと推測される状態を表す。 The coordinates of the object obj1 and the object obj2 shown in FIG. 7A represent the position of each object in the environment map created before the object obj1 and the object obj2 move. Further, the coordinates crd11 and the coordinates crd12 shown by dotted lines in FIG. 7A represent the positions of the respective objects in the environment map created after the objects obj1 and obj2 have moved. That is, FIG. 7A shows a state in which it is estimated that the two objects have moved to the coordinates crd11 or the coordinates crd12, respectively.
複数の物体が移動した場合、物体追跡部106は、加速度情報1033を参照して加速度が検知された物体を特定することにより、移動した複数の物体をそれぞれ特定することはできるが、移動した複数の物体がそれぞれどの位置へ移動したのかを特定することはできない。
When a plurality of objects have moved, the
図7(B)は、物体obj1が再び移動した後に、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図7(A)と同様、図7(B)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。
In FIG. 7B, after the object obj1 moves again, the
図7(B)に点線で示している座標crd11および座標crd12は、物体obj1が再び移動する前に作成された環境地図におけるそれぞれの物体の位置を表す。また、図7(B)に点線で示している座標crd13および座標crd12は、物体obj1が再び移動した後に作成された環境地図におけるそれぞれの物体の位置を表す。よって、座標crd12は、物体obj1が再び移動する前に作成された環境地図、および物体obj1が再び移動した後に作成された環境地図のいずれにおいても物体が存在すると測定された座標である。すなわち、図7(B)は、1つの物体のみが移動したと推測される状態を表す。 Coordinates crd11 and coordinates crd12 shown by dotted lines in FIG. 7B represent the positions of the respective objects in the environment map created before the object obj1 moves again. Further, the coordinates crd13 and the coordinates crd12 shown by dotted lines in FIG. 7B represent the positions of the respective objects in the environment map created after the object obj1 moves again. Therefore, the coordinate crd12 is the coordinate measured as the existence of the object in both the environment map created before the object obj1 moves again and the environment map created after the object obj1 moves again. That is, FIG. 7B shows a state in which it is estimated that only one object has moved.
図7(A)における物体の移動時においては、記憶部103に記憶されている加速度情報1033には、物体obj1および物体obj2にそれぞれ設置されたセンサタグ20に付与されているセンサタグIDを示す情報が含まれるため、物体追跡部106は、物体obj1および物体obj2が移動したことは検知することができる。しかしながら、物体obj1および物体obj2のそれぞれが座標crd11または座標crd12のどちらへそれぞれ移動したのかについては認識することができない。
When the object in FIG. 7A is moving, the
そして、図7(B)における物体の移動時においては、記憶部103に記憶されている加速度情報1033には、物体obj1に設置されたセンサタグ20に付与されているセンサタグIDを示す情報のみが含まれるため、物体obj1が移動したことを検知することができる。これにより、物体追跡部106は、物体obj1が、図7(A)における物体の移動時に、座標crd11へ移動し、次に、図7(B)における物体の移動時に、座標crd11から座標crd13へさらに移動したことを推測することができる。また、これにより、物体追跡部106は、物体obj2が、図7(A)における物体の移動時に、座標crd12へ移動したことを推測することができる。
Then, when the object is moving in FIG. 7B, the
上記のように、加速度情報取得部104が、複数の物体についての加速度情報1033を取得した場合、物体追跡部106は、複数の物体が移動する前に作成された環境地図と複数の物体が移動した後に作成された環境地図との複数の差異を示す情報と、複数の物体の加速度情報1033を時系列に分析した情報と、に基づいて、移動した複数の物体をそれぞれ識別し、識別された複数の物体の移動後の位置をそれぞれ特定する。
As described above, when the acceleration
(類似する環境が複数存在する場合における環境の特定)
以下、追跡物体発見装置10による、類似する環境が複数存在する場合における環境の特定について、図面を参照しながら説明する。
図8は、本発明の実施形態に係る追跡物体発見装置10による環境の特定を示す概略図である。
(Identification of environment when multiple similar environments exist)
Hereinafter, the identification of the environment by the tracking
FIG. 8 is a schematic diagram showing the identification of the environment by the tracking
図8(A)は環境Aにおける環境地図を表し、図8(B)は環境Aとは別の環境である環境Bにおける環境地図を表す。また、図8(C)は追跡物体発見装置10が実際に位置する環境を表したものである。なお、追跡物体発見装置10は、環境Aまたは環境Bのいずれかの環境に位置しているが、どちらの環境に位置しているかについては事前に認識はしていない。
8A shows an environment map in environment A, and FIG. 8B shows an environment map in environment B, which is an environment different from environment A. In addition, FIG. 8C illustrates an environment in which the tracking
追跡物体発見装置10は、環境Aの環境地図および環境Bの環境地図を、それぞれ記憶部103に記憶している。図8に図示するように、環境Aと環境Bとは、物体の配置が類似している環境である。例えば、ビル内のオフィスのような環境において、各階のフロアのレイアウトがこのように似通った環境になっている場合がある。
なお、追跡物体発見装置10は、環境Aにおける加速度情報1033と、環境Bにおける加速度情報1033とをそれぞれ記憶部103に記憶している。
The tracking
The tracking
追跡物体発見装置10は、環境Aまたは環境Bのいずれかの環境に位置しているが、どちらの環境に位置しているのかを認識していない場合、自らの追跡物体発見装置10が位置する環境に存在する任意の物体(測定対象物)を移動させる。例えば、図8(C)に示すように、追跡物体発見装置10は、obj8を座標crd21の位置へ移動させる。すると、追跡物体発見装置10が実際に位置している環境における加速度情報1033が更新される。これにより、追跡物体発見装置10の物体追跡部106は、自らの追跡物体発見装置10が位置している環境が、どの環境であるのか(環境Aであるのか、または環境Bであるのか)を特定することができる。
なお、追跡物体発見装置10が自ら任意の物体(測定対象物)を移動させるのではなく、例えば、ユーザ等の第三者が任意の物体(測定対象物)を移動させたことに基づいて、追跡物体発見装置10の物体追跡部106が、自らの追跡物体発見装置10が位置している環境がどの環境であるのかを特定してもよい。
The tracking
Note that the tracking
上記のように、物体追跡部106は、特定の物体についての加速度情報1033を取得したことに基づいて、記憶部103に記憶された複数の環境地図が示す複数の環境のうち、自己の追跡物体発見装置10が存在する環境がどの環境であるかを特定する。
As described above, the
(対話部による対話制御)
以下、追跡物体発見装置10の対話部108による、ユーザとの対話の対話制御について説明する。
追跡物体発見装置10は、ユーザからの問い合わせ、例えば、空間spc1内における特定の物体の位置に関する問い合わせを受け付けて、それに対する回答をユーザに対して提示することができる。
(Dialogue control by the dialogue unit)
Hereinafter, the dialogue control of the dialogue with the user by the
The tracking
例えば、ユーザは、追跡物体発見装置10(例えば、ロボット)に対して、「リモコンはどこ?」という内容の問い合わせを行う。すると、追跡物体発見装置10の対話入出力部1081が備えるマイクロフォンは、当該ユーザからの問い合わせに基づく音声を取得し、音声信号に変換する。対話入出力部1081は変換した音声信号を、対話制御部1082へ出力する。
For example, the user makes an inquiry to the tracking object finding apparatus 10 (for example, a robot) about the content of “where is the remote controller?”. Then, the microphone included in the dialogue input/
対話制御部1082は、対話入出力部1081から入力された音声信号を解析し、ユーザからの要求内容を認識する。対話制御部1082は、ユーザからの問い合わせが、「リモコン」の位置を問い合わせる内容であることを認識すると、環境構造管理部107を介して、記憶部103に記憶された物体管理情報1032、例えば、図4に示す物体管理情報1032を参照する。図4に図示するように、「リモコン」の座標値は「(25,36)」である。また、図4に示す物体管理情報1032には、当該座標値の近傍を示す座標値として「(25,30)」が記憶されている。そして、対話制御部1082は、この座標値に対応する物体名の項目の値である「テーブル1」を取得する。
The
対話制御部1082は、上記において取得した「テーブル1」を示す情報に基づいて、「テーブル1の近くです」という応答文を生成する。そして、対話制御部1082は、当該応答文を音声信号に変換し、対話入出力部1081へ出力する。対話入出力部1081は、対話制御部1082から入力された音声信号に基づいて対話制御部1082が備えるスピーカーによって音声を出力する。
The
このように、本実施形態に係る追跡物体発見装置10は、特定の物体の位置に関する問い合わせを受けた際に、当該物体の座標値を示すデータをそのまま提示するのではなく、当該物体をユーザが発見するための「目印となるもの(例えば、当該物体の近傍にあるもの)」をユーザに提示することができる。これにより、追跡物体発見装置10は、ユーザに、特定の物体をより簡単に発見させることができる。
As described above, when the tracking
なお、上記の「目印となるもの」としては、静的なもの(移動しないもの)や、大きなもの、例えばテーブルなど、が用いられるようにしてもよい。また、上記の「目印となるもの」として、「センサタグ20が設置された物体(例えば、物体A)の中で最も移動していないもの」が用いられることにより、対話部108は、例えば、「物体Aがよく置かれている場所の近くです」といった応答文をユーザに提示することができる。
As the above-mentioned "mark", a static one (not moving) or a large one such as a table may be used. Further, as the “mark”, “the object that has not moved most among the objects (for example, the object A) on which the
なお、上記の「目印となるもの」は、環境地図作成部102により環境地図が作成とあわせて設定され、記憶部103が記憶する物体管理情報1032に登録されるようにしてもよい。
The “mark” may be set by the environment
なお、上記の例においては、追跡物体発見装置10は、対話部108が備えるマイクロフォンやスピーカー等により音声によってユーザとの対話を行ったが、これに限られない。例えば、追跡物体発見装置10は、対話部108が備えるタッチパネル式の液晶ディスプレイ等による入出力によってユーザとの対話を行うような構成であってもよい。
In the above example, the tracking
なお、上記の例においては、対話部108は、ユーザに対して文章によって応答したが、これに限られない。例えば、測距センサ101に搭載されたカメラが、ユーザが探している物体、または上記の「目印となるもの」を撮影し、撮影された画像を対話部108がユーザに対して提示するようにしてもよい。
In the above example, the
以上、この発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiment of the present invention has been described in detail above, the specific configuration is not limited to the above, and various design changes can be made without departing from the scope of the present invention. is there.
なお、上述した実施形態における追跡物体発見装置10の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
A part or all of the tracking
なお、ここでいう「コンピュータシステム」とは、追跡物体発見装置10に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
The “computer system” mentioned here is a computer system built in the tracking
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信回線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 Further, "computer-readable recording medium" means a program that dynamically holds a program for a short time, such as a communication line when transmitting the program through a network such as the Internet or a communication line such as a telephone line. In such a case, a volatile memory that holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server or a client, may be included. Further, the program may be one for realizing some of the functions described above, and may be one that can realize the functions described above in combination with a program already recorded in the computer system.
また、上述した実施形態における追跡物体発見装置10を、LSI(Large Scale Integration)等の集積回路として実現してもよい。追跡物体発見装置10の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Further, the tracking
1・・・追跡物体発見システム、10・・・追跡物体発見装置、20・・・センサタグ、30・・・通信ネットワーク、101・・測距センサ、102・・・環境地図作成部、103・・・記憶部、104・・・加速度情報取得部、105・・・加速度情報書込み部、106・・・物体追跡部、107・・・環境構造管理部、108・・・対話部、1031・・・地図情報、1032・・・物体管理情報、1033・・・加速度情報、1081・・・対話入出力部、1082・・・対話制御部
DESCRIPTION OF SYMBOLS 1... Tracking object finding system, 10... Tracking object finding device, 20... Sensor tag, 30... Communication network, 101... Distance measuring sensor, 102... Environment map creation section, 103...
Claims (10)
最初に環境内の複数の前記物体それぞれとの距離を計測し、前記物体移動情報取得部が前記物体移動情報を取得すると、前記環境内の複数の物体それぞれとの距離を再び計測する測距センサと、
前記測距センサが計測するごとに、前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成部と、
前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶部と、
前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡部と、
を備えることを特徴とする追跡物体発見装置。 An object movement information acquisition unit that acquires object movement information indicating that the object has moved,
Initially measuring the distance between each of the plurality of the objects in the environment, if the object movement information acquisition section acquires the object information of moving distance measuring sensor again measures the distance between each of the plurality of objects within the environment When,
And environmental map creation unit for creating an environmental map on the basis of each of the distance every time the distance measuring sensor is measured to said plurality of objects,
A map information storage unit that stores the environment map created by the environment map creation unit;
Indicating said environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit, the difference between the environmental map created immediately following the timing Based on the information and the object movement information acquired at the timing, the object tracking unit that identifies the moved object and identifies the position of the identified object after the movement,
A tracking object finding device comprising:
ことを特徴とする請求項1に記載の追跡物体発見装置。 The tracking object finding device according to claim 1, wherein the object movement information acquisition unit acquires the object movement information based on acceleration information measured by an acceleration sensor mounted on the object.
前記測距センサは、
前記環境内の複数の物体それぞれとの距離を再び計測し、
前記物体追跡部は、
前記地図情報記憶部に記憶されている前記環境地図の中で複数の前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との複数の前記差異を示す情報と、当該タイミングで取得された複数の前記物体の前記物体移動情報を時系列に分析した情報と、に基づいて、移動した複数の前記物体をそれぞれ識別し、識別された複数の前記物体の移動後の位置をそれぞれ特定する
ことを特徴とする請求項1または請求項2に記載の追跡物体発見装置。 When the object movement information acquisition unit acquires object movement information about a plurality of the objects,
The distance measuring sensor,
Again measuring the distance to each of the plurality of objects in the environment,
The object tracking unit,
A plurality of said environmental map created in the immediately preceding timing in which a plurality of the object has moved in the environmental map stored in the map information storage unit, and the environmental map created immediately following the timing Based on the information indicating the difference, and information obtained by analyzing the object movement information of the plurality of objects acquired at the timing in time series, the plurality of moved objects are respectively identified and identified. The tracking object finding device according to claim 1 or 2, wherein the positions of the plurality of objects after the movement are respectively specified.
ことを特徴とする請求項1から請求項3までのいずれか一項に記載の追跡物体発見装置。 The object tracking unit, based on having acquired the object movement information about the specific object, among the plurality of environments indicated by the plurality of environment maps stored in the map information storage unit, the tracking object of its own. The tracking object finding device according to any one of claims 1 to 3, characterized in that the environment in which the finding device exists is specified.
を備えることを特徴とする請求項1から請求項4までのいずれか一項に記載の追跡物体
発見装置。 An object management information storage unit that stores object management information that associates identification information that identifies the object, position of the object, and attribute information that represents the characteristics of the object with each other. The tracking object finding device according to any one of items 1 to 10.
を備えることを特徴とする請求項5に記載の追跡物体発見装置。 The tracking object finding device according to claim 5, further comprising: a dialogue unit that receives an input of information indicating a query from a user and outputs information indicating a response to the user based on the object management information.
ことを特徴とする請求項6に記載の追跡物体発見装置。7. The tracking object finding device according to claim 6, wherein:
ことを特徴とする請求項7に記載の追跡物体発見装置。The tracking object finding device according to claim 7, wherein
物体移動情報取得部が、物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、
前記測距センサが、最初に環境内の複数の前記物体それぞれとの距離を計測し、前記物体移動情報取得部が前記物体移動情報を取得すると、前記環境内の複数の物体それぞれとの距離を再び計測する測距ステップと、
環境地図作成部が、前記測距センサが計測するごとに前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、
地図情報記憶部が、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶ステップと、
物体追跡部が、前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、
を有することを特徴とする追跡物体発見方法。 A method of finding a tracking object using a computer equipped with a distance measuring sensor ,
An object movement information acquisition step in which the object movement information acquisition unit acquires object movement information indicating that the object has moved,
The distance measuring sensor, initially measuring the distance between each of the plurality of the objects in the environment, if the object movement information acquisition section acquires the object movement information, the distance between each of the plurality of objects within the environment Distance measuring step to measure again ,
Environmental map creation unit, and the environmental map generation step of generating an environmental map on the basis of each of the distances to the plurality of objects each time the distance measuring sensor is measured,
A map information storage step of storing the environment map created by the environment map creation section;
Object tracking section, and the environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit, the environmental map created immediately following the timing Based on the information indicating the difference between the object movement information acquired at the timing and the object movement information, an object tracking step of identifying the moved object, and identifying the position after the movement of the identified object,
A method for finding a tracked object, which comprises:
物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、
最初に環境内の複数の前記物体それぞれとの距離を前記測距センサに計測させ、前記物体移動情報取得ステップにおいて、前記物体移動情報が取得されると、前記環境内の複数の物体それぞれとの距離を再び前記測距センサに計測させる測距ステップと、
前記測距ステップにおいて計測されるごとに、前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、
前記環境地図作成ステップにおいて作成された前記環境地図を地図情報記憶部に記憶させる地図情報記憶ステップと、
前記地図情報記憶部に記憶されている前記環境地図の中で前記物体が移動したタイミングの直前に作成された前記環境地図と、当該タイミングの直後に作成された前記環境地図との差異を示す情報と、当該タイミングで取得された前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、
を実行させるためのプログラム。 In a computer equipped with a distance measuring sensor ,
An object movement information acquisition step of acquiring object movement information indicating that the object has moved,
First be measuring the distance between each of the plurality of the objects in the environment to the distance measuring sensor, in the object movement information acquisition step, when the object movement information is acquired, the plurality of objects within the environment A distance measuring step for causing the distance measuring sensor to measure the distance again ,
And environmental map creation step of creating an environmental map on the basis of each of the distances of the Rugoto measured in the distance measuring step, until the plurality of objects,
A map information storage step of storing the environment map created in the environment map creation step in a map information storage unit ;
Indicating said environmental map the object was created prior to direct the timing to move in the environment map stored in the map information storage unit, the difference between the environmental map created immediately following the timing Based on the information and the object movement information acquired at the timing, the object tracking step of identifying the moved object, and identifying the position after the movement of the identified object,
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016120045A JP6738662B2 (en) | 2016-06-16 | 2016-06-16 | Tracking object finding device, tracking object finding method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016120045A JP6738662B2 (en) | 2016-06-16 | 2016-06-16 | Tracking object finding device, tracking object finding method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017223587A JP2017223587A (en) | 2017-12-21 |
JP6738662B2 true JP6738662B2 (en) | 2020-08-12 |
Family
ID=60686947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016120045A Active JP6738662B2 (en) | 2016-06-16 | 2016-06-16 | Tracking object finding device, tracking object finding method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6738662B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102400512B1 (en) * | 2020-11-17 | 2022-05-23 | 한국과학기술연구원 | Semantic mapping system and method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004096501A (en) * | 2002-08-30 | 2004-03-25 | Ntt Advanced Technology Corp | System and method for detecting position of mobile object and program |
JP3952460B2 (en) * | 2002-11-19 | 2007-08-01 | 本田技研工業株式会社 | Moving object detection apparatus, moving object detection method, and moving object detection program |
JP4766269B2 (en) * | 2007-03-06 | 2011-09-07 | 株式会社安川電機 | Object detection method, object detection apparatus, and robot equipped with the same |
JP2009174898A (en) * | 2008-01-22 | 2009-08-06 | Toyota Motor Corp | Moving body and environmental information generation method |
JP4930443B2 (en) * | 2008-04-10 | 2012-05-16 | トヨタ自動車株式会社 | Map data generation apparatus and map data generation method |
JP5959053B2 (en) * | 2012-06-20 | 2016-08-02 | 株式会社ミツバ | Autonomous traveling device |
-
2016
- 2016-06-16 JP JP2016120045A patent/JP6738662B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017223587A (en) | 2017-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11127203B2 (en) | Leveraging crowdsourced data for localization and mapping within an environment | |
US11481999B2 (en) | Maintenance work support system and maintenance work support method | |
KR102606785B1 (en) | Systems and methods for simultaneous localization and mapping | |
TWI574223B (en) | Navigation system using augmented reality technology | |
US8396254B1 (en) | Methods and systems for estimating a location of a robot | |
CN103365411A (en) | Information input apparatus, information input method, and computer program | |
JP2019067383A5 (en) | ||
US20150138086A1 (en) | Calibrating control device for use with spatial operating system | |
TW201911133A (en) | Controller tracking for multiple degrees of freedom | |
JP2017196414A (en) | Walk analysis support robot | |
US20200258515A1 (en) | Information processing device, information processing method, and program | |
JP2007064684A (en) | Marker arrangement assisting method and device therefor | |
Kandalan et al. | Techniques for constructing indoor navigation systems for the visually impaired: A review | |
WO2019193859A1 (en) | Camera calibration method, camera calibration device, camera calibration system and camera calibration program | |
CN112154345A (en) | Acoustic positioning transmitter and receiver system and method | |
CN109313019A (en) | For identification and confirm the CMM equipment of contact pilotage | |
JP6738662B2 (en) | Tracking object finding device, tracking object finding method, and program | |
US20200264769A1 (en) | System, method and devices for touch, user and object sensing for iot experiences | |
EP3392748B1 (en) | System and method for position tracking in a virtual reality system | |
JP7291251B2 (en) | ENVIRONMENTAL MAP MANAGEMENT DEVICE, ENVIRONMENTAL MAP MANAGEMENT METHOD AND PROGRAM | |
JP2023531302A (en) | Systems and methods for dynamic shape sketching | |
US10735902B1 (en) | Method and computer program for taking action based on determined movement path of mobile devices | |
JP6670682B2 (en) | Position detection method and position detection system | |
Ullah et al. | Systematic augmentation of artoolkit markers for indoor navigation and guidance: systematic augmentation of artoolkit markers for indoor navigation and guidance | |
JP6260450B2 (en) | Function assignment method, function assignment program, and terminal device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6738662 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |