JP2017223587A - Tracking object discovery device, tracking object discovery method and program - Google Patents
Tracking object discovery device, tracking object discovery method and program Download PDFInfo
- Publication number
- JP2017223587A JP2017223587A JP2016120045A JP2016120045A JP2017223587A JP 2017223587 A JP2017223587 A JP 2017223587A JP 2016120045 A JP2016120045 A JP 2016120045A JP 2016120045 A JP2016120045 A JP 2016120045A JP 2017223587 A JP2017223587 A JP 2017223587A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- environment
- information
- unit
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 24
- 230000001133 acceleration Effects 0.000 claims description 71
- 230000007613 environmental effect Effects 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 7
- 230000002452 interceptive effect Effects 0.000 claims 1
- 238000005259 measurement Methods 0.000 abstract description 12
- 101100257467 Dictyostelium discoideum spcs1 gene Proteins 0.000 description 17
- 101100395426 Schizosaccharomyces pombe (strain 972 / ATCC 24843) sty1 gene Proteins 0.000 description 17
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、追跡物体発見装置、追跡物体発見方法、およびプログラムに関する。 The present invention relates to a tracking object discovery device, a tracking object discovery method, and a program.
ロボットが人間の生活空間で移動や作業を行う場合、ロボットは人間の生活空間の状態を把握する必要がある。具体的には、ロボットが、環境地図および環境における対象物の位置を正確に知っている必要がある。
ロボットが利用する環境地図は、一般的に、測距センサ(例えば、カメラおよびLRF(Laser Range Finder;レーザー照準機)などが備えられたセンサ)を用いて作成される。例えば、特許文献1に記載の環境情報作成方法では、周囲に存在する物体の移動体本体からみた相対位置を示す計測値を取得するセンサを用いて、物体の形状や位置を示す環境情報が作成される。
When a robot moves or works in a human living space, the robot needs to grasp the state of the human living space. Specifically, the robot needs to accurately know the position of the object in the environment map and the environment.
The environment map used by the robot is generally created using a distance measuring sensor (for example, a sensor equipped with a camera and a laser range finder (LRF)). For example, in the environment information creation method described in
特許文献1に記載の環境情報作成方法においては、例えば、測定する環境の一部であるテーブルの上に測定対象物が乗っているような場合など、2つの物体が接している場合には、測定対象物の形状データを予め用意せずに、テーブルと測定対象物とを個々の物体として認識することは難しい。また、例えば、布や紙のように形状が不定である測定対象物を、個々の物体として認識することも困難である。
In the environment information creation method described in
本発明は上記の点に鑑みてなされたものであり、対象物を個々の物体として認識することができる追跡物体発見装置、追跡物体発見方法、およびプログラムを提供する。 The present invention has been made in view of the above points, and provides a tracking object discovery device, a tracking object discovery method, and a program capable of recognizing an object as an individual object.
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様としては、環境内の複数の物体それぞれとの距離を計測する測距センサと、前記測距センサによって計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成部と、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶部と、前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得部と、前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡部と、を備えることを特徴とする追跡物体発見装置である。 (1) The present invention has been made to solve the above-described problems. As one aspect of the present invention, a distance measuring sensor that measures a distance from each of a plurality of objects in the environment, and the distance measuring sensor An environment map creation unit that creates an environment map based on the distances to the plurality of objects measured by the map, a map information storage unit that stores the environment map created by the environment map creation unit, and A difference between an object movement information acquisition unit that acquires object movement information indicating that an object has moved, and the environment map that is created before the object moves and the environment map that is created after the object moves A tracking object generator comprising: an object tracking unit that identifies the moved object based on the information indicating and the object movement information, and identifies a position after the movement of the identified object. It is a device.
(2)また、本発明の一態様としては、前記物体移動情報取得部は、前記物体に搭載された加速度センサによって計測された加速度情報に基づく前記物体移動情報を取得することを特徴とする(1)に記載の追跡物体発見装置である。 (2) As an aspect of the present invention, the object movement information acquisition unit acquires the object movement information based on acceleration information measured by an acceleration sensor mounted on the object. The tracking object finding device according to 1).
(3)また、本発明の一態様としては、記物体移動情報取得部が、複数の前記物体についての物体移動情報を取得した場合、前記物体追跡部は、複数の前記物体が移動する前に作成された前記環境地図と複数の前記物体が移動した後に作成された前記環境地図との複数の前記差異を示す情報と、複数の前記物体の前記物体移動情報を時系列に分析した情報と、に基づいて、移動した複数の前記物体をそれぞれ識別し、識別された複数の前記物体の移動後の位置をそれぞれ特定することを特徴とする(1)または(2)に記載の追跡物体発見装置である。 (3) Moreover, as one aspect of the present invention, when the object movement information acquisition unit acquires object movement information about a plurality of the objects, the object tracking unit is configured to move the object tracking information before the plurality of objects move. Information indicating a plurality of differences between the created environment map and the environment map created after the plurality of objects have moved; information analyzing the object movement information of the plurality of objects in time series; The tracked object finding device according to (1) or (2), wherein the plurality of moved objects are respectively identified based on the information, and the moved positions of the identified objects are respectively identified. It is.
(4)また、本発明の一態様としては、前記物体追跡部は、特定の前記物体についての物体移動情報を取得したことに基づいて、前記地図情報記憶部に記憶された複数の前記環境地図が示す複数の前記環境のうち、自己の追跡物体発見装置が存在する前記環境がどの環境であるかを特定することを特徴とする(1)から(3)までのいずれか一つに記載の追跡物体発見装置である。 (4) Moreover, as one aspect of the present invention, the object tracking unit acquires a plurality of environment maps stored in the map information storage unit based on acquiring object movement information about the specific object. The environment according to any one of (1) to (3) is characterized in that the environment in which the tracking object discovery device of the self exists is identified among the plurality of environments indicated by It is a tracking object discovery device.
(5)また、本発明の一態様としては、前記物体を識別する識別情報と前記物体の位置と前記物体の特徴を表す属性情報とを対応付ける物体管理情報を記憶する物体管理情報記憶部を備えることを特徴とする(1)から(4)までのいずれか一つに記載の追跡物体発見装置である。 (5) Moreover, as one aspect of the present invention, an object management information storage unit is provided that stores object management information that associates identification information for identifying the object, attribute information representing the position of the object, and characteristics of the object. The tracking object finding apparatus according to any one of (1) to (4), characterized in that:
(6)また、本発明の一態様としては、ユーザからの問い合わせを示す情報の入力を受け付け、前記物体管理情報に基づく前記ユーザへの応答を示す情報を出力する対話部を備えることを特徴とする(5)に記載の追跡物体発見装置である。 (6) Moreover, as one aspect of the present invention, the information processing apparatus includes an interaction unit that receives input of information indicating an inquiry from a user and outputs information indicating a response to the user based on the object management information. The tracking object finding device according to (5).
(7)また、本発明の一態様としては、コンピュータを用いた追跡物体発見方法であって、測距センサが、環境内の複数の物体それぞれとの距離を計測する測距ステップと、環境地図作成部が、前記測距センサによって計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、地図情報記憶部が、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶ステップと、物体移動情報取得部が、前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、物体追跡部が、前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、を有することを特徴とする追跡物体発見方法である。 (7) According to another aspect of the present invention, there is provided a tracking object finding method using a computer, in which a distance measurement sensor measures a distance from each of a plurality of objects in the environment, and an environment map. An environment map creating step in which the creating unit creates an environment map based on each of the distances to the plurality of objects measured by the distance measuring sensor, and a map information storage unit is created by the environment map creating unit. A map information storage step for storing the environmental map, an object movement information acquisition unit for acquiring object movement information indicating that the object has moved, and an object tracking unit for moving the object. Information indicating the difference between the environmental map created before and the environmental map created after the object has moved, and the object movement information, the moved Identifying the body, and a tracking object finding method characterized by having, an object tracking step of identifying the position after the movement of the identified said object.
(8)また、本発明の一態様としては、コンピュータに、環境内の複数の物体それぞれとの距離を計測する測距ステップと、前記測距ステップにおいて計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、前記環境地図作成ステップにおいて作成された前記環境地図を記憶する地図情報記憶ステップと、前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、を実行させるためのプログラムである。 (8) Further, as one aspect of the present invention, a computer includes a distance measuring step for measuring the distance to each of a plurality of objects in the environment, and each of the plurality of objects measured in the distance measuring step. An environment map creation step for creating an environment map based on the distance, a map information storage step for storing the environment map created in the environment map creation step, and object movement information indicating that the object has moved are acquired. An object movement information acquisition step, information indicating a difference between the environmental map created before the object moves and the environmental map created after the object moves, and the object movement information And an object tracking step for identifying the moved object and identifying the position of the identified object after the movement. .
本発明によれば、対象物を個々の物体として認識することができる。 According to the present invention, an object can be recognized as an individual object.
(実施形態)
以下、本発明の実施形態における物体の追跡の概要について、図面を参照しながら説明する。
図1は、本発明の実施形態に係る追跡物体発見システム1による物体の追跡を示す概略図である。図示するように、測定対象の環境である空間spc1には、追跡物体発見装置10と、3つの物体(物体obj1、物体obj2、および物体obj3)が置かれている。なお、追跡物体発見装置10、複数のセンサタグ20、および当該追跡物体発見装置10とセンサタグ20とを無線通信接続する通信ネットワークを含めて、以下、追跡物体発見システム1という。
(Embodiment)
Hereinafter, an outline of tracking an object according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram illustrating tracking of an object by a tracking
追跡物体発見装置10は、追跡物体発見装置10から空間spc1内に置かれた複数の物体それぞれごとの距離を計測することができる測距センサ101を備える装置(例えば、ロボット)である。例えば、測距センサ101が備える光源(例えば、LED(light emitting diode;発光ダイオード)、またはレーザーダイオード)から照射された光が、空間spc1に置かれた物体(物体obj1、物体obj2、または物体obj3)に当たると反射され、測距センサ101が備える受光素子によって受光される。測距センサ101は、受光した光を解析することにより、追跡物体発見装置10から物体それぞれとの距離を計測する。追跡物体発見装置10は、計測された距離に基づいて、空間spc1におけるそれぞれの物体の位置を特定し、環境地図を作成する。
The tracking object finding
物体obj1および物体obj2には、加速度センサが搭載されたセンサタグ20がそれぞれ設置されている。これにより、センサタグ20が設置された物体が移動した場合や故意に動かされた場合、追跡物体発見装置10は、加速度情報をセンサタグ20から受信することで当該物体がいつどれくらいの加速度で移動したのかを認識することができる。
センサタグ20が設置された物体(物体obj1および物体obj2)は、追跡物体発見装置10による追跡の対象とする物体である。また、センサタグ20が設置されていない物体(物体obj3)は、測定する環境の一部であり、追跡物体発見装置10による追跡の対象とはしない物体である。
The objects (object obj1 and object obj2) on which the
センサタグ20が設置された物体(物体obj1または物体obj2)が移動した場合、センサタグ20が備える加速度センサは、当該物体の移動に伴う加速度の変化を検知し、検知した加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報を、センサタグ20が備える無線通信モジュールによって無線通信の通信ネットワークを介して追跡物体発見装置10へ送信する。
When the object (object obj1 or object obj2) on which the
追跡物体発見装置10は、センサタグ20から、加速度情報を受信すると、測距センサ101により追跡物体発見装置10から物体それぞれとの距離を再び計測して、計測された距離に基づいて空間spc1におけるそれぞれの物体の位置を再び特定し、環境地図を作成する。
When the tracking object finding
そして、追跡物体発見装置10は、物体が移動する前に作成した環境地図と物体が移動した後に作成した環境地図との差異を示す情報、および、物体の加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報を解析し、どの物体がどの位置へ移動したのかを特定する。なお、移動した物体および移動した物体の位置の特定方法の詳細については、後述する。
Then, the tracking
なお、上記においては、測距センサ101は追跡物体発見装置10のみに備えられているものとしたが、これに限られない。例えば、複数の測距センサ101を空間spc1内の異なる位置に設置して、複数の位置から物体それぞれとの距離を計測することによって、物体の位置の測定精度をより高めることができる。また、これにより、測定対象の物体が、他の物体の陰に隠れることによって距離の計測できないようなケースを削減することができる。
In the above description, it is assumed that the
(追跡物体発見システムの構成)
以下、追跡物体発見システム1の構成について、図面を参照しながら説明する。
図2は、本発明の実施形態に係る追跡物体発見システム1の機能構成を示すブロック図である。図示するように、追跡物体発見システム1は、追跡物体発見装置10と、複数のセンサタグ20(センサタグ群)と、通信ネットワーク30と、を含んで構成される。
(Configuration of tracking object discovery system)
Hereinafter, the configuration of the tracking
FIG. 2 is a block diagram showing a functional configuration of the tracking
追跡物体発見装置10は、測距センサ101と、環境地図作成部102と、記憶部103と、加速度情報取得部104と、加速度情報書込み部105と、物体追跡部106と、環境構造管理部107と、対話部108と、を含んで構成される。
The tracking
測距センサ101は、追跡物体発見装置10から環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)までのそれぞれの距離を計測する。
環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、一般的な環境地図作成手法、例えば、SLAM(Simultaneous Localization and Mapping)のような手法を用いて環境地図を作成する。
The
The environment
記憶部103は、環境地図作成部102によって作成された環境地図に基づく地図情報1031を記憶する。また、記憶部103は、後述する加速度情報書込み部105によって時系列に書込まれる加速度情報1033を記憶する。また、記憶部103は、センサタグ20(および、センサタグ20が設置された物体)を識別する識別情報、当該センサタグ20が設置された物体の名称、当該物体の位置を示す情報、および当該物体の属性情報(例えば、当該物体の特徴に関する情報など)を対応付ける物体管理情報1032を記憶する。
The storage unit 103 stores map
加速度情報取得部104(物体移動情報取得部)は、センサタグ20から送信された、物体の加速度を示す情報(物体が移動したことを示す物体移動情報)とセンサタグ20(および物体)を識別する識別情報とを対応付ける加速度情報1033を、通信ネットワーク30を介して受信する。
加速度情報書込み部105は、加速度情報取得部104が受信した加速度情報1033を、記憶部103に書込む。
The acceleration information acquisition unit 104 (object movement information acquisition unit) identifies the information indicating the acceleration of the object (object movement information indicating that the object has moved) and the sensor tag 20 (and the object) transmitted from the
The acceleration
物体追跡部106は、環境地図からセンサタグ20が設置された物体を切り出し、当該物体の位置を特定するための仕組みである。物体追跡部106は、記憶部103に記憶された加速度情報1033を監視し、当該加速度情報1033が更新されたタイミングで、物体の位置を特定するための処理を行う。物体追跡部106は、物体が移動する前に環境地図作成部102によって作成された環境地図と物体が移動した後に環境地図作成部102によって作成された環境地図との差異を示す情報と、加速度情報1033と、に基づいて、移動した物体を識別し、識別された物体の移動後の位置を特定する。
環境構造管理部107は、物体追跡部106によって特定された移動後の物体の位置を示す情報に基づいて、記憶部103に記憶された物体管理情報1032を更新する。
The
The environment
対話部108は、図2に図示するように、対話入出力部1081と対話制御部1082とを含んで構成される。
対話入出力部1081は、追跡物体発見装置10(例えば、ユーザとの対話機能を有する対話ロボット)と対話するユーザからの情報の入力を受け付けたり、当該ユーザに対して情報を出力したりするための入出力インターフェースである。対話部108は、例えば、マイクロフォン、スピーカー、またはタッチパネル式の液晶ディスプレイなどを含んで構成される。
The
The dialogue input /
対話制御部1082は、ユーザによって対話入出力部1081へ入力された情報を解析し、ユーザからの要求内容を認識する。そして、対話制御部1082は、ユーザからの要求内容を示す情報を環境構造管理部107へ出力する。
環境構造管理部107は、対話制御部1082から入力された情報に基づいて、物体管理情報1032を参照し、当該入力された情報に対する応答を生成するための情報を物体管理情報1032から取得する。環境構造管理部107は、物体管理情報1032から取得した情報を、対話制御部1082へ出力する。
対話制御部1082は、環境構造管理部107から入力された情報に基づいて、ユーザからの要求内容に対する応答を示す情報を生成し、対話入出力部1081へ出力する。
対話入出力部1081は、対話制御部1082から入力された情報を、ユーザが認識可能なデータ形式(例えば、音声データ)に変換して、(ユーザに対して)出力する。
なお、上記の、追跡物体発見装置10とユーザとの対話の詳細については、後述する。
The
The environment
The
The dialogue input /
The details of the dialogue between the tracking
(加速度情報の構成)
以下に、加速度情報1033の構成について、図面を参照しながら説明する。
図3は、本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する加速度情報1033の構成の一例を示す図である。図示するように、加速度情報1033は、「センサタグID」、「タイムスタンプ」、および「加速度値」の3つのデータ項目の列からなる2次元の表形式のデータである。
(Configuration of acceleration information)
Hereinafter, the configuration of the
FIG. 3 is a diagram illustrating an example of the configuration of the
図3に示すように、例えば、加速度情報1033の1行目のデータは、「センサタグID」の項目の値である「A001」、「タイムスタンプ」の項目の値である「1463987325」、および「加速度値」の項目の値である「5.236」からなるデータである。このデータは、「A001」というセンサタグIDが付与されたセンサタグ20(が設置された物体)が、「1463987325」というタイムスタンプに基づく時刻に、「5.236」の加速度値で移動をしていたことを表す。
As illustrated in FIG. 3, for example, the data in the first row of the
加速度情報1033は、センサタグ20が加速度を検知した時に、センサタグ20から通信ネットワーク30を介して追跡物体発見装置10の加速度情報取得部104へ送信される。そして、加速度情報取得部104が受信した加速度情報1033は、加速度情報書込み部105によって記憶部103に書込まれる。センサタグ20は、加速度を検知してから、物体が停止するまでの間、例えば、30Hzの周期で定期的に加速度情報1033を計測し、加速度情報取得部104へ送信する。
The
(物体管理情報の構成)
以下に、物体管理情報1032の構成について、図面を参照しながら説明する。
図4は、本発明の実施形態に係る追跡物体発見装置10の記憶部103が記憶する物体管理情報1032の構成の一例を示す図である。図示するように、物体管理情報1032は、「センサタグID」、「物体名」、「座標値」、および「属性値」の4つのデータ項目の列からなる2次元の表形式のデータである。
(Composition of object management information)
Hereinafter, the configuration of the
FIG. 4 is a diagram illustrating an example of the configuration of the
図4に示すように、例えば、物体管理情報1032の1行目のデータは、「センサタグID」の項目の値である「A001」、「物体名」の項目の値である「リモコン」、および「座標値」の項目の値である「(25,36)」、および「属性値」の項目の値である「ディスプレイ1用のリモコン」からなるデータである。このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が設置された物体の「物体名」が、「リモコン」であることを表す。また、このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が、「(25,36)」という座標値によって表される座標に位置していることを表す。また、このデータは、「A001」というセンサタグIDが付与されたセンサタグ20が設置された物体が、「ディスプレイ1用のリモコン」であるという「属性値」(属性情報)を持った物体であることを表す。
As shown in FIG. 4, for example, the data in the first row of the
また、図4に示すように、例えば、物体管理情報1032の4行目のデータについてはは、「センサタグID」の項目には値が格納されていない。また、「物体名」の項目の値は「テーブル1」、「座標値」の項目の値は「(25,30)」、および「属性値」の項目の値は「中央の大テーブル」である。このデータは、センサタグ20が設置されていない物体であって「物体名」が「テーブル1」である物体が、「(25,30)」という座標値によって表される座標に位置しており、「中央の大テーブル」であるという「属性値」(属性情報)を持っていることを表す。
As shown in FIG. 4, for example, for the data in the fourth row of the
図4に示す物体管理情報1032の1行目から3行目までのデータように、「センサタグID」の項目に値が格納されている場合には、当該センサタグIDが付与されたセンサタグ20が設置された物体は、追跡物体発見装置10が追跡する対象とする物体である。一方、図4に示す物体管理情報1032の4行目のデータように、「センサタグID」の項目に値が格納されていない場合には、当該データの「物体名」によって示される物体は、センサタグ20が設置されていない物体であり、追跡物体発見装置10が追跡する対象とはしていない物体である。
When a value is stored in the item “sensor tag ID” as in the data from the first line to the third line of the
追跡物体発見装置10が追跡する対象とする物体に対応するデータ(図4に示す物体管理情報1032の1行目から3行目までのデータ)については、「センサタグID」、および「物体名」、および「属性値」の3つの項目の値は、予め記憶されている。また、「座標値」の項目の値は、当該物体が移動したことが検知される度に、環境構造管理部107によって更新される。なお、「属性値」の項目に値が格納されているか否かは任意である。
For data corresponding to an object to be tracked by the tracking object discovery device 10 (data from the first line to the third line of the
また、追跡物体発見装置10が追跡する対象とはしていない物体に対応するデータ(図4に示す物体管理情報1032の4行目のデータ)については、「物体名」、「座標値」、および「属性値」の3つの項目の値は、予め記憶されている。なお、「センサタグID」の項目の値は格納されておらず、また、「属性値」の項目に値が格納されているか否かは任意である。
For data corresponding to an object that is not a target to be tracked by the tracking object discovery device 10 (data in the fourth row of the
(移動した物体および位置の特定)
以下、追跡物体発見装置10による、移動した物体の特定、および移動した物体の移動後の位置の特定について、図面を参照しながら説明する。
図5は、本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。
(Identification of moved object and position)
Hereinafter, the specification of the moved object and the position of the moved object after the movement by the tracking
FIG. 5 is a schematic diagram illustrating the identification of the moved object and the position by the tracking
図5(A)は、図1に示した空間spc1に実際に存在する物体(例えば、物体obj1、物体obj2、および物体obj3)の位置(座標)を、追跡物体発見装置10の位置を原点とした2次元の座標平面上に表したものである。なお、説明を簡略化するため、ここではx軸およびy軸からなる座標平面を例として説明するが、x軸、y軸、およびz軸からなる3次元の座標空間であってもよい。
FIG. 5A shows the positions (coordinates) of objects (for example, the object obj1, object obj2, and object obj3) that actually exist in the space spc1 shown in FIG. 1, and the position of the tracking
図5(B)は、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図5(B)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。
In FIG. 5B, the distance from the tracking
図5(C)は、物体obj2が座標crd1の位置へ移動した後に、再び追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図5(B)と同様に、図5(C)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。
FIG. 5C shows the measurement of the distance from the tracking
追跡物体発見装置10の物体追跡部106は、物体が移動する前に作成された環境地図と、物体が移動した後に作成された環境地図との差異を解析することにより、何らかの物体が移動したことを認識することができる。具体的には、物体が移動する前に作成された環境地図においては物体が存在するが、物体が移動した後に作成された環境地図においては物体が存在しない座標を、物体追跡部106は、何らかの物体の移動元の座標であると認識する。また、物体が移動する前に作成された環境地図においては物体が存在しないが、物体が移動した後に作成された環境地図においては物体が存在する座標を、物体追跡部106は、何らかの物体の移動元の座標であると認識する。
The
物体追跡部106は、物体が移動する前に作成された環境地図が作成された時間と物体が移動した後に作成された環境地図が作成された時間との間の時間帯に該当するタイムスタンプを示すデータを、記憶部103の加速度情報1033から抽出し、抽出された当該タイムスタンプに対応付けられたセンサタグIDを取得する。これにより、物体追跡部106は、取得されたセンサタグIDに基づいて、移動元の座標から移動先の座標へ移動した物体に設置されたセンサタグIDを推測することができる。
物体追跡部106は、上記において推測されたセンサタグID、および移動先の座標を示す情報を、環境構造管理部107へ出力する。
The
The
環境構造管理部107は、記憶部103に記憶された物体管理情報1032において、物体追跡部106から入力されたセンサタグIDに対応付けられている座標値を、物体追跡部106から入力された移動先の座標によって更新する。
環境構造管理部107は、記憶部103に記憶された物体管理情報1032において、物体追跡部106から入力されたセンサタグIDに対応付けられている物体名を参照することにより、移動した物体の物体名を認識することができる。
The environment
The environment
なお、上記においては、物体追跡部106は、センサタグIDを加速度情報1033から取得することによって、どの物体が移動したかを推測したが、これに限られない。例えば、物体追跡部106は、加速度情報1033に含まれるセンサタグIDごとの加速度値の推移に基づいて、当該センサタグIDに対応する物体の推定移動距離を算出し、算出された推定移動距離と、上記の環境地図における移動元の座標と移動先の座標との間の距離と、を比較することによって、移動した物体を特定するようにしてもよい。
In the above description, the
なお、センサタグ20にジャイロスコープを搭載し、物体追跡部106が、当該ジャイロスコープによって計測された物体の姿勢や角速度等を示す情報も用いて、移動した物体の特定をするようにしてもよい。複数の種類のセンサによって計測された情報を用いることによって、物体追跡部106は、より精度高く、移動した物体の特定を行うことができる。
Note that a gyroscope may be mounted on the
なお、本実施形態に係る追跡物体発見装置10は、加速度センサによって取得される加速度値を用いて物体の移動を検知するが、物体の移動を検知することが可能なその他のセンサ等によって取得される情報に基づいて物体の移動を検知するような構成であってもよい。例えば、センサタグ20が、気圧センサを備え、当該気圧センサによって取得される気圧の変化に基づいて物体の位置の高度変化を検知するような構成であってもよい。
The tracking
(追跡物体発見装置の動作)
以下、追跡物体発見装置10の動作の概略について、図面を参照しながら説明する。
図6は、本発明の実施形態に係る追跡物体発見装置10の動作を示すフローチャートである。本フローチャートの処理は、追跡物体発見装置10が、空間spc1において、物体の追跡を開始した際に開始する。
(Operation of tracking object detection device)
Hereinafter, an outline of the operation of the tracking
FIG. 6 is a flowchart showing the operation of the tracking
(ステップS001)追跡物体発見装置10の測距センサ101は、追跡物体発見装置10と、環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)とのそれぞれの距離を計測する。その後、ステップS002へ進む。
(Step S001) The
(ステップS002)追跡物体発見装置10の環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、環境地図を作成する。その後、ステップS003へ進む。
(Step S002) Based on the distance measured by the
(ステップS003)追跡物体発見装置10の環境地図作成部102は、作成した環境地図に基づく地図情報1031を記憶部103に記憶させる。その後、ステップS004へ進む。
(Step S003) The environment
(ステップS004)追跡物体発見装置10の加速度情報取得部104は、センサタグ20から送信された、(物体が移動したことを示す)物体の加速度を示す情報とセンサタグ20(および物体)を識別する識別情報とを対応付けた加速度情報1033を、通信ネットワーク30を介して受信する。加速度情報書込み部105は、加速度情報取得部104が受信した加速度情報1033を、記憶部103に書込む。その後、ステップS005へ進む。
(Step S004) The acceleration
(ステップS005)追跡物体発見装置10の測距センサ101は、追跡物体発見装置10と、環境(例えば、空間spc1)内の複数の物体(例えば、物体obj1、物体obj2、および物体obj3)とのそれぞれの距離を計測する。その後、ステップS006へ進む。
(Step S005) The
(ステップS006)追跡物体発見装置10の環境地図作成部102は、測距センサ101によって計測された距離に基づいて、複数の物体のそれぞれの位置を特定し、環境地図を作成する。その後、ステップS007へ進む。
(Step S006) The environment
(ステップS007)追跡物体発見装置10の環境地図作成部102は、作成した環境地図に基づく地図情報1031を記憶部103に記憶させる。その後、ステップS008へ進む。
(Step S007) The environment
(ステップS008)追跡物体発見装置10の物体追跡部106は、物体が移動する前に環境地図作成部102によって作成された環境地図と物体が移動した後に環境地図作成部102によって作成された環境地図との差異を抽出する。その後、ステップS009へ進む。
(Step S008) The
(ステップS009)追跡物体発見装置10の物体追跡部106は、ステップS007で抽出した環境地図の差異を示す情報と、加速度情報1033と、に基づいて、移動した物体を識別し、識別された物体の移動後の位置を特定する。その後、ステップS010へ進む。
(Step S009) The
(ステップS010)追跡物体発見装置10が、空間spc1における物体の追跡を終了した場合には、本フローチャートの処理が終了する。そうでない場合は、ステップS004へ戻る。
(Step S010) When the tracked
(複数の物体が移動した場合の物体および位置の特定)
以下、追跡物体発見装置10による、複数の物体が移動した場合における、移動した物体の特定、および移動した物体の移動後の位置の特定について、図面を参照しながら説明する。
図7は、本発明の実施形態に係る追跡物体発見装置10による移動した物体および位置の特定を示す概略図である。
(Identification of object and position when multiple objects move)
Hereinafter, the identification of the moved object and the position of the moved object after the movement when the plurality of objects move by the tracking
FIG. 7 is a schematic diagram illustrating identification of a moved object and a position by the tracking
図7(A)は、物体obj1および物体obj2が移動した後に、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図7(A)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。
In FIG. 7A, after the object obj1 and the object obj2 move, the
図7(A)に示している物体obj1および物体obj2が表示されている座標は、物体obj1および物体obj2が移動する前に作成された環境地図におけるそれぞれの物体の位置を表す。また、図7(A)に点線で示している座標crd11および座標crd12は、物体obj1および物体obj2が移動した後に作成された環境地図におけるそれぞれの物体の位置を表す。すなわち、図7(A)は、2つの物体がそれぞれ座標crd11または座標crd12へ移動したと推測される状態を表す。 The coordinates where the object obj1 and the object obj2 shown in FIG. 7A are displayed represent the positions of the respective objects in the environment map created before the object obj1 and the object obj2 move. In addition, coordinates crd11 and coordinates crd12 indicated by dotted lines in FIG. 7A represent the positions of the objects in the environment map created after the objects obj1 and obj2 move. That is, FIG. 7A shows a state in which two objects are estimated to have moved to the coordinates crd11 or the coordinates crd12, respectively.
複数の物体が移動した場合、物体追跡部106は、加速度情報1033を参照して加速度が検知された物体を特定することにより、移動した複数の物体をそれぞれ特定することはできるが、移動した複数の物体がそれぞれどの位置へ移動したのかを特定することはできない。
When a plurality of objects move, the
図7(B)は、物体obj1が再び移動した後に、追跡物体発見装置10の測距センサ101により追跡物体発見装置10から空間spc1に存在するそれぞれの物体までの距離の計測がなされ、環境地図作成部102により位置(座標)が特定された物体を、追跡物体発見装置10の位置を原点とした座標平面上に表したものである。図7(A)と同様、図7(B)において破線で示された箇所は、原点0の位置から追跡物体発見装置10の測距センサ101によって照射された光が反射する範囲を表したものである。
In FIG. 7B, after the object obj1 moves again, the
図7(B)に点線で示している座標crd11および座標crd12は、物体obj1が再び移動する前に作成された環境地図におけるそれぞれの物体の位置を表す。また、図7(B)に点線で示している座標crd13および座標crd12は、物体obj1が再び移動した後に作成された環境地図におけるそれぞれの物体の位置を表す。よって、座標crd12は、物体obj1が再び移動する前に作成された環境地図、および物体obj1が再び移動した後に作成された環境地図のいずれにおいても物体が存在すると測定された座標である。すなわち、図7(B)は、1つの物体のみが移動したと推測される状態を表す。 The coordinates crd11 and the coordinates crd12 indicated by dotted lines in FIG. 7B represent the positions of the respective objects in the environment map created before the object obj1 moves again. In addition, coordinates crd13 and coordinates crd12 indicated by dotted lines in FIG. 7B represent the positions of the respective objects in the environment map created after the object obj1 has moved again. Therefore, the coordinate crd12 is a coordinate measured when the object exists in both the environment map created before the object obj1 moves again and the environment map created after the object obj1 moves again. That is, FIG. 7B shows a state where it is estimated that only one object has moved.
図7(A)における物体の移動時においては、記憶部103に記憶されている加速度情報1033には、物体obj1および物体obj2にそれぞれ設置されたセンサタグ20に付与されているセンサタグIDを示す情報が含まれるため、物体追跡部106は、物体obj1および物体obj2が移動したことは検知することができる。しかしながら、物体obj1および物体obj2のそれぞれが座標crd11または座標crd12のどちらへそれぞれ移動したのかについては認識することができない。
At the time of the movement of the object in FIG. 7A, the
そして、図7(B)における物体の移動時においては、記憶部103に記憶されている加速度情報1033には、物体obj1に設置されたセンサタグ20に付与されているセンサタグIDを示す情報のみが含まれるため、物体obj1が移動したことを検知することができる。これにより、物体追跡部106は、物体obj1が、図7(A)における物体の移動時に、座標crd11へ移動し、次に、図7(B)における物体の移動時に、座標crd11から座標crd13へさらに移動したことを推測することができる。また、これにより、物体追跡部106は、物体obj2が、図7(A)における物体の移動時に、座標crd12へ移動したことを推測することができる。
7B, the
上記のように、加速度情報取得部104が、複数の物体についての加速度情報1033を取得した場合、物体追跡部106は、複数の物体が移動する前に作成された環境地図と複数の物体が移動した後に作成された環境地図との複数の差異を示す情報と、複数の物体の加速度情報1033を時系列に分析した情報と、に基づいて、移動した複数の物体をそれぞれ識別し、識別された複数の物体の移動後の位置をそれぞれ特定する。
As described above, when the acceleration
(類似する環境が複数存在する場合における環境の特定)
以下、追跡物体発見装置10による、類似する環境が複数存在する場合における環境の特定について、図面を参照しながら説明する。
図8は、本発明の実施形態に係る追跡物体発見装置10による環境の特定を示す概略図である。
(Identification of environment when there are multiple similar environments)
Hereinafter, identification of an environment when there are a plurality of similar environments by the tracking
FIG. 8 is a schematic diagram showing the specification of the environment by the tracking
図8(A)は環境Aにおける環境地図を表し、図8(B)は環境Aとは別の環境である環境Bにおける環境地図を表す。また、図8(C)は追跡物体発見装置10が実際に位置する環境を表したものである。なお、追跡物体発見装置10は、環境Aまたは環境Bのいずれかの環境に位置しているが、どちらの環境に位置しているかについては事前に認識はしていない。
FIG. 8A shows an environment map in environment A, and FIG. 8B shows an environment map in environment B, which is an environment different from environment A. FIG. 8C shows an environment where the tracking
追跡物体発見装置10は、環境Aの環境地図および環境Bの環境地図を、それぞれ記憶部103に記憶している。図8に図示するように、環境Aと環境Bとは、物体の配置が類似している環境である。例えば、ビル内のオフィスのような環境において、各階のフロアのレイアウトがこのように似通った環境になっている場合がある。
なお、追跡物体発見装置10は、環境Aにおける加速度情報1033と、環境Bにおける加速度情報1033とをそれぞれ記憶部103に記憶している。
The tracking
The tracking
追跡物体発見装置10は、環境Aまたは環境Bのいずれかの環境に位置しているが、どちらの環境に位置しているのかを認識していない場合、自らの追跡物体発見装置10が位置する環境に存在する任意の物体(測定対象物)を移動させる。例えば、図8(C)に示すように、追跡物体発見装置10は、obj8を座標crd21の位置へ移動させる。すると、追跡物体発見装置10が実際に位置している環境における加速度情報1033が更新される。これにより、追跡物体発見装置10の物体追跡部106は、自らの追跡物体発見装置10が位置している環境が、どの環境であるのか(環境Aであるのか、または環境Bであるのか)を特定することができる。
なお、追跡物体発見装置10が自ら任意の物体(測定対象物)を移動させるのではなく、例えば、ユーザ等の第三者が任意の物体(測定対象物)を移動させたことに基づいて、追跡物体発見装置10の物体追跡部106が、自らの追跡物体発見装置10が位置している環境がどの環境であるのかを特定してもよい。
The tracking
The tracking
上記のように、物体追跡部106は、特定の物体についての加速度情報1033を取得したことに基づいて、記憶部103に記憶された複数の環境地図が示す複数の環境のうち、自己の追跡物体発見装置10が存在する環境がどの環境であるかを特定する。
As described above, the
(対話部による対話制御)
以下、追跡物体発見装置10の対話部108による、ユーザとの対話の対話制御について説明する。
追跡物体発見装置10は、ユーザからの問い合わせ、例えば、空間spc1内における特定の物体の位置に関する問い合わせを受け付けて、それに対する回答をユーザに対して提示することができる。
(Dialogue control by dialogue part)
Hereinafter, dialogue control of dialogue with the user by the
The tracking
例えば、ユーザは、追跡物体発見装置10(例えば、ロボット)に対して、「リモコンはどこ?」という内容の問い合わせを行う。すると、追跡物体発見装置10の対話入出力部1081が備えるマイクロフォンは、当該ユーザからの問い合わせに基づく音声を取得し、音声信号に変換する。対話入出力部1081は変換した音声信号を、対話制御部1082へ出力する。
For example, the user makes an inquiry to the tracking object finding device 10 (for example, a robot) as “Where is the remote control?”. Then, the microphone included in the dialogue input /
対話制御部1082は、対話入出力部1081から入力された音声信号を解析し、ユーザからの要求内容を認識する。対話制御部1082は、ユーザからの問い合わせが、「リモコン」の位置を問い合わせる内容であることを認識すると、環境構造管理部107を介して、記憶部103に記憶された物体管理情報1032、例えば、図4に示す物体管理情報1032を参照する。図4に図示するように、「リモコン」の座標値は「(25,36)」である。また、図4に示す物体管理情報1032には、当該座標値の近傍を示す座標値として「(25,30)」が記憶されている。そして、対話制御部1082は、この座標値に対応する物体名の項目の値である「テーブル1」を取得する。
The
対話制御部1082は、上記において取得した「テーブル1」を示す情報に基づいて、「テーブル1の近くです」という応答文を生成する。そして、対話制御部1082は、当該応答文を音声信号に変換し、対話入出力部1081へ出力する。対話入出力部1081は、対話制御部1082から入力された音声信号に基づいて対話制御部1082が備えるスピーカーによって音声を出力する。
The
このように、本実施形態に係る追跡物体発見装置10は、特定の物体の位置に関する問い合わせを受けた際に、当該物体の座標値を示すデータをそのまま提示するのではなく、当該物体をユーザが発見するための「目印となるもの(例えば、当該物体の近傍にあるもの)」をユーザに提示することができる。これにより、追跡物体発見装置10は、ユーザに、特定の物体をより簡単に発見させることができる。
As described above, when the tracking
なお、上記の「目印となるもの」としては、静的なもの(移動しないもの)や、大きなもの、例えばテーブルなど、が用いられるようにしてもよい。また、上記の「目印となるもの」として、「センサタグ20が設置された物体(例えば、物体A)の中で最も移動していないもの」が用いられることにより、対話部108は、例えば、「物体Aがよく置かれている場所の近くです」といった応答文をユーザに提示することができる。
In addition, as the “marker” described above, a static object (not moving) or a large object such as a table may be used. In addition, as the “marking object” described above, the “part of the object (for example, the object A) on which the
なお、上記の「目印となるもの」は、環境地図作成部102により環境地図が作成とあわせて設定され、記憶部103が記憶する物体管理情報1032に登録されるようにしてもよい。
Note that the “marker” may be set together with the creation of the environment map by the environment
なお、上記の例においては、追跡物体発見装置10は、対話部108が備えるマイクロフォンやスピーカー等により音声によってユーザとの対話を行ったが、これに限られない。例えば、追跡物体発見装置10は、対話部108が備えるタッチパネル式の液晶ディスプレイ等による入出力によってユーザとの対話を行うような構成であってもよい。
In the above example, the tracking
なお、上記の例においては、対話部108は、ユーザに対して文章によって応答したが、これに限られない。例えば、測距センサ101に搭載されたカメラが、ユーザが探している物体、または上記の「目印となるもの」を撮影し、撮影された画像を対話部108がユーザに対して提示するようにしてもよい。
In the above example, the
以上、この発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 The embodiment of the present invention has been described in detail above, but the specific configuration is not limited to the above-described one, and various design changes and the like can be made without departing from the scope of the present invention. is there.
なお、上述した実施形態における追跡物体発見装置10の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
In addition, you may make it implement | achieve part or all of the tracking
なお、ここでいう「コンピュータシステム」とは、追跡物体発見装置10に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Here, the “computer system” is a computer system built in the tracking
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信回線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 Further, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, a volatile memory inside a computer system that serves as a server or a client may be included that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
また、上述した実施形態における追跡物体発見装置10を、LSI(Large Scale Integration)等の集積回路として実現してもよい。追跡物体発見装置10の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Further, the tracking
1・・・追跡物体発見システム、10・・・追跡物体発見装置、20・・・センサタグ、30・・・通信ネットワーク、101・・測距センサ、102・・・環境地図作成部、103・・・記憶部、104・・・加速度情報取得部、105・・・加速度情報書込み部、106・・・物体追跡部、107・・・環境構造管理部、108・・・対話部、1031・・・地図情報、1032・・・物体管理情報、1033・・・加速度情報、1081・・・対話入出力部、1082・・・対話制御部
DESCRIPTION OF
Claims (8)
前記測距センサによって計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成部と、
前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶部と、
前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得部と、
前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡部と、
を備えることを特徴とする追跡物体発見装置。 A distance measuring sensor that measures the distance to each of a plurality of objects in the environment;
An environment map creation unit that creates an environment map based on each of the distances to the plurality of objects measured by the distance sensor;
A map information storage unit for storing the environmental map created by the environmental map creation unit;
An object movement information acquisition unit that acquires object movement information indicating that the object has moved;
The moved object is identified based on the information indicating the difference between the environment map created before the object moves and the environment map created after the object moves, and the object movement information. An object tracking unit that identifies a position of the identified object after movement;
A tracking object finding device comprising:
ことを特徴とする請求項1に記載の追跡物体発見装置。 The tracking object finding apparatus according to claim 1, wherein the object movement information acquisition unit acquires the object movement information based on acceleration information measured by an acceleration sensor mounted on the object.
前記物体追跡部は、複数の前記物体が移動する前に作成された前記環境地図と複数の前記物体が移動した後に作成された前記環境地図との複数の前記差異を示す情報と、複数の前記物体の前記物体移動情報を時系列に分析した情報と、に基づいて、移動した複数の前記物体をそれぞれ識別し、識別された複数の前記物体の移動後の位置をそれぞれ特定する
ことを特徴とする請求項1または請求項2に記載の追跡物体発見装置。 When the object movement information acquisition unit acquires object movement information for a plurality of the objects,
The object tracking unit includes information indicating a plurality of differences between the environment map created before the plurality of objects move and the environment map created after the plurality of objects moved, A plurality of moved objects are identified on the basis of information obtained by analyzing the object movement information of the objects in time series, and the moved positions of the identified objects are respectively identified. The tracking object finding device according to claim 1 or 2.
ことを特徴とする請求項1から請求項3までのいずれか一項に記載の追跡物体発見装置。 Based on the fact that the object tracking unit has acquired object movement information about the specific object, the object tracking unit among the plurality of environments indicated by the plurality of environment maps stored in the map information storage unit The tracking object discovery device according to any one of claims 1 to 3, wherein the environment in which the discovery device exists is specified.
を備えることを特徴とする請求項1から請求項4までのいずれか一項に記載の追跡物体発見装置。 5. An object management information storage unit that stores object management information that associates identification information that identifies the object, attribute information that represents the position of the object, and characteristics of the object. The tracking object discovery device according to any one of the above.
を備えることを特徴とする請求項5に記載の追跡物体発見装置。 The tracking object discovery apparatus according to claim 5, further comprising: an interactive unit that receives an input of information indicating an inquiry from a user and outputs information indicating a response to the user based on the object management information.
測距センサが、環境内の複数の物体それぞれとの距離を計測する測距ステップと、
環境地図作成部が、前記測距センサによって計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、
地図情報記憶部が、前記環境地図作成部によって作成された前記環境地図を記憶する地図情報記憶ステップと、
物体移動情報取得部が、前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、
物体追跡部が、前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、
を有することを特徴とする追跡物体発見方法。 A method for finding a tracking object using a computer,
A ranging step in which the distance measuring sensor measures the distance to each of a plurality of objects in the environment;
An environment map creating step for creating an environment map based on the distances to the plurality of objects measured by the distance sensor;
A map information storage step for storing the environmental map created by the environmental map creation unit;
An object movement information acquisition unit that acquires object movement information indicating that the object has moved; and
The object tracking unit moves based on the information indicating the difference between the environment map created before the object moves and the environment map created after the object moves, and the object movement information. An object tracking step of identifying the object and identifying a position of the identified object after movement;
The tracking object discovery method characterized by having.
環境内の複数の物体それぞれとの距離を計測する測距ステップと、
前記測距ステップにおいて計測された前記複数の物体までのそれぞれの前記距離に基づいて環境地図を作成する環境地図作成ステップと、
前記環境地図作成ステップにおいて作成された前記環境地図を記憶する地図情報記憶ステップと、
前記物体が移動したことを示す物体移動情報を取得する物体移動情報取得ステップと、
前記物体が移動する前に作成された前記環境地図と前記物体が移動した後に作成された前記環境地図との差異を示す情報と、前記物体移動情報と、に基づいて、移動した前記物体を識別し、識別された前記物体の移動後の位置を特定する物体追跡ステップと、
を実行させるためのプログラム。 On the computer,
A ranging step for measuring the distance to each of a plurality of objects in the environment;
An environmental map creating step for creating an environmental map based on the distances to the plurality of objects measured in the ranging step;
A map information storing step for storing the environmental map created in the environmental map creating step;
An object movement information acquisition step of acquiring object movement information indicating that the object has moved;
The moved object is identified based on the information indicating the difference between the environment map created before the object moves and the environment map created after the object moves, and the object movement information. And an object tracking step for identifying the moved position of the identified object;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016120045A JP6738662B2 (en) | 2016-06-16 | 2016-06-16 | Tracking object finding device, tracking object finding method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016120045A JP6738662B2 (en) | 2016-06-16 | 2016-06-16 | Tracking object finding device, tracking object finding method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017223587A true JP2017223587A (en) | 2017-12-21 |
JP6738662B2 JP6738662B2 (en) | 2020-08-12 |
Family
ID=60686947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016120045A Active JP6738662B2 (en) | 2016-06-16 | 2016-06-16 | Tracking object finding device, tracking object finding method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6738662B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102400512B1 (en) * | 2020-11-17 | 2022-05-23 | 한국과학기술연구원 | Semantic mapping system and method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004096501A (en) * | 2002-08-30 | 2004-03-25 | Ntt Advanced Technology Corp | System and method for detecting position of mobile object and program |
JP2004171189A (en) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | Moving object detection device, moving object detection method and moving object detection program |
JP2008217544A (en) * | 2007-03-06 | 2008-09-18 | Yaskawa Electric Corp | Object detection method, object detector, and robot provided with the same |
JP2009174898A (en) * | 2008-01-22 | 2009-08-06 | Toyota Motor Corp | Moving body and environmental information generation method |
JP2009252162A (en) * | 2008-04-10 | 2009-10-29 | Toyota Motor Corp | Apparatus and method for generating map data |
JP2014002638A (en) * | 2012-06-20 | 2014-01-09 | Mitsuba Corp | Autonomous travel device |
-
2016
- 2016-06-16 JP JP2016120045A patent/JP6738662B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004096501A (en) * | 2002-08-30 | 2004-03-25 | Ntt Advanced Technology Corp | System and method for detecting position of mobile object and program |
JP2004171189A (en) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | Moving object detection device, moving object detection method and moving object detection program |
JP2008217544A (en) * | 2007-03-06 | 2008-09-18 | Yaskawa Electric Corp | Object detection method, object detector, and robot provided with the same |
JP2009174898A (en) * | 2008-01-22 | 2009-08-06 | Toyota Motor Corp | Moving body and environmental information generation method |
JP2009252162A (en) * | 2008-04-10 | 2009-10-29 | Toyota Motor Corp | Apparatus and method for generating map data |
JP2014002638A (en) * | 2012-06-20 | 2014-01-09 | Mitsuba Corp | Autonomous travel device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102400512B1 (en) * | 2020-11-17 | 2022-05-23 | 한국과학기술연구원 | Semantic mapping system and method |
Also Published As
Publication number | Publication date |
---|---|
JP6738662B2 (en) | 2020-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11481999B2 (en) | Maintenance work support system and maintenance work support method | |
US11127203B2 (en) | Leveraging crowdsourced data for localization and mapping within an environment | |
KR102399630B1 (en) | Method and apparatus for determining position and orientation of bucket of excavator | |
TWI574223B (en) | Navigation system using augmented reality technology | |
Scott et al. | Audio location: Accurate low-cost location sensing | |
US11365974B2 (en) | Navigation system | |
CN112189218A (en) | Site-based augmented reality method and device | |
CN103365411A (en) | Information input apparatus, information input method, and computer program | |
CN105359002B (en) | For marking the system and method for crowdsourcing data | |
JP2019067383A5 (en) | ||
US20200258515A1 (en) | Information processing device, information processing method, and program | |
Kandalan et al. | Techniques for constructing indoor navigation systems for the visually impaired: A review | |
JP6127564B2 (en) | Touch determination device, touch determination method, and touch determination program | |
US20140359437A1 (en) | Method, device, and system for providing sensory information and sense | |
US20190138117A1 (en) | Information processing device, information processing method, and program | |
JPWO2019193859A1 (en) | Camera calibration method, camera calibration device, camera calibration system and camera calibration program | |
JP6738662B2 (en) | Tracking object finding device, tracking object finding method, and program | |
US20130096869A1 (en) | Information processing apparatus, information processing method, and computer readable medium storing program | |
CN111316059A (en) | Method and apparatus for determining size of object using proximity device | |
KR101956035B1 (en) | Interactive display device and controlling method thereof | |
KR20190068006A (en) | Method for providing route through marker recognition and server using the same | |
EP3392748B1 (en) | System and method for position tracking in a virtual reality system | |
JP2019186941A (en) | Object tracking using receivers | |
US10735902B1 (en) | Method and computer program for taking action based on determined movement path of mobile devices | |
JP6260450B2 (en) | Function assignment method, function assignment program, and terminal device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6738662 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |