JP3958999B2 - MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM - Google Patents

MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Download PDF

Info

Publication number
JP3958999B2
JP3958999B2 JP2002196704A JP2002196704A JP3958999B2 JP 3958999 B2 JP3958999 B2 JP 3958999B2 JP 2002196704 A JP2002196704 A JP 2002196704A JP 2002196704 A JP2002196704 A JP 2002196704A JP 3958999 B2 JP3958999 B2 JP 3958999B2
Authority
JP
Japan
Prior art keywords
moving body
identification information
marker
infrared
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002196704A
Other languages
Japanese (ja)
Other versions
JP2004038706A (en
Inventor
豊 柳沢
良成 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002196704A priority Critical patent/JP3958999B2/en
Publication of JP2004038706A publication Critical patent/JP2004038706A/en
Application granted granted Critical
Publication of JP3958999B2 publication Critical patent/JP3958999B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自在に移動する移動体の位置を検出する移動体位置検出装置及びその方法と、その移動体位置検出方法の実現に用いられる移動体位置検出プログラム及びそのプログラムを記録した記録媒体とに関する。
【0002】
ナビゲーションシステムや、人物の位置管理を行うシステムや、地域情報を提供するシステムでは、人物などの移動体の現在位置を廉価かつ高精度に測定できるようにする技術の構築が叫ばれている。
【0003】
【従来の技術】
計測器の精度の向上とともに、計測器から得られた人物などの移動体の存在位置や、移動方向や、移動速度を計測する技術が向上している。位置測定を行う装置について、既存技術は以下に説明する4つの方式に分類できる。
【0004】
(1)GPS(Global Positioning System )を用いる方式
複数の周回衛星が発する時刻情報を地上の測定器で受信し、受信した時刻情報のずれと衛星の位置情報とから、測定器の経度、緯度、向き、高度を算出する方式である。
【0005】
この方式は数ミリ程度の誤差で位置を検出できるものの、衛星からの信号を受信できない屋内や地下では使用できないという問題がある。
【0006】
(2)RFID(Radio Frequency Identification)を用いる方式
建築物の内壁、床面、天井にアンテナを設置し、さらに、移動する物体や人間に、アンテナから放出された電磁波に応答してアンテナに対して信号を返信するICチップを貼り、アンテナでその返信波を検知することで、アンテナから一定の範囲内に物体が存在することを識別する方式である(特開2000-501515)。
【0007】
アンテナを移動物体に設置し、ICチップを建築物側に設置する方式も用いられる。
【0008】
この方式は、ICチップを物体内部に埋め込んで使用することから磨耗や汚濁による影響を受けにくいという長所があるものの、精度を高めるためにはアンテナやICチップの設置密度を高める必要があることから、広範囲に渡って高い精度で位置を検出する場合には高いコストがかかるという問題がある。
【0009】
(3)携帯電話やPHSを利用する方式
ユーザの保持する携帯電話やPHSが使用する基地局の位置から、ユーザの位置を検出する方式である(特開平10-281801)。
【0010】
この方式では、高い精度を得るためには多数の基地局を設置しなければならないという問題がある。
【0011】
(4)歩幅を測定する方式
歩行者やロボットの両足にセンサを設置して歩幅を測定することで移動距離を取得し、初期位置からの相対的な移動位置を検出する方式(特開平10-307985)や、脚の角度から歩幅を推定することで移動距離を取得し、初期位置からの相対的な移動位置を計算する方式(特開2000-249571)がある。
【0012】
これらは歩行者のみがセンサを装着すればよいという長所があるものの、初期位置から移動していくに従って誤差が累積されていくという問題がある。
【0013】
(5)その他の方式
感圧センサを床に敷き詰めておき、足が接地した位置を感知することで歩行者の位置および移動速度を検出する方式がある(特開2001-183455)。
【0014】
この方式は、RFIDを用いる方式と同様に、広範囲で用いる場合にはセンサを大量に敷き詰める必要があり、コストが上昇するという問題がある。
【0015】
【発明が解決しようとする課題】
このように、GPS以外の従来技術では、広範囲にわたって1cm程度の高い精度で移動物体の位置を検出するシステムを作るには、センサを広範囲に設置する必要があるという問題がある。
【0016】
そして、GPSを用いる従来技術では、屋内で使用できないという問題がある。
【0017】
本発明はかかる事情に鑑みてなされたものであって、移動体の現在位置を廉価かつ高精度に検出できるようにする新たな移動体位置検出技術の提供を目的とする。
【0018】
【課題を解決するための手段】
この目的を達成するために、本発明の移動体位置検出装置は、自在に移動する移動体の位置を検出することを実現するために、(1)赤外線投射機と赤外線撮影カメラとで構成され、その両者は移動体の接地部に装着されて、移動体の移動箇所の接地面に設けられる赤外線吸収材料で形成された識別用のマーカを撮影対象として、赤外線を使ってそのマーカを撮影する撮影手段と、(2)移動体に装着されて、接地部が接地面に接地したときに撮影手段による撮影が行われるように制御するスイッチ手段と、(3)撮影手段により撮影された画像情報に認識処理を施すことで、撮影手段により撮影されたマーカの持つ識別情報を認識する認識手段と、(4)認識手段の認識した識別情報に従って、移動体の位置を決定する決定手段とを備える構成を採る。
【0019】
そして、この構成を具体化するために、本発明の移動体位置検出装置は、自在に移動する移動体の位置を検出することを実現するために、(1)赤外線投射機と赤外線撮影カメラとで構成され、その両者は移動体の接地部に装着されて、移動体の移動箇所の接地面に設けられる赤外線吸収材料で形成された識別用のマーカを撮影対象として、赤外線を使ってそのマーカを撮影する撮影手段と、(2)移動体に装着されて、接地部が接地面に接地したときに撮影手段による撮影が行われるように制御するスイッチ手段と、(3)撮影手段により撮影された画像情報に認識処理を施すことで、撮影手段により撮影されたマーカの持つ識別情報を認識する認識手段と、(4)認識手段の認識対象となる識別情報とそれに対応付けられる移動体の位置情報との対応関係を記憶する記憶手段と、(5)認識手段の認識した識別情報をキーにして記憶手段にアクセスすることで、移動体の位置を決定する決定手段とを備える構成を採る。
【0022】
このように構成される本発明の移動体位置検出装置が動作することで実現される本発明の移動体位置検出方法はコンピュータプログラムで実現できるものであり、このコンピュータプログラムは、半導体メモリなどのような適当な記録媒体に記録して提供することができる。
【0023】
本発明の移動体位置検出装置が備える撮影手段は、移動体の移動箇所の接地面に設けられる赤外線吸収材料で形成された識別用のマーカを撮影対象とするものであり、例えば、識別情報の記録位置の特定に用いられる記録位置検出用2値化パターンと、その記録位置検出用2値化パターンから特定される記録位置に記録されている識別情報に対応付けられる2値化パターンとを持つマーカを撮影対象とする。
【0024】
本発明の移動体位置検出装置は、撮影手段の撮影する画像情報を受けて、その画像情報に認識処理を施すことで、撮影手段により撮影されたマーカの持つ識別情報を認識する。
【0025】
例えば、マーカが上述したような構造を持つ場合には、撮影手段により撮影された画像情報を2値化して、その2値化画像から2値化パターンの記録位置を特定し、その記録位置を示す画像を様々に回転させて、それらの回転させた画像(0度の回転となる回転させない画像も含む)が上述した位置検出用2値化パターンを持つのか否かを判断し、その保有を判断する場合に、その位置検出用2値化パターンから特定される記録位置に記録されている2値化パターンに従ってマーカの持つ識別情報を認識するように処理する。
【0026】
このようにして、撮影手段により撮影されたマーカの持つ識別情報を認識すると、本発明の移動体位置検出装置は、識別情報の規約に従って、その認識した識別情報に規定の変換を施すことなどにより移動体の位置を検出できるというような構成になっている場合には、その認識した識別情報に規定の変換を施すことなどにより、移動体の位置を決定する。
【0027】
一方、そのような規約が用意されていない場合には、その認識した識別情報をキーにして、認識の対象となる識別情報とそれに対応付けられる移動体の位置情報との対応関係を記憶する記憶手段にアクセスすることで、移動体の位置を決定する。
【0028】
次に、本発明を歩行者の位置検出に適用する場合の構成例について具体的に説明する。
【0029】
本発明を歩行者の位置検出に適用する場合には、路面や建築物の床面に固定した廉価な紙面やプラスチック面やガラス面や絨毯などに、例えば赤外線を吸収する塗料で印刷された識別情報を持つマーカを設置する。
【0030】
そして、例えば、歩行者の靴底に、赤外線を撮影できるカメラ及び赤外線投射装置を装着することで、路面や建築物の床面に設けられるマーカを撮影できるようにする。
【0031】
このとき、乾電池による電源供給を可能にするために、歩行者の靴が接地した瞬間のみ赤外線投射装置から赤外線が投射されるようにするとともに、その瞬間のみカメラにより撮影が行われるようにすることで、歩行者の靴が接地した瞬間のみマーカが撮影されることになるように構成する。
【0032】
このような構成に従って、本発明では、廉価な素材に印刷したマーカを床面に設置し、歩行者の靴底に装着されたカメラを使って外光を遮断した状態でマーカを撮影して、そのマーカに記録された識別情報を解読し、例えば、識別情報と位置情報との対応関係が登録されたデータベースを参照して、その識別情報から位置情報を取得することで、歩行者の現在位置を正確に測定できるようにすることを実現する。
【0033】
本発明によれば、歩行者の位置検出のために床面に敷設する必要がある器材は、建材の表面に赤外線を吸収する塗料などで模様を印刷したマーカである。このマーカは廉価に生産し、また、大量に生産することが容易である。また、歩行者に装着する必要がある器材は、赤外線を投射するLEDなどの赤外線投射装置と、赤外線撮影が可能なカメラと、画像を処理する小型計算機とである。これらのことから、本発明は廉価に構築することが可能である。
【0034】
そして、本発明によれば、靴底が接地したときにのみ動作するスイッチにより装置が起動して歩行者の位置の検出を行うことから、起動時間が瞬間的であることで長時間の連続使用が可能となる。
【0035】
このようにして、本発明によれば、廉価で製造が容易なマーカと、長時間使用可能な検出装置とを使用して移動体の位置検出を行うことから、移動体の位置を廉価かつ高精度に、しかも、長時間かつ広範囲に検出できるようになる。
【0036】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
【0037】
〔1〕第1の実施形態例
図1に、本発明により構成される歩行者の位置を検出するためのシステム構成の一例を図示する。
【0038】
この図に示すように、本発明は、非可視位置情報マーカ1と、歩行者位置検出システム2とで構成される。
【0039】
(イ)非可視位置情報マーカ1について
非可視位置情報マーカ1は、歩行者の歩く床面に印刷された単位マーカの集合体である。この単位マーカは正方形の集合体であって、図2に示すように、一辺がa(cm)の、“1”を表す塗りつぶされた正方形と、“0”を表す実際には印刷されてない空白の正方形とで構成される。
【0040】
単位マーカの識別情報は、単位マーカを構成する正方形の並びによって示される。各正方形は、縦横それぞれa/2(cm)の間隔を置いて、横(x方向)にn個、縦(y方向)にm個に配置される。
【0041】
ここで、a,n,mは任意の値を用いることができるが、システム管理者が決めた固定の値を使う。以後、左上の正方形の位置を(0,0)で表し、右下の正方形の位置を(n−1,m−1)で表すものとする。
【0042】
各単位マーカは、図2に示すように、マーカの向きを判別するために、左辺の列と上辺の行にあたる部分にはすべて塗りつぶされた正方形を配置する。識別情報は、図中の(1,1)にあたる位置から各正方形を使って右向きに配置する。(n−1,j)の次の情報は(1,j+1)に記述するものとし、以下同様にして(n−1,m−1)の位置まで情報を順番に記述する。
【0043】
図3(a)に、識別情報“010110”を持つ単位マーカを示し、図3(b)に、識別情報“000001”を持つ単位マーカを示す。ここで、この図に示す単位マーカでは「n=4,m=3」を想定している。
【0044】
各単位マーカは、少なくとも2×a(cm)以上の間隔を置いて、赤外線の吸収が少ない白色の紙面、ガラス面、プラスチック面、もしくは赤外線を吸収しにくい素材で作られた絨毯などの表面に印刷し、床面に配置する。各単位マーカを構成する正方形は赤外線を吸収する塗料で印刷する。
【0045】
非可視位置情報マーカ1は、床面に設置したのちに、印刷面の磨耗や汚濁を防ぐために赤外線を透過するプラスチック、ガラスに類する保護材を載せて固定する。印刷面が絨毯である場合には保護材を用いない。透過性の保護材を使用する場合は、保護材自体の裏面に直接マーカを印刷する方法を用いることも可能である。
【0046】
(ロ)歩行者位置検出システム2について
歩行者位置検出システム2は、図1に示すように、マーカを撮影するマーカ撮影装置20と、マーカの模様を分析してマーカの識別情報を読み取る識別情報認識装置21と、識別情報と位置情報との対応表を持つデータベース22と、データベース22を参照して識別情報から位置情報を決定する位置情報決定装置23とで構成される。
【0047】
マーカ撮影装置20は、図4に示すように、歩行者の靴の底部に埋め込む形態で設けられたり、図5に示すように、歩行者の靴に固定する形態で設けられることになる。
【0048】
歩行者の靴の底部に埋め込む形態で設けられる場合には、図4に示すように、靴の踵部分を円筒形に切り抜き、円筒の上面部に、赤外線投射装置200と赤外線撮影カメラ201とが設置される。
【0049】
この場合、円筒は、歩行者の荷重による変形を防ぐために、十分な強度をもつ例えば金属製の物質を用いて作成する。円筒の内面は、赤外線を吸収する塗料で塗装し、赤外線投射装置200からの投影光が反射することを防ぐ。また、円筒の下面部分は、蓋をせずに開放された状態で使用する方法と、接地部分を赤外線を透過するガラスあるいはプラスチックに類する素材で覆うことで、塵芥が底面から円筒内部に入ることを防いで使用する方法のいずれかを用いる。
【0050】
歩行者の靴に固定する形態で設けられる場合には、図5に示すように、靴の側面あるいは踵の後部に固定できる円筒形もしくは箱型の形状のケースの内部に、赤外線投射装置200と赤外線撮影カメラ201とを設置する。円筒内部の構造については、靴の底部に埋め込む形状のものと同じである。
【0051】
図4及び図5のいずれの形態でマーカ撮影装置20を実現する場合にも、靴の底面には接地を感知するスイッチ202が設けられており、このスイッチ202が接地を感知すると、その瞬間だけ、赤外線投射装置200が赤外線を投射し、それと同時に、赤外線撮影カメラ201が画像を撮影する。このようにして撮影された画像信号は、無線や有線を使って識別情報認識装置21へ送られる。
【0052】
赤外線投射装置200としては、赤外線を発するLED、もしくは赤外線のみ透過するフィルタを装着したLEDを用いる。赤外線撮影カメラ201には、CCDカメラを用いる。これらを駆動するために必要となる電源については、靴の内部に埋め込まれた着脱可能な電池、もしくは靴の側面に設置された着脱可能な電池から供給されるか、あるいは識別情報認識装置21から供給される。
【0053】
識別情報認識装置21は、マーカの持つ識別情報を読み取るために用意されるものであり、図6に示すように、赤外線撮影カメラ201により撮影された画像情報を受信する画像受信部210と、受信した画像情報から識別情報を読み取る識別情報読取部211と、読み取った識別情報を位置情報決定装置23へ送信する識別情報送信部212とで構成される。
【0054】
この識別情報認識装置21の設置形態としては、歩行者に装着して設置する方式と、歩行者から切り離して別の場所に設置する方式という2つの設置形態がある。
【0055】
識別情報認識装置21を構成する画像受信部210は、識別情報認識装置21が歩行者に装着されて設置される場合には、マーカ撮影装置20からUSBケーブル、IEEE1943ケーブル、あるいはこれに類する画像信号を送信できるケーブルを介して画像情報を受け取る。一方、識別情報認識装置21が歩行者から切り離されて固定の場所に設置される場合には、マーカ撮影装置20から無線通信にて画像情報を受け取る。画像受信部210は、その受け取った画像情報を識別情報読取部211へ送る。
【0056】
識別情報認識装置21を構成する識別情報読取部211は、画像受信部210から受け取った画像情報を次に示す手順に従って識別情報に変換して、識別情報送信部212へ送る。
【0057】
識別情報認識装置21を構成する識別情報送信部212は、識別情報読取部211から受け取った識別情報を位置情報決定装置23へ送信する。
【0058】
データベース22は、識別情報と位置情報との対応表を管理するものであり、識別情報が与えられると、それに対応付けられる位置情報を出力する。
【0059】
さらに、このデータベース22は、識別情報と位置情報との対データを追加し、削除し、一覧を出力し、一覧を記憶媒体に保存し、一覧を記憶媒体から読み取る機能を持つ。
【0060】
位置情報決定装置23は、識別情報認識装置21の読み取った識別情報を受け取り、それをデータベース22に入力することで、データベース22から位置情報を受け取る。ただし、識別情報として検出失敗を示す“0”を受け取る場合には、位置情報としてNULLを出力する。
【0061】
なお、識別情報認識装置21、データベース22及び位置情報決定装置23は、単体の計算機内に組み込まれて実装される形態と、それぞれ別々の計算機内に組み込まれて実装される形態とがある。後者の実装形態を用いる場合には、各装置を有線もしくは無線でデータを送信することになる。
【0062】
次に、図7ないし図10に示す処理フローに従って、識別情報読取部211の実行する識別情報の読取処理について詳細に説明する。
【0063】
ここで、識別情報読取部211に入力されるものはビットマップ画像であり、識別情報読取部211から出力されるものは数字で表される識別情報である。
【0064】
識別情報読取部211は、図7ないし図10に示す処理フローを実行する場合には、先ず最初に、赤外線撮影カメラ201により撮影された画像情報を2値化して、その2値化画像から輝度“1”を示す正方形の代表ピクセル位置(ある範囲にあるピクセルの中で最も高い輝度を示すピクセルの位置)を特定し、その代表ピクセル位置で構成される画像を規定角度ずつ回転させることで処理対象画像(回転させないものを含む)を生成する。
【0065】
続いて、その処理対象画像が図11に示すような輝度“1”の並びを持つのか否かを判断して、図11に示すような輝度“1”の並びを持つことを判断するときには、さらに、その処理対象画像が図12に示すような輝度“1”の並びを持つのか否かを判断する。
【0066】
続いて、図11及び図12に示すような輝度“1”の並びを持つことを判断するときには、赤外線撮影カメラ201により撮影された画像情報がマーカの画像情報であることを判断して、図13に示すように、それらの縦横の並びにより特定されることになる代表ピクセル位置の輝度パターンに従って、マーカの持つ識別情報を読み取るように処理することになる。
【0067】
すなわち、識別情報読取部211は、図7ないし図10に示す処理フローを実行する場合には、先ず最初に、ステップ10で、画像受信部210からマーカ撮影装置20の撮影した画像(画像1)を受け取ると、続くステップ11で、その受け取った画像を2値化することでモノクロ画像(画像2)に変換する。
【0068】
このとき、例えば、赤外線が反射されて白く写っている部分にあたるピクセルの2値化値(輝度)を“0”、赤外線を吸収して黒く写る部分にあたるピクセルの2値化値(輝度)を“1”としてモノクロ画像に変換する。この2値化により、図2に示す単位マーカで、塗りつぶされた正方形が配置されている部分のみが“1”となるような画像が作成されることになる。
【0069】
続いて、ステップ12で、2値化した画像の各ピクセル(x,y)について、上下左右αピクセルの正方形の範囲内にあるピクセルの輝度の合計値を求めて、その合計値を輝度とする新たな画像(画像3)を生成する。
【0070】
すなわち、近傍のピクセルの輝度を使って、各ピクセルの輝度に対して平均化処理を施すのである。ここで、αの値については装置の管理者が任意に選定することになる。ただし、画像2の上下左右からαピクセル未満の位置にある画像3の該当するピクセルの輝度については“0”とする。
【0071】
続いて、ステップ13で、ステップ12で生成した画像(画像3)の各ピクセルをラスタスキャン形式で1ピクセルずつずらしながら選択して、その選択した各ピクセル(x,y)について、上下左右βピクセルの正方形の範囲内にある全てのピクセルの輝度(以下の処理が既に行われている場合にはその処理された輝度を使う)よりも大きい輝度を持つのか否かを判断して、大きい輝度を持つことを判断するとき、すなわち、近傍のピクセルの中で最大の輝度を持つ場合には、その選択したピクセルの輝度を“1”とし、それ以外のピクセルの輝度を“0”ですることで、新たな画像(画像4)を生成する。
【0072】
このようにして生成される画像(画像4)は、“1”を示す正方形の代表ピクセル位置に輝度“1”を持つ画像となる。ここで、βの値については装置の管理者が任意に選定することになる。ただし、画像3の上下左右からβピクセル未満の位置にある画像4の該当するピクセルの輝度については“0”とする。
【0073】
続いて、ステップ14で、ステップ13で生成した画像(画像4)を、画像の中央を中心として左周りに(360/r)度ずつ回転させた画像をr枚作成する。そして、この作成したr枚の画像と、ステップ13で生成した画像(画像4)をそのままコピーした画像とを処理対象画像とする。
【0074】
続いて、ステップ15で、全ての処理対象画像について処理を行ったのか否かを判断して、未処理の処理対象画像が残されていることを判断するときには、ステップ17に進んで、その中から処理対象画像を1つ選択する。
【0075】
続いて、ステップ18で、その選択した処理対象画像のピクセルに含まれる輝度“1”を持つ全てのピクセルについて処理を行ったのか否かを判断して、処理を行っていない輝度“1”を持つピクセルが残されていることを判断するときには、ステップ19に進んで、その中からピクセルを1つ選択する。この選択したピクセルの座標を(x,y)とする。
【0076】
一方、ステップ18で、選択した処理対象画像のピクセルに含まれる輝度“1”を持つ全てのピクセルについて処理を行ったことを判断するときには、未処理の処理対象画像を選択すべくステップ15に戻る。そして、このステップ15で、全ての処理対象画像について処理を行ったことを判断するときには、ステップ16に進んで、歩行者の検出に失敗したことを判断して、検出失敗を示す“0”を出力して処理を終了する。
【0077】
一方、ステップ19で、選択した処理対象画像のピクセルに含まれる輝度“1”を持つピクセル(座標(x,y))を1つ選択すると、続いて、ステップ20で、カウンタkの値に“0”をセットする。
【0078】
続いて、ステップ21で、装置の管理者が任意に選定する定数dを使って、
x''=x+d*k k:カウンタkの値
を計算し、続くステップ22で、その計算した(x'',y)について、上下左右γピクセルの正方形の範囲内にあるピクセルの中に輝度“1”を持つピクセルがあるのか否かを判断する。
【0079】
この判断処理により、(x'',y)を中心とする上下左右γピクセルの正方形の範囲内に輝度“1”を持つピクセルがないことを判断するときには、未処理の輝度“1”を持つピクセルを選択すべくステップ18に戻り、一方、輝度“1”を持つピクセルがあることを判断するときには、ステップ23に進んで、カウンタkの値を1つインクリメントする。
【0080】
続いて、ステップ24で、カウンタkの値が最大値である“n−1”(図2中に示す“n−1”)を超えたのか否かを判断して、カウンタkの値が最大値である“n−1”を超えていないことを判断するときには、ステップ21に戻る。
【0081】
一方、ステップ24で、カウンタkの値が最大値である“n−1”を超えたことを判断するとき、すなわち、図11に示すような輝度“1”の並びを検出したことを判断するときには、ステップ25に進んで、カウンタkの値に1をセットする。
【0082】
続いて、ステップ26で、上述した定数dを使って、
y''=y+d*k k:カウンタkの値
を計算し、続くステップ27で、その計算した(x,y'')について、上下左右γピクセルの正方形の範囲内にあるピクセルの中に輝度“1”を持つピクセルがあるのか否かを判断する。
【0083】
この判断処理により、(x,y'')を中心とする上下左右γピクセルの正方形の範囲内に輝度“1”を持つピクセルがないことを判断するときには、未処理の輝度“1”を持つピクセルを選択すべくステップ18に戻り、一方、輝度“1”を持つピクセルがあることを判断するときには、ステップ28に進んで、カウンタkの値を1つインクリメントする。
【0084】
続いて、ステップ29で、カウンタkの値が最大値である“m−1”(図2中に示す“m−1”)を超えたのか否かを判断して、カウンタkの値が最大値である“m−1”を超えていないことを判断するときには、ステップ26に戻る。
【0085】
一方、ステップ29で、カウンタkの値が最大値である“m−1”を超えたことを判断するとき、すなわち、図12に示すような輝度“1”の並びを検出したことを判断するときには、ステップ30に進んで、「xL =x'',yL =y''」を設定する。
【0086】
すなわち、ステップ21の処理に従って増大させていくことで確定したx''と、ステップ26の処理に従って増大させていくことで確定したy''とに従って、「xL =x'',yL =y''」を設定するのである。
【0087】
続いて、ステップ31で、以上に説明した処理を行った処理対象画像(ステップ17で選択した処理対象画像)から、「(x,y)−(xL ,yL )」を対角線とする矩形よりもδピクセルだけ上下左右に大きな矩形を切り出すことで、新たな画像(画像5)を生成する。
【0088】
続いて、ステップ32で、バッファBをクリアする。なお、バッファBのp番目の格納番地をB[p]で表すものとする。
【0089】
続いて、ステップ33で、ステップ31で生成した画像(画像5)のピクセルに含まれる輝度“1”を持つものの中で最も左上にあるピクセルの座標を(x,y)とし、続くステップ34で、その座標(x,y)を基準にして、上述した定数dを使って、
xi=x+d*i i=0〜(n−1)
yj=y+d*j j=0〜(m−1)
という式に従って、x0〜x(n-1),y0〜y(m-1) を作成する。
【0090】
続いて、ステップ35で、「i=1,j=1」を設定する。続いて、ステップ36で、(xi,yj)について、上下左右γピクセルの正方形の範囲内にあるピクセルの中に輝度“1”を持つピクセルがあるのか否かを判断する。
【0091】
この判断処理により、(xi,yj)を中心とする上下左右γピクセルの正方形の範囲内に輝度“1”を持つピクセルがあることを判断するときには、ステップ37に進んで、バッファBの格納位置B[(i-1)+(n-1)(j-1)]に“1”を格納し、一方、そのようなピクセルがないことを判断するときには、ステップ38に進んで、バッファBの格納位置B[(i-1)+(n-1)(j-1)]に“0”を格納する。
【0092】
続いて、ステップ39で、変数iの値を1つインクリメントし、続くステップ40で、変数iの値が最大値である“n−1”(図2中に示す“n−1”)を超えたのか否かを判断して、変数iの値が最大値である“n−1”を超えていないことを判断するときには、ステップ36に戻る。
【0093】
一方、ステップ40で、変数iの値が最大値である“n−1”を超えたことを判断するときには、ステップ41に進んで、変数jの値を1つインクリメントし、続くステップ42で、変数jの値が最大値である“m−1”(図2中に示す“m−1”)を超えたのか否かを判断する。
【0094】
この判断処理により、変数jの値が最大値である“m−1”を超えていないことを判断するときには、ステップ43に進んで、変数iに“1”をセットしてから、ステップ36に戻る。
【0095】
そして、ステップ42で、変数jの値が最大値である“m−1”を超えたことを判断するときには、ステップ44に進んで、バッファBの内容を二進数として読み出し、識別情報として出力して処理を終了する。
【0096】
すなわち、ステップ36〜ステップ43の処理を繰り返していくことで、図13に示す具体例で説明するならば、
B[0] =1,B[1] =0,B[2] =1,B[3] =0,
B[4] =1,B[5] =0,B[6] =1,B[7] =1,
B[8] =0,B[9] =0,B[10]=0,B[11]=1,
というようにバッファBに格納して、その格納を終了すると、ステップ44で、バッファBの内容を二進数として読み出して“2737”というように出力するのである。
【0097】
このようにして、識別情報読取部211は、マーカ撮影装置20により撮影されたマーカの模様を分析してマーカの識別情報を読み取るように処理するのである。
【0098】
この識別情報読取部211の読み取った識別情報を受けて、上述したように、位置情報決定装置23は、その識別情報を検索キーにしてデータベース22を検索することで、歩行者の位置情報を決定するように処理することになる。
【0099】
〔2〕第2の実施形態例
上述した第1の実施形態例では、非可視位置情報マーカ1として、赤外線吸収塗料で模様を印刷したものを開示するとともに、マーカ撮影装置20として、赤外線を投射するLEDで構成される赤外線投射装置200と赤外線撮影が可能な赤外線撮影カメラ201とで構成されるものを開示したが、その他にも、いくつかの組合わせが考えられる。
【0100】
例えば、マーカ撮影装置20の光源として、赤外線を投射するLEDを用いる場合には、非可視位置情報マーカ1として、赤外線反射塗料を用いることも考えられる。
【0101】
また、マーカ撮影装置20の光源として、ブラックライトを用いる場合には、非可視位置情報マーカ1として、近紫外線反射/吸収塗料を用いることも考えられる。
【0102】
また、マーカ撮影装置20の光源として、可視光線を用いることも可能である。この場合、非可視位置情報マーカ1として、可視光が透過されると赤外線を反射する種類の塗料を用いることが考えられる。
【0103】
また、非可視位置情報マーカ1として、可視領域の塗料を用いることも考えられる。
【0104】
〔3〕第3の実施形態例
上述した第1の実施形態例では、非可視位置情報マーカ1として、既存のものを用いない構成を開示したが、既存の2次元バーコードを用いる方式も考えられる。この場合、コードの読み取りに、既存の2次元バーコードの解読のアルゴリズムを適用することが可能である。
【0105】
ただし、既存の2次元バーコードの規格の多くはバーコードの方向の取得が考慮されていないため、方位情報の取得に際しては、2次元バーコードの拡張が必要となる。例えば、2次元バーコードの外周に方向情報を識別するパターンを埋め込むことで、方向情報を取得することができる。
【0106】
また、既存の2次元バーコードを用いる場合には、識別情報認識装置21として、既存の2次元バーコードリーダを用いる方式も考えられる。しかし、多くの2次元バーコードリーダはバーコード位置の取得に時間がかかるため、高速で読み取ることを考慮されたマキシコードやQRコードなどが利用に適していると考えられる。
【0107】
〔4〕第4の実施形態例
上述した第1の実施形態例では、非可視位置情報マーカ1から読み取られた識別情報に対応する位置情報をデータベース22から取得することで位置を取得するという構成を用いているが、非可視位置情報マーカ1を決まったパターンに従って床面に敷き詰めることで、データベース22を用いずに歩行者の位置情報を取得することも可能である。
【0108】
例えば、実際の位置情報から非可視位置情報マーカ1の識別情報に変換する式を作成し、作成された変換式によって得られた識別情報に対応する非可視位置情報マーカ1を指定された位置情報の場所に敷き詰めることにより、読み取った識別情報に一定の変換式を適用することで、データベース22を用いずに歩行者の位置情報を取得することが可能となる。
【0109】
〔5〕第5の実施形態例
マーカ撮影装置20と非可視位置情報マーカ1との間にゴミなどの粉塵が挟まると、マーカの読取精度が低下する。
【0110】
そこで、マーカ撮影装置20の接地部をスプリング状にし、側面に排気抗を開ける。これにより床を踏む際にマーカ撮影装置20内の空気が圧縮され、側面から排出される。この際細かい粉塵も一緒に外に排出されるため、粉塵の影響を低減することが可能となる。
【0111】
【発明の効果】
以上説明したように、本発明によれば、廉価で製造が容易なマーカと、長時間使用可能な検出装置とを使用して移動体の位置検出を行うことから、移動体の位置を廉価かつ高精度に、しかも、長時間かつ広範囲に検出できるようになる。
【0112】
例えば、歩行者の位置検出に適用する場合には、廉価な素材に印刷したマーカを床面に設置し、歩行者の靴底などに装着されたカメラを使って外光を遮断した状態でマーカを撮影して、そのマーカに記録された識別情報を解読し、識別情報と位置情報との対応関係が登録されたデータベースを参照して、その識別情報から位置情報を取得することで、歩行者の現在位置を測定できるようになることから、歩行者の位置を廉価かつ高精度に検出できるようになる。
【0113】
このとき、歩行者の靴が接地した瞬間のみマーカが撮影されるという構成を用いることで、歩行者の位置を長時間かつ広範囲に検出できるようになる。
【図面の簡単な説明】
【図1】本発明により構成される歩行者位置検出システムのシステム構成例である。
【図2】単位マーカの一実施形態例である。
【図3】単位マーカの持つ識別情報の説明図である。
【図4】マーカ撮影装置の一実施形態例である。
【図5】マーカ撮影装置の一実施形態例である。
【図6】識別情報認識装置の装置構成の説明図である。
【図7】識別情報読取部の実行する処理フローの一実施形態例である。
【図8】識別情報読取部の実行する処理フローの一実施形態例である。
【図9】識別情報読取部の実行する処理フローの一実施形態例である。
【図10】識別情報読取部の実行する処理フローの一実施形態例である。
【図11】識別情報読取部の実行する処理の説明図である。
【図12】識別情報読取部の実行する処理の説明図である。
【図13】識別情報読取部の実行する処理の説明図である。
【符号の説明】
1 非可視位置情報マーカ
2 歩行者位置検出システム
20 マーカ撮影装置
21 識別情報認識装置
22 データベース
23 位置情報決定装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a moving body position detection apparatus and method for detecting the position of a moving body that moves freely, a moving body position detection program used for realizing the moving body position detection method, and a recording medium on which the program is recorded. About.
[0002]
In a navigation system, a system for managing the position of a person, and a system for providing regional information, the construction of a technology that enables the current position of a moving body such as a person to be measured inexpensively and with high accuracy has been called out.
[0003]
[Prior art]
Along with the improvement in accuracy of measuring instruments, techniques for measuring the position, moving direction, and moving speed of a moving object such as a person obtained from the measuring instrument have been improved. Regarding the apparatus for performing position measurement, the existing technology can be classified into the following four methods.
[0004]
(1) Method using GPS (Global Positioning System)
This is a method in which time information generated by a plurality of orbiting satellites is received by a ground measuring device, and the longitude, latitude, orientation, and altitude of the measuring device are calculated from the received time information shift and satellite position information.
[0005]
Although this method can detect the position with an error of several millimeters, there is a problem that it cannot be used indoors or underground where signals from satellites cannot be received.
[0006]
(2) Method using RFID (Radio Frequency Identification)
An antenna is installed on the inner wall, floor, or ceiling of the building, and an IC chip that returns a signal to the antenna in response to electromagnetic waves emitted from the antenna is attached to a moving object or person. This is a method for identifying the presence of an object within a certain range from an antenna by detecting a return wave (Japanese Patent Laid-Open No. 2000-501515).
[0007]
A system in which an antenna is installed on a moving object and an IC chip is installed on the building side is also used.
[0008]
Although this method has the advantage that it is less susceptible to wear and contamination because the IC chip is embedded inside the object, it is necessary to increase the installation density of the antenna and IC chip in order to increase accuracy. However, there is a problem that a high cost is required when the position is detected with high accuracy over a wide range.
[0009]
(3) Mobile phone and PHS methods
This is a method for detecting the position of a user from the position of a base station used by a mobile phone or PHS held by the user (Japanese Patent Laid-Open No. 10-281801).
[0010]
This method has a problem that a large number of base stations must be installed in order to obtain high accuracy.
[0011]
(4) Method to measure stride
Sensors are installed on both feet of pedestrians and robots to measure the stride length to obtain the movement distance and detect the relative movement position from the initial position (Japanese Patent Laid-Open No. 10-307985) or from the angle of the legs There is a method (Japanese Patent Laid-Open No. 2000-249571) that acquires a moving distance by estimating a stride and calculates a relative moving position from an initial position.
[0012]
Although these have the advantage that only pedestrians need to wear the sensors, there is a problem that errors are accumulated as they move from the initial position.
[0013]
(5) Other methods
There is a method of detecting the position and moving speed of a pedestrian by sensing a position where a foot is grounded by placing pressure-sensitive sensors on the floor (Japanese Patent Laid-Open No. 2001-183455).
[0014]
Similar to the method using RFID, this method has a problem that it is necessary to spread a large number of sensors when used in a wide range, resulting in an increase in cost.
[0015]
[Problems to be solved by the invention]
As described above, in the prior art other than GPS, there is a problem that it is necessary to install a sensor in a wide range in order to make a system that detects the position of a moving object with a high accuracy of about 1 cm over a wide range.
[0016]
The conventional technology using GPS has a problem that it cannot be used indoors.
[0017]
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a new moving body position detection technique that can detect the current position of the moving body at low cost and with high accuracy.
[0018]
[Means for Solving the Problems]
  In order to achieve this object, the moving body position detecting device of the present invention is composed of (1) an infrared projector and an infrared photographing camera in order to detect the position of a moving body that moves freely. Both of them are attached to the grounding part of the moving body, and the identification marker formed of the infrared absorbing material provided on the grounding surface of the moving part of the moving body is an object to be photographed.RedAn imaging means for imaging the marker using an external line; and (2) mounted on a moving body.When the grounding part touches the grounding surface,Switch means for controlling the photographing by the shadow means, and (3) a recognition means for recognizing identification information of the marker photographed by the photographing means by performing recognition processing on the image information photographed by the photographing means. And (4) a determination unit that determines the position of the moving body according to the identification information recognized by the recognition unit.
[0019]
  And in order to materialize this configuration, the moving body position detecting device of the present invention provides (1) an infrared projector and an infrared photographing camera in order to detect the position of the moving body that moves freely. Both of them are attached to the grounding part of the moving body, and an identification marker formed of an infrared absorbing material provided on the grounding surface of the moving part of the moving body is an object to be photographed.RedAn imaging means for imaging the marker using an external line; and (2) mounted on a moving body.When the grounding part touches the grounding surface,Switch means for controlling the photographing by the shadow means, and (3) a recognition means for recognizing identification information of the marker photographed by the photographing means by performing recognition processing on the image information photographed by the photographing means. And (4) storage means for storing the correspondence between the identification information to be recognized by the recognition means and the position information of the moving body associated therewith, and (5) storing the identification information recognized by the recognition means as a key. A configuration including a determining unit that determines the position of the moving body by accessing the unit.
[0022]
The moving body position detecting method of the present invention realized by the operation of the moving body position detecting apparatus of the present invention configured as described above can be realized by a computer program, such as a semiconductor memory. It can be provided by being recorded on a suitable recording medium.
[0023]
  The photographing means provided in the moving body position detecting device of the present invention is a moving part of the moving body.Ground planeProvided inMade of infrared absorbing materialFor example, a recording position detection binarization pattern used for specifying a recording position of identification information and a recording position specified from the recording position detection binarization pattern. A marker having a binarized pattern associated with the identification information recorded in the image is taken as an imaging target.
[0024]
The moving body position detecting device of the present invention receives image information taken by the photographing means and performs recognition processing on the image information, thereby recognizing identification information held by the marker photographed by the photographing means.
[0025]
For example, when the marker has the structure as described above, the image information captured by the imaging unit is binarized, the recording position of the binarized pattern is specified from the binarized image, and the recording position is determined. The displayed image is rotated variously, and it is determined whether or not the rotated image (including the non-rotated image that is rotated by 0 degree) has the above-described binarization pattern for position detection. When making a determination, processing is performed to recognize the identification information of the marker according to the binarization pattern recorded at the recording position specified from the position detection binarization pattern.
[0026]
In this way, when the identification information of the marker photographed by the photographing means is recognized, the mobile body position detection device of the present invention performs a prescribed conversion on the recognized identification information in accordance with the convention of the identification information. If the configuration is such that the position of the moving body can be detected, the position of the moving body is determined by subjecting the recognized identification information to prescribed conversion.
[0027]
On the other hand, in the case where such a rule is not prepared, the storage for storing the correspondence between the identification information to be recognized and the position information of the moving body associated therewith using the recognized identification information as a key. By accessing the means, the position of the moving body is determined.
[0028]
Next, a configuration example when the present invention is applied to pedestrian position detection will be specifically described.
[0029]
When the present invention is applied to detecting the position of a pedestrian, the identification is printed on a cheap paper surface, plastic surface, glass surface, carpet, etc. fixed to a road surface or a floor surface of a building, for example, with a paint that absorbs infrared rays. Place a marker with information.
[0030]
Then, for example, by attaching a camera capable of photographing infrared rays and an infrared projection device to the sole of a pedestrian, a marker provided on a road surface or a floor surface of a building can be photographed.
[0031]
  At this time, in order to enable power supply by dry batteries, infrared rays are projected from the infrared projection device only at the moment when the pedestrian's shoes are grounded, and photography is performed by the camera only at that moment. So, the marker will be shot only when the pedestrian's shoes touch the ground.Configure.
[0032]
According to such a configuration, in the present invention, a marker printed on an inexpensive material is installed on the floor surface, and the marker is photographed in a state where outside light is blocked using a camera attached to a pedestrian shoe sole, By decoding the identification information recorded in the marker, for example, referring to a database in which the correspondence between the identification information and the position information is registered, the position information is obtained from the identification information, so that the current position of the pedestrian To be able to measure accurately.
[0033]
According to the present invention, the equipment that needs to be laid on the floor surface to detect the position of a pedestrian is a marker having a pattern printed on the surface of the building material with paint that absorbs infrared rays. This marker is inexpensive to produce and is easy to mass produce. Equipment that needs to be worn by pedestrians is an infrared projection device such as an LED that projects infrared rays, a camera capable of infrared imaging, and a small computer that processes images. Therefore, the present invention can be constructed at a low cost.
[0034]
And according to the present invention, since the device is activated by the switch that operates only when the shoe sole is grounded and the position of the pedestrian is detected, the activation time is instantaneous, so that it can be used continuously for a long time. Is possible.
[0035]
In this way, according to the present invention, the position of the moving body is detected by using the inexpensive and easy-to-manufacture marker and the detection device that can be used for a long time. In addition, it becomes possible to detect in a wide range for a long time with accuracy.
[0036]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0037]
[1] First embodiment
FIG. 1 illustrates an example of a system configuration for detecting the position of a pedestrian configured according to the present invention.
[0038]
As shown in this figure, the present invention includes a non-visible position information marker 1 and a pedestrian position detection system 2.
[0039]
(A) About the invisible position information marker 1
The invisible position information marker 1 is a set of unit markers printed on the floor surface of the pedestrian walking. This unit marker is an aggregate of squares, and as shown in FIG. 2, a solid square representing “1” with one side a (cm) and an actual print representing “0” are not printed. Consists of blank squares.
[0040]
The identification information of the unit marker is indicated by a sequence of squares constituting the unit marker. The squares are arranged in the horizontal (x direction) and the vertical (y direction) m, with a / 2 (cm) intervals in the vertical and horizontal directions.
[0041]
Here, a, n, and m can be arbitrary values, but fixed values determined by the system administrator are used. Hereinafter, the position of the upper left square is represented by (0, 0), and the position of the lower right square is represented by (n-1, m-1).
[0042]
As shown in FIG. 2, each unit marker is provided with a completely filled square in a portion corresponding to a column on the left side and a row on the upper side in order to determine the direction of the marker. The identification information is arranged to the right using each square from the position corresponding to (1, 1) in the figure. The information following (n-1, j) is described in (1, j + 1), and the information is sequentially described up to the position (n-1, m-1) in the same manner.
[0043]
FIG. 3A shows a unit marker having identification information “010110”, and FIG. 3B shows a unit marker having identification information “000001”. Here, in the unit marker shown in this figure, “n = 4, m = 3” is assumed.
[0044]
Each unit marker should be spaced at least 2 x a (cm) or more on the surface of a white paper, glass surface, plastic surface, or carpet made of a material that does not absorb infrared light. Print and place on the floor. The squares constituting each unit marker are printed with a paint that absorbs infrared rays.
[0045]
After the invisible position information marker 1 is installed on the floor surface, a protective material similar to plastic or glass that transmits infrared rays is placed and fixed in order to prevent abrasion or contamination of the printing surface. When the printing surface is a carpet, no protective material is used. When using a transparent protective material, it is also possible to use a method of printing a marker directly on the back surface of the protective material itself.
[0046]
(B) Pedestrian position detection system 2
As shown in FIG. 1, the pedestrian position detection system 2 includes a marker photographing device 20 that photographs a marker, an identification information recognition device 21 that analyzes a marker pattern and reads marker identification information, identification information, and positional information. And a position information determination device 23 that determines position information from identification information with reference to the database 22.
[0047]
The marker photographing device 20 is provided in a form embedded in the bottom of the pedestrian's shoes as shown in FIG. 4, or is provided in a form fixed to the pedestrian's shoes as shown in FIG.
[0048]
When it is provided in a form embedded in the bottom of a pedestrian's shoe, as shown in FIG. 4, the shoe's heel portion is cut out into a cylindrical shape, and an infrared projection device 200 and an infrared photographing camera 201 are formed on the upper surface of the cylinder. Installed.
[0049]
In this case, the cylinder is made by using, for example, a metal material having sufficient strength to prevent deformation due to the load of the pedestrian. The inner surface of the cylinder is coated with a paint that absorbs infrared rays to prevent reflection of projection light from the infrared projection device 200. In addition, the lower part of the cylinder is used without opening the lid, and the ground part is covered with a material similar to glass or plastic that transmits infrared rays, so that dust can enter the cylinder from the bottom. Use one of the methods to prevent this.
[0050]
When provided in a form to be fixed to a pedestrian's shoe, as shown in FIG. 5, an infrared projector 200 and a cylindrical or box-shaped case that can be fixed to the side of the shoe or the rear part of the heel. An infrared photographing camera 201 is installed. The structure inside the cylinder is the same as the shape embedded in the bottom of the shoe.
[0051]
4 and 5, when the marker photographing device 20 is realized, a switch 202 for detecting grounding is provided on the bottom of the shoe, and when this switch 202 senses grounding, only at that moment. The infrared projector 200 projects infrared rays, and at the same time, the infrared camera 201 takes an image. The image signal photographed in this way is sent to the identification information recognition device 21 using wireless or wired communication.
[0052]
As the infrared projection device 200, an LED that emits infrared light or an LED equipped with a filter that transmits only infrared light is used. As the infrared photographing camera 201, a CCD camera is used. The power necessary for driving them is supplied from a removable battery embedded in the shoe, a removable battery installed on the side of the shoe, or from the identification information recognition device 21. Supplied.
[0053]
The identification information recognition device 21 is prepared for reading the identification information held by the marker. As shown in FIG. 6, the identification information recognition device 21 receives an image reception unit 210 that receives image information captured by the infrared imaging camera 201, and a reception unit. An identification information reading unit 211 that reads identification information from the image information that has been read, and an identification information transmission unit 212 that transmits the read identification information to the position information determination device 23.
[0054]
There are two installation forms of the identification information recognition device 21: a system that is installed on a pedestrian and a system that is separated from the pedestrian and installed at another location.
[0055]
When the identification information recognition device 21 is installed on a pedestrian, the image reception unit 210 constituting the identification information recognition device 21 is connected to the marker photographing device 20 with a USB cable, an IEEE 1943 cable, or an image signal similar thereto. Receive image information via a cable that can transmit. On the other hand, when the identification information recognition device 21 is separated from the pedestrian and installed at a fixed location, the image information is received from the marker photographing device 20 by wireless communication. The image receiving unit 210 sends the received image information to the identification information reading unit 211.
[0056]
The identification information reading unit 211 constituting the identification information recognition device 21 converts the image information received from the image reception unit 210 into identification information according to the following procedure, and sends the identification information to the identification information transmission unit 212.
[0057]
The identification information transmission unit 212 constituting the identification information recognition device 21 transmits the identification information received from the identification information reading unit 211 to the position information determination device 23.
[0058]
The database 22 manages a correspondence table between identification information and position information. When the identification information is given, the database 22 outputs position information associated with the identification information.
[0059]
Further, the database 22 has a function of adding, deleting, outputting a list, storing a list in a storage medium, and reading the list from the storage medium.
[0060]
The position information determination device 23 receives the identification information read by the identification information recognition device 21 and inputs it to the database 22 to receive the position information from the database 22. However, when “0” indicating failure in detection is received as identification information, NULL is output as position information.
[0061]
Note that the identification information recognition device 21, the database 22, and the position information determination device 23 are classified into a single computer and mounted, and a separate computer is mounted and mounted. When the latter implementation is used, data is transmitted to each device in a wired or wireless manner.
[0062]
Next, according to the processing flow shown in FIGS. 7 to 10, the identification information reading process executed by the identification information reading unit 211 will be described in detail.
[0063]
Here, what is input to the identification information reading unit 211 is a bitmap image, and what is output from the identification information reading unit 211 is identification information represented by numerals.
[0064]
When the processing flow shown in FIGS. 7 to 10 is executed, the identification information reading unit 211 first binarizes the image information captured by the infrared imaging camera 201, and uses the binarized image as a luminance. Processing is performed by specifying the representative pixel position of the square indicating “1” (the position of the pixel showing the highest luminance among the pixels in a certain range) and rotating the image constituted by the representative pixel position by a predetermined angle. Generate target images (including those that are not rotated).
[0065]
Subsequently, when it is determined whether or not the processing target image has an array of luminance “1” as shown in FIG. 11 and when it is determined that it has an array of luminance “1” as shown in FIG. Further, it is determined whether or not the processing target image has an array of luminance “1” as shown in FIG.
[0066]
Subsequently, when determining that the brightness “1” is arranged as shown in FIGS. 11 and 12, it is determined that the image information captured by the infrared camera 201 is the image information of the marker. As shown in FIG. 13, the identification information of the marker is read in accordance with the luminance pattern of the representative pixel position to be specified more vertically and horizontally.
[0067]
That is, when the identification information reading unit 211 executes the processing flow shown in FIGS. 7 to 10, first, in step 10, an image (image 1) captured by the marker imaging device 20 from the image receiving unit 210. In the following step 11, the received image is converted into a monochrome image (image 2) by binarizing.
[0068]
At this time, for example, the binarized value (luminance) of the pixel corresponding to the portion reflected by infrared rays and reflected in white is “0”, and the binarized value (luminance) of the pixel corresponding to the portion reflected in black by absorbing infrared rays is “ 1 "is converted into a monochrome image. With this binarization, an image is created in which only the portion where the filled square is arranged is “1” with the unit marker shown in FIG. 2.
[0069]
Subsequently, in step 12, for each pixel (x, y) of the binarized image, the total luminance value of pixels within the square range of the upper, lower, left, and right α pixels is obtained, and the total value is used as the luminance. A new image (image 3) is generated.
[0070]
That is, using the brightness of neighboring pixels, the averaging process is performed on the brightness of each pixel. Here, the value of α is arbitrarily selected by the manager of the apparatus. However, the brightness of the corresponding pixel in the image 3 located at a position less than α pixels from the top, bottom, left, and right of the image 2 is set to “0”.
[0071]
Subsequently, in step 13, each pixel of the image (image 3) generated in step 12 is selected by shifting one pixel at a time in the raster scan format, and for each selected pixel (x, y), the upper, lower, left, and right β pixels are selected. Determine whether the brightness is higher than the brightness of all pixels in the square area (use the processed brightness if the following processing has already been performed). When it is determined that it has the maximum brightness among neighboring pixels, the brightness of the selected pixel is set to “1” and the brightness of the other pixels is set to “0”. A new image (image 4) is generated.
[0072]
The image (image 4) generated in this way is an image having luminance “1” at the square representative pixel position indicating “1”. Here, the value of β is arbitrarily selected by the manager of the apparatus. However, the luminance of the corresponding pixel in the image 4 located at a position less than β pixels from the top, bottom, left, and right of the image 3 is “0”.
[0073]
Subsequently, in step 14, r images are created by rotating the image (image 4) generated in step 13 counterclockwise (360 / r) degrees around the center of the image. Then, the created r images and an image obtained by copying the image (image 4) generated in step 13 as it is are set as processing target images.
[0074]
Subsequently, when it is determined in step 15 whether or not all the processing target images have been processed, and it is determined that an unprocessed processing target image remains, the process proceeds to step 17, To select one image to be processed.
[0075]
Subsequently, in step 18, it is determined whether or not processing has been performed for all the pixels having the luminance “1” included in the pixel of the selected processing target image, and the luminance “1” that has not been processed is determined. When it is determined that the pixel to be retained is left, the process proceeds to step 19 and one pixel is selected from them. Let the coordinates of the selected pixel be (x, y).
[0076]
On the other hand, when it is determined in step 18 that all pixels having the luminance “1” included in the pixels of the selected processing target image have been processed, the process returns to step 15 to select an unprocessed processing target image. . When it is determined in this step 15 that all the processing target images have been processed, the process proceeds to step 16 where it is determined that the detection of the pedestrian has failed, and “0” indicating the detection failure is set. Output and finish the process.
[0077]
On the other hand, when one pixel (coordinate (x, y)) having luminance “1” included in the pixel of the selected processing target image is selected in step 19, subsequently, in step 20, the value of the counter k is set to “ Set 0 ”.
[0078]
Subsequently, in step 21, a constant d arbitrarily selected by the manager of the apparatus is used.
x ″ = x + d * k k: value of counter k
In the subsequent step 22, for the calculated (x '', y), it is determined whether there is a pixel having luminance “1” among the pixels within the square range of the upper, lower, left and right γ pixels. To do.
[0079]
When it is determined by this determination processing that there is no pixel having luminance “1” within the square range of the upper, lower, left, and right γ pixels centered on (x ″, y), the pixel has unprocessed luminance “1”. Returning to step 18 to select a pixel, on the other hand, when it is determined that there is a pixel having luminance “1”, the process proceeds to step 23 where the value of the counter k is incremented by one.
[0080]
Subsequently, in step 24, it is determined whether or not the value of the counter k has exceeded the maximum value “n−1” (“n−1” shown in FIG. 2). When it is determined that the value “n−1” is not exceeded, the process returns to step 21.
[0081]
On the other hand, when it is determined in step 24 that the value of the counter k has exceeded the maximum value “n−1”, that is, it is determined that the arrangement of luminance “1” as shown in FIG. 11 has been detected. In some cases, the process proceeds to step 25 to set 1 to the value of the counter k.
[0082]
Subsequently, in step 26, using the constant d described above,
y ″ = y + d * k k: value of counter k
In the following step 27, for the calculated (x, y ''), it is determined whether or not there is a pixel having luminance “1” among pixels within the square range of the upper, lower, left and right γ pixels. To do.
[0083]
When it is determined by this determination processing that there is no pixel having luminance “1” in the square range of the upper, lower, left, and right γ pixels centered on (x, y ″), the pixel has unprocessed luminance “1”. Returning to step 18 to select a pixel, on the other hand, when it is determined that there is a pixel having luminance “1”, the routine proceeds to step 28 where the value of the counter k is incremented by one.
[0084]
Subsequently, in step 29, it is determined whether or not the value of the counter k has exceeded the maximum value “m−1” (“m−1” shown in FIG. 2), and the value of the counter k is the maximum. When it is determined that the value “m−1” is not exceeded, the process returns to step 26.
[0085]
On the other hand, when it is determined in step 29 that the value of the counter k has exceeded the maximum value “m−1”, that is, it is determined that the arrangement of luminance “1” as shown in FIG. 12 has been detected. Sometimes go to step 30 to get “xL= X '', yL= Y '' ".
[0086]
That is, according to x ″ determined by increasing according to the process of step 21 and y ″ determined by increasing according to the process of step 26, “xL= X '', yL= Y ″ ”is set.
[0087]
Subsequently, in step 31, from the processing target image (processing target image selected in step 17) subjected to the above-described processing, “(x, y) − (xL, YLA new image (image 5) is generated by cutting out a rectangle that is larger by δ pixels in the vertical and horizontal directions than the rectangle whose diagonal is “)”.
[0088]
Subsequently, in step 32, the buffer B is cleared. Note that the pth storage address of the buffer B is represented by B [p].
[0089]
Subsequently, in step 33, the coordinates of the pixel at the upper left among the pixels having the luminance “1” included in the pixels of the image (image 5) generated in step 31 are set to (x, y), and in step 34. Based on the coordinates (x, y), using the constant d described above,
xi = x + d * i i = 0 to (n-1)
yj = y + d * j j = 0 to (m−1)
X0 to x (n-1), y0 to y (m-1) are created according to the following equation.
[0090]
Subsequently, in step 35, “i = 1, j = 1” is set. Subsequently, in step 36, for (xi, yj), it is determined whether or not there is a pixel having luminance “1” among the pixels within the square range of the upper, lower, left, and right γ pixels.
[0091]
When it is determined by this determination processing that there is a pixel having luminance “1” within the square range of the upper, lower, left, and right γ pixels centered on (xi, yj), the routine proceeds to step 37 where the storage position of the buffer B When “1” is stored in B [(i−1) + (n−1) (j−1)], and when it is determined that there is no such pixel, the process proceeds to step 38 and the buffer B “0” is stored in the storage position B [(i−1) + (n−1) (j−1)].
[0092]
Subsequently, at step 39, the value of the variable i is incremented by one, and at step 40, the value of the variable i exceeds the maximum value “n−1” (“n−1” shown in FIG. 2). When it is determined whether or not the value of the variable i exceeds the maximum value “n−1”, the process returns to step 36.
[0093]
On the other hand, when it is determined in step 40 that the value of the variable i exceeds the maximum value “n−1”, the process proceeds to step 41 where the value of the variable j is incremented by one. It is determined whether or not the value of the variable j has exceeded the maximum value “m−1” (“m−1” shown in FIG. 2).
[0094]
When it is determined by this determination processing that the value of the variable j does not exceed the maximum value “m−1”, the routine proceeds to step 43, where “1” is set to the variable i and then to step 36. Return.
[0095]
When it is determined in step 42 that the value of the variable j has exceeded the maximum value “m−1”, the process proceeds to step 44 where the contents of the buffer B are read as binary numbers and output as identification information. To finish the process.
[0096]
In other words, by repeating the processing of step 36 to step 43, the description will be made with reference to the specific example shown in FIG.
B [0] = 1, B [1] = 0, B [2] = 1, B [3] = 0,
B [4] = 1, B [5] = 0, B [6] = 1, B [7] = 1,
B [8] = 0, B [9] = 0, B [10] = 0, B [11] = 1,
When the data is stored in the buffer B and the storage is completed, the contents of the buffer B are read as binary numbers and output as “2737” in step 44.
[0097]
In this way, the identification information reading unit 211 analyzes the marker pattern photographed by the marker photographing device 20 and performs processing so as to read the marker identification information.
[0098]
Upon receiving the identification information read by the identification information reading unit 211, as described above, the position information determination device 23 determines the position information of the pedestrian by searching the database 22 using the identification information as a search key. Will be processed.
[0099]
[2] Second embodiment
In the first embodiment described above, the invisible position information marker 1 is disclosed as a pattern printed with an infrared absorbing paint, and the marker photographing device 20 is an infrared projection device configured by LEDs that project infrared rays. Although what was comprised with 200 and the infrared imaging camera 201 in which infrared imaging | photography is possible was disclosed, in addition, several combinations are considered.
[0100]
For example, when an LED that projects infrared rays is used as the light source of the marker photographing device 20, it is also conceivable to use an infrared reflective paint as the invisible position information marker 1.
[0101]
Further, when black light is used as the light source of the marker photographing device 20, it is also conceivable to use near ultraviolet reflection / absorption paint as the invisible position information marker 1.
[0102]
Further, visible light can be used as the light source of the marker photographing device 20. In this case, as the non-visible position information marker 1, it is conceivable to use a type of paint that reflects infrared rays when visible light is transmitted.
[0103]
It is also conceivable to use a visible region paint as the invisible position information marker 1.
[0104]
[3] Third embodiment
In the first embodiment described above, a configuration in which an existing one is not used as the invisible position information marker 1 is disclosed, but a method using an existing two-dimensional barcode is also conceivable. In this case, it is possible to apply an existing two-dimensional barcode decoding algorithm to the code reading.
[0105]
However, since many of the existing two-dimensional barcode standards do not consider acquisition of the barcode direction, it is necessary to expand the two-dimensional barcode when acquiring the orientation information. For example, the direction information can be acquired by embedding a pattern for identifying the direction information in the outer periphery of the two-dimensional barcode.
[0106]
Further, when an existing two-dimensional barcode is used, a method using an existing two-dimensional barcode reader as the identification information recognition device 21 can be considered. However, since many two-dimensional bar code readers take a long time to acquire a bar code position, it is considered that a maxi code, a QR code, or the like considering high-speed reading is suitable for use.
[0107]
[4] Fourth embodiment
In the first embodiment described above, the configuration is used in which the position is acquired by acquiring the position information corresponding to the identification information read from the invisible position information marker 1 from the database 22, but the invisible position is used. By laying the information marker 1 on the floor according to a predetermined pattern, it is also possible to acquire pedestrian position information without using the database 22.
[0108]
For example, an expression for converting the actual position information into the identification information of the invisible position information marker 1 is created, and the position information in which the invisible position information marker 1 corresponding to the identification information obtained by the created conversion expression is designated. By applying a certain conversion formula to the read identification information, it becomes possible to acquire pedestrian position information without using the database 22.
[0109]
[5] Fifth embodiment
If dust such as dust is caught between the marker imaging device 20 and the invisible position information marker 1, the reading accuracy of the marker is lowered.
[0110]
Then, the grounding part of the marker imaging device 20 is made into a spring shape, and the exhaust resistance is opened on the side surface. Thereby, when stepping on the floor, the air in the marker photographing device 20 is compressed and discharged from the side surface. At this time, since fine dust is also discharged to the outside, the influence of dust can be reduced.
[0111]
【The invention's effect】
As described above, according to the present invention, since the position of the moving body is detected using the inexpensive and easy-to-manufacture marker and the detection device that can be used for a long time, the position of the moving body can be reduced and inexpensive. Detection can be performed with high accuracy and over a wide range for a long time.
[0112]
For example, when applied to pedestrian position detection, a marker printed on an inexpensive material is placed on the floor, and the marker is placed in a state where external light is blocked using a camera attached to the pedestrian's shoe sole. , By decoding the identification information recorded on the marker, referring to the database in which the correspondence between the identification information and the position information is registered, and acquiring the position information from the identification information, Therefore, the position of the pedestrian can be detected inexpensively and with high accuracy.
[0113]
At this time, it is possible to detect the position of the pedestrian for a long time and in a wide range by using a configuration in which the marker is photographed only at the moment when the pedestrian's shoes are grounded.
[Brief description of the drawings]
FIG. 1 is a system configuration example of a pedestrian position detection system configured according to the present invention.
FIG. 2 is an example embodiment of a unit marker.
FIG. 3 is an explanatory diagram of identification information held by a unit marker.
FIG. 4 is an example of an embodiment of a marker imaging device.
FIG. 5 is an example of an embodiment of a marker imaging device.
FIG. 6 is an explanatory diagram of a device configuration of an identification information recognition device.
FIG. 7 is an example of a processing flow executed by an identification information reading unit.
FIG. 8 is an example of a processing flow executed by an identification information reading unit.
FIG. 9 is an example of a processing flow executed by an identification information reading unit.
FIG. 10 is an example of a processing flow executed by an identification information reading unit.
FIG. 11 is an explanatory diagram of processing executed by an identification information reading unit.
FIG. 12 is an explanatory diagram of processing executed by an identification information reading unit.
FIG. 13 is an explanatory diagram of processing executed by an identification information reading unit.
[Explanation of symbols]
1 Invisible position information marker
2 Pedestrian position detection system
20 Marker photographing device
21 Identification information recognition device
22 Database
23 Position information determination device

Claims (6)

自在に移動する移動体の位置を検出する移動体位置検出装置であって、
赤外線投射機と赤外線撮影カメラとで構成され、その両者は移動体の接地部に装着されて、移動体の移動箇所の接地面に設けられる赤外線吸収材料で形成された識別用のマーカを撮影対象として、赤外線を使ってそのマーカを撮影する撮影手段と、
移動体に装着されて、上記接地部が上記接地面に接地したときに上記撮影手段による撮影が行われるように制御するスイッチ手段と、
上記撮影手段により撮影された画像情報に認識処理を施すことで、上記撮影手段により撮影されたマーカの持つ識別情報を認識する認識手段と、
上記認識手段の認識した識別情報に従って、移動体の位置を決定する決定手段とを備えることを、
特徴とする移動体位置検出装置。
A moving body position detecting device for detecting a position of a moving body that freely moves,
Consists of an infrared projector and an infrared camera, both of which are attached to the grounding part of the moving object, and are used to shoot an identification marker formed of an infrared absorbing material provided on the grounding surface of the moving part of the moving object and then, a photographing means for photographing the marker using the infrared,
Is attached to the moving body, a switching means for the ground unit is controlled to shooting by the upper Symbol photographing means when grounded to the ground plane takes place,
Recognizing means for recognizing identification information of a marker photographed by the photographing means by performing recognition processing on the image information photographed by the photographing means;
A determination unit that determines a position of the moving body according to the identification information recognized by the recognition unit.
A moving body position detecting device.
自在に移動する移動体の位置を検出する移動体位置検出装置であって、
赤外線投射機と赤外線撮影カメラとで構成され、その両者は移動体の接地部に装着されて、移動体の移動箇所の接地面に設けられる赤外線吸収材料で形成された識別用のマーカを撮影対象として、赤外線を使ってそのマーカを撮影する撮影手段と、
移動体に装着されて、上記接地部が上記接地面に接地したときに上記撮影手段による撮影が行われるように制御するスイッチ手段と、
上記撮影手段により撮影された画像情報に認識処理を施すことで、上記撮影手段により撮影されたマーカの持つ識別情報を認識する認識手段と、
上記認識手段の認識対象となる識別情報とそれに対応付けられる移動体の位置情報との対応関係を記憶する記憶手段と、
上記認識手段の認識した識別情報をキーにして上記記憶手段にアクセスすることで、移動体の位置を決定する決定手段とを備えることを、
特徴とする移動体位置検出装置。
A moving body position detecting device for detecting a position of a moving body that freely moves,
Consists of an infrared projector and an infrared camera, both of which are attached to the grounding part of the moving object, and are used to shoot an identification marker formed of an infrared absorbing material provided on the grounding surface of the moving part of the moving object and then, a photographing means for photographing the marker using the infrared,
Is attached to the moving body, a switching means for the ground unit is controlled to shooting by the upper Symbol photographing means when grounded to the ground plane takes place,
Recognizing means for recognizing identification information of a marker photographed by the photographing means by performing recognition processing on the image information photographed by the photographing means;
Storage means for storing the correspondence between the identification information to be recognized by the recognition means and the position information of the moving body associated with the identification information;
A determination unit that determines the position of the moving body by accessing the storage unit using the identification information recognized by the recognition unit as a key,
A moving body position detecting device.
自在に移動する移動体の位置を検出する移動体位置検出方法であって、
赤外線投射機と赤外線撮影カメラとで構成され、その両者は移動体の接地部に装着されて、移動体の移動箇所の接地面に設けられる赤外線吸収材料で形成された識別用のマーカを撮影対象として、赤外線を使ってそのマーカを撮影する撮影手段と、移動体に装着されて、その接地部がその接地面に接地したときにその撮影手段による撮影が行われるように制御するスイッチ手段とで構成される撮影装置により撮影された画像情報を入手する過程と、
上記入手した画像情報に認識処理を施すことで、上記撮影手段により撮影されたマーカの持つ識別情報を認識する過程と、
上記認識した識別情報に従って、移動体の位置を決定する過程とを備えることを、
特徴とする移動体位置検出方法。
A moving body position detecting method for detecting a position of a moving body that freely moves,
Consists of an infrared projector and an infrared camera, both of which are attached to the grounding part of the moving object, and are used to shoot an identification marker formed of an infrared absorbing material provided on the grounding surface of the moving part of the moving object and a, a photographing means for photographing the markers with the infrared, is mounted on the moving body, the grounding unit is controlled to by the imaging is performed photographing means Niso when grounded to the ground plane switch A process of obtaining image information photographed by a photographing device comprising means;
A process of recognizing identification information of a marker photographed by the photographing means by performing recognition processing on the obtained image information;
A step of determining the position of the moving body according to the recognized identification information,
A moving body position detecting method characterized by the above.
自在に移動する移動体の位置を検出する移動体位置検出方法であって、
赤外線投射機と赤外線撮影カメラとで構成され、その両者は移動体の接地部に装着されて、移動体の移動箇所の接地面に設けられる赤外線吸収材料で形成された識別用のマーカを撮影対象として、赤外線を使ってそのマーカを撮影する撮影手段と、移動体に装着されて、その接地部がその接地面に接地したときにその撮影手段による撮影が行われるように制御するスイッチ手段とで構成される撮影装置により撮影された画像情報を入手する過程と、
上記入手した画像情報に認識処理を施すことで、上記撮影手段により撮影されたマーカの持つ識別情報を認識する過程と、
上記認識した識別情報をキーにして、上記認識の対象となる識別情報とそれに対応付けられる移動体の位置情報との対応関係を記憶する記憶手段にアクセスすることで、移動体の位置を決定する過程とを備えることを、
特徴とする移動体位置検出方法。
A moving body position detecting method for detecting a position of a moving body that freely moves,
Consists of an infrared projector and an infrared camera, both of which are attached to the grounding part of the moving object, and are used to shoot an identification marker formed of an infrared absorbing material provided on the grounding surface of the moving part of the moving object and a, a photographing means for photographing the markers with the infrared, is mounted on the moving body, the grounding unit is controlled to by the imaging is performed photographing means Niso when grounded to the ground plane switch A process of obtaining image information photographed by a photographing device comprising means;
A process of recognizing identification information of a marker photographed by the photographing means by performing recognition processing on the obtained image information;
Using the recognized identification information as a key, the position of the moving body is determined by accessing a storage means for storing the correspondence relationship between the identification information to be recognized and the position information of the moving body associated therewith. Preparing the process,
A moving body position detecting method characterized by the above.
請求項3又は4に記載の移動体位置検出方法の実現に用いられる処理をコンピュータに実行させるための移動体位置検出プログラム。  A moving body position detection program for causing a computer to execute processing used to realize the moving body position detection method according to claim 3. 請求項3又は4に記載の移動体位置検出方法の実現に用いられる処理をコンピュータに実行させるための移動体位置検出プログラムを記録した記録媒体。  A recording medium on which a moving body position detection program for causing a computer to execute processing used to realize the moving body position detection method according to claim 3 or 4 is recorded.
JP2002196704A 2002-07-05 2002-07-05 MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Expired - Fee Related JP3958999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002196704A JP3958999B2 (en) 2002-07-05 2002-07-05 MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002196704A JP3958999B2 (en) 2002-07-05 2002-07-05 MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Publications (2)

Publication Number Publication Date
JP2004038706A JP2004038706A (en) 2004-02-05
JP3958999B2 true JP3958999B2 (en) 2007-08-15

Family

ID=31704666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002196704A Expired - Fee Related JP3958999B2 (en) 2002-07-05 2002-07-05 MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Country Status (1)

Country Link
JP (1) JP3958999B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220013009A1 (en) * 2021-09-26 2022-01-13 Matthew David Weirich Interactive Traffic System, Method and Control Devices

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4581696B2 (en) * 2005-01-17 2010-11-17 株式会社デンソーウェーブ Location information provision system
JP4866754B2 (en) * 2007-02-19 2012-02-01 パナソニック株式会社 Action history search device and action history search method
JP2014021624A (en) * 2012-07-13 2014-02-03 Sharp Corp Autonomous traveling device and autonomous traveling system
JP6960151B2 (en) * 2017-06-30 2021-11-05 国立大学法人金沢大学 Foot sole observation device and sole observation method
CN114026387B (en) * 2019-07-08 2024-04-30 三菱电机株式会社 Guiding control device and guiding control system for moving body

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220013009A1 (en) * 2021-09-26 2022-01-13 Matthew David Weirich Interactive Traffic System, Method and Control Devices

Also Published As

Publication number Publication date
JP2004038706A (en) 2004-02-05

Similar Documents

Publication Publication Date Title
CN111989544B (en) System and method for indoor vehicle navigation based on optical target
KR101591471B1 (en) apparatus and method for extracting feature information of object and apparatus and method for generating feature map
CN105358937B (en) Geodetic surveying instrument, method for determining position data of geodetic surveying instrument, and storage medium
US20160134860A1 (en) Multiple template improved 3d modeling of imaged objects using camera position and pose to obtain accuracy
EP1499129B1 (en) Object detection device, object detection server, and object detection method
JP6667065B2 (en) Position estimation device and position estimation method
KR100698534B1 (en) Landmark for location recognition of mobile robot and location recognition device and method using same
CN103415780B (en) For determining the position of measuring instrument and directed method and system
Gschwandtner et al. Infrared camera calibration for dense depth map construction
CN207115193U (en) A kind of mobile electronic device for being used to handle the task of mission area
EP3069100B1 (en) 3d mapping device
CN101840488A (en) Radio frequency environment subject surveillance system and using method
CN104732514A (en) Apparatus, systems, and methods for processing a height map
CN108459597A (en) A kind of mobile electronic device and method for handling the task of mission area
US10284795B2 (en) Image processing device, image processing method, and image processing program which control a scan frequency of an imaging unit
Zhu et al. 60GHz mobile imaging radar
KR20160027605A (en) Method for locating indoor position of user device and device for the same
TWI683123B (en) Terminal device for position measurement, computer program and position measurement system
JP3958999B2 (en) MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
US11002842B2 (en) Method and apparatus for determining the location of a static object
US20160259034A1 (en) Position estimation device and position estimation method
JP2011113398A (en) Attitude estimation device
KR101233938B1 (en) Robot and method of tracing object
JP2006331214A (en) Object identification tag and object identification system using it
US20240127471A1 (en) Information processing apparatus, information processing system, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061122

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070511

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees