JP2004038706A - Movable body position detecting device, movable body position detecting method, movable body position detecting program, and recording medium recording program - Google Patents

Movable body position detecting device, movable body position detecting method, movable body position detecting program, and recording medium recording program Download PDF

Info

Publication number
JP2004038706A
JP2004038706A JP2002196704A JP2002196704A JP2004038706A JP 2004038706 A JP2004038706 A JP 2004038706A JP 2002196704 A JP2002196704 A JP 2002196704A JP 2002196704 A JP2002196704 A JP 2002196704A JP 2004038706 A JP2004038706 A JP 2004038706A
Authority
JP
Japan
Prior art keywords
identification information
marker
moving body
position detection
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002196704A
Other languages
Japanese (ja)
Other versions
JP3958999B2 (en
Inventor
Yutaka Yanagisawa
柳沢 豊
Yoshinari Shirai
白井 良成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002196704A priority Critical patent/JP3958999B2/en
Publication of JP2004038706A publication Critical patent/JP2004038706A/en
Application granted granted Critical
Publication of JP3958999B2 publication Critical patent/JP3958999B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new movable body position detecting technique capable of inexpensively and accurately detecting the present position of a movable body. <P>SOLUTION: Identification information is recognized by photographing a marker having, for example, a binarized pattern used in specifying a recording position of the identification information and a binarized pattern coordinated with the identification information recorded in the recording position specified by the binarized pattern, and applying recognition processing to the photographed image information. When the identification information is recognized and a position of the movable body can be detected from the identification information in accordance with a code of the identification information, the position of the movable body is determined by applying a specific conversion to the recognized identification information. When such a code is not prepared, the position of the movable body is determined by using the recognized identification information as a key and accessing to a storing means for storing a correspondence relationship between the identification information that is a recognition object and positional information of the movable body coordinated therewith. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、自在に移動する移動体の位置を検出する移動体位置検出装置及びその方法と、その移動体位置検出方法の実現に用いられる移動体位置検出プログラム及びそのプログラムを記録した記録媒体とに関する。
【0002】
ナビゲーションシステムや、人物の位置管理を行うシステムや、地域情報を提供するシステムでは、人物などの移動体の現在位置を廉価かつ高精度に測定できるようにする技術の構築が叫ばれている。
【0003】
【従来の技術】
計測器の精度の向上とともに、計測器から得られた人物などの移動体の存在位置や、移動方向や、移動速度を計測する技術が向上している。位置測定を行う装置について、既存技術は以下に説明する4つの方式に分類できる。
【0004】
(1)GPS(Global Positioning System )を用いる方式
複数の周回衛星が発する時刻情報を地上の測定器で受信し、受信した時刻情報のずれと衛星の位置情報とから、測定器の経度、緯度、向き、高度を算出する方式である。
【0005】
この方式は数ミリ程度の誤差で位置を検出できるものの、衛星からの信号を受信できない屋内や地下では使用できないという問題がある。
【0006】
(2)RFID(Radio Frequency Identification)を用いる方式
建築物の内壁、床面、天井にアンテナを設置し、さらに、移動する物体や人間に、アンテナから放出された電磁波に応答してアンテナに対して信号を返信するICチップを貼り、アンテナでその返信波を検知することで、アンテナから一定の範囲内に物体が存在することを識別する方式である(特開2000−501515)。
【0007】
アンテナを移動物体に設置し、ICチップを建築物側に設置する方式も用いられる。
【0008】
この方式は、ICチップを物体内部に埋め込んで使用することから磨耗や汚濁による影響を受けにくいという長所があるものの、精度を高めるためにはアンテナやICチップの設置密度を高める必要があることから、広範囲に渡って高い精度で位置を検出する場合には高いコストがかかるという問題がある。
【0009】
(3)携帯電話やPHSを利用する方式
ユーザの保持する携帯電話やPHSが使用する基地局の位置から、ユーザの位置を検出する方式である(特開平10−281801)。
【0010】
この方式では、高い精度を得るためには多数の基地局を設置しなければならないという問題がある。
【0011】
(4)歩幅を測定する方式
歩行者やロボットの両足にセンサを設置して歩幅を測定することで移動距離を取得し、初期位置からの相対的な移動位置を検出する方式(特開平10−307985)や、脚の角度から歩幅を推定することで移動距離を取得し、初期位置からの相対的な移動位置を計算する方式(特開2000−249571)がある。
【0012】
これらは歩行者のみがセンサを装着すればよいという長所があるものの、初期位置から移動していくに従って誤差が累積されていくという問題がある。
【0013】
(5)その他の方式
感圧センサを床に敷き詰めておき、足が接地した位置を感知することで歩行者の位置および移動速度を検出する方式がある(特開2001−183455)。
【0014】
この方式は、RFIDを用いる方式と同様に、広範囲で用いる場合にはセンサを大量に敷き詰める必要があり、コストが上昇するという問題がある。
【0015】
【発明が解決しようとする課題】
このように、GPS以外の従来技術では、広範囲にわたって1cm程度の高い精度で移動物体の位置を検出するシステムを作るには、センサを広範囲に設置する必要があるという問題がある。
【0016】
そして、GPSを用いる従来技術では、屋内で使用できないという問題がある。
【0017】
本発明はかかる事情に鑑みてなされたものであって、移動体の現在位置を廉価かつ高精度に検出できるようにする新たな移動体位置検出技術の提供を目的とする。
【0018】
【課題を解決するための手段】
この目的を達成するために、本発明の移動体位置検出装置は、自在に移動する移動体の位置を検出することを実現するために、▲1▼移動体に装着されて、移動体の移動箇所に設けられる識別用のマーカを撮影する撮影手段と、▲2▼撮影手段により撮影された画像情報に認識処理を施すことで、撮影手段により撮影されたマーカの持つ識別情報を認識する認識手段と、▲3▼認識手段の認識した識別情報に従って、移動体の位置を決定する決定手段とを備える構成を採る。
【0019】
そして、この構成を具体化するために、本発明の移動体位置検出装置は、自在に移動する移動体の位置を検出することを実現するために、▲1▼移動体に装着されて、移動体の移動箇所に設けられる識別用のマーカを撮影する撮影手段と、▲2▼撮影手段により撮影された画像情報に認識処理を施すことで、撮影手段により撮影されたマーカの持つ識別情報を認識する認識手段と、▲3▼認識手段の認識対象となる識別情報とそれに対応付けられる移動体の位置情報との対応関係を記憶する記憶手段と、▲4▼認識手段の認識した識別情報をキーにして記憶手段にアクセスすることで、移動体の位置を決定する決定手段とを備える構成を採る。
【0020】
このような構成を採るときにあって、本発明の移動体位置検出装置は、さらに、移動体に装着されて、マーカの撮影が可能となる状態に入る一瞬の場合にのみ撮影手段による撮影が行われるように制御するスイッチ手段を備えることがある。
【0021】
そして、本発明の移動体位置検出装置で備える撮影手段は、好ましくは、マーカの撮影を行うときに外光を遮断する構造を持つもので構成される。
【0022】
このように構成される本発明の移動体位置検出装置が動作することで実現される本発明の移動体位置検出方法はコンピュータプログラムで実現できるものであり、このコンピュータプログラムは、半導体メモリなどのような適当な記録媒体に記録して提供することができる。
【0023】
本発明の移動体位置検出装置が備える撮影手段は、移動体の移動箇所に設けられる識別用のマーカを撮影対象とするものであり、例えば、識別情報の記録位置の特定に用いられる記録位置検出用2値化パターンと、その記録位置検出用2値化パターンから特定される記録位置に記録されている識別情報に対応付けられる2値化パターンとを持つマーカを撮影対象とする。
【0024】
本発明の移動体位置検出装置は、撮影手段の撮影する画像情報を受けて、その画像情報に認識処理を施すことで、撮影手段により撮影されたマーカの持つ識別情報を認識する。
【0025】
例えば、マーカが上述したような構造を持つ場合には、撮影手段により撮影された画像情報を2値化して、その2値化画像から2値化パターンの記録位置を特定し、その記録位置を示す画像を様々に回転させて、それらの回転させた画像(0度の回転となる回転させない画像も含む)が上述した位置検出用2値化パターンを持つのか否かを判断し、その保有を判断する場合に、その位置検出用2値化パターンから特定される記録位置に記録されている2値化パターンに従ってマーカの持つ識別情報を認識するように処理する。
【0026】
このようにして、撮影手段により撮影されたマーカの持つ識別情報を認識すると、本発明の移動体位置検出装置は、識別情報の規約に従って、その認識した識別情報に規定の変換を施すことなどにより移動体の位置を検出できるというような構成になっている場合には、その認識した識別情報に規定の変換を施すことなどにより、移動体の位置を決定する。
【0027】
一方、そのような規約が用意されていない場合には、その認識した識別情報をキーにして、認識の対象となる識別情報とそれに対応付けられる移動体の位置情報との対応関係を記憶する記憶手段にアクセスすることで、移動体の位置を決定する。
【0028】
次に、本発明を歩行者の位置検出に適用する場合の構成例について具体的に説明する。
【0029】
本発明を歩行者の位置検出に適用する場合には、路面や建築物の床面に固定した廉価な紙面やプラスチック面やガラス面や絨毯などに、例えば赤外線を吸収する塗料で印刷された識別情報を持つマーカを設置する。
【0030】
そして、例えば、歩行者の靴底に、赤外線を撮影できるカメラ及び赤外線投射装置を装着することで、路面や建築物の床面に設けられるマーカを撮影できるようにする。
【0031】
このとき、乾電池による電源供給を可能にするために、歩行者の靴が接地した瞬間のみ赤外線投射装置から赤外線が投射されるようにするとともに、その瞬間のみカメラにより撮影が行われるようにすることで、歩行者の靴が接地した瞬間のみマーカが撮影されることになるようにと構成されることがある。
【0032】
このような構成に従って、本発明では、廉価な素材に印刷したマーカを床面に設置し、歩行者の靴底に装着されたカメラを使って外光を遮断した状態でマーカを撮影して、そのマーカに記録された識別情報を解読し、例えば、識別情報と位置情報との対応関係が登録されたデータベースを参照して、その識別情報から位置情報を取得することで、歩行者の現在位置を正確に測定できるようにすることを実現する。
【0033】
本発明によれば、歩行者の位置検出のために床面に敷設する必要がある器材は、建材の表面に赤外線を吸収する塗料などで模様を印刷したマーカである。このマーカは廉価に生産し、また、大量に生産することが容易である。また、歩行者に装着する必要がある器材は、赤外線を投射するLEDなどの赤外線投射装置と、赤外線撮影が可能なカメラと、画像を処理する小型計算機とである。これらのことから、本発明は廉価に構築することが可能である。
【0034】
そして、本発明によれば、靴底が接地したときにのみ動作するスイッチにより装置が起動して歩行者の位置の検出を行うことから、起動時間が瞬間的であることで長時間の連続使用が可能となる。
【0035】
このようにして、本発明によれば、廉価で製造が容易なマーカと、長時間使用可能な検出装置とを使用して移動体の位置検出を行うことから、移動体の位置を廉価かつ高精度に、しかも、長時間かつ広範囲に検出できるようになる。
【0036】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
【0037】
〔1〕第1の実施形態例
図1に、本発明により構成される歩行者の位置を検出するためのシステム構成の一例を図示する。
【0038】
この図に示すように、本発明は、非可視位置情報マーカ1と、歩行者位置検出システム2とで構成される。
【0039】
(イ)非可視位置情報マーカ1について
非可視位置情報マーカ1は、歩行者の歩く床面に印刷された単位マーカの集合体である。この単位マーカは正方形の集合体であって、図2に示すように、一辺がa(cm)の、“1”を表す塗りつぶされた正方形と、“0”を表す実際には印刷されてない空白の正方形とで構成される。
【0040】
単位マーカの識別情報は、単位マーカを構成する正方形の並びによって示される。各正方形は、縦横それぞれa/2(cm)の間隔を置いて、横(x方向)にn個、縦(y方向)にm個に配置される。
【0041】
ここで、a,n,mは任意の値を用いることができるが、システム管理者が決めた固定の値を使う。以後、左上の正方形の位置を(0,0)で表し、右下の正方形の位置を(n−1,m−1)で表すものとする。
【0042】
各単位マーカは、図2に示すように、マーカの向きを判別するために、左辺の列と上辺の行にあたる部分にはすべて塗りつぶされた正方形を配置する。識別情報は、図中の(1,1)にあたる位置から各正方形を使って右向きに配置する。(n−1,j)の次の情報は(1,j+1)に記述するものとし、以下同様にして(n−1,m−1)の位置まで情報を順番に記述する。
【0043】
図3(a)に、識別情報“010110”を持つ単位マーカを示し、図3(b)に、識別情報“000001”を持つ単位マーカを示す。ここで、この図に示す単位マーカでは「n=4,m=3」を想定している。
【0044】
各単位マーカは、少なくとも2×a(cm)以上の間隔を置いて、赤外線の吸収が少ない白色の紙面、ガラス面、プラスチック面、もしくは赤外線を吸収しにくい素材で作られた絨毯などの表面に印刷し、床面に配置する。各単位マーカを構成する正方形は赤外線を吸収する塗料で印刷する。
【0045】
非可視位置情報マーカ1は、床面に設置したのちに、印刷面の磨耗や汚濁を防ぐために赤外線を透過するプラスチック、ガラスに類する保護材を載せて固定する。印刷面が絨毯である場合には保護材を用いない。透過性の保護材を使用する場合は、保護材自体の裏面に直接マーカを印刷する方法を用いることも可能である。
【0046】
(ロ)歩行者位置検出システム2について
歩行者位置検出システム2は、図1に示すように、マーカを撮影するマーカ撮影装置20と、マーカの模様を分析してマーカの識別情報を読み取る識別情報認識装置21と、識別情報と位置情報との対応表を持つデータベース22と、データベース22を参照して識別情報から位置情報を決定する位置情報決定装置23とで構成される。
【0047】
マーカ撮影装置20は、図4に示すように、歩行者の靴の底部に埋め込む形態で設けられたり、図5に示すように、歩行者の靴に固定する形態で設けられることになる。
【0048】
歩行者の靴の底部に埋め込む形態で設けられる場合には、図4に示すように、靴の踵部分を円筒形に切り抜き、円筒の上面部に、赤外線投射装置200と赤外線撮影カメラ201とが設置される。
【0049】
この場合、円筒は、歩行者の荷重による変形を防ぐために、十分な強度をもつ例えば金属製の物質を用いて作成する。円筒の内面は、赤外線を吸収する塗料で塗装し、赤外線投射装置200からの投影光が反射することを防ぐ。また、円筒の下面部分は、蓋をせずに開放された状態で使用する方法と、接地部分を赤外線を透過するガラスあるいはプラスチックに類する素材で覆うことで、塵芥が底面から円筒内部に入ることを防いで使用する方法のいずれかを用いる。
【0050】
歩行者の靴に固定する形態で設けられる場合には、図5に示すように、靴の側面あるいは踵の後部に固定できる円筒形もしくは箱型の形状のケースの内部に、赤外線投射装置200と赤外線撮影カメラ201とを設置する。円筒内部の構造については、靴の底部に埋め込む形状のものと同じである。
【0051】
図4及び図5のいずれの形態でマーカ撮影装置20を実現する場合にも、靴の底面には接地を感知するスイッチ202が設けられており、このスイッチ202が接地を感知すると、その瞬間だけ、赤外線投射装置200が赤外線を投射し、それと同時に、赤外線撮影カメラ201が画像を撮影する。このようにして撮影された画像信号は、無線や有線を使って識別情報認識装置21へ送られる。
【0052】
赤外線投射装置200としては、赤外線を発するLED、もしくは赤外線のみ透過するフィルタを装着したLEDを用いる。赤外線撮影カメラ201には、CCDカメラを用いる。これらを駆動するために必要となる電源については、靴の内部に埋め込まれた着脱可能な電池、もしくは靴の側面に設置された着脱可能な電池から供給されるか、あるいは識別情報認識装置21から供給される。
【0053】
識別情報認識装置21は、マーカの持つ識別情報を読み取るために用意されるものであり、図6に示すように、赤外線撮影カメラ201により撮影された画像情報を受信する画像受信部210と、受信した画像情報から識別情報を読み取る識別情報読取部211と、読み取った識別情報を位置情報決定装置23へ送信する識別情報送信部212とで構成される。
【0054】
この識別情報認識装置21の設置形態としては、歩行者に装着して設置する方式と、歩行者から切り離して別の場所に設置する方式という2つの設置形態がある。
【0055】
識別情報認識装置21を構成する画像受信部210は、識別情報認識装置21が歩行者に装着されて設置される場合には、マーカ撮影装置20からUSBケーブル、IEEE1943ケーブル、あるいはこれに類する画像信号を送信できるケーブルを介して画像情報を受け取る。一方、識別情報認識装置21が歩行者から切り離されて固定の場所に設置される場合には、マーカ撮影装置20から無線通信にて画像情報を受け取る。画像受信部210は、その受け取った画像情報を識別情報読取部211へ送る。
【0056】
識別情報認識装置21を構成する識別情報読取部211は、画像受信部210から受け取った画像情報を次に示す手順に従って識別情報に変換して、識別情報送信部212へ送る。
【0057】
識別情報認識装置21を構成する識別情報送信部212は、識別情報読取部211から受け取った識別情報を位置情報決定装置23へ送信する。
【0058】
データベース22は、識別情報と位置情報との対応表を管理するものであり、識別情報が与えられると、それに対応付けられる位置情報を出力する。
【0059】
さらに、このデータベース22は、識別情報と位置情報との対データを追加し、削除し、一覧を出力し、一覧を記憶媒体に保存し、一覧を記憶媒体から読み取る機能を持つ。
【0060】
位置情報決定装置23は、識別情報認識装置21の読み取った識別情報を受け取り、それをデータベース22に入力することで、データベース22から位置情報を受け取る。ただし、識別情報として検出失敗を示す“0”を受け取る場合には、位置情報としてNULLを出力する。
【0061】
なお、識別情報認識装置21、データベース22及び位置情報決定装置23は、単体の計算機内に組み込まれて実装される形態と、それぞれ別々の計算機内に組み込まれて実装される形態とがある。後者の実装形態を用いる場合には、各装置を有線もしくは無線でデータを送信することになる。
【0062】
次に、図7ないし図10に示す処理フローに従って、識別情報読取部211の実行する識別情報の読取処理について詳細に説明する。
【0063】
ここで、識別情報読取部211に入力されるものはビットマップ画像であり、識別情報読取部211から出力されるものは数字で表される識別情報である。
【0064】
識別情報読取部211は、図7ないし図10に示す処理フローを実行する場合には、先ず最初に、赤外線撮影カメラ201により撮影された画像情報を2値化して、その2値化画像から輝度“1”を示す正方形の代表ピクセル位置(ある範囲にあるピクセルの中で最も高い輝度を示すピクセルの位置)を特定し、その代表ピクセル位置で構成される画像を規定角度ずつ回転させることで処理対象画像(回転させないものを含む)を生成する。
【0065】
続いて、その処理対象画像が図11に示すような輝度“1”の並びを持つのか否かを判断して、図11に示すような輝度“1”の並びを持つことを判断するときには、さらに、その処理対象画像が図12に示すような輝度“1”の並びを持つのか否かを判断する。
【0066】
続いて、図11及び図12に示すような輝度“1”の並びを持つことを判断するときには、赤外線撮影カメラ201により撮影された画像情報がマーカの画像情報であることを判断して、図13に示すように、それらの縦横の並びにより特定されることになる代表ピクセル位置の輝度パターンに従って、マーカの持つ識別情報を読み取るように処理することになる。
【0067】
すなわち、識別情報読取部211は、図7ないし図10に示す処理フローを実行する場合には、先ず最初に、ステップ10で、画像受信部210からマーカ撮影装置20の撮影した画像(画像1)を受け取ると、続くステップ11で、その受け取った画像を2値化することでモノクロ画像(画像2)に変換する。
【0068】
このとき、例えば、赤外線が反射されて白く写っている部分にあたるピクセルの2値化値(輝度)を“0”、赤外線を吸収して黒く写る部分にあたるピクセルの2値化値(輝度)を“1”としてモノクロ画像に変換する。この2値化により、図2に示す単位マーカで、塗りつぶされた正方形が配置されている部分のみが“1”となるような画像が作成されることになる。
【0069】
続いて、ステップ12で、2値化した画像の各ピクセル(x,y)について、上下左右αピクセルの正方形の範囲内にあるピクセルの輝度の合計値を求めて、その合計値を輝度とする新たな画像(画像3)を生成する。
【0070】
すなわち、近傍のピクセルの輝度を使って、各ピクセルの輝度に対して平均化処理を施すのである。ここで、αの値については装置の管理者が任意に選定することになる。ただし、画像2の上下左右からαピクセル未満の位置にある画像3の該当するピクセルの輝度については“0”とする。
【0071】
続いて、ステップ13で、ステップ12で生成した画像(画像3)の各ピクセルをラスタスキャン形式で1ピクセルずつずらしながら選択して、その選択した各ピクセル(x,y)について、上下左右βピクセルの正方形の範囲内にある全てのピクセルの輝度(以下の処理が既に行われている場合にはその処理された輝度を使う)よりも大きい輝度を持つのか否かを判断して、大きい輝度を持つことを判断するとき、すなわち、近傍のピクセルの中で最大の輝度を持つ場合には、その選択したピクセルの輝度を“1”とし、それ以外のピクセルの輝度を“0”ですることで、新たな画像(画像4)を生成する。
【0072】
このようにして生成される画像(画像4)は、“1”を示す正方形の代表ピクセル位置に輝度“1”を持つ画像となる。ここで、βの値については装置の管理者が任意に選定することになる。ただし、画像3の上下左右からβピクセル未満の位置にある画像4の該当するピクセルの輝度については“0”とする。
【0073】
続いて、ステップ14で、ステップ13で生成した画像(画像4)を、画像の中央を中心として左周りに(360/r)度ずつ回転させた画像をr枚作成する。そして、この作成したr枚の画像と、ステップ13で生成した画像(画像4)をそのままコピーした画像とを処理対象画像とする。
【0074】
続いて、ステップ15で、全ての処理対象画像について処理を行ったのか否かを判断して、未処理の処理対象画像が残されていることを判断するときには、ステップ17に進んで、その中から処理対象画像を1つ選択する。
【0075】
続いて、ステップ18で、その選択した処理対象画像のピクセルに含まれる輝度“1”を持つ全てのピクセルについて処理を行ったのか否かを判断して、処理を行っていない輝度“1”を持つピクセルが残されていることを判断するときには、ステップ19に進んで、その中からピクセルを1つ選択する。この選択したピクセルの座標を(x,y)とする。
【0076】
一方、ステップ18で、選択した処理対象画像のピクセルに含まれる輝度“1”を持つ全てのピクセルについて処理を行ったことを判断するときには、未処理の処理対象画像を選択すべくステップ15に戻る。そして、このステップ15で、全ての処理対象画像について処理を行ったことを判断するときには、ステップ16に進んで、歩行者の検出に失敗したことを判断して、検出失敗を示す“0”を出力して処理を終了する。
【0077】
一方、ステップ19で、選択した処理対象画像のピクセルに含まれる輝度“1”を持つピクセル(座標(x,y))を1つ選択すると、続いて、ステップ20で、カウンタkの値に“0”をセットする。
【0078】
続いて、ステップ21で、装置の管理者が任意に選定する定数dを使って、
x’’=x+d*k   k:カウンタkの値
を計算し、続くステップ22で、その計算した(x’’,y)について、上下左右γピクセルの正方形の範囲内にあるピクセルの中に輝度“1”を持つピクセルがあるのか否かを判断する。
【0079】
この判断処理により、(x’’,y)を中心とする上下左右γピクセルの正方形の範囲内に輝度“1”を持つピクセルがないことを判断するときには、未処理の輝度“1”を持つピクセルを選択すべくステップ18に戻り、一方、輝度“1”を持つピクセルがあることを判断するときには、ステップ23に進んで、カウンタkの値を1つインクリメントする。
【0080】
続いて、ステップ24で、カウンタkの値が最大値である“n−1”(図2中に示す“n−1”)を超えたのか否かを判断して、カウンタkの値が最大値である“n−1”を超えていないことを判断するときには、ステップ21に戻る。
【0081】
一方、ステップ24で、カウンタkの値が最大値である“n−1”を超えたことを判断するとき、すなわち、図11に示すような輝度“1”の並びを検出したことを判断するときには、ステップ25に進んで、カウンタkの値に1をセットする。
【0082】
続いて、ステップ26で、上述した定数dを使って、
y’’=y+d*k   k:カウンタkの値
を計算し、続くステップ27で、その計算した(x,y’’)について、上下左右γピクセルの正方形の範囲内にあるピクセルの中に輝度“1”を持つピクセルがあるのか否かを判断する。
【0083】
この判断処理により、(x,y’’)を中心とする上下左右γピクセルの正方形の範囲内に輝度“1”を持つピクセルがないことを判断するときには、未処理の輝度“1”を持つピクセルを選択すべくステップ18に戻り、一方、輝度“1”を持つピクセルがあることを判断するときには、ステップ28に進んで、カウンタkの値を1つインクリメントする。
【0084】
続いて、ステップ29で、カウンタkの値が最大値である“m−1”(図2中に示す“m−1”)を超えたのか否かを判断して、カウンタkの値が最大値である“m−1”を超えていないことを判断するときには、ステップ26に戻る。
【0085】
一方、ステップ29で、カウンタkの値が最大値である“m−1”を超えたことを判断するとき、すなわち、図12に示すような輝度“1”の並びを検出したことを判断するときには、ステップ30に進んで、「xL =x’’,yL =y’’」を設定する。
【0086】
すなわち、ステップ21の処理に従って増大させていくことで確定したx’’と、ステップ26の処理に従って増大させていくことで確定したy’’とに従って、「xL =x’’,yL =y’’」を設定するのである。
【0087】
続いて、ステップ31で、以上に説明した処理を行った処理対象画像(ステップ17で選択した処理対象画像)から、「(x,y)−(xL ,yL )」を対角線とする矩形よりもδピクセルだけ上下左右に大きな矩形を切り出すことで、新たな画像(画像5)を生成する。
【0088】
続いて、ステップ32で、バッファBをクリアする。なお、バッファBのp番目の格納番地をB[p]で表すものとする。
【0089】
続いて、ステップ33で、ステップ31で生成した画像(画像5)のピクセルに含まれる輝度“1”を持つものの中で最も左上にあるピクセルの座標を(x,y)とし、続くステップ34で、その座標(x,y)を基準にして、上述した定数dを使って、
xi=x+d*i   i=0〜(n−1)
yj=y+d*j   j=0〜(m−1)
という式に従って、x0〜x(n−1),y0〜y(m−1) を作成する。
【0090】
続いて、ステップ35で、「i=1,j=1」を設定する。続いて、ステップ36で、(xi,yj)について、上下左右γピクセルの正方形の範囲内にあるピクセルの中に輝度“1”を持つピクセルがあるのか否かを判断する。
【0091】
この判断処理により、(xi,yj)を中心とする上下左右γピクセルの正方形の範囲内に輝度“1”を持つピクセルがあることを判断するときには、ステップ37に進んで、バッファBの格納位置B[(i−1)+(n−1)(j−1)]に“1”を格納し、一方、そのようなピクセルがないことを判断するときには、ステップ38に進んで、バッファBの格納位置B[(i−1)+(n−1)(j−1)]に“0”を格納する。
【0092】
続いて、ステップ39で、変数iの値を1つインクリメントし、続くステップ40で、変数iの値が最大値である“n−1”(図2中に示す“n−1”)を超えたのか否かを判断して、変数iの値が最大値である“n−1”を超えていないことを判断するときには、ステップ36に戻る。
【0093】
一方、ステップ40で、変数iの値が最大値である“n−1”を超えたことを判断するときには、ステップ41に進んで、変数jの値を1つインクリメントし、続くステップ42で、変数jの値が最大値である“m−1”(図2中に示す“m−1”)を超えたのか否かを判断する。
【0094】
この判断処理により、変数jの値が最大値である“m−1”を超えていないことを判断するときには、ステップ43に進んで、変数iに“1”をセットしてから、ステップ36に戻る。
【0095】
そして、ステップ42で、変数jの値が最大値である“m−1”を超えたことを判断するときには、ステップ44に進んで、バッファBの内容を二進数として読み出し、識別情報として出力して処理を終了する。
【0096】
すなわち、ステップ36〜ステップ43の処理を繰り返していくことで、図13に示す具体例で説明するならば、
B[0] =1,B[1] =0,B[2] =1,B[3] =0,
B[4] =1,B[5] =0,B[6] =1,B[7] =1,
B[8] =0,B[9] =0,B[10]=0,B[11]=1,
というようにバッファBに格納して、その格納を終了すると、ステップ44で、バッファBの内容を二進数として読み出して“2737”というように出力するのである。
【0097】
このようにして、識別情報読取部211は、マーカ撮影装置20により撮影されたマーカの模様を分析してマーカの識別情報を読み取るように処理するのである。
【0098】
この識別情報読取部211の読み取った識別情報を受けて、上述したように、位置情報決定装置23は、その識別情報を検索キーにしてデータベース22を検索することで、歩行者の位置情報を決定するように処理することになる。
【0099】
〔2〕第2の実施形態例
上述した第1の実施形態例では、非可視位置情報マーカ1として、赤外線吸収塗料で模様を印刷したものを開示するとともに、マーカ撮影装置20として、赤外線を投射するLEDで構成される赤外線投射装置200と赤外線撮影が可能な赤外線撮影カメラ201とで構成されるものを開示したが、その他にも、いくつかの組合わせが考えられる。
【0100】
例えば、マーカ撮影装置20の光源として、赤外線を投射するLEDを用いる場合には、非可視位置情報マーカ1として、赤外線反射塗料を用いることも考えられる。
【0101】
また、マーカ撮影装置20の光源として、ブラックライトを用いる場合には、非可視位置情報マーカ1として、近紫外線反射/吸収塗料を用いることも考えられる。
【0102】
また、マーカ撮影装置20の光源として、可視光線を用いることも可能である。この場合、非可視位置情報マーカ1として、可視光が透過されると赤外線を反射する種類の塗料を用いることが考えられる。
【0103】
また、非可視位置情報マーカ1として、可視領域の塗料を用いることも考えられる。
【0104】
〔3〕第3の実施形態例
上述した第1の実施形態例では、非可視位置情報マーカ1として、既存のものを用いない構成を開示したが、既存の2次元バーコードを用いる方式も考えられる。この場合、コードの読み取りに、既存の2次元バーコードの解読のアルゴリズムを適用することが可能である。
【0105】
ただし、既存の2次元バーコードの規格の多くはバーコードの方向の取得が考慮されていないため、方位情報の取得に際しては、2次元バーコードの拡張が必要となる。例えば、2次元バーコードの外周に方向情報を識別するパターンを埋め込むことで、方向情報を取得することができる。
【0106】
また、既存の2次元バーコードを用いる場合には、識別情報認識装置21として、既存の2次元バーコードリーダを用いる方式も考えられる。しかし、多くの2次元バーコードリーダはバーコード位置の取得に時間がかかるため、高速で読み取ることを考慮されたマキシコードやQRコードなどが利用に適していると考えられる。
【0107】
〔4〕第4の実施形態例
上述した第1の実施形態例では、非可視位置情報マーカ1から読み取られた識別情報に対応する位置情報をデータベース22から取得することで位置を取得するという構成を用いているが、非可視位置情報マーカ1を決まったパターンに従って床面に敷き詰めることで、データベース22を用いずに歩行者の位置情報を取得することも可能である。
【0108】
例えば、実際の位置情報から非可視位置情報マーカ1の識別情報に変換する式を作成し、作成された変換式によって得られた識別情報に対応する非可視位置情報マーカ1を指定された位置情報の場所に敷き詰めることにより、読み取った識別情報に一定の変換式を適用することで、データベース22を用いずに歩行者の位置情報を取得することが可能となる。
【0109】
〔5〕第5の実施形態例
マーカ撮影装置20と非可視位置情報マーカ1との間にゴミなどの粉塵が挟まると、マーカの読取精度が低下する。
【0110】
そこで、マーカ撮影装置20の接地部をスプリング状にし、側面に排気抗を開ける。これにより床を踏む際にマーカ撮影装置20内の空気が圧縮され、側面から排出される。この際細かい粉塵も一緒に外に排出されるため、粉塵の影響を低減することが可能となる。
【0111】
【発明の効果】
以上説明したように、本発明によれば、廉価で製造が容易なマーカと、長時間使用可能な検出装置とを使用して移動体の位置検出を行うことから、移動体の位置を廉価かつ高精度に、しかも、長時間かつ広範囲に検出できるようになる。
【0112】
例えば、歩行者の位置検出に適用する場合には、廉価な素材に印刷したマーカを床面に設置し、歩行者の靴底などに装着されたカメラを使って外光を遮断した状態でマーカを撮影して、そのマーカに記録された識別情報を解読し、識別情報と位置情報との対応関係が登録されたデータベースを参照して、その識別情報から位置情報を取得することで、歩行者の現在位置を測定できるようになることから、歩行者の位置を廉価かつ高精度に検出できるようになる。
【0113】
このとき、歩行者の靴が接地した瞬間のみマーカが撮影されるという構成を用いることで、歩行者の位置を長時間かつ広範囲に検出できるようになる。
【図面の簡単な説明】
【図1】本発明により構成される歩行者位置検出システムのシステム構成例である。
【図2】単位マーカの一実施形態例である。
【図3】単位マーカの持つ識別情報の説明図である。
【図4】マーカ撮影装置の一実施形態例である。
【図5】マーカ撮影装置の一実施形態例である。
【図6】識別情報認識装置の装置構成の説明図である。
【図7】識別情報読取部の実行する処理フローの一実施形態例である。
【図8】識別情報読取部の実行する処理フローの一実施形態例である。
【図9】識別情報読取部の実行する処理フローの一実施形態例である。
【図10】識別情報読取部の実行する処理フローの一実施形態例である。
【図11】識別情報読取部の実行する処理の説明図である。
【図12】識別情報読取部の実行する処理の説明図である。
【図13】識別情報読取部の実行する処理の説明図である。
【符号の説明】
1  非可視位置情報マーカ
2  歩行者位置検出システム
20 マーカ撮影装置
21 識別情報認識装置
22 データベース
23 位置情報決定装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving body position detecting device and method for detecting the position of a moving body that moves freely, a moving body position detecting program used for realizing the moving body position detecting method, and a recording medium storing the program. About.
[0002]
In a navigation system, a system for managing the position of a person, and a system for providing regional information, it has been called for a technology to be able to measure the current position of a moving object such as a person at low cost and with high accuracy.
[0003]
[Prior art]
As the accuracy of the measuring instrument has been improved, techniques for measuring the location, moving direction, and moving speed of a moving object such as a person obtained from the measuring instrument have been improved. With respect to devices for performing position measurement, existing technologies can be classified into the following four methods.
[0004]
(1) System using GPS (Global Positioning System)
In this method, time information from a plurality of orbiting satellites is received by a measuring instrument on the ground, and the longitude, latitude, direction, and altitude of the measuring instrument are calculated from the deviation of the received time information and the position information of the satellite.
[0005]
Although this method can detect the position with an error of about several millimeters, it has a problem that it cannot be used indoors or underground where signals from satellites cannot be received.
[0006]
(2) System using RFID (Radio Frequency Identification)
An antenna is installed on the inner wall, floor, or ceiling of a building, and an IC chip that returns a signal to the antenna in response to electromagnetic waves emitted from the antenna is attached to a moving object or a person, and the antenna uses the antenna. This is a method of detecting that an object is present within a certain range from an antenna by detecting a return wave (Japanese Patent Laid-Open No. 2000-501515).
[0007]
A method in which an antenna is installed on a moving object and an IC chip is installed on a building side is also used.
[0008]
This method has the advantage that it is less susceptible to wear and pollution due to the use of the IC chip embedded inside the object, but it is necessary to increase the installation density of antennas and IC chips to improve accuracy. However, there is a problem that it is costly to detect a position over a wide area with high accuracy.
[0009]
(3) Method using mobile phone or PHS
This is a method of detecting the position of a user from the position of a mobile phone or a base station used by a PHS held by the user (Japanese Patent Laid-Open No. Hei 10-281801).
[0010]
This method has a problem that a large number of base stations must be installed in order to obtain high accuracy.
[0011]
(4) Method to measure stride
A sensor is installed on both feet of a pedestrian or a robot to measure the stride length to obtain the moving distance, and to detect the relative moving position from the initial position (Japanese Patent Laid-Open No. 10-307985), There is a method of acquiring a moving distance by estimating a stride and calculating a relative moving position from an initial position (JP-A-2000-249571).
[0012]
These have the advantage that only the pedestrian needs to wear the sensor, but have the problem that errors accumulate as they move from the initial position.
[0013]
(5) Other methods
There is a method in which a pressure sensor is laid on the floor and a position and a moving speed of a pedestrian are detected by detecting a position where a foot touches a ground (Japanese Patent Application Laid-Open No. 2001-183455).
[0014]
This method, like the method using RFID, has a problem that when used in a wide range, it is necessary to spread a large number of sensors and the cost increases.
[0015]
[Problems to be solved by the invention]
As described above, in the related art other than the GPS, there is a problem that a sensor needs to be installed in a wide range in order to create a system for detecting the position of a moving object with high accuracy of about 1 cm over a wide range.
[0016]
The conventional technology using GPS has a problem that it cannot be used indoors.
[0017]
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a new moving body position detection technique that enables the current position of a moving body to be detected at low cost and with high accuracy.
[0018]
[Means for Solving the Problems]
In order to achieve this object, the moving object position detecting device of the present invention is mounted on a moving object to realize the detection of the position of a freely moving moving object. A photographing means for photographing an identification marker provided at a location; and (2) a recognizing means for recognizing identification information of the marker photographed by the photographing means by performing recognition processing on image information photographed by the photographing means. And (3) determining means for determining the position of the moving object in accordance with the identification information recognized by the recognition means.
[0019]
In order to realize this configuration, the moving object position detecting device of the present invention is mounted on the moving object to realize the detection of the position of the moving object that moves freely. A photographing means for photographing a marker for identification provided at a moving part of the body; and (2) recognizing identification information of the marker photographed by the photographing means by performing a recognition process on image information photographed by the photographing means. (3) storage means for storing the correspondence between the identification information to be recognized by the recognition means and the positional information of the moving object associated therewith; and (4) keying the identification information recognized by the recognition means. And a determining means for determining the position of the moving object by accessing the storage means.
[0020]
When adopting such a configuration, the moving body position detecting device of the present invention is further mounted on the moving body, and the photographing by the photographing means can be performed only for a moment when the marker enters a state where photographing of the marker is enabled. There may be a switch means for controlling the operation to be performed.
[0021]
The photographing means provided in the moving object position detecting device of the present invention is preferably configured to have a structure for blocking external light when photographing a marker.
[0022]
The moving object position detecting method of the present invention realized by the operation of the moving object position detecting device of the present invention configured as described above can be realized by a computer program. It can be recorded on any suitable recording medium and provided.
[0023]
The photographing means provided in the moving body position detecting device of the present invention targets an identification marker provided at a moving position of the moving body as a photographing target. For example, a recording position detection used for specifying a recording position of identification information is performed. A marker having a binarization pattern for use and a binarization pattern associated with the identification information recorded at the recording position specified from the binarization pattern for recording position detection is set as an imaging target.
[0024]
The moving object position detection device of the present invention receives image information captured by the image capturing means and performs recognition processing on the image information to recognize identification information of a marker captured by the image capturing means.
[0025]
For example, when the marker has the above-described structure, the image information photographed by the photographing unit is binarized, the recording position of the binarized pattern is specified from the binarized image, and the recording position is determined. The image shown is rotated in various ways, and it is determined whether or not the rotated image (including the image that is not rotated to be rotated by 0 degrees) has the above-described position detection binarization pattern. When making a determination, processing is performed to recognize the identification information of the marker in accordance with the binarization pattern recorded at the recording position specified from the binarization pattern for position detection.
[0026]
In this way, when recognizing the identification information of the marker photographed by the photographing means, the moving object position detecting device of the present invention performs a specified conversion on the recognized identification information in accordance with the rules of the identification information. If the configuration is such that the position of the moving object can be detected, the position of the moving object is determined by performing a prescribed conversion on the recognized identification information.
[0027]
On the other hand, when such a rule is not prepared, the stored identification information is used as a key to store the correspondence between the identification information to be recognized and the position information of the moving object associated therewith. By accessing the means, the position of the moving object is determined.
[0028]
Next, a configuration example in the case where the present invention is applied to pedestrian position detection will be specifically described.
[0029]
When the present invention is applied to the detection of the position of a pedestrian, the identification is printed on a cheap paper surface, a plastic surface, a glass surface, a carpet, or the like fixed to a road surface or a floor surface of a building, for example, with a paint that absorbs infrared rays. Place a marker with information.
[0030]
For example, by mounting a camera and an infrared projection device capable of taking an infrared ray on the sole of a pedestrian, it is possible to take an image of a marker provided on a road surface or a floor of a building.
[0031]
At this time, in order to enable power supply by dry batteries, infrared rays should be projected from the infrared projection device only at the moment when the pedestrian's shoes touch the ground, and photography should be performed by the camera only at that moment. Therefore, the marker may be photographed only at the moment when the pedestrian's shoes touch the ground.
[0032]
According to such a configuration, in the present invention, a marker printed on an inexpensive material is installed on the floor, and the marker is photographed in a state where external light is blocked by using a camera mounted on the sole of a pedestrian, Decoding the identification information recorded on the marker, for example, by referring to a database in which the correspondence between the identification information and the position information is registered, and acquiring the position information from the identification information, the current position of the pedestrian That can be measured accurately.
[0033]
According to the present invention, the equipment that needs to be laid on the floor surface for detecting the position of a pedestrian is a marker having a pattern printed on the surface of a building material with a paint that absorbs infrared rays. This marker is inexpensive to produce and easy to mass produce. Equipment that needs to be worn by pedestrians is an infrared projection device such as an LED that projects infrared light, a camera that can shoot infrared light, and a small computer that processes images. From these facts, the present invention can be constructed at low cost.
[0034]
According to the present invention, since the device is activated by the switch that operates only when the sole of the shoe touches the ground to detect the position of the pedestrian, the activation time is instantaneous, so that the device can be used continuously for a long time. Becomes possible.
[0035]
As described above, according to the present invention, the position of the moving body is detected using the inexpensive and easily manufactured marker and the detection device that can be used for a long time. The detection can be performed with high accuracy and for a long time and in a wide range.
[0036]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0037]
[1] First Embodiment Example
FIG. 1 shows an example of a system configuration for detecting the position of a pedestrian according to the present invention.
[0038]
As shown in this figure, the present invention includes an invisible position information marker 1 and a pedestrian position detection system 2.
[0039]
(B) Invisible position information marker 1
The invisible position information marker 1 is an aggregate of unit markers printed on the floor on which a pedestrian walks. This unit marker is a set of squares, and as shown in FIG. 2, a square having a side of a (cm) and representing a "1", and not actually representing a "0" are not printed. Consists of a blank square.
[0040]
The identification information of the unit marker is indicated by an arrangement of squares forming the unit marker. The squares are arranged at n intervals in the horizontal direction (x direction) and at m intervals in the vertical direction (y direction) at intervals of a / 2 (cm).
[0041]
Here, any values can be used for a, n, and m, but fixed values determined by the system administrator are used. Hereinafter, the position of the upper left square is represented by (0, 0), and the position of the lower right square is represented by (n-1, m-1).
[0042]
As shown in FIG. 2, in each unit marker, in order to determine the direction of the marker, a filled square is arranged in a portion corresponding to a column on the left side and a row on the upper side. The identification information is arranged rightward by using each square from the position corresponding to (1, 1) in the figure. The information next to (n-1, j) is described in (1, j + 1), and similarly, information is sequentially described up to the position of (n-1, m-1).
[0043]
FIG. 3A shows a unit marker having identification information “010110”, and FIG. 3B shows a unit marker having identification information “000001”. Here, it is assumed that “n = 4, m = 3” in the unit markers shown in FIG.
[0044]
Each unit marker should be placed at least 2 x a (cm) or more apart on the surface of white paper, glass, plastic, or a carpet made of a material that is less likely to absorb infrared light. Print and place on the floor. The squares constituting each unit marker are printed with a paint that absorbs infrared rays.
[0045]
After the invisible position information marker 1 is installed on the floor, a protective material such as plastic or glass that transmits infrared rays is mounted and fixed in order to prevent wear and contamination of the printing surface. If the printing surface is a carpet, no protective material is used. When a transparent protective material is used, a method of printing a marker directly on the back surface of the protective material itself can be used.
[0046]
(B) Pedestrian position detection system 2
As shown in FIG. 1, the pedestrian position detection system 2 includes a marker photographing device 20 for photographing a marker, an identification information recognition device 21 for analyzing a marker pattern and reading identification information of the marker, identification information and position information. And a position information determining device 23 that determines position information from the identification information with reference to the database 22.
[0047]
The marker photographing device 20 is provided in a form embedded in the bottom of a pedestrian's shoe, as shown in FIG. 4, or provided in a form fixed to the pedestrian's shoe, as shown in FIG.
[0048]
In the case of being provided in the form of being embedded in the bottom of a pedestrian's shoe, as shown in FIG. 4, the heel portion of the shoe is cut into a cylindrical shape, and the infrared projection device 200 and the infrared camera 201 are provided on the upper surface of the cylinder. Will be installed.
[0049]
In this case, the cylinder is made of, for example, a metal material having sufficient strength to prevent deformation due to the load of the pedestrian. The inner surface of the cylinder is coated with a paint that absorbs infrared rays to prevent the projection light from the infrared projector 200 from being reflected. In addition, the bottom surface of the cylinder can be used in an open state without a lid, and the grounding part can be covered with glass or plastic-like material that transmits infrared rays, so that dust enters the inside of the cylinder from the bottom. Any of the methods used to prevent
[0050]
When provided in a form fixed to a pedestrian's shoe, as shown in FIG. 5, an infrared projection device 200 is provided inside a cylindrical or box-shaped case that can be fixed to the side of the shoe or the rear of the heel. The infrared camera 201 is installed. The structure inside the cylinder is the same as that of the shape embedded in the bottom of the shoe.
[0051]
In realizing the marker photographing device 20 in any of the forms of FIG. 4 and FIG. 5, a switch 202 for detecting the grounding is provided on the bottom of the shoe. The infrared projection device 200 projects infrared light, and at the same time, the infrared imaging camera 201 captures an image. The image signal photographed in this manner is sent to the identification information recognition device 21 using wireless or wired communication.
[0052]
As the infrared projection device 200, an LED that emits infrared light or an LED equipped with a filter that transmits only infrared light is used. As the infrared camera 201, a CCD camera is used. The power required to drive them is supplied from a detachable battery embedded inside the shoe, a detachable battery installed on the side of the shoe, or from the identification information recognition device 21. Supplied.
[0053]
The identification information recognition device 21 is provided for reading the identification information of the marker. As shown in FIG. 6, the identification information recognition device 21 receives an image information captured by the infrared imaging camera 201, An identification information reading unit 211 that reads the identification information from the read image information, and an identification information transmitting unit 212 that transmits the read identification information to the position information determination device 23.
[0054]
There are two installation modes of the identification information recognition device 21: a system in which the identification information recognition device 21 is mounted on a pedestrian and a system in which the identification information recognition device 21 is separated from the pedestrian and installed in another place.
[0055]
When the identification information recognition device 21 is installed by being mounted on a pedestrian, the image receiving unit 210 constituting the identification information recognition device 21 receives a USB cable, an IEEE 1943 cable, or a similar image signal from the marker imaging device 20. Receive image information through a cable that can send. On the other hand, when the identification information recognition device 21 is separated from the pedestrian and installed in a fixed place, the image information is received from the marker imaging device 20 by wireless communication. The image receiving unit 210 sends the received image information to the identification information reading unit 211.
[0056]
The identification information reading unit 211 included in the identification information recognition device 21 converts the image information received from the image receiving unit 210 into identification information according to the following procedure, and sends it to the identification information transmitting unit 212.
[0057]
The identification information transmission unit 212 included in the identification information recognition device 21 transmits the identification information received from the identification information reading unit 211 to the position information determination device 23.
[0058]
The database 22 manages a correspondence table between the identification information and the position information. When the identification information is given, the database 22 outputs the position information associated with the identification information.
[0059]
Further, the database 22 has a function of adding and deleting pair data of identification information and position information, outputting a list, storing the list in a storage medium, and reading the list from the storage medium.
[0060]
The position information determination device 23 receives the identification information read by the identification information recognition device 21 and inputs the information to the database 22, thereby receiving the position information from the database 22. However, when "0" indicating detection failure is received as identification information, NULL is output as position information.
[0061]
The identification information recognizing device 21, the database 22, and the position information determining device 23 may be mounted and installed in a single computer, or may be mounted and mounted in separate computers. In the case of using the latter implementation, each device transmits data in a wired or wireless manner.
[0062]
Next, the reading process of the identification information executed by the identification information reading unit 211 will be described in detail according to the processing flow shown in FIGS.
[0063]
Here, what is input to the identification information reading unit 211 is a bitmap image, and what is output from the identification information reading unit 211 is identification information represented by a numeral.
[0064]
When executing the processing flow shown in FIGS. 7 to 10, first, the identification information reading unit 211 binarizes the image information captured by the infrared imaging camera 201, and converts the binarized image into a luminance. Processing is performed by specifying a square representative pixel position indicating “1” (a position of a pixel having the highest luminance among pixels in a certain range) and rotating an image formed by the representative pixel position by a specified angle. Generate target images (including those that are not rotated).
[0065]
Subsequently, it is determined whether or not the processing target image has a sequence of luminance “1” as shown in FIG. 11, and when it is determined that the image to be processed has a sequence of luminance “1” as shown in FIG. Further, it is determined whether or not the processing target image has an arrangement of luminance “1” as shown in FIG.
[0066]
Subsequently, when it is determined to have the arrangement of the luminance “1” as shown in FIGS. 11 and 12, it is determined that the image information captured by the infrared imaging camera 201 is the image information of the marker. As shown in FIG. 13, processing is performed to read the identification information of the marker in accordance with the luminance pattern at the representative pixel position to be specified more vertically and horizontally.
[0067]
That is, when executing the processing flow shown in FIGS. 7 to 10, first, in step 10, the identification information reading unit 211 captures an image (image 1) captured by the marker capturing device 20 from the image receiving unit 210. Is received, in a succeeding step 11, the received image is converted into a monochrome image (image 2) by binarization.
[0068]
At this time, for example, the binarization value (brightness) of a pixel corresponding to a white portion reflected by infrared rays is “0”, and the binarization value (brightness) of a pixel corresponding to a black portion by absorbing infrared rays is “0”. 1 "is converted to a monochrome image. By this binarization, an image is created in which only the portion where the filled square is arranged becomes “1” in the unit marker shown in FIG.
[0069]
Subsequently, in step 12, for each pixel (x, y) of the binarized image, the sum of the brightness of the pixels within the square range of the upper, lower, left and right α pixels is obtained, and the sum is used as the brightness. Generate a new image (image 3).
[0070]
That is, the luminance of each pixel is averaged using the luminance of the neighboring pixels. Here, the administrator of the apparatus arbitrarily selects the value of α. However, the luminance of the corresponding pixel of the image 3 located at a position less than α pixels from the top, bottom, left and right of the image 2 is “0”.
[0071]
Subsequently, in step 13, each pixel of the image (image 3) generated in step 12 is selected while being shifted one pixel at a time in a raster scan format, and the selected pixel (x, y) is shifted up, down, left, right, and β pixels. It is determined whether or not the pixel has a luminance greater than the luminance of all pixels within the range of the square of (If the following processing is already performed, the processed luminance is used). When judging that the pixel has the maximum luminance among the neighboring pixels, the luminance of the selected pixel is set to “1” and the luminance of the other pixels is set to “0”. , A new image (image 4) is generated.
[0072]
The image (image 4) generated in this manner is an image having the luminance “1” at the position of the square representative pixel indicating “1”. Here, the value of β is arbitrarily selected by the administrator of the apparatus. However, the brightness of the corresponding pixel of the image 4 located less than β pixels from the top, bottom, left and right of the image 3 is “0”.
[0073]
Then, in step 14, r images are generated by rotating the image (image 4) generated in step 13 counterclockwise (360 / r) degrees around the center of the image. Then, the created r images and an image obtained by directly copying the image (image 4) generated in step 13 are set as processing target images.
[0074]
Subsequently, in step 15, it is determined whether or not all the processing target images have been processed, and when it is determined that an unprocessed processing target image remains, the process proceeds to step 17, in which , One image to be processed is selected.
[0075]
Subsequently, in step 18, it is determined whether or not processing has been performed for all pixels having the luminance “1” included in the pixels of the selected processing target image, and the luminance “1” that has not been processed is determined. When it is determined that the pixel having the pixel is left, the process proceeds to step 19, and one pixel is selected from the pixel. Let the coordinates of the selected pixel be (x, y).
[0076]
On the other hand, when it is determined in step 18 that processing has been performed on all the pixels having the luminance “1” included in the pixels of the selected processing target image, the process returns to step 15 to select an unprocessed processing target image. . When it is determined in step 15 that all the processing target images have been processed, the process proceeds to step 16 in which it is determined that pedestrian detection has failed, and “0” indicating detection failure is set to “0”. Output and end the process.
[0077]
On the other hand, in step 19, if one pixel (coordinate (x, y)) having the luminance “1” included in the pixel of the selected processing target image is selected, then, in step 20, the value of the counter k is changed to “ Set "0".
[0078]
Subsequently, in step 21, using a constant d arbitrarily selected by the administrator of the device,
x '' = x + d * k k: value of counter k
In the following step 22, it is determined whether or not there is a pixel having a luminance “1” among the pixels within the square range of γ pixels at the top, bottom, left and right in the calculated (x ″, y). I do.
[0079]
When it is determined that there is no pixel having the luminance “1” within the range of the square of γ pixels at the center of (x ″, y) by this determination processing, the pixel has the unprocessed luminance “1”. The process returns to step 18 to select a pixel. On the other hand, when it is determined that there is a pixel having luminance "1", the process proceeds to step 23, where the value of the counter k is incremented by one.
[0080]
Subsequently, in step 24, it is determined whether or not the value of the counter k has exceeded the maximum value "n-1"("n-1" shown in FIG. 2). When it is determined that the value does not exceed “n−1”, the process returns to step 21.
[0081]
On the other hand, when it is determined in step 24 that the value of the counter k has exceeded the maximum value “n−1”, that is, it is determined that the arrangement of the luminance “1” as shown in FIG. 11 has been detected. In some cases, the routine proceeds to step 25, where 1 is set to the value of the counter k.
[0082]
Subsequently, in step 26, using the constant d described above,
y '' = y + d * k k: value of counter k
In the following step 27, it is determined whether or not the calculated (x, y '') has a pixel having the luminance "1" among the pixels within the square range of the upper, lower, left and right γ pixels. I do.
[0083]
By this determination processing, when it is determined that there is no pixel having the luminance “1” in the range of the square of the upper, lower, left, and right γ pixels around (x, y ″), the pixel has the unprocessed luminance “1”. The process returns to step 18 to select a pixel. On the other hand, when it is determined that there is a pixel having luminance "1", the process proceeds to step 28, where the value of the counter k is incremented by one.
[0084]
Subsequently, in step 29, it is determined whether or not the value of the counter k has exceeded the maximum value "m-1"("m-1" shown in FIG. 2). When it is determined that the value does not exceed “m−1”, the process returns to step 26.
[0085]
On the other hand, when it is determined in step 29 that the value of the counter k has exceeded the maximum value “m−1”, that is, it is determined that the arrangement of the luminance “1” as shown in FIG. 12 has been detected. Sometimes, the process proceeds to step 30, where "x L = X '', y L = Y '' ”is set.
[0086]
That is, according to x ″ determined by increasing according to the processing of step 21 and y ″ determined by increasing according to the processing of step 26, “x L = X '', y L = Y ''"is set.
[0087]
Subsequently, in step 31, from the processing target image on which the above-described processing has been performed (the processing target image selected in step 17), “(x, y) − (x L , Y L )), A new image (image 5) is generated by cutting out a rectangle that is larger by up and down and left and right by δ pixels than a rectangle having a diagonal line.
[0088]
Subsequently, in step 32, the buffer B is cleared. The p-th storage address of the buffer B is represented by B [p].
[0089]
Subsequently, in step 33, the coordinates of the upper left pixel among the pixels having the luminance “1” included in the pixels of the image (image 5) generated in step 31 are set to (x, y). , Based on the coordinates (x, y), using the constant d described above,
xi = x + d * i i = 0 to (n-1)
yj = y + d * j j = 0 to (m-1)
X0-x (n-1) and y0-y (m-1) are created according to the following formulas.
[0090]
Subsequently, in step 35, “i = 1, j = 1” is set. Subsequently, in step 36, it is determined whether or not (xi, yj) has a pixel having a luminance of “1” among the pixels within the square range of the upper, lower, left and right γ pixels.
[0091]
When it is determined that there is a pixel having a luminance “1” in the range of the square of γ pixels up, down, left, and right around (xi, yj), the process proceeds to step 37, and the storage position of the buffer B is determined. "1" is stored in B [(i-1) + (n-1) (j-1)]. On the other hand, when it is determined that there is no such pixel, the process proceeds to step 38, where “0” is stored in the storage position B [(i−1) + (n−1) (j−1)].
[0092]
Subsequently, at step 39, the value of the variable i is incremented by one. At step 40, the value of the variable i exceeds the maximum value "n-1"("n-1" shown in FIG. 2). If it is determined that the value of the variable i has not exceeded the maximum value “n−1”, the process returns to step 36.
[0093]
On the other hand, when it is determined in step 40 that the value of the variable i has exceeded the maximum value "n-1", the process proceeds to step 41, where the value of the variable j is incremented by one. It is determined whether or not the value of the variable j has exceeded the maximum value “m−1” (“m−1” shown in FIG. 2).
[0094]
When it is determined that the value of the variable j does not exceed the maximum value “m−1” by this determination processing, the process proceeds to step 43, where “1” is set to the variable i, and then the process proceeds to step 36. Return.
[0095]
When it is determined in step 42 that the value of the variable j has exceeded the maximum value "m-1", the flow advances to step 44 to read the contents of the buffer B as a binary number and output it as identification information. To end the processing.
[0096]
That is, by repeating the processing of steps 36 to 43, if it is described with a specific example shown in FIG.
B [0] = 1, B [1] = 0, B [2] = 1, B [3] = 0,
B [4] = 1, B [5] = 0, B [6] = 1, B [7] = 1,
B [8] = 0, B [9] = 0, B [10] = 0, B [11] = 1,
Is stored in the buffer B, and when the storage is completed, in step 44, the contents of the buffer B are read out as a binary number and output as "2737".
[0097]
In this way, the identification information reading unit 211 analyzes the pattern of the marker photographed by the marker photographing device 20 and performs processing to read the marker identification information.
[0098]
Upon receiving the identification information read by the identification information reading unit 211, as described above, the position information determination device 23 determines the position information of the pedestrian by searching the database 22 using the identification information as a search key. Will be processed.
[0099]
[2] Second embodiment example
In the above-described first embodiment, an invisible position information marker 1 is disclosed in which a pattern is printed with an infrared-absorbing paint, and an infrared projection device including an LED that projects infrared light is used as the marker photographing device 20. Although the one configured with the infrared camera 200 and the infrared imaging camera 201 capable of infrared imaging has been disclosed, some other combinations are conceivable.
[0100]
For example, when an LED that projects infrared light is used as the light source of the marker photographing device 20, an infrared reflective paint may be used as the invisible position information marker 1.
[0101]
When a black light is used as the light source of the marker photographing device 20, a near-ultraviolet reflecting / absorbing paint may be used as the invisible position information marker 1.
[0102]
In addition, a visible light can be used as a light source of the marker photographing device 20. In this case, it is conceivable to use, as the invisible position information marker 1, a type of paint that reflects infrared rays when visible light is transmitted.
[0103]
It is also conceivable to use a paint in the visible region as the invisible position information marker 1.
[0104]
[3] Third Embodiment
In the first embodiment described above, a configuration in which an existing one is not used as the non-visible position information marker 1 is disclosed, but a system using an existing two-dimensional barcode is also conceivable. In this case, an existing two-dimensional barcode decoding algorithm can be applied to code reading.
[0105]
However, since most existing two-dimensional barcode standards do not consider the acquisition of the direction of the barcode, the acquisition of azimuth information requires expansion of the two-dimensional barcode. For example, the direction information can be obtained by embedding a pattern for identifying the direction information on the outer periphery of the two-dimensional barcode.
[0106]
When an existing two-dimensional barcode is used, a method using an existing two-dimensional barcode reader as the identification information recognition device 21 is also conceivable. However, since many two-dimensional barcode readers take time to acquire a barcode position, it is considered that a maxicode or a QR code that is considered to be read at high speed is suitable for use.
[0107]
[4] Fourth embodiment example
In the above-described first embodiment, the position is acquired by acquiring the position information corresponding to the identification information read from the invisible position information marker 1 from the database 22. By laying the information markers 1 on the floor according to a predetermined pattern, it is also possible to acquire pedestrian position information without using the database 22.
[0108]
For example, an expression for converting the actual position information to the identification information of the invisible position information marker 1 is created, and the invisible position information marker 1 corresponding to the identification information obtained by the created conversion expression is designated as the designated position information. By applying a certain conversion formula to the read identification information, it is possible to acquire the position information of the pedestrian without using the database 22.
[0109]
[5] Fifth embodiment example
If dust such as dust is caught between the marker photographing device 20 and the invisible position information marker 1, the reading accuracy of the marker decreases.
[0110]
Therefore, the grounding portion of the marker photographing device 20 is formed in a spring shape, and the exhaust resistance is opened on the side surface. Thereby, when stepping on the floor, the air in the marker photographing device 20 is compressed and discharged from the side surface. At this time, the fine dust is also discharged outside, so that the influence of the dust can be reduced.
[0111]
【The invention's effect】
As described above, according to the present invention, the position of a moving object is detected using a marker that is inexpensive and easy to manufacture and a detection device that can be used for a long time. The detection can be performed with high accuracy and for a long time and in a wide range.
[0112]
For example, when applied to pedestrian position detection, markers printed on inexpensive materials are installed on the floor, and markers are cut off using a camera mounted on the pedestrian's shoe sole, etc. The pedestrian can be photographed by decoding the identification information recorded on the marker, referring to a database in which the correspondence between the identification information and the position information is registered, and acquiring the position information from the identification information. Because the current position of the pedestrian can be measured, the position of the pedestrian can be detected at low cost and with high accuracy.
[0113]
At this time, by using a configuration in which the marker is photographed only at the moment when the pedestrian's shoes touch the ground, the position of the pedestrian can be detected for a long time and in a wide range.
[Brief description of the drawings]
FIG. 1 is a system configuration example of a pedestrian position detection system configured according to the present invention.
FIG. 2 is an example of an embodiment of a unit marker.
FIG. 3 is an explanatory diagram of identification information of a unit marker.
FIG. 4 is an example of an embodiment of a marker photographing apparatus.
FIG. 5 is an example of an embodiment of a marker photographing apparatus.
FIG. 6 is an explanatory diagram of a device configuration of an identification information recognition device.
FIG. 7 is an embodiment of a processing flow executed by an identification information reading unit.
FIG. 8 is an embodiment of a processing flow executed by an identification information reading unit.
FIG. 9 is an embodiment of a processing flow executed by an identification information reading unit.
FIG. 10 is an embodiment of a processing flow executed by an identification information reading unit.
FIG. 11 is an explanatory diagram of a process executed by an identification information reading unit.
FIG. 12 is an explanatory diagram of a process executed by an identification information reading unit.
FIG. 13 is an explanatory diagram of a process executed by an identification information reading unit.
[Explanation of symbols]
1 Invisible position information marker
2 Pedestrian position detection system
20 Marker imaging device
21 Identification information recognition device
22 Database
23 Position information determination device

Claims (12)

自在に移動する移動体の位置を検出する移動体位置検出装置であって、
移動体に装着されて、移動体の移動箇所に設けられる識別用のマーカを撮影する撮影手段と、
上記撮影手段により撮影された画像情報に認識処理を施すことで、上記撮影手段により撮影されたマーカの持つ識別情報を認識する認識手段と、
上記認識手段の認識した識別情報に従って、移動体の位置を決定する決定手段とを備えることを、
特徴とする移動体位置検出装置。
A moving body position detecting device that detects a position of a moving body that freely moves,
A photographing means mounted on the moving body, for photographing an identification marker provided at a moving portion of the moving body,
A recognition unit that recognizes identification information of a marker photographed by the photographing unit by performing a recognition process on the image information photographed by the photographing unit;
Determining means for determining the position of the moving object according to the identification information recognized by the recognition means,
Characteristic mobile object position detection device.
自在に移動する移動体の位置を検出する移動体位置検出装置であって、
移動体に装着されて、移動体の移動箇所に設けられる識別用のマーカを撮影する撮影手段と、
上記撮影手段により撮影された画像情報に認識処理を施すことで、上記撮影手段により撮影されたマーカの持つ識別情報を認識する認識手段と、
上記認識手段の認識対象となる識別情報とそれに対応付けられる移動体の位置情報との対応関係を記憶する記憶手段と、
上記認識手段の認識した識別情報をキーにして上記記憶手段にアクセスすることで、移動体の位置を決定する決定手段とを備えることを、
特徴とする移動体位置検出装置。
A moving body position detecting device that detects a position of a moving body that freely moves,
A photographing means mounted on the moving body, for photographing an identification marker provided at a moving portion of the moving body,
A recognition unit that recognizes identification information of a marker photographed by the photographing unit by performing a recognition process on the image information photographed by the photographing unit;
Storage means for storing a correspondence relationship between identification information to be recognized by the recognition means and position information of a moving object associated with the identification information;
Determining means for determining the position of the moving object by accessing the storage means using the identification information recognized by the recognition means as a key,
Characteristic mobile object position detection device.
請求項1又は2記載の移動体位置検出装置において、
移動体に装着されて、上記マーカの撮影が可能となる状態に入る一瞬の場合にのみ上記撮影手段による撮影が行われるように制御するスイッチ手段を備えることを、
特徴とする移動体位置検出装置。
The moving body position detecting device according to claim 1 or 2,
It is provided with a switch means for controlling such that the photographing by the photographing means is performed only in a moment when the photographer is mounted on a moving body and enters a state where photographing of the marker can be performed,
Characteristic mobile object position detection device.
請求項1ないし3のいずれか1項に記載の移動体位置検出装置において、
上記撮影手段は、上記識別情報の記録位置の特定に用いられる記録位置検出用2値化パターンと、その記録位置検出用2値化パターンから特定される記録位置に記録されている上記識別情報に対応付けられる2値化パターンとを持つマーカを撮影することを、
特徴とする移動体位置検出装置。
The moving body position detecting device according to any one of claims 1 to 3,
The photographing means includes a recording position detection binarization pattern used to specify a recording position of the identification information, and the identification information recorded at a recording position specified from the recording position detection binarization pattern. Photographing a marker having a binarized pattern to be associated with,
Characteristic mobile object position detection device.
請求項4記載の移動体位置検出装置において、
上記認識手段は、上記撮影手段により撮影された画像情報を2値化して、その2値化画像から2値化パターンの記録位置を特定し、その記録位置を示す画像を様々に回転させて、それらの回転させた画像が上記位置検出用2値化パターンを持つのか否かを判断し、その保有を判断する場合に、上記位置検出用2値化パターンから特定される記録位置に記録されている2値化パターンに従ってマーカの持つ識別情報を認識することを、
特徴とする移動体位置検出装置。
The moving object position detecting device according to claim 4,
The recognition means binarizes image information photographed by the photographing means, specifies a recording position of a binarized pattern from the binarized image, and variously rotates an image indicating the recording position, It is determined whether or not the rotated images have the above-described position detection binarization pattern. When it is determined that the rotated image has the position detection binarization pattern, the image is recorded at the recording position specified from the position detection binarization pattern. Recognizing the identification information of the marker according to the binarization pattern
Characteristic mobile object position detection device.
請求項1ないし5のいずれか1項に記載の移動体位置検出装置において、
上記撮影手段は、上記マーカの撮影を行うときに外光を遮断する構造を有することを、
特徴とする移動体位置検出装置。
The mobile object position detecting device according to any one of claims 1 to 5,
The photographing means has a structure to block external light when photographing the marker,
Characteristic mobile object position detection device.
自在に移動する移動体の位置を検出する移動体位置検出方法であって、
移動体に装着されて、移動体の移動箇所に設けられる識別用のマーカを撮影する撮影手段により撮影された画像情報を入手する過程と、
上記入手した画像情報に認識処理を施すことで、上記撮影手段により撮影されたマーカの持つ識別情報を認識する過程と、
上記認識した識別情報に従って、移動体の位置を決定する過程とを備えることを、
特徴とする移動体位置検出方法。
A moving body position detection method for detecting a position of a moving body that freely moves,
A process of obtaining image information captured by a capturing unit that is mounted on the moving body and captures a marker for identification provided at a moving portion of the moving body;
A process of recognizing identification information of a marker photographed by the photographing means by performing a recognition process on the obtained image information;
Determining the position of the moving object according to the recognized identification information,
Characteristic mobile object position detection method.
自在に移動する移動体の位置を検出する移動体位置検出方法であって、
移動体に装着されて、移動体の移動箇所に設けられる識別用のマーカを撮影する撮影手段により撮影された画像情報を入手する過程と、
上記入手した画像情報に認識処理を施すことで、上記撮影手段により撮影されたマーカの持つ識別情報を認識する過程と、
上記認識した識別情報をキーにして、上記認識の対象となる識別情報とそれに対応付けられる移動体の位置情報との対応関係を記憶する記憶手段にアクセスすることで、移動体の位置を決定する過程とを備えることを、
特徴とする移動体位置検出方法。
A moving body position detection method for detecting a position of a moving body that freely moves,
A process of obtaining image information captured by a capturing unit that is mounted on the moving body and captures a marker for identification provided at a moving portion of the moving body;
A process of recognizing identification information of a marker photographed by the photographing means by performing a recognition process on the obtained image information;
Using the recognized identification information as a key, the position of the moving body is determined by accessing storage means for storing the correspondence between the identification information to be recognized and the position information of the moving body associated therewith. Having a process,
Characteristic mobile object position detection method.
請求項7又は8記載の移動体位置検出方法において、
上記入手する過程では、上記識別情報の記録位置の特定に用いられる記録位置検出用2値化パターンと、その記録位置検出用2値化パターンから特定される記録位置に記録されている上記識別情報に対応付けられる2値化パターンとを持つマーカの画像情報を入手することを、
特徴とする移動体位置検出方法。
The moving body position detecting method according to claim 7 or 8,
In the obtaining step, the recording position detection binarization pattern used for specifying the recording position of the identification information, and the identification information recorded at the recording position specified from the recording position detection binarization pattern. Obtaining image information of a marker having a binarization pattern associated with
Characteristic mobile object position detection method.
請求項9記載の移動体位置検出方法において、
上記認識する過程では、上記入手した画像情報を2値化して、その2値化画像から2値化パターンの記録位置を特定し、その記録位置を示す画像を様々に回転させて、それらの回転させた画像が上記位置検出用2値化パターンを持つのか否かを判断し、その保有を判断する場合に、上記位置検出用2値化パターンから特定される記録位置に記録されている2値化パターンに従ってマーカの持つ識別情報を認識することを、
特徴とする移動体位置検出方法。
The moving body position detecting method according to claim 9,
In the recognizing process, the obtained image information is binarized, the recording position of the binarized pattern is specified from the binarized image, the image indicating the recording position is rotated variously, and the rotation is performed. It is determined whether or not the image has the above-described position detection binary pattern, and when it is determined that the image has the binary pattern recorded at the recording position specified from the position detection binary pattern. Recognizing the identification information of the marker in accordance with the
Characteristic mobile object position detection method.
請求項7ないし10のいずれか1項に記載の移動体位置検出方法の実現に用いられる処理をコンピュータに実行させるための移動体位置検出プログラム。A moving object position detection program for causing a computer to execute processing used for implementing the moving object position detecting method according to any one of claims 7 to 10. 請求項7ないし10のいずれか1項に記載の移動体位置検出方法の実現に用いられる処理をコンピュータに実行させるための移動体位置検出プログラムを記録した記録媒体。A recording medium storing a moving object position detection program for causing a computer to execute a process used for implementing the moving object position detecting method according to claim 7.
JP2002196704A 2002-07-05 2002-07-05 MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Expired - Fee Related JP3958999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002196704A JP3958999B2 (en) 2002-07-05 2002-07-05 MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002196704A JP3958999B2 (en) 2002-07-05 2002-07-05 MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Publications (2)

Publication Number Publication Date
JP2004038706A true JP2004038706A (en) 2004-02-05
JP3958999B2 JP3958999B2 (en) 2007-08-15

Family

ID=31704666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002196704A Expired - Fee Related JP3958999B2 (en) 2002-07-05 2002-07-05 MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Country Status (1)

Country Link
JP (1) JP3958999B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195913A (en) * 2005-01-17 2006-07-27 Denso Wave Inc Position information provision system and road surface material
WO2008102526A1 (en) * 2007-02-19 2008-08-28 Panasonic Corporation Behavior history searching device and behavior history searching method
JP2014021624A (en) * 2012-07-13 2014-02-03 Sharp Corp Autonomous traveling device and autonomous traveling system
JP2019010394A (en) * 2017-06-30 2019-01-24 国立大学法人金沢大学 Sole observation device and sole observation method
CN114026387A (en) * 2019-07-08 2022-02-08 三菱电机株式会社 Guide control device and guide control system for moving body

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220013009A1 (en) * 2021-09-26 2022-01-13 Matthew David Weirich Interactive Traffic System, Method and Control Devices

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195913A (en) * 2005-01-17 2006-07-27 Denso Wave Inc Position information provision system and road surface material
JP4581696B2 (en) * 2005-01-17 2010-11-17 株式会社デンソーウェーブ Location information provision system
WO2008102526A1 (en) * 2007-02-19 2008-08-28 Panasonic Corporation Behavior history searching device and behavior history searching method
JP2008204079A (en) * 2007-02-19 2008-09-04 Matsushita Electric Ind Co Ltd Action history search apparatus and action history search method
US8266174B2 (en) 2007-02-19 2012-09-11 Panasonic Corporation Behavior history retrieval apparatus and behavior history retrieval method
JP2014021624A (en) * 2012-07-13 2014-02-03 Sharp Corp Autonomous traveling device and autonomous traveling system
JP2019010394A (en) * 2017-06-30 2019-01-24 国立大学法人金沢大学 Sole observation device and sole observation method
CN114026387A (en) * 2019-07-08 2022-02-08 三菱电机株式会社 Guide control device and guide control system for moving body
CN114026387B (en) * 2019-07-08 2024-04-30 三菱电机株式会社 Guiding control device and guiding control system for moving body

Also Published As

Publication number Publication date
JP3958999B2 (en) 2007-08-15

Similar Documents

Publication Publication Date Title
CN105358937B (en) Geodetic surveying instrument, method for determining position data of geodetic surveying instrument, and storage medium
KR100649674B1 (en) Method for recognizing position using a built-in camera and apparatus thereof
EP1499129B1 (en) Object detection device, object detection server, and object detection method
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
KR101591471B1 (en) apparatus and method for extracting feature information of object and apparatus and method for generating feature map
US9506761B2 (en) Method and apparatus for indoor position tagging
US7991194B2 (en) Apparatus and method for recognizing position using camera
US20110128388A1 (en) Camera calibration system and coordinate data generation system and method thereof
JP6667065B2 (en) Position estimation device and position estimation method
CN103415780B (en) For determining the position of measuring instrument and directed method and system
CN207115193U (en) A kind of mobile electronic device for being used to handle the task of mission area
WO2012046671A1 (en) Positioning system
JPWO2004102222A1 (en) Object detection device, object detection method, object detection program, distance sensor
CN108459597A (en) A kind of mobile electronic device and method for handling the task of mission area
Zhu et al. 60GHz mobile imaging radar
US20190340472A1 (en) System of recognizing identity of object and method of automatically recognizing identity of object
TWI683123B (en) Terminal device for position measurement, computer program and position measurement system
JP2007128235A (en) Access report device
Steinhoff et al. How computer vision can help in outdoor positioning
JP3958999B2 (en) MOBILE POSITION DETECTING DEVICE, MOBILE POSITION DETECTING METHOD, MOBILE POSITION DETECTING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
US10983528B2 (en) Systems and methods for orienting a robot in a space
JP2017058831A (en) Information specification system, information specification method, and program thereof
CN115578539A (en) Indoor space high-precision visual position positioning method, terminal and storage medium
CN115661240A (en) Position information determining method and device, electronic equipment and storage medium
JP2004094707A (en) Method for estimating plane by stereo image and detector for object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061122

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070511

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees