JPWO2016163492A1 - 位置特定装置、位置特定方法及びプログラム - Google Patents

位置特定装置、位置特定方法及びプログラム Download PDF

Info

Publication number
JPWO2016163492A1
JPWO2016163492A1 JP2017511076A JP2017511076A JPWO2016163492A1 JP WO2016163492 A1 JPWO2016163492 A1 JP WO2016163492A1 JP 2017511076 A JP2017511076 A JP 2017511076A JP 2017511076 A JP2017511076 A JP 2017511076A JP WO2016163492 A1 JPWO2016163492 A1 JP WO2016163492A1
Authority
JP
Japan
Prior art keywords
ceiling
floor
captured image
mobile terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017511076A
Other languages
English (en)
Other versions
JP6822396B2 (ja
Inventor
石山 塁
塁 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2016163492A1 publication Critical patent/JPWO2016163492A1/ja
Application granted granted Critical
Publication of JP6822396B2 publication Critical patent/JP6822396B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0263Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
    • G01S5/0264Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems at least one of the systems being a non-radio wave positioning system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、広範の撮影画像上の、一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて携帯端末の上部の天井の位置又は下部の床の位置を特定する照合部を備える位置特定装置である。

Description

本発明は、位置特定装置、位置特定方法及びプログラムに関する。
ユーザの位置を特定するシステムとして、例えば電波・光ビーコン等で位置情報を送受信することによりユーザの位置を検知するシステムが考案されている。しかし、屋内でユーザの位置を特定する場合、電波・光ビーコン等の多数設置は多大なインフラコストがかかるという問題があった。
例えば、特許文献1には、天井面を撮像するカメラを備えた移動体が、予め撮影した天井の撮影画像を位置情報と共に教示用画像情報として記憶し、この教示用画像情報と、撮影した画像を比較して移動体の位置を検出することが記載されている。
特開2004−133567号公報
上記特許文献1の発明は、天井に設けられている特徴部分を用いて教示用画像と撮影画像とを比較するものである。この天井の特徴部分は、例えば、エアコンの吹き出し口や天井パネルの角等が想定されている。しかし、広いオフィス等の天井には、エアコンの吹き出し口や天井パネルの角等は同じように設けられている箇所が多数あるため、特許文献1の発明では正しい照合結果を得ることは困難である。
そこで、本発明は上記課題に鑑みて発明されたものであって、その目的は、天井又は床の撮影画像を用いてユーザの位置をより正しく特定することができる位置特定装置、位置特定方法及びプログラムを提供することにある。
本発明は、携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する照合部を備える位置特定装置である。
本発明は、携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する位置特定方法である。
本発明は、コンピュータに、携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する照合処理を実行させるプログラムである。
本発明は、天井又は床の撮影画像を用いてユーザの位置をより正しく特定することができる。
図1は第1の実施の形態のブロック図である。 図2は天井パネルの撮影画像から得られるランダムパターンを例示する図である。 図3は第1の実施の形態の位置特定装置の動作を説明するためのフローチャートである。 図4は撮影画像の照合処理を説明するための図である。 図5は特徴量の照合処理の具体例を説明するための図である。 図6は第2の実施の形態のブロック図である。 図7は第2の実施の形態の位置特定システムの処理動作を説明するためのフローチャートである。 図8は特定された位置を通知する例を説明する図である。 図9は第3の実施の形態のブロック図である。 図10は第3の実施の形態の位置特定システムの処理動作を説明するためのフローチャートである。 図11は特定された位置を通知する例を説明する図である。 図12は移動体のブロック図である。 図13は照明手段を併用して天井を撮影する例を説明するための図である。 図14はプログラムで動作するコンピュータの一例を示す図である。 図15はプログラムで動作するコンピュータの一例を示す図である。
(第1の実施の形態)
本発明の第1の実施の形態を説明する。
図1は本発明の第1の実施の形態のブロック図である。
本発明の第1の実施の形態は、携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、広範の撮影画像上の、一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて携帯端末の上部の天井の位置又は下部の床の位置を特定する照合部11を備える位置特定装置10である。
照合部11は、携帯端末から前記天井又は床の一部分の撮影画像を受信すると、当該天井又は床の一部分の撮影画像のランダムパターンの画像特徴と、広範の天井又は床の撮影画像のランダムパターンの画像特徴を照合して、広範の撮影画像上の、一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づく携帯端末の位置を通知する。
ランダムパターンとは、天井又は床の表面の凹凸模様である。例えば、天井パネルの撮影画像から得られるランダムパターンの一例を図2に示す。ランダムパターンは、デザインとして模様が施されている場合や、防音目的、防化・断熱目的で模様が形成されている場合のみならず、天井材又は床材が元来備える模様も含まれる。さらに表面にランダムな凹凸を生じる塗装も含む概念である。本塗装とは、粘土の異なる塗料や固形粒子を混在した塗料や、ハンマーネット、ハンマートンと呼ばれる塗装法による塗装面を含む。塗装面にサンドブラスト加工を加えて梨地模様を与える場合も含む。
携帯端末は、カメラ等の撮影部と通信部と表示部を備える端末であり、スマートフォンやタブレットを含む。また、携帯端末は、メモリとCPUを備え、メモリに格納されているプログラムを実行することにより、後述する各種処理を実行する。
携帯端末により撮影される天井又は床の一部分は、自己位置の上部の天井又は下部の床の一領域である。照合領域の撮影範囲は任意であるが、位置の特定に必要な特徴点が抽出できる範囲以上が望ましい。
携帯端末が撮影した天井又は床の一部分より広範の天井又は床の撮影画像(マップ)は、広角で高解像度の画像を撮影して取得してもよく、天井又は床の複数の撮影画像を合成してもよく、イメージモザイキング技術を用いて作成してもよい。
次に第1の実施の形態における位置特定装置10の動作を図3のフローチャートを参照して説明する。
照合部11は、携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンを受信すると、受信した撮影画像のランダムパターンと、天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合し、照合の結果に基づいて、広範の撮影画像上の、一部分の撮影画像の位置を特定する(ステップ1)。
特定された、広範の撮影画像上の一部分の撮影画像の位置は、画像を撮影した携帯端末の上部の天井の位置又は下部の床の位置となる。照合部11は、ステップ1で特定された位置を携帯携帯の位置として所定の通知先に通知する(ステップ2)。
上記ステップ1の撮影画像の照合処理について図4のフローチャートを参照して説明する。
照合部11は、広範の天井又は床の撮影画像について、幾何補正を行う(ステップ11)。天井や床の広い範囲を広角で撮影した場合、撮影画像が斜めになってしまうのでこれを補正するものである。天井又は床のパネルの直線を検出し、これを用いて補正してもよい。幾何補正には例えばHomography変換やGセンサの測定値等を用いてもよい。
また、幾何補正された撮影画像について局所コントラストを強調する画像処理をしてもよい。
照合部11は、幾何補正された広範の天井又は床の撮影画像について所定単位で画像を切り出し(ステップ12)、切出した各画像について特徴量の抽出(例えばキーポイントディスクリプタ抽出)を行う(ステップ13)。画像を切り出す単位は任意であり、例えば、パネル単位でもよく、所定サイズ単位でもよい。
また、照合部11は、天井又は床の一部分の撮影画像についても幾何補正を行う(ステップ14)。自己位置の真上又は真下を撮影した場合、撮影画像が斜めになってしまうのでこれを補正するものである。
照合部11は、幾何補正された天井又は床の一部の撮影画像について画像を切り出し(ステップ15)、切り出した画像について特徴量の抽出(例えばキーポイントディスクリプタ抽出)を行う(ステップ16)。画像を切り出す範囲は任意であるが、携帯端末の自己位置の真上又は真下の狭い範囲の画像であるため、例えば1枚のパネルの領域等、照合に必要な特徴点が抽出できる範囲が望ましい。
照合部11は、天井又は床の一部の撮影画像から取得した特徴量と、広範の天井又は床の撮影画像から取得した特徴量を照合し、広範の天井又は床の撮影画像上における、天井又は床の一部の撮影画像の位置を特定する(ステップ17)。
特徴量の照合処理の例として、例えば撮影画像から天井のパネル毎に画像を切り出して、特徴点を取得し、マッチングを行う場合の処理を図5を参照して説明する。
照合部11は、広範の天井の撮影画像を幾何補正してパネル単位で画像の切り出しを行い、各パネルの画像について各特徴点の情報(例えば、パネル位置、スケール、方向、各画素が黒か白かなどの画像パターンの特徴量(ディスクリプタ))を取得する。このようなスケールと方向、特徴量を持つ、特徴点の取得は、画像処理の標準技術で可能である。一例として、オープンソースソフトウェアOpenCVなどの機能に実装されているSIFT特徴量などを用いることができる(http://opencv.jp/cookbook/opencv_img.html#id46)。また照合部11は、携帯端末で撮影された天井の一部分の撮影画像を幾何補正し、パネル範囲で画像を切り出し、特徴点を取得し、広範の撮影画像から取得した各パネル毎の特徴点のセットと照合する。そして、最も合致度が高い特徴点セットのパネルの位置を、広範の天井の撮影画像上における、携帯端末が撮影した一部分の撮影画像の位置、として特定する。
なお、特定された携帯携帯の位置を通知するために送信する情報の内容は任意に設定できる。図5の例であれば、照合部11が、特定したパネルの位置(基準点より右方向へ3枚、奥方向へ2枚目)を広範の撮影画像(マップ)とともに通知先の端末へ送ってもよい。また、特定したパネルの位置情報だけを送ってもよい。また、照合部11が、広範の撮影画像(マップ)に、携帯端末の位置を視認できるような表示を重畳した画像を生成して送ってもよい。例えば、広範の撮影画像上に、一部分の撮影画像を表示態様を変えて表示する画像を生成してもよい(例えば、一部分の撮影画像領域の色を変える、領域の輪郭線を表示する等)。
また、特徴点を照合する処理では、照合部11が、天井又は床の一部の撮影画像から取得した特徴点のそれぞれと、広範の天井又は床の撮影画像から取得した特徴点のそれぞれを比較し、対応する(類似度が最も高い)特徴点同士を探してもよい。この場合、広範の天井又は床の撮影画像上における、対応特徴点の多く(所定割合以上)が位置する領域を、携帯端末が撮影した画像の位置として特定してもよい。
以上説明したように、第1の実施形態では、携帯端末により撮影された画像を用いてユーザの位置を特定する場合において、天井又は床の模様であるランダムパターン(物体指紋)を用いた画像照合を行うことにより、エアコンの吹き出し口や天井パネルの角等の大きな特徴に依存することなく、より正しい照合結果を得ることができる。また、問い合わせ側の一部の天井画像又は床画像に対して広範の画像上の場所を通知するだけで、物理的な位置情報を用いずとも、問い合わせ側の携帯端末の位置を知らせることができる。
(第2の実施形態)
第2の実施形態を説明する。第2の実施形態は、2人のユーザがそれぞれ携帯端末で天井又は床の一部分を撮影して位置特定装置に送信し、位置特定装置が、広範の天井又は床の撮影画像と、各携帯端末から受信した撮影画像を照合して2人のユーザの携帯端末の位置関係を通知するシステムに関する。
図6は、第2の実施形態に係る位置特定システムのブロック図である。第2の実施形態に係る位置特定システムは、第1の携帯端末21と、第2の携帯端末22と、位置特定装置23を備え、これらは通信ネットワークにより接続される。
第1の携帯端末21と第2の携帯端末22は、撮影部、通信部、表示部を備える端末であり、スマートフォンやタブレットを含む。
位置特定装置23は、第1の照合部24と、第1の通知部25を備えるサーバである。
第1の照合部24は、第1の携帯端末21と第2の携帯端末22から、天井又は床の一部分の撮影画像をそれぞれ受信すると、各撮影画像のランダムパターンの画像特徴を、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンの画像特徴とそれぞれ照合して、広範の撮影画像上における、第1の携帯端末21の撮影画像と第2の携帯端末22の撮影画像の位置を特定する。撮影画像を補正し、画像から特徴量を抽出し、特徴量を照合する処理は第1の実施形態と同様である。広範の撮影画像は、位置特定装置23が備える記憶部に記憶されていてもよく、また、位置特定装置23が接続できる他の記憶装置に記憶されていてもよい。
第1の通知部25は、第1の照合部24より特定された位置に基づく、第1の携帯端末21と第2の携帯端末22の位置関係を、第1の携帯端末21と第2の携帯端末22の少なくとも一方に通知する。
第2の実施の形態の位置特定システムの処理動作を図7のフローチャートを参照して説明する。ここでは、屋内において、荷物の発注者の位置を配達者に通知するサービスを例に説明する。荷物の発注者が第1の携帯端末21を有し、荷物の配達者が第2の携帯端末22を有することとする。
第1の照合部24は、広範の天井又は床の撮影画像について、予め、幾何補正と、所定単位毎の画像の切り出しと、特徴量の抽出を行い、特徴量情報を記憶しておく(ステップ21)。
荷物の発注者は第1の携帯端末21で自己の真上又は真下の天井又は床の一部分をピンポイントで撮影し、撮影画像を位置特定装置23に送信する。また、荷物の配達者は第2の携帯端末22で自己の真上又は真下の天井又は床の一部分をピンポイントで撮影し、撮影画像を位置特定装置23に送信する。
位置特定装置23の第1の照合部24は、第1の携帯端末21と第2の携帯端末22から、天井又は床の一部分の撮影画像を受信すると、それぞれの撮影画像について、幾何補正、画像の切り出し、特徴量の抽出を行う(ステップ22、23)。
第1の照合部24は、第1の携帯端末21から受信した撮影画像から取得した特徴量と、広範の天井又は床の撮影画像から取得した特徴量を照合し、広範の天井又は床の撮影画像上における、第1の携帯端末21からの撮影画像の位置を特定する(ステップ24)。
また、第1の照合部24は、第2の携帯端末22から受信した撮影画像から取得した特徴量と、広範の天井又は床の撮影画像から取得した特徴量を照合し、広範の天井又は床の撮影画像上における、第2の携帯端末21からの撮影画像の位置を特定する(ステップ25)。
第1の照合部24は、ステップ24、25で特定された各位置を第1の携帯携帯21の位置と第2の携帯端末22の位置として、所定の通知先(この例では第2の携帯端末)に送信する(ステップ26)。
例えば図8に示すように、広範の天井又は床の撮影画像上で、配達者の位置(第2の携帯端末の位置)から、届け先の位置(第1の携帯端末の位置)へのパネル沿いの最短経路を示すナビゲーション情報を生成して配達者(第2の携帯端末)へ送信してもよい。
(第3の実施形態)
第3の実施形態を説明する。第3の実施形態は、一方のユーザが携帯端末で天井又は床の一部分を撮影して位置特定装置に送信し、他方のユーザが携帯端末で広範の天井又は床を撮影して位置特定装置に送信し、位置特定装置が、各携帯端末から受信した撮影画像を照合して、一方のユーザの携帯端末の位置を通知するシステムに関する。
図9は、第3の実施形態に係る位置特定システムのブロック図である。第3の実施形態に係る位置特定システムは、第1の携帯端末31と、第2の携帯端末32と、位置特定装置33を備え、これらは通信ネットワークにより接続される。
第1の携帯端末31と第2の携帯端末32は、カメラ等の撮影部、通信部、表示部を備える端末であり、スマートフォンやタブレットを含む。また、第1の携帯端末31と第2の携帯端末32は、メモリとCPUを備え、メモリに格納されているプログラムを実行することにより、後述する各種処理を実行する。
位置特定装置33は、第2の照合部34と、第2の通知部35を備えるサーバである。
第2の照合部34は、第1の携帯端末31から天井又は床の一部分の撮影画像を受信し、第2の携帯端末32から天井又は床の一部分より広範の天井又は床の撮影画像を受信すると、第1の携帯端末31と第2の携帯端末32から受信した撮影画像のランダムパターンの画像特徴の照合を行い、第2の携帯端末32からの撮影画像上の第1の携帯端末31からの撮影画像の位置を特定する。撮影画像を補正し、画像から特徴量を抽出し、特徴量を照合する処理は第1の実施形態と同様である。
第2の通知部35は、第2の照合部34により特定された位置に基づく、第1の携帯端末31の位置を、第1の携帯端末31と第2の携帯端末32の少なくとも一方に通知する。
第3の実施の形態における位置特定システムの処理を図10のフローチャートを参照して説明する。ここでは、屋内において、荷物の発注者の位置を配達者に通知するサービスを例に説明する。荷物の発注者が第1の携帯端末31を有し、荷物の配達者が第2の携帯端末32を有することとする。
荷物の発注者は第1の携帯端末31で自己の真上又は真下の天井又は床の一部分をピンポイントで撮影し、撮影画像を位置特定装置33に送信する。また、荷物の配達者は第2の携帯端末32でフロア天井又は床を広く撮影し、撮影画像を位置特定装置33に送信する。
第2の照合部34は、第1の携帯端末31と第2の携帯端末32から撮影画像を受信すると、それぞれの撮影画像について、幾何補正、画像の切り出し、特徴量の抽出を行う(ステップ31、32)。
第2の照合部34は、第1の携帯端末31から受信した撮影画像から取得した特徴量と、第2の携帯端末32から受信した撮影画像から取得した特徴量を照合し、広範の天井又は床の撮影画像上における、第1の携帯端末31からの撮影画像の位置を特定する(ステップ33)。
第2の通知部35は、ステップ33で特定された位置を第1の携帯携帯21の位置として、所定の通知先(この例では第2の携帯端末)に送信する(ステップ34)。
例えば図11に示すように、配達者が撮影した画像上における届け先の位置(第1の携帯端末の位置)を示すナビゲーション画面を生成して配達者(第2の携帯端末)へ送信してもよい。
なお、第1、第2の実施形態において、撮影部を備える移動体が、移動しながら広範の天井又は床の撮影画像を取得してもよい。移動体の構成を図12に例示する。移動体41は、撮影部42と無線通信部43を備え、無線通信等の通信ネットワークにより位置特定装置に接続される。移動体41は、例えば、UAV(Unmanned Aerial Vehicle)やロボットを含む。移動体が広範の天井又は床を高解像カメラで広く撮影した画像を位置特定装置に送信してもよい。また、移動体が広範の天井又は床を複数領域に分割して撮影した画像等を位置特定装置に送信し、位置特定装置が複数の画像を合成して広範の撮影画像を作成してもよい。また、移動体が広範の天井又は床を複数領域に分割して撮影した画像を合成して位置特定装置に送信してもよい。
更に、上記各実施形態において、間接照明等の設置された天井では、図13に示すように、市販のLEDライト等の光源からの照射方向が天井又は床の撮影領域に対して平行になるように密着させて、携帯端末で撮影領域を撮影するようにしてもよい。このような構成にした場合、操作者が特別な知識を持たなくとも、簡単な操作で、撮影領域をコントラストの高い画像として撮影することが可能である。
また、上述した各実施形態において、携帯端末が、天井又は床の撮影画像に、ユーザにより入力されたメモデータを付けて位置特定装置に送信してもよい。位置特定装置は、このメモデータを撮影画像に重畳させた画像を生成して、通知先の携帯端末に送信してもよい。さらに、ユーザがメモを見せる相手のユーザ属性(ID等)を指定してもよい。位置特定装置は、指定されたユーザ属性と、通知先のユーザ属性を照合して、合致する場合にそのメモデータを撮影画像とともに送信するようにしてもよい。
また、本発明を、備品や在庫の管理するシステムに適用してもよい。上述した各実施形態において、倉庫に備品等を置いたときに、物体のIDと天井又は床の一部分の撮影画像を携帯端末から位置特定装置に送信し、位置特定装置が、広範の撮影画像上の備品の位置を特定して物体のIDとともに記憶することで、備品のIDと天井のランダムパターン(物体指紋)をリンクすることができる。
また、本発明を、室内のユーザにUAV等の移動体を用いてメールを配達するシステムに適用してもよい。上述した実施形態のいずれを本例に適用してもよい。配達先のユーザの携帯端末が、上述した各実施形態において位置を特定される方の携帯端末に対応し、UAVが、携帯端末の位置の通知先の携帯端末に対応する。位置特定装置が、配達先のユーザの携帯端末から受信した天井又は床の一部分の撮影画像から、広範の撮影画像上のユーザの携帯端末の位置を特定して、所定の通知先であるUAVに通知し、UAVがその位置に移動する。
また、本発明を、撮影部と通信部を備えるロボット掃除機等の移動体に適用してもよい。上述した実施形態のいずれを本例に適用してもよい。本例ではロボット掃除機が、上述した各実施形態において位置を特定される携帯端末と、特定された位置の通知先の双方に対応する。例えば、ロボット掃除機が天井等の一部分の撮影画像を位置特定装置に送信して、位置特定装置が広範の撮影画像上のロボット掃除機の位置を特定し、その位置をロボット掃除機に通知する。ロボット掃除機は、フロアでの自己位置の情報を取得し、これを記憶することで、掃除していないエリア(未だ移動していないエリア)を探すようにしてもよい。さらに、ロボット掃除機が、位置特定装置の機能と構成も備え、自身で自己位置を特定する処理を行ってもよい。
また、上述した説明からも明らかなように、各部をハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。この場合、プログラムメモリに格納されているプログラムで動作するプロセッサによって、上述した実施の形態と同様の機能、動作を実現させる。
具体的には、図14に例示する如く、メモリ200と、CPU201と、出力部202と、入力部203と、通信部204とから構成されるコンピュータによって実現可能である。この場合、メモリ200には、上述した位置特定装置10、23、33の各部に対応する処理を行うプログラムが格納されている。そして、CPU201がメモリ200に格納されているプログラムを実行することで、上記各部の機能が実現される。照合画像の受信は、入力部203や、通信部204を介して入力可能である。また、照合結果を、出力部202(例えば、ディスプレイ等)に出力したり、通信部204を介して外部の端末に送信可能である。
また、上述したUAVやロボット掃除機等の移動体についても、メモリとCPUと通信部とを備えたコンピュータによって実現可能である。図15に例示する如く、メモリ300と、CPU301と、出力部302と、入力部303と、通信部304とから構成されるコンピュータによって実現可能である。CPU301が、メモリ300に格納されているプログラムを実行することにより上述した各種処理を行う。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する照合部を備える
位置特定装置。
(付記2)
前記照合部は、携帯端末から前記天井又は床の一部分の撮影画像を受信すると、当該天井又は床の一部分の撮影画像のランダムパターンの画像特徴と、前記広範の天井又は床の撮影画像のランダムパターンの画像特徴を照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づく前記携帯端末の位置を通知する
付記1に記載の位置特定装置。
(付記3)
前記照合部は、
第1の携帯端末と第2の携帯端末から、天井又は床の一部分の撮影画像をそれぞれ受信すると、各撮影画像のランダムパターンの画像特徴を、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンの画像特徴とそれぞれ照合して、前記広範の撮影画像上の前記第1の携帯端末の撮影画像と前記第2の携帯端末の撮影画像の位置を特定する第1の照合部と、
前記第1の照合部より特定された位置に基づく前記第1の携帯端末と前記第2の携帯端末の位置関係を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する第1の通知部を備える
付記1又は付記2のいずれかに記載の位置特定装置。
(付記4)
前記照合部は、
第1の携帯端末から前記天井又は床の一部分の撮影画像を受信し、第2の携帯端末から前記天井又は床の一部分より広範の天井又は床の撮影画像を受信すると、前記第1の携帯端末と前記第2の携帯端末から受信した撮影画像のランダムパターンの画像特徴の照合を行い、前記第2の携帯端末からの撮影画像上の前記第1の携帯端末からの撮影画像の位置を特定する第2の照合部と、
前記第2の照合部により特定された位置に基づく前記第1の携帯端末の位置を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する第2の通知部を備える
付記1又は付記2のいずれかに記載の位置特定装置。
(付記5)
前記天井又は床の一部分より広範の天井又は床の撮影画像は、撮影部を備える移動体が移動しながら撮影したものである付記1から付記3のいずれかに記載の位置特定装置。
(付記6)
前記照合部は、前記広範の撮影画像における天井又は床のパネルの直線を検出して当該撮影画像の幾何補正を行う
付記1から付記5のいずれかに記載の位置特定装置。
(付記7)
携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する
位置特定方法。
(付記8)
携帯端末から前記天井又は床の一部分の撮影画像を受信すると、当該天井又は床の一部分の撮影画像のランダムパターンの画像特徴と、前記広範の天井又は床の撮影画像のランダムパターンの画像特徴を照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づく前記携帯端末の位置を通知する
付記7に記載の位置特定方法。
(付記9)
前記前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを予め取得し、
第1の携帯端末と第2の携帯端末から、天井又は床の一部分の撮影画像をそれぞれ受信すると、各撮影画像のランダムパターンの画像特徴を前記広範の天井又は床の撮影画像のランダムパターンの画像特徴とそれぞれ照合して、前記広範の撮影画像上の前記第1の携帯端末の撮影画像と前記第2の携帯端末の撮影画像の位置を特定し、当該位置に基づく前記第1の携帯端末と前記第2の携帯端末の位置関係を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する
付記7又は付記8のいずれかに記載の位置特定方法。
(付記10)
第1の携帯端末から前記天井又は床の一部分の撮影画像を受信し、第2の携帯端末から前記天井又は床の一部分より広範の天井又は床の撮影画像を受信すると、前記第1の携帯端末と前記第2の携帯端末から受信した撮影画像のランダムパターンの画像特徴の照合を行い、前記第2の携帯端末からの撮影画像上の前記第1の携帯端末からの撮影画像の位置を特定し、当該位置に基づく前記第1の携帯端末の位置を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する
付記7又は付記8のいずれかに記載の位置特定方法。
(付記11)
撮影部を備える移動体が、移動しながら前記天井又は床の一部分より広範の天井又は床を撮影する
付記7から付記9のいずれかに記載の位置特定方法。
(付記12)
前記広範の撮影画像における天井又は床のパネルの直線を検出して当該撮影画像の幾何補正を行う
付記7から付記11のいずれかに記載の位置特定方法。
(付記13)
コンピュータに、
携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する照合処理を実行させるプログラム。
(付記14)
前記照合処理は、
携帯端末から前記天井又は床の一部分の撮影画像を受信すると、当該天井又は床の一部分の撮影画像のランダムパターンの画像特徴と、前記広範の天井又は床の撮影画像のランダムパターンの画像特徴を照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づく前記携帯端末の位置を通知する
付記13に記載のプログラム。
(付記15)
前記照合処理は、
第1の携帯端末と第2の携帯端末から、天井又は床の一部分の撮影画像をそれぞれ受信すると、各撮影画像のランダムパターンの画像特徴を、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンの画像特徴とそれぞれ照合して、前記広範の撮影画像上の前記第1の携帯端末の撮影画像と前記第2の携帯端末の撮影画像の位置を特定する第1の照合処理と、
前記第1の照合処理より特定された位置に基づく前記第1の携帯端末と前記第2の携帯端末の位置関係を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する第1の通知処理を含む
付記13又は付記14のいずれかに記載のプログラム。
(付記16)
前記照合処理は、
第1の携帯端末から前記天井又は床の一部分の撮影画像を受信し、第2の携帯端末から前記天井又は床の一部分より広範の天井又は床の撮影画像を受信すると、前記第1の携帯端末と前記第2の携帯端末から受信した撮影画像のランダムパターンの画像特徴の照合を行い、前記第2の携帯端末からの撮影画像上の前記第1の携帯端末からの撮影画像の位置を特定する第2の照合処理と、
前記第2の照合処理により特定された位置に基づく前記第1の携帯端末の位置を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する第2の通知処理を含む
付記13又は付記14のいずれかに記載のプログラム。
(付記17)
前記天井又は床の一部分より広範の天井又は床の撮影画像は、撮影部を備える移動体が移動しながら撮影したものである
付記13から付記15のいずれかに記載のプログラム。
(付記18)
前記照合処理は、前記広範の撮影画像における天井又は床のパネルの直線を検出して当該撮影画像の幾何補正を行う
付記13から付記17のいずれかに記載のプログラム。
(付記19)
メモリとプロセッサを備え、
前記プロセッサは、
携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する
位置特定装置。
以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
本出願は、2015年4月10日に出願された日本出願特願2015−080629を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10、23、33 位置特定装置
11 照合部
24 第1の照合部
25 第1の通知部
34 第2の照合部
35 第2の通知部
21、31 第1の携帯端末
22、32 第2の携帯端末
41 移動体
42 撮影部
43 無線通信部
200、300 メモリ
201、301 CPU
202、302 出力部
203、303 入力部
204、304 通信部

Claims (13)

  1. 携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する照合部を備える
    位置特定装置。
  2. 前記照合部は、携帯端末から前記天井又は床の一部分の撮影画像を受信すると、当該天井又は床の一部分の撮影画像のランダムパターンの画像特徴と、前記広範の天井又は床の撮影画像のランダムパターンの画像特徴を照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づく前記携帯端末の位置を通知する
    請求項1に記載の位置特定装置。
  3. 前記照合部は、
    第1の携帯端末と第2の携帯端末から、天井又は床の一部分の撮影画像をそれぞれ受信すると、各撮影画像のランダムパターンの画像特徴を、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンの画像特徴とそれぞれ照合して、前記広範の撮影画像上の前記第1の携帯端末の撮影画像と前記第2の携帯端末の撮影画像の位置を特定する第1の照合部と、
    前記第1の照合部より特定された位置に基づく前記第1の携帯端末と前記第2の携帯端末の位置関係を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する第1の通知部を備える
    請求項1又は請求項2のいずれかに記載の位置特定装置。
  4. 前記照合部は、
    第1の携帯端末から前記天井又は床の一部分の撮影画像を受信し、第2の携帯端末から前記天井又は床の一部分より広範の天井又は床の撮影画像を受信すると、前記第1の携帯端末と前記第2の携帯端末から受信した撮影画像のランダムパターンの画像特徴の照合を行い、前記第2の携帯端末からの撮影画像上の前記第1の携帯端末からの撮影画像の位置を特定する第2の照合部と、
    前記第2の照合部により特定された位置に基づく前記第1の携帯端末の位置を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する第2の通知部を備える
    請求項1又は請求項2のいずれかに記載の位置特定装置。
  5. 前記天井又は床の一部分より広範の天井又は床の撮影画像は、撮影部を備える移動体が移動しながら撮影したものである
    請求項1から請求項3のいずれかに記載の位置特定装置。
  6. 前記照合部は、前記広範の撮影画像における天井又は床のパネルの直線を検出して当該撮影画像の幾何補正を行う
    請求項1から請求項5のいずれかに記載の位置特定装置。
  7. 携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する
    位置特定方法。
  8. 携帯端末から前記天井又は床の一部分の撮影画像を受信すると、当該天井又は床の一部分の撮影画像のランダムパターンの画像特徴と、前記広範の天井又は床の撮影画像のランダムパターンの画像特徴を照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づく前記携帯端末の位置を通知する
    請求項7に記載の位置特定方法。
  9. 前記前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを予め取得し、
    第1の携帯端末と第2の携帯端末から、天井又は床の一部分の撮影画像をそれぞれ受信すると、各撮影画像のランダムパターンの画像特徴を前記広範の天井又は床の撮影画像のランダムパターンの画像特徴とそれぞれ照合して、前記広範の撮影画像上の前記第1の携帯端末の撮影画像と前記第2の携帯端末の撮影画像の位置を特定し、当該位置に基づく前記第1の携帯端末と前記第2の携帯端末の位置関係を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する
    請求項7又は請求項8のいずれかに記載の位置特定方法。
  10. 第1の携帯端末から前記天井又は床の一部分の撮影画像を受信し、第2の携帯端末から前記天井又は床の一部分より広範の天井又は床の撮影画像を受信すると、前記第1の携帯端末と前記第2の携帯端末から受信した撮影画像のランダムパターンの画像特徴の照合を行い、前記第2の携帯端末からの撮影画像上の前記第1の携帯端末からの撮影画像の位置を特定し、当該位置に基づく前記第1の携帯端末の位置を、前記第1の携帯端末と第2の携帯端末の少なくとも一方に通知する
    請求項7又は請求項8のいずれかに記載の位置特定方法。
  11. 撮影部を備える移動体が、移動しながら前記天井又は床の一部分より広範の天井又は床を撮影する
    請求項7から請求項9のいずれかに記載の位置特定方法。
  12. 前記広範の撮影画像における天井又は床のパネルの直線を検出して当該撮影画像の幾何補正を行う
    請求項7から請求項11のいずれかに記載の位置特定方法。
  13. コンピュータに、
    携帯端末が撮影した天井又は床の一部分の撮影画像のランダムパターンと、前記天井又は床の一部分より広範の天井又は床の撮影画像のランダムパターンを照合して、前記広範の撮影画像上の前記一部分の撮影画像の位置を特定し、特定した前記広範の撮影画像上の位置に基づいて前記携帯端末の上部の天井の位置又は下部の床の位置を特定する照合処理を実行させるプログラム。
JP2017511076A 2015-04-10 2016-04-08 位置特定装置、位置特定方法及びプログラム Active JP6822396B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015080629 2015-04-10
JP2015080629 2015-04-10
PCT/JP2016/061475 WO2016163492A1 (ja) 2015-04-10 2016-04-08 位置特定装置、位置特定方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2016163492A1 true JPWO2016163492A1 (ja) 2018-03-15
JP6822396B2 JP6822396B2 (ja) 2021-01-27

Family

ID=57072657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017511076A Active JP6822396B2 (ja) 2015-04-10 2016-04-08 位置特定装置、位置特定方法及びプログラム

Country Status (3)

Country Link
US (1) US10433119B2 (ja)
JP (1) JP6822396B2 (ja)
WO (1) WO2016163492A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016163492A1 (ja) * 2015-04-10 2016-10-13 日本電気株式会社 位置特定装置、位置特定方法及びプログラム
CN107229274B (zh) * 2016-03-24 2022-06-28 松下电器(美国)知识产权公司 位置指示方法、终端装置、自行式装置以及程序
JP6910790B2 (ja) * 2016-12-07 2021-07-28 株式会社ディスコ 自動搬送車コントロールシステム
JP2018185182A (ja) * 2017-04-25 2018-11-22 東京電力ホールディングス株式会社 位置特定装置
EP3710780A4 (en) * 2017-11-14 2021-08-18 Ception Technologies Ltd. IMPROVED CAPACITY DETECTION METHOD AND SYSTEM FOR VEHICLES
JP7143641B2 (ja) * 2018-06-14 2022-09-29 オムロン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020047188A (ja) * 2018-09-21 2020-03-26 パナソニックIpマネジメント株式会社 自律走行掃除機
WO2020102946A1 (zh) * 2018-11-19 2020-05-28 珊口(深圳)智能科技有限公司 构建地图、定位、导航、控制方法及系统、移动机器人
JP7319824B2 (ja) * 2019-05-16 2023-08-02 株式会社日立製作所 移動体
CN112097742B (zh) * 2019-06-17 2022-08-30 北京地平线机器人技术研发有限公司 一种位姿确定方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0390309U (ja) * 1989-12-28 1991-09-13
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JPH08178654A (ja) * 1994-12-27 1996-07-12 Mitsubishi Electric Corp 標定装置
JP2004288148A (ja) * 2003-03-05 2004-10-14 3D Media Co Ltd 画像処理方法、画像処理システム、画像処理装置、及びコンピュータプログラム
US20080219503A1 (en) * 2005-09-05 2008-09-11 Alpvision S.A. Means for using microstructure of materials surface as a unique identifier
JP2011210183A (ja) * 2010-03-30 2011-10-20 Shimizu Corp 移動体位置検出システムおよび方法
WO2013191281A1 (ja) * 2012-06-22 2013-12-27 日本電気株式会社 照合方法、照合システム、照合装置、及びそのプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4042517B2 (ja) 2002-10-09 2008-02-06 株式会社日立製作所 移動体およびその位置検出装置
WO2007034875A1 (ja) * 2005-09-21 2007-03-29 Matsushita Electric Industrial Co., Ltd. 画像投射装置
US7667767B2 (en) * 2006-06-07 2010-02-23 Onlive, Inc. System and method for three dimensional capture of stop-motion animated characters
US7567293B2 (en) * 2006-06-07 2009-07-28 Onlive, Inc. System and method for performing motion capture by strobing a fluorescent lamp
US7548272B2 (en) * 2006-06-07 2009-06-16 Onlive, Inc. System and method for performing motion capture using phosphor application techniques
US20100231692A1 (en) * 2006-07-31 2010-09-16 Onlive, Inc. System and method for performing motion capture and image reconstruction with transparent makeup
WO2008016645A2 (en) * 2006-07-31 2008-02-07 Onlive, Inc. System and method for performing motion capture and image reconstruction
US9582516B2 (en) * 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
WO2016163492A1 (ja) * 2015-04-10 2016-10-13 日本電気株式会社 位置特定装置、位置特定方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0390309U (ja) * 1989-12-28 1991-09-13
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JPH08178654A (ja) * 1994-12-27 1996-07-12 Mitsubishi Electric Corp 標定装置
JP2004288148A (ja) * 2003-03-05 2004-10-14 3D Media Co Ltd 画像処理方法、画像処理システム、画像処理装置、及びコンピュータプログラム
US20080219503A1 (en) * 2005-09-05 2008-09-11 Alpvision S.A. Means for using microstructure of materials surface as a unique identifier
JP2011210183A (ja) * 2010-03-30 2011-10-20 Shimizu Corp 移動体位置検出システムおよび方法
WO2013191281A1 (ja) * 2012-06-22 2013-12-27 日本電気株式会社 照合方法、照合システム、照合装置、及びそのプログラム

Also Published As

Publication number Publication date
WO2016163492A1 (ja) 2016-10-13
US10433119B2 (en) 2019-10-01
US20180098200A1 (en) 2018-04-05
JP6822396B2 (ja) 2021-01-27

Similar Documents

Publication Publication Date Title
WO2016163492A1 (ja) 位置特定装置、位置特定方法及びプログラム
CN104081433B (zh) 图像坐标和地图坐标之间的转换
US12080027B2 (en) Article position managing apparatus, article position management system, article position managing method, and program
JP4824022B2 (ja) 非均一分解能で合成イメージを用意する方法
US12039773B2 (en) Image display system, terminal, method, and program for determining a difference between a first image and a second image
KR101329111B1 (ko) 실내 네비게이션 시스템 및 방법
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
KR102248459B1 (ko) 카메라 캘리브레이션 장치 및 방법
JP2016164518A (ja) 屋内位置情報測位システム及び屋内位置情報測位方法
JP2015138333A (ja) 表示制御プログラム、表示制御装置及び表示制御システム
US20160189383A1 (en) Positioning system
US9466139B2 (en) Map obtaining method
CN108234932B (zh) 视频监控图像中的人员形态提取方法及装置
JP2022145190A (ja) 情報処理システム、位置管理方法、情報処理装置及びプログラム
JP5767887B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JPWO2018167971A1 (ja) 画像処理装置、制御方法及び制御プログラム
CN110503123B (zh) 图像定位方法、装置、计算机设备和存储介质
KR20170133666A (ko) 영상 분석을 이용한 카메라 캘리브레이션 방법 및 그 장치
JP6304815B2 (ja) 画像処理装置ならびにその画像特徴検出方法、プログラムおよび装置
US10083545B2 (en) Image processing device, image processing method, and non-transitory computer-readable recording medium for specifying markers in accepted image data
CN103136784A (zh) 街景建立系统及街景建立方法
KR101535890B1 (ko) 텍스트 인식을 이용한 영상 감시 방법 및 그 장치
JP7448748B2 (ja) 位置検出システム、及び位置検出方法
CN113330275B (zh) 相机信息计算装置、系统、相机信息计算方法及记录介质
JP2018128927A (ja) 画像情報合成システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170921

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6822396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150