JP2024052304A - 位置推定システム、位置推定方法、及びプログラム - Google Patents

位置推定システム、位置推定方法、及びプログラム Download PDF

Info

Publication number
JP2024052304A
JP2024052304A JP2022158932A JP2022158932A JP2024052304A JP 2024052304 A JP2024052304 A JP 2024052304A JP 2022158932 A JP2022158932 A JP 2022158932A JP 2022158932 A JP2022158932 A JP 2022158932A JP 2024052304 A JP2024052304 A JP 2024052304A
Authority
JP
Japan
Prior art keywords
image
coordinate point
mask
moving object
mask image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022158932A
Other languages
English (en)
Inventor
真弘 劒持
Masahiro Kemmochi
拓朗 澤野
Takuro Sawano
恭祥 波田野
Yasuyoshi Hatano
翔悟 安山
Shogo Yasuyama
健人 岩堀
Taketo Iwabori
圭吾 池田
Keigo Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022158932A priority Critical patent/JP2024052304A/ja
Priority to US18/236,208 priority patent/US20240112363A1/en
Priority to EP23199923.6A priority patent/EP4345750A1/en
Priority to CN202311256843.3A priority patent/CN117808870A/zh
Publication of JP2024052304A publication Critical patent/JP2024052304A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Geometry (AREA)

Abstract

【課題】設置物を移動体に設置することなく移動体の位置を推定可能な位置推定システム、位置推定方法、及びプログラムを提供すること。【解決手段】位置推定システム100は、撮像部により撮像された画像中の移動体をマスクしたマスク領域が付加された第1マスク画像を生成する検出部55と、第1マスク画像を透視変換する透視変換部57と、第1マスク画像15を透視変換した第2マスク画像17中のマスク領域M1の第2座標点P2を用いて第1マスク画像15中のマスク領域M1に設定した第1外接矩形R1の座標点P1を補正して第3座標点P3を算出する位置算出部58と、を有する。【選択図】図1

Description

本開示は位置推定システム、位置推定方法、及びプログラムに関し、特に車両等の移動体の位置推定システム、位置推定方法、及びプログラムに関する。
例えば、車両の位置を検出する技術が特許文献1に開示されている。
特許文献1には、車両上の2つの所定位置にそれぞれ設置される送受信手段と、前記車両の駐車スペースに少なくとも3つの固定点に設置された4つの返信手段と、前記各送受信手段に接続される制御手段とを備え、前記各送受信手段は、それぞれ異なる2つの前記返信手段と通信を行って、その間の距離を検出し、前記制御手段は前記各送受信手段が検出した距離に基づいて車両位置を算出することを特徴とする車両位置検出装置が開示されている。
特開2001-51720号公報
しかしながら、特許文献1に記載の技術では、車両及び駐車スペースのそれぞれに設置物が必要であるため、例えば設置物を設置できない移動体や空間を対象とする場合に、移動体の位置推定を行うことができないという問題があった。
本開示は、このような問題を解決するためになされたものであり、設置物を移動体に設置することなく移動体の位置を推定可能な位置推定システム、位置推定方法、及びプログラムを提供することを目的とするものである。
一実施形態にかかる位置推定システムは、対象となる移動体を含む撮像領域を撮像する撮像部と、撮像部により撮像された画像を移動体のベクトル方向が所定方向を向くように回転させる回転処理部と、画像中の移動体をマスクしたマスク領域が付加された第1マスク画像を生成する検出部と、第1マスク画像を透視変換する透視変換部と、第1マスク画像中のマスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、第1マスク画像を透視変換した第2マスク画像中のマスク領域に設定した第2外接矩形の頂点のうち第1座標点と同一の位置を示す頂点を第2座標点とし、第2座標点を用いて第1座標点を補正して画像座標系における移動体の位置を示す第3座標点を算出する位置算出部と、グローバル座標系における撮像部の位置を適用して第3座標点を補正することによりグローバル座標系における移動体の位置を算出する位置補正部と、を有する。
また、一実施形態にかかる位置推定方法は、対象となる移動体を含む撮像領域を撮像部により撮像するステップと、撮像部により撮像された画像を移動体のベクトル方向が所定方向を向くように回転させるステップと、画像中の移動体をマスクしたマスク領域が付加された第1マスク画像を生成するステップと、第1マスク画像を透視変換するステップと、第1マスク画像中のマスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、第1マスク画像を透視変換した第2マスク画像中のマスク領域に設定した第2外接矩形の頂点のうち第1座標点と同一の位置を示す頂点を第2座標点とし、第2座標点を用いて第1座標点を補正して画像座標系における移動体の位置を示す第3座標点を算出するステップと、グローバル座標系における撮像部の位置を適用して第3座標点を補正することによりグローバル座標系における移動体の位置を算出するステップと、を有する。
また、一実施形態にかかるプログラムは、コンピュータに実行させるプログラムであって、対象となる移動体を含む撮像領域を撮像した画像を移動体のベクトル方向が所定方向を向くように回転させる処理と、画像中の移動体をマスクしたマスク領域が付加された第1マスク画像を生成する処理と、第1マスク画像を透視変換する処理と、第1マスク画像中のマスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、第1マスク画像を透視変換した第2マスク画像中のマスク領域に設定した第2外接矩形の頂点のうち第1座標点と同一の位置を示す頂点を第2座標点とし、第2座標点を用いて第1座標点を補正して画像座標系における移動体の位置を示す第3座標点を算出する処理と、グローバル座標系における撮像部の位置を適用して第3座標点を補正することによりグローバル座標系における移動体の位置を算出する処理と、を有する。
本開示により、設置物を移動体に設置することなく移動体の位置を推定可能な位置推定システム、位置推定方法、及びプログラムを提供することができる。
実施の形態1にかかる位置推定システムの概要を示す図である。 位置推定システムを用いた位置推定方法の一例を説明するフローチャートである。 各種画像の例を示す模式図である。 ステップS8を説明する第1の図である。 ステップS8を説明する第2の図である。 ステップS9を説明する図である。
実施の形態1
以下、図面を参照して本開示の実施の形態について説明する。ただし、本開示が以下の実施の形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。
以下、本実施形態にかかる位置推定システム100による位置推定の対象となる移動体の一例として、移動体が自動車等の車両1である場合に具体化して説明するが、位置推定システム100は車両以外の様々な移動体の位置推定に適用可能である。移動体は、例えば路面走行型のロボットであってもよい。
なお、以下の説明では、車両1の進行方向と平行をなす方向を前後方向とし、前後方向に直交する水平方向を左右方向とし、前後方向及び左右方向と直交する方向を上下方向とする。前後方向のうち、車両1の進行方向を前方とし、その反対方向を後方とする。図中の黒矢印は、進行方向を示している。
図1を参照して、本実施形態にかかる位置推定システム100の概要を説明する。図1は、実施の形態1にかかる位置推定システムの概要を示す図である。図1に示すように、位置推定システム100は、カメラ10、表示装置30、及び情報処理装置40等を有し、対象となる車両1の位置を推定する。
車両1は、進行方向と平行をなすXg軸及び進行方向に直交するYg軸のそれぞれに沿って網目状に格子線70が引かれている平らな移動路の路面71を進行方向に沿って移動(走行)する。なお、Xg軸及びYg軸は、それぞれグローバル座標系の座標軸である。このような格子線70は、省略してもよい。
位置推定システム100は、車両1の特定の部分に対して設定される測位点の位置を車両1の位置として採用する。本実施形態において、車両1の測位点は車両1の左後方の車両端1eである。
カメラ10は、撮像部の一具体例である。カメラ10は、情報処理装置40と無線又は有線により通信可能に接続されている。カメラ10は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子と光学系とを有する。本実施形態において、カメラ10は、車両1の外部において、路面71を移動する車両1を車両1の左後方の上方から撮像可能な位置に固定されている。カメラ10は、車両1を含む撮像領域を所定の撮像周期で撮像する。本実施形態では、車両1、2を含む撮像領域をカメラ10が撮像する場合を例に挙げて説明する。
カメラ10は、撮像領域が写った画像を生成する。画像は、XcYc平面に配置された画素が集合した2次元画像であり、少なくとも車両1の2次元データを含む。画像は、カラー画像が好ましいが、グレー画像であってもよい。カメラ10は、例えば画像を生成する度に、生成した画像とともに画像を取得した画像取得時刻を情報処理装置40へ出力する。
表示装置30は、ユーザに対して各種の情報を表示する。表示装置30は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(OELD:Organic Electroluminescence Display)等により構成される。表示装置30は、情報処理装置40と無線又は有線により通信可能に接続されている。
情報処理装置40は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサと、RAM(Random Access Memory)やROM(Read Only Memory)等のメモリと、HDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージデバイスと、表示装置30等の周辺機器を接続するための入出力I/Fと、装置外部の機器と通信を行う通信I/Fと、を有する通常のコンピュータのハードウェア構成を有する。
情報処理装置40は、カメラ10により撮像された画像を処理して車両1の位置を推定(算出)する。情報処理装置40は、画像入力部51、歪み補正部52、回転処理部53、クロップ処理部54、検出部55、削除部56、透視変換部57、位置算出部58、位置補正部59、及び記憶部60を有する。歪み補正部52、クロップ処理部54、削除部56、及び記憶部60は、適宜省略することができる。
画像入力部51は、カメラ10から画像の入力を受け付ける。歪み補正部52は、画像の歪みを補正する。回転処理部53は、画像を車両1のベクトル方向が所定方向を向くように回転させる。クロップ処理部は、車両1が所定の閾値を超える距離を移動した場合に、車両1が移動した距離に応じた移動済領域を画像から削除して前記移動体を含む未移動領域を切り出す。
検出部55は、画像中の車両1をマスクしたマスク領域M1が付加された第1マスク画像15を生成する。透視変換部57は、第1マスク画像15を透視変換する。
位置算出部58は、まず、第1マスク画像15中のマスク領域M1に設定した第1外接矩形R1の指定された頂点を第1座標点P1として取得する。また、第1マスク画像15を透視変換した第2マスク画像17中のマスク領域M1に設定した第2外接矩形R2の頂点のうち第1座標点P1と同一の位置を示す頂点を第2座標点P2として取得する。そして、第2座標点P2を用いて第1座標点P1を補正して、画像座標系における車両1の位置を示す第3座標点P3を算出する。
位置補正部59は、グローバル座標系におけるカメラ10の位置を適用して第3座標点P3を補正することによりグローバル座標系における車両1の位置を算出する。
記憶部60は、例えば情報処理装置40が備えるメモリ等により構成される。記憶部60は、情報処理装置40が実行する各種プログラム、カメラ10から得た画像等の各種データ、各種パラメータ等を記憶する。記憶部60に記憶されたプログラムは、本実施形態にかかる位置推定方法の処理が実装されたプログラムの少なくとも一部を含む。また、記憶部60は、位置推定に用いる撮像座標点Pc及び固定座標点Pfを含むグローバル座標系の2次元マップ、カメラ10の高さHを示す情報、車両端1eの高さhを示す情報、さらに位置推定の途中で得られる演算結果等を記憶する。
ユーザは、上記した位置推定システム100を利用して車両1の位置推定を行なうことができる。そこで、図2及び図3を参照して、位置推定システム100を用いた位置推定方法について説明する。図2は、位置推定システムを用いた位置推定方法の一例を説明するフローチャートである。図3は、各種画像の例を示す模式図である。以下の説明では、検出部55によりマスク領域M1が付加される前に、各処理で得られる画像をそれぞれ画像11~14とする。
まず、ステップS1において、画像入力部51がカメラ10から画像11の入力を受け付ける。カメラ10から取得した画像11には、車両1を含む複数の車両の2次元データが含まれていてもよい。図2に例示した画像11には、車両1、2の各2次元データが含まれている。
ステップS2において、歪み補正部52が画像11の歪みを補正する。このステップでは、記憶部60に予め記憶された歪み補正パラメータを用いて画像11に対して歪みを補正した画像12を生成することができる。歪み補正パラメータは、例えばキャリブレーションにより得られる格子線70の位置情報に関わるパラメータである。なお、格子線70以外の他の任意のパラメータを採用してもよい。
ステップS3において、回転処理部53は、車両1のベクトル方向が所定方向を向くように画像12を回転させる。このステップでは、例えば、画像12を表示する表示装置30の画面上で車両1の進行方向であるベクトル方向が上方向を向くように、画像12中の車両1の重心を回転中心として画像12を回転させた画像13を生成する。
ここで、例えばオプティカルフロー法等を用いて、車両1の特徴点の動きをベクトルで表すことができる。車両1のベクトル量やベクトル方向は、画像11上に適宜設定される車両1の特徴点(重心C)の画像フレーム間における位置の変化に基づいて推定される。
ステップS4において、クロップ処理部54は、車両1が所定の閾値を超える距離を移動した場合に、車両1が移動した距離に応じた移動済領域を画像13から削除して車両1を含む未移動領域を切り出した画像14を生成する。クロップ処理部54は、推定されたベクトル量によりを車両1が移動した距離を認識する。
図3に例示した移動済領域は、画像13において破線で示した領域である。これにより、カメラ10に対して遠方にある車両1に対する画像処理の精度が向上する。なお、このようなクロップ処理部54による処理が必要ない場合、ステップS4は省略することができる。また、ステップS4のクロップ処理部54による処理は、ステップS3の回転処理部53による処理の前に行ってもよい。
ステップS5において、検出部55は、画像14中の車両1をマスクしたマスク領域M1が付加された第1マスク画像15を生成する。このステップでは、学習済みモデルを用いて画像14中の車両1をマスクする。例えば、入力された画像中の車両をマスクするように予め機械学習された識別器に画像14を入力することで、画像14に車両1の領域を示すマスク領域M1が付加された第1マスク画像15を出力することができる。
このような識別器として、セマンティックセグメンテーションやインスタンスセグメンテーションを実現するCNN(Convolutional Neural Network)の構造を有するDNN(Deep Neural Network)を用いることができる。なお、識別器は、物体検出用のニューラルネットワークであってもよく、ニューラルネットワーク以外の機械学習モデルに従った識別器であってもよい。
このような識別器の一例として、YOLACT++等のインスタンスセグメンテーションを行うDNNが挙げられる。このようなDNNを用いた場合、画像14に含まれる複数の車両を分類し、車両1、2毎にマスクした第1マスク画像15を生成することができる。本実施形態では、マスクした車両1、2毎の領域を示すマスク領域M1、M2を画像14に対して付加した第1マスク画像15を生成する。これにより、背景の多様性による位置推定精度の低下を抑制できるとともに、画像14に複数の車両が含まれる場合に対象の車両1を選択することができるようになる。
第1マスク画像15は、画像14に対してマスク領域M1、M2が付加された後に二値化処理を施した二値化画像であるとよい。なお、ステップS5では、画像14に代わって画像13を処理対象として、マスク領域M1、M2を画像13に対して付加した第1マスク画像15を生成してもよい。
ステップS6において、削除部56は、第1マスク画像15に複数の車両が含まれる場合に、マスクされた対象外の車両2を第1マスク画像15から削除する。このステップでは、ステップS5において生成されたマスク領域M1、M2のうち、認識対象領域外に存在するマスク領域M2を第1マスク画像15から削除する。認識対象領域は、第1マスク画像15中で車両1が移動する所定の領域であり、記憶部60に予め記憶されている。例えば、格子線70内の領域に対応した認識対象領域が設定される。
これにより、複数の車両が写り込んだ場合に、位置推定の対象外である車両2の影響を排除できるため、車両1の位置推定精度が向上する。なお、車両2が存在しない等、削除部56による処理が必要ない場合はステップS6を省略してもよい。
ステップS7において、透視変換部57は、第1マスク画像15を透視変換する。ステップS7では、ステップS5において生成した第1マスク画像15を処理対象としてもよく、ステップS6において車両2が削除された第1マスク画像15を処理対象としてもよい。
このステップでは、記憶部60に予め記憶された透視変換パラメータを用いて、第1マスク画像15を路面71に略垂直な車両1の上方(例えば車両1の真上)の視点から見た鳥瞰画像に透視変換する。
これにより、カメラ10の焦点を原点とするXc及びYcで示された座標軸を有するカメラ座標系が、透視変換によって投影される画像平面の一点を原点とするXi及びYiで示された座標軸を有する画像座標系に変換される。透視変換パラメータは、例えばキャリブレーションにより得られるカメラ10の位置情報及び内部パラメータに関わるパラメータである。
ステップS8において、位置算出部58は、まず、第1マスク画像15中のマスク領域M1に設定した第1外接矩形R1の指定された頂点を第1座標点P1として取得する。また、第1マスク画像15を透視変換した第2マスク画像17中のマスク領域M1に設定した第2外接矩形R2の頂点のうち第1座標点P1と同一の位置を示す頂点を第2座標点P2として取得する。そして、第2座標点P2を用いて第1座標点P1を補正して、画像座標系における車両1の位置(推定位置)を示す第3座標点P3を算出する。
そこで、図4及び図5を参照して、ステップS8の詳細を説明する。図4は、ステップS8を説明する第1の図である。図5は、ステップS8を説明する第2の図である。図4に示すように、ステップS8では、車両1の位置の算出に用いる第3座標点P3を算出する。
第3座標点P3を算出するにあたっては、第1マスク画像15中のマスク領域M1に対して設定された第1外接矩形R1が付加された第1マスク画像15を透視変換し、透視変換により変形した第1外接矩形R1の第1座標点P1を取得する。また、第2マスク画像17中のマスク領域M1に対して設定された第2外接矩形R2の第2座標点P2を取得する。
このように取得された第1座標点P1及び第2座標点P2の各座標(Xi1、Yi1)、(Xi2、Yi2)を用いて、第3座標点P3を算出する。第3座標点P3は、第1座標点P1の座標(Xi1、Yi1)を必要に応じて第2座標点P2の座標(Xi2、Yi2)に置き換えることにより算出することができる。具体的には、Xi1>Xi2である場合、Xi1をXi2に置き換える。また、Yi1>Yi2である場合、Yi1をYi2に置き換える。図4に例示した座標点P3は、座標(Xi2、Yi1)を有する。このような補正により、車両1の位置推定精度が向上する。
ここで、第1座標点P1及び第2座標点P2を取得する方法について説明する。まず、第1座標点P1を取得するために、透視変換前の第1外接矩形R1からベース座標点P0を取得する。図5には、ベース座標点P0を取得する方法が示されている。
図5に示すように、まず、第1マスク画像15中のマスク領域M1に対する外接矩形R0を設定する。次いで、第1マスク画像15中のマスク領域M1に対応する車両1の移動ベクトルVのベクトル方向が所定方向(画面上で上方向)を向くように、マスク領域M1の重心Cを回転中心として第1マスク画像15を必要な回転量だけ回転させる。
このように回転させた第1マスク画像15中のマスク領域M1に対する第1外接矩形R1(長辺が移動ベクトルVのベクトル方向と平行をなす第1外接矩形R1)を設定した後、マスク領域M1の重心Cを回転中心として第1外接矩形R1が付加された第1マスク画像15を上記回転量だけ逆回転させる。このように逆回転させた第1マスク画像15中の第1外接矩形R1のベース座標点P0を取得する。ここで取得するベース座標点P0は、第1外接矩形R1の4つの頂点のうちの1つであって、車両端1eとの距離が最も近い座標を有する頂点を選択する。
そして、図4に示すように、逆回転させた後の第1マスク画像15に対して透視変換を行ない、透視変換により変形した第1外接矩形R1の第1座標点P1の座標(Xi1、Yi1)を取得する。ここで取得する第1座標点P1は、ベース座標点P0に対応する座標点である。
また、図4に示すように、第2座標点P2を取得するために、第2マスク画像17中のマスク領域M1に対する第2外接矩形R2を設定し、第2外接矩形R2の第2座標点P2の座標(Xi2、Yi2)を取得する。ここで取得する第2座標点P2は、第2外接矩形R2の4つの頂点のうちの1つであって、車両端1eとの距離が最も近い座標を有する頂点を選択する。すなわち、第1座標点P1及び第2座標点P2は、同一の位置を示す座標点であるため、互いに相関関係を有する。
ステップS9において、位置補正部59がグローバル座標系におけるカメラ10の位置を適用して第3座標点P3を補正することによりグローバル座標系における車両1の位置を算出する。そこで、図6を参照してステップS9の詳細を説明する。図6は、ステップS9を説明する図である。
図6に示すグローバル座標系は、路面71の任意の基準位置を示す固定座標点Pfを原点としたXg及びYgで示された座標軸を有する座標系である。撮像座標点Pcは、グローバル座標系におけるカメラ10の位置を示す。固定座標点Pf及び撮像座標点Pcは、記憶部60に予め記憶されている。このステップでは、車両1の位置を示す車両座標点Pvを算出する。
図6の左側面図に示すように、カメラ10の位置と車両1の位置との間の観測距離をDoとし、観測誤差をΔDとし、路面71からのカメラ10の高さ[m]をHとし、路面71からの車両端1eの高さ[m]をhとすると、観測誤差ΔDは、下記式(1)で表すことができる。
ΔD=h/H×Do・・・式(1)
すなわち、観測距離Doが大きくなるほど観測誤差ΔDも大きくなる。なお、カメラ10の高さH及び車両端1eの高さhは、記憶部60に予め記憶されている。
次に、カメラ10の位置と車両端1eの位置との間の実際の距離をDとすると、実際の距離Dは、下記式(2)で表すことができる。
D=Do×(1-h/H)・・・式(2)
すなわち、実際の距離Dは、観測距離Do、カメラ10の高さH、及び車両端1eの高さhによって決まる。
そして、図6の上面図に示すように、基準位置と車両1の推定位置との間の推定距離をDpとし、基準位置と車両1の位置との間の実際の距離をDtとすると、実際の距離Dtは、下記式(3)で表すことができる。
Dt=Dp×(1-h/H)・・・式(3)
ここで、推定距離Dpは、座標点Pf、Pcから求められる実際の距離Dc、及び座標点P3、Pfを用いて算出することができる。
したがって、式(3)を用いて推定距離Dpを補正することにより求められる実際の距離Dtと固定座標点Pfとを用いて車両座標点Pvを算出することができる。このようにして算出された車両座標点Pvが、実空間における車両1の位置に相当する。
以上説明したように、本実施形態にかかる位置推定システム100は、対象となる移動体(車両1)を含む撮像領域を撮像する撮像部(カメラ10)と、撮像部により撮像された画像を移動体のベクトル方向が所定方向を向くように回転させる回転処理部53と、画像中の移動体をマスクしたマスク領域M1が付加された第1マスク画像15を生成する検出部55と、第1マスク画像15を透視変換する透視変換部57と、第1マスク画像15中のマスク領域M1に設定した第1外接矩形R1の指定された頂点を第1座標点P1とし、第1マスク画像15を透視変換した第2マスク画像17中のマスク領域M1に設定した第2外接矩形R2の頂点のうち第1座標点P1と同一の位置を示す頂点を第2座標点P2とし、第2座標点P2を用いて第1座標点P1を補正して画像座標系における移動体の位置を示す第3座標点P3を算出する位置算出部58と、グローバル座標系における撮像部の位置を適用して第3座標点P3を補正することによりグローバル座標系における移動体の位置を算出する位置補正部59と、を有する。
このような構成によれば、移動体の位置推定に用いるセンサ、マーカー、送受信機等の設置物を移動体に設置することなく移動体の位置を推定可能なシステムを提供することができる。また、位置推定システム100を移動体に搭載する必要がなく、データの保持・処理を行う少なくとも一部の機能を移動体に搭載する必要がある他のシステムと比べて汎用性が高い。
また、上記の位置推定システム100は、画像の歪みを補正する歪み補正部52をさらに有する。このような構成によれば、移動体の位置推定精度が向上する。
また、上記のの位置推定システム100は、移動体が所定の閾値を超える距離を移動した場合に、移動体が移動した距離に応じた移動済領域を画像から削除して移動体を含む未移動領域を切り出すクロップ処理部54をさらに有する。このような構成によれば、移動体の位置推定精度が向上する。
また、上記の位置推定システム100は、第1マスク画像15に複数の移動体が含まれる場合に、検出部55によりマスクされた対象外の移動体を第1マスク画像15から削除する削除部56をさらに有する。このような構成によれば、移動体の位置推定精度が向上する。
また、上記の移動体は、車両1である。ここで、屋外空間にある車両等の移動体の位置を測位可能なシステムとして、例えばGPS(Global Positioning System)を利用したシステムを用いることができる。一方、GPS衛星からのデータが届きにくいシールド効果のある屋内空間等では、GPSを利用したシステムによって算出される位置精度が低下するという問題がある。これに対し、本実施形態によれば、GPSの利用が望ましくない環境であっても車両1の位置推定が可能である。したがって、上記した位置推定システム100は、車両工場等の屋内空間に存在する車両1の位置推定に好適に用いることができる。
さらに、本実施形態にかかる位置推定方法は、対象となる移動体を含む撮像領域を撮像部により撮像するステップと、撮像部により撮像された画像を移動体のベクトル方向が所定方向を向くように回転させるステップと、画像中の移動体をマスクしたマスク領域M1が付加された第1マスク画像15を生成するステップと、第1マスク画像15を透視変換するステップと、第1マスク画像15を透視変換するステップと、第1マスク画像15中のマスク領域M1に設定した第1外接矩形R1の指定された頂点を第1座標点P1とし、第1マスク画像15を透視変換した第2マスク画像17中のマスク領域M1に設定した第2外接矩形R2の頂点のうち第1座標点P1と同一の位置を示す頂点を第2座標点P2とし、第2座標点P2を用いて第1座標点P1を補正して画像座標系における移動体の位置を示す第3座標点P3を算出するステップと、グローバル座標系における撮像部の位置を適用して第3座標点P3を補正することによりグローバル座標系における移動体の位置を算出するステップと、を有する。
このような構成によれば、移動体の位置推定に用いるセンサ、マーカー、送受信機等の設置物を移動体に設置することなく移動体の位置を推定可能な方法を提供することができる。
さらに、本実施形態にかかるプログラムは、コンピュータに実行させるプログラムであって、対象となる移動体を含む撮像領域を撮像した画像を移動体のベクトル方向が所定方向を向くように回転させる処理と、画像中の移動体をマスクしたマスク領域M1が付加された第1マスク画像15を生成する処理と、第1マスク画像15を透視変換する処理と、第1マスク画像15を透視変換する処理と、第1マスク画像15中のマスク領域M1に設定した第1外接矩形R1の指定された頂点を第1座標点P1とし、第1マスク画像15を透視変換した第2マスク画像17中のマスク領域M1に設定した第2外接矩形R2の頂点のうち第1座標点P1と同一の位置を示す頂点を第2座標点P2とし、第2座標点P2を用いて第1座標点P1を補正して画像座標系における移動体の位置を示す第3座標点P3を算出する処理と、グローバル座標系における撮像部の位置を適用して第3座標点P3を補正することによりグローバル座標系における移動体の位置を算出する処理と、を有する。
このような構成によれば、移動体の位置推定に用いるセンサ、マーカー、送受信機等の設置物を移動体に設置することなく移動体の位置を推定可能なプログラムを提供することができる。
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上記の実施形態では、移動している車両1の位置を推定する例を挙げて説明したが、静止している車両1の位置を推定することも可能である。静止している車両1の位置を推定する場合、移動している車両1のベクトル方向に代えて、例えばシステム起後、最初に取得された画像11から推定される車両1の初期のベクトル方向を用いて静止している車両1の位置を推定することができる。
また、上記の実施形態では、情報処理装置40が2次元画像を処理対象とする例を説明したが、ステレオカメラやTOF(Time Of Flight)カメラによって撮像される3次元画像を処理対象としてもよい。
また、情報処理装置40は、一つの筐体に含まれる装置により実現されてもよく、情報処理装置40の各部が、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
また、上記実施の形態では、画像入力部51がカメラ10から画像11の入力を受け付ける例を挙げて説明したが、例えば記憶部60等に予め記憶された画像11の入力を受け付けるようにしてもよい。
また、本開示は、例えば、情報処理装置40が行う処理を、プロセッサにコンピュータプログラムを実行させることにより実現することが可能である。プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1、2 車両 1e 車両端 10 カメラ 11、12、13、14 画像
15 第1マスク画像 17 第2マスク画像 20 入力装置 30 表示装置
40 情報処理装置 51 画像入力部 52 歪み補正部 53 回転処理部
54 クロップ処理部 55 検出部 56 削除部 57 透視変換部
58 位置算出部 59 位置補正部 60 記憶部 70 格子線 71 路面
100 位置推定システム C 重心 M1、M2 マスク領域 P0 ベース座標点 P1 第1座標点 P2 第2座標点 P3 第3座標点 Pf 固定座標点
Pc 撮像座標点 Pv 車両座標点 R0 外接矩形 R1 第1外接矩形
R2 第2外接矩形 V 移動ベクトル
一実施形態にかかる位置推定システムは、対象となる移動体を含む撮像領域を撮像する撮像部と、撮像部により撮像された画像中の移動体をマスクしたマスク領域が付加された第1マスク画像を生成する検出部と、第1マスク画像を透視変換する透視変換部と、第1マスク画像中のマスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、第1マスク画像を透視変換した第2マスク画像中のマスク領域に設定した第2外接矩形の頂点のうち第1座標点と同一の位置を示す頂点を第2座標点とし、第2座標点を用いて第1座標点を補正して画像座標系における移動体の位置を示す第3座標点を算出する位置算出部と、を有する。
また、一実施形態にかかる位置推定方法は、対象となる移動体を含む撮像領域を撮像部により撮像するステップと、撮像部により撮像された画像中の移動体をマスクしたマスク領域が付加された第1マスク画像を生成するステップと、第1マスク画像を透視変換するステップと、第1マスク画像中のマスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、第1マスク画像を透視変換した第2マスク画像中のマスク領域に設定した第2外接矩形の頂点のうち第1座標点と同一の位置を示す頂点を第2座標点とし、第2座標点を用いて第1座標点を補正して画像座標系における移動体の位置を示す第3座標点を算出するステップと、を有する。
また、一実施形態にかかるプログラムは、コンピュータに実行させるプログラムであって、対象となる移動体を含む撮像領域を撮像した画像中の移動体をマスクしたマスク領域が付加された第1マスク画像を生成する処理と、第1マスク画像を透視変換する処理と、第1マスク画像中のマスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、第1マスク画像を透視変換した第2マスク画像中のマスク領域に設定した第2外接矩形の頂点のうち第1座標点と同一の位置を示す頂点を第2座標点とし、第2座標点を用いて第1座標点を補正して画像座標系における移動体の位置を示す第3座標点を算出する処理と、を有する。
情報処理装置40は、カメラ10により撮像された画像を処理して車両1の位置を推定(算出)する。情報処理装置40は、画像入力部51、歪み補正部52、回転処理部53、クロップ処理部54、検出部55、削除部56、透視変換部57、位置算出部58、位置補正部59、及び記憶部60を有する。画像入力部51、歪み補正部52、回転処理部53、クロップ処理部54、削除部56、位置補正部59、及び記憶部60は、適宜省略することができる。
まず、ステップS1において、画像入力部51がカメラ10から画像11の入力を受け付ける。カメラ10から取得した画像11には、車両1を含む複数の車両の2次元データが含まれていてもよい。図2に例示した画像11には、車両1、2の各2次元データが含まれている。なお、このような画像入力部51による処理が必要ない場合、ステップS1は省略することができる。
ステップS2において、歪み補正部52が画像11の歪みを補正する。このステップでは、記憶部60に予め記憶された歪み補正パラメータを用いて画像11に対して歪みを補正した画像12を生成することができる。歪み補正パラメータは、例えばキャリブレーションにより得られる格子線70の位置情報に関わるパラメータである。なお、格子線70以外の他の任意のパラメータを採用してもよい。なお、このような歪み補正部52による処理が必要ない場合、ステップS2は省略することができる。
ステップS3において、回転処理部53は、車両1のベクトル方向が所定方向を向くように画像12を回転させる。このステップでは、例えば、画像12を表示する表示装置30の画面上で車両1の進行方向であるベクトル方向が上方向を向くように、画像12中の車両1の重心を回転中心として画像12を回転させた画像13を生成する。なお、このような回転処理部53による処理が必要ない場合、ステップS3は省略することができる。
ステップS4において、クロップ処理部54は、車両1が所定の閾値を超える距離を移動した場合に、車両1が移動した距離に応じた移動済領域を画像13から削除して車両1を含む未移動領域を切り出した画像14を生成する。クロップ処理部54は、推定されたベクトル量により車両1が移動した距離を認識する。
したがって、式(3)を用いて推定距離Dpを補正することにより求められる実際の距離Dtと固定座標点Pfとを用いて車両座標点Pvを算出することができる。このようにして算出された車両座標点Pvが、実空間における車両1の位置に相当する。ただし、カメラ10の設置位置を高くするほど高さHが大きくなるため、式(3)中のh/Hで示される補正値をゼロに近づくように小さくすることができる。このように、補正が不要になるほどカメラ10が高い位置に設置されている等、位置補正部59による処理が必要ない場合はステップS9を省略してもよい。
例えば、上記の実施形態では、移動している車両1の位置を推定する例を挙げて説明したが、静止している車両1の位置を推定することも可能である。静止している車両1の位置を推定する場合、移動している車両1のベクトル方向に代えて、例えばシステム起後、最初に取得された画像11から推定される車両1の初期のベクトル方向を用いて静止している車両1の位置を推定することができる。

Claims (7)

  1. 対象となる移動体を含む撮像領域を撮像する撮像部と、
    前記撮像部により撮像された画像を前記移動体のベクトル方向が所定方向を向くように回転させる回転処理部と、
    前記画像中の前記移動体をマスクしたマスク領域が付加された第1マスク画像を生成する検出部と、
    前記第1マスク画像を透視変換する透視変換部と、
    前記第1マスク画像中の前記マスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、前記第1マスク画像を透視変換した第2マスク画像中の前記マスク領域に設定した第2外接矩形の頂点のうち前記第1座標点と同一の位置を示す頂点を第2座標点とし、前記第2座標点を用いて前記第1座標点を補正して画像座標系における前記移動体の位置を示す第3座標点を算出する位置算出部と、
    グローバル座標系における前記撮像部の位置を適用して前記第3座標点を補正することにより前記グローバル座標系における前記移動体の位置を算出する位置補正部と、
    を有する位置推定システム。
  2. 前記画像の歪みを補正する歪み補正部をさらに有する請求項1に記載の位置推定システム。
  3. 前記移動体が所定の閾値を超える距離を移動した場合に、前記移動体が移動した距離に応じた移動済領域を前記画像から削除して前記移動体を含む未移動領域を切り出すクロップ処理部をさらに有する請求項1に記載の位置推定システム。
  4. 前記第1マスク画像に複数の移動体が含まれる場合に、前記検出部によりマスクされた対象外の移動体を前記第1マスク画像から削除する削除部をさらに有する請求項1に記載の位置推定システム。
  5. 前記移動体は、車両である請求項1に記載の位置推定システム。
  6. 対象となる移動体を含む撮像領域を撮像部により撮像するステップと、
    前記撮像部により撮像された画像を前記移動体のベクトル方向が所定方向を向くように回転させるステップと、
    前記画像中の前記移動体をマスクしたマスク領域が付加された第1マスク画像を生成するステップと、
    前記第1マスク画像を透視変換するステップと、
    前記第1マスク画像中の前記マスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、前記第1マスク画像を透視変換した第2マスク画像中の前記マスク領域に設定した第2外接矩形の頂点のうち前記第1座標点と同一の位置を示す頂点を第2座標点とし、前記第2座標点を用いて前記第1座標点を補正して画像座標系における前記移動体の位置を示す第3座標点を算出するステップと、
    グローバル座標系における前記撮像部の位置を適用して前記第3座標点を補正することにより前記グローバル座標系における前記移動体の位置を算出するステップと、
    を有する位置推定方法。
  7. コンピュータに実行させるプログラムであって、
    対象となる移動体を含む撮像領域を撮像した画像を前記移動体のベクトル方向が所定方向を向くように回転させる処理と、
    前記画像中の前記移動体をマスクしたマスク領域が付加された第1マスク画像を生成する処理と、
    前記第1マスク画像を透視変換する処理と、
    前記第1マスク画像中の前記マスク領域に設定した第1外接矩形の指定された頂点を第1座標点とし、前記第1マスク画像を透視変換した第2マスク画像中の前記マスク領域に設定した第2外接矩形の頂点のうち前記第1座標点と同一の位置を示す頂点を第2座標点とし、前記第2座標点を用いて前記第1座標点を補正して画像座標系における前記移動体の位置を示す第3座標点を算出する処理と、
    グローバル座標系における前記撮像部の位置を適用して前記第3座標点を補正することにより前記グローバル座標系における前記移動体の位置を算出する処理と、
    を有するプログラム。
JP2022158932A 2022-09-30 2022-09-30 位置推定システム、位置推定方法、及びプログラム Pending JP2024052304A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022158932A JP2024052304A (ja) 2022-09-30 2022-09-30 位置推定システム、位置推定方法、及びプログラム
US18/236,208 US20240112363A1 (en) 2022-09-30 2023-08-21 Position estimation system, position estimation method, and program
EP23199923.6A EP4345750A1 (en) 2022-09-30 2023-09-26 Position estimation system, position estimation method, and program
CN202311256843.3A CN117808870A (zh) 2022-09-30 2023-09-26 位置估计系统、位置估计方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022158932A JP2024052304A (ja) 2022-09-30 2022-09-30 位置推定システム、位置推定方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2024052304A true JP2024052304A (ja) 2024-04-11

Family

ID=88204409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022158932A Pending JP2024052304A (ja) 2022-09-30 2022-09-30 位置推定システム、位置推定方法、及びプログラム

Country Status (4)

Country Link
US (1) US20240112363A1 (ja)
EP (1) EP4345750A1 (ja)
JP (1) JP2024052304A (ja)
CN (1) CN117808870A (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3707308B2 (ja) 1999-08-06 2005-10-19 日産自動車株式会社 車両位置検出装置

Also Published As

Publication number Publication date
EP4345750A1 (en) 2024-04-03
US20240112363A1 (en) 2024-04-04
CN117808870A (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN109902637B (zh) 车道线检测方法、装置、计算机设备和存储介质
CN110148185B (zh) 确定成像设备坐标系转换参数的方法、装置和电子设备
US20170339397A1 (en) Stereo auto-calibration from structure-from-motion
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN110910453B (zh) 基于无重叠视域多相机系统的车辆位姿估计方法及其系统
WO2018120040A1 (zh) 一种障碍物检测方法及装置
JP6003673B2 (ja) 3次元位置推定装置、車両制御装置、および3次元位置推定方法
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
KR20090103165A (ko) 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
WO2017051480A1 (ja) 画像処理装置及び画像処理方法
US10602125B2 (en) Camera-parameter-set calculation apparatus, camera-parameter-set calculation method, and recording medium
KR20210090384A (ko) 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치
CN116879870B (zh) 一种适用于低线束3d激光雷达的动态障碍物去除方法
CN111738033A (zh) 基于平面分割的车辆行驶信息确定方法及装置、车载终端
JP7311407B2 (ja) 姿勢推定装置、および、姿勢推定方法
JPWO2019123582A1 (ja) 物体情報生成装置及び物体情報生成プログラム
CN111860270A (zh) 一种基于鱼眼相机的障碍物检测方法及装置
CN114648639B (zh) 一种目标车辆的检测方法、系统及装置
JP2024052304A (ja) 位置推定システム、位置推定方法、及びプログラム
CN111695379B (zh) 基于立体视觉的地面分割方法、装置、车载设备及存储介质
JP7223587B2 (ja) 物体運動推定方法及び物体運動推定装置
JP7064400B2 (ja) 物体検知装置
CN113763560B (zh) 点云数据的生成方法、系统、设备及计算机可读存储介质
CN111462321A (zh) 点云地图处理方法、处理装置、电子装置和车辆
WO2014192061A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240903