JPWO2018131165A1 - 情報処理プログラム、情報処理方法および情報処理装置 - Google Patents

情報処理プログラム、情報処理方法および情報処理装置 Download PDF

Info

Publication number
JPWO2018131165A1
JPWO2018131165A1 JP2018561776A JP2018561776A JPWO2018131165A1 JP WO2018131165 A1 JPWO2018131165 A1 JP WO2018131165A1 JP 2018561776 A JP2018561776 A JP 2018561776A JP 2018561776 A JP2018561776 A JP 2018561776A JP WO2018131165 A1 JPWO2018131165 A1 JP WO2018131165A1
Authority
JP
Japan
Prior art keywords
point group
moving body
area
information processing
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018561776A
Other languages
English (en)
Other versions
JP6699761B2 (ja
Inventor
山 姜
創輔 山尾
成幸 小田嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2018131165A1 publication Critical patent/JPWO2018131165A1/ja
Application granted granted Critical
Publication of JP6699761B2 publication Critical patent/JP6699761B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

容易に駐車エリアを特定できる情報処理プログラム等を提供する。情報処理プログラムは、コンピュータ(100)に以下の処理を実行させる。コンピュータは、第1の移動体に設置された撮像装置(111)で撮像された画像を取得する。コンピュータは、取得した画像に基づいて、第1のアルゴリズムで第1の移動体の自己位置を推定するとともに、第1の移動体の周囲の3次元の形状を示す第1の点群を生成する。コンピュータは、第1のアルゴリズムで用いたデータに基づいて、第2のアルゴリズムで3次元の形状を示す第2の点群を生成する。コンピュータは、生成した第1の点群と、第2の点群とをマージして第3の点群を生成する。コンピュータは、第1の移動体の移動軌跡と、第2の移動体のサイズに関する情報とに基づいて、第3の点群から第2の移動体を停めるエリア群の空間を抽出する。コンピュータは、抽出した空間を分割してエリア群の各エリアを特定する。

Description

本発明は、情報処理プログラム、情報処理方法および情報処理装置に関する。
近年、各種のセンサを用いた自動車、ロボットおよびドローン等の自動走行や自律ナビゲーションが提案されている。これらの自動走行等は、例えば、地図を参照しながら自己位置を推定することで行われる。自動車の場合には、例えば、高速道路から民間の駐車場、さらには、個人施設まで様々な場所の地図が求められる。ところが、小規模な駐車場等では、正確な地図がない場合が多い。このため、例えばSLAM(Simultaneous Localization and Mapping)等のように、地図を生成しながら自車位置の推定を行う手法が提案されている。
また、SLAM等で認識した周辺環境、自車位置および自車姿勢等の情報を対応付けて蓄積し、現在の自車位置や自車姿勢と蓄積した情報とに基づいて、自車にとって走行可能な複数の経路から走行経路を設定することが提案されている。また、SLAMを実行するロボットが、外観変化を経験した場合に、マップの特徴記述子を用いて認識画像に対して広いベースラインマッチングを実行することで位置決めを行うことが提案されている。また、画像処理により駐車場の駐車領域の白線を検出して駐車場マップを生成し、再度駐車場に入場する際に生成した駐車場マップに基づいて駐車場を案内することが提案されている。また、超音波センサで駐車スペースが存在するか否かを判定し、駐車スペースが有る場合に、撮影した画像に基づいて駐車スペースを表す地図を作成することが提案されている。
特開2012−118909号公報 特表2007−535765号公報 特開2007−315956号公報 特開2002−170103号公報
しかしながら、SLAMを用いて地図を生成すると、スパースな情報、つまりまばらな情報を地図として抽出する。このため、自動走行以外の用途、例えば、人が理解しやすい駐車場の地図を生成する等の用途に用いることは難しい。また、小規模な駐車場では駐車領域の白線がない場合もあるため、白線を検出する手法では駐車場の地図を生成することが困難である場合がある。
一つの側面では、容易に駐車エリアを特定できる情報処理プログラム、情報処理方法および情報処理装置を提供することにある。
一つの態様では、情報処理プログラムは、第1の移動体に設置された撮像装置で撮像された画像を取得する処理をコンピュータに実行させる。情報処理プログラムは、取得した前記画像に基づいて、第1のアルゴリズムで前記第1の移動体の自己位置を推定するとともに、前記第1の移動体の周囲の3次元の形状を示す第1の点群を生成する処理をコンピュータに実行させる。情報処理プログラムは、前記第1のアルゴリズムで用いたデータに基づいて、第2のアルゴリズムで前記3次元の形状を示す第2の点群を生成する処理をコンピュータに実行させる。情報処理プログラムは、生成した前記第1の点群と、前記第2の点群とをマージして第3の点群を生成する処理をコンピュータに実行させる。情報処理プログラムは、前記第1の移動体の移動軌跡と、第2の移動体のサイズに関する情報とに基づいて、前記第3の点群から前記第2の移動体を停めるエリア群の空間を抽出する処理をコンピュータに実行させる。情報処理プログラムは、抽出した前記空間を分割して前記エリア群の各エリアを特定する処理をコンピュータに実行させる。
容易に駐車エリアを特定できる。
図1は、実施例の情報処理システムの構成の一例を示す図である。 図2は、SLAMの概要を表す図である。 図3は、SLAMの出力の一例を示す図である。 図4は、環境特徴点の一例を示す図である。 図5は、走行用地図の一例を示す図である。 図6は、理想的な駐車場地図の一例を示す図である。 図7は、実際の走行経路の一例を示す図である。 図8は、SLAMによる走行経路および走行用地図の一例を示す図である。 図9は、実施例の情報処理システムの機能構成の概要の一例を示す図である。 図10は、実施例の情報処理システムの処理の概要を示す図である。 図11は、実施例の情報処理装置の機能構成の一例を示すブロック図である。 図12は、駐車場のある範囲のSLAMの出力と、画像およびポーズ情報の一例を示す図である。 図13は、準高密度化した第3の点群の一例を示す図である。 図14は、駐車空間の抽出の一例を示す図である。 図15は、駐車空間の分割の一例を示す図である。 図16は、駐車エリアの特定の一例を示す図である。 図17は、特定した駐車エリアの幅と奥行きとに基づく走行用地図の補正の一例を示す図である。 図18は、実施例の駐車場地図生成処理の一例を示すフローチャートである。 図19は、情報処理プログラムを実行するコンピュータの一例を示す図である。
以下、図面に基づいて、本願の開示する情報処理プログラム、情報処理方法および情報処理装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。
図1は、実施例の情報処理システムの構成の一例を示す図である。図1に示す情報処理システム1は、自動車である車両10に搭載された情報処理装置100と、クラウド200とを有する。なお、車両10および情報処理装置100の数は限定されず、任意の数の車両10および情報処理装置100を有してもよい。情報処理装置100と、クラウド200との間は、ネットワークNを介して相互に通信可能に接続される。かかるネットワークNには、有線または無線を問わず、インターネットを始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。
情報処理システム1は、例えば、駐車場における自動運転のための地図を生成するためのシステムである。情報処理システム1は、例えば、車両10に搭載される情報処理装置100から送信される自車位置、地図情報および走行履歴等をクラウド200で収集し、駐車場に関する各種の情報をデータベースに記憶する。クラウド200のデータベースには、例えば、駐車場の駐車車両等のダイナミック情報、走行計画用の地図、自車位置推定用の地図が記憶される。情報処理装置100は、車両10が駐車場内を走行すると、カメラを用いて周辺環境の情報を取得し、自車位置の推定や地図の生成を行う。
情報処理装置100は、車両10に搭載される情報処理装置であり、車両10における自動運転に関する処理を行うコンピュータである。情報処理装置100は、クラウド200に走行用の初期地図がある場合には、クラウド200から走行用の初期地図を取得する。情報処理装置100は、第1の移動体である車両10に設置された撮像装置で撮像された画像を取得する。情報処理装置100は、取得した画像に基づいて、第1のアルゴリズムで第1の移動体の自己位置を推定するとともに、第1の移動体の周囲の3次元の形状を示す第1の点群を生成する。なお、以下の説明では、第1の移動体が車両10である場合には、自己位置の代わりに自車位置と表現する場合がある。情報処理装置100は、第1のアルゴリズムで用いたデータに基づいて、第2のアルゴリズムで3次元の形状を示す第2の点群を生成する。情報処理装置100は、生成した第1の点群と、第2の点群とをマージして第3の点群を生成する。情報処理装置100は、第1の移動体の移動軌跡と、第2の移動体のサイズに関する情報とに基づいて、第3の点群から第2の移動体を停めるエリア群の空間を抽出する。情報処理装置100は、抽出した空間を分割してエリア群の各エリア、つまり駐車エリアを特定する。これにより、情報処理装置100は、容易に駐車エリアを特定できる。
クラウド200は、情報処理装置100から送信される自車位置、地図情報および走行履歴等を収集し、駐車場に関する各種の情報をデータベースに記憶する駐車場ダイナミックマップクラウドの一例である。駐車場ダイナミックマップクラウドは、1つ以上の情報処理装置100から収集した駐車場に関する各種の情報に基づいて、駐車場地図を整形したり、走行用地図の補正を行ったりする。また、クラウド200の他のサービスに対して駐車場地図等の各種情報を提供する。
ここで、図2から図8を用いて、地図を生成しながら自車位置の推定を行うSLAMについて説明する。図2は、SLAMの概要を表す図である。図2は、カメラで取得した画像を用いてSLAMを行う一例であるVisualSLAMの処理の概要を示すものである。図2では、カメラは、位置20a、20b、20c、20dの順に移動し、カメラの向き、つまり姿勢を変えながら環境特徴点(以下、ランドマークともいう。)21a、21bを撮像する。VisualSLAMでは、カメラの位置、姿勢、および、各位置で撮像された画像上の環境特徴点に基づいて、地図を生成しながら自車位置の推定を行う。
図3は、SLAMの出力の一例を示す図である。図3の出力例では、カメラの現在位置22と、カメラによって画像が撮像された位置のキーフレーム23と、3次元の環境特徴点を示す点群24とが含まれる。
図4は、環境特徴点の一例を示す図である。図4に示す画面25は、あるキーフレームにおける画像の環境特徴点26を表示したものである。環境特徴点26は、例えば、駐車車両の角や木の頂点、建物の角等である。なお、図4では、各環境特徴点を代表して1つの環境特徴点26に符号を付けている。
図5は、走行用地図の一例を示す図である。図5に示す走行用地図27は、ある駐車場を自動走行するための3次元の環境特徴点の点群を有する地図である。走行用地図27は、スパースな、つまり疎な環境特徴点の点群で表されるため、人が見る場合や他のサービスでは、用いにくい地図である。
図6は、理想的な駐車場地図の一例を示す図である。図6の駐車場地図28は、人が見る場合や他のサービスで用いやすい理想的な駐車場地図の一例である。駐車場地図28のように、駐車エリアが一目でわかる地図であれば、人が見ても理解しやすく、他のサービス、例えば、駐車場の空き状況の情報を提供するなどといったサービスに応用しやすくなる。
図7は、実際の走行経路の一例を示す図である。図8は、SLAMによる走行経路および走行用地図の一例を示す図である。図7に示す駐車場29における走行経路30は、実際の走行経路の一例である。また、図8の走行用地図32は、VisualSLAMによって生成した走行用地図である。走行用地図32における走行経路33は、実際の走行経路30と比べて、図7の領域31と対応する図8の領域34において、ドリフト誤差が発生している。走行用地図32では、駐車場29に対してドリフト誤差が発生することで、地図精度が悪化している。本発明では、この様なドリフト誤差についても、生成した駐車場地図を用いて走行用地図を補正することで、地図精度の向上を図る。
次に、図9および図10を用いて情報処理システム1の機能構成および処理の概要について説明する。図9は、実施例の情報処理システムの機能構成の概要の一例を示す図である。図9に示すように、情報処理システム1は、情報処理装置100とクラウド200との間で各種の情報をやりとりする。情報処理装置100は、SLAM処理150の他に、経路生成、走行制御、障害物検知といった処理を実行する。SLAM処理150では、クラウド200から走行用初期地図を取得して記憶するとともに、自車初期位置を識別する。その後、車載カメラ群から入力される画像に基づいて、連続自己位置推定処理およびランドマーク地図更新を行う。なお、ランドマーク地図は、環境特徴点の点群である走行用地図である。また、SLAM処理150は、推定した自車位置情報およびランドマーク変化情報を、例えば携帯電話回線等を用いてネットワークNを介してクラウド200に送信する。さらに、SLAM処理150は、更新されたランドマーク地図および走行履歴についても同様にクラウド200に送信する。また、SLAM処理150は、図示しない駐車場地図の生成処理等も実行する。
クラウド200は、駐車場地図の生成および走行用地図の生成に関する処理を行う駐車場ダイナミックマップクラウド210と、他のサービス群を提供するサービス群クラウド220とを有する。駐車場ダイナミックマップクラウド210は、制御部211と、ダイナミックマップデータベース(以下、データベースはDBと示す。)212と、API(Application Programming Interface)213、214とを有する。制御部211は、各種情報のDB登録、差分管理、地図更新といった処理を実行する。ダイナミックマップDB212は、静的・準静的な情報から動的・準動的な情報まで記憶する。ダイナミックマップDB212は、例えば、静的から動的な順に、走行用地図である自車位置推定用地図(ランドマーク情報)、例えば車両10のユーザに対して表示する駐車場内走路地図(走行計画用)、ダイナミック情報(駐車車両、障害物等)を有する。API213は、情報処理装置100と各種情報のやりとりを行うAPIである。API214は、サービス群クラウド220と各種情報のやりとりを行うAPIである。
図10は、実施例の情報処理システムの処理の概要を示す図である。図10は、データの流れに着目した場合の情報処理システム1の処理の概要を示すものである。図10に示すA車は車両10の一例である。A車の情報処理装置100は、まず、VisualSLAMによって、第1の点群であるスパース3D点群マップ41と、画像およびカメラの位置および姿勢を示すポーズ情報とを含むキーフレーム42とを生成する(ステップS1)。スパース3D点群マップ41は、リアルタイム処理である自車位置推定および走行用地図生成処理の出力である。A車の情報処理装置100は、キーフレーム42に対して、リアルタイム処理ではないオフラインSFM(Structure from Motion:以下、SfMともいう。)処理を実行し、第2の点群である密な3D点群マップ43を生成する(ステップS2)。
A車の情報処理装置100は、3D点群マップをマージする。すなわち、A車の情報処理装置100は、スパース3D点群マップ41と、密な3D点群マップ43とをマージして、第3の点群である準高密度化3D点群マップ44を生成する(ステップS3)。すなわち、A車の情報処理装置100は、まず、スパース点群の準高密度化処理45を実行する。A車の情報処理装置100は、生成した準高密度化3D点群マップ44から駐車空間を抽出するフィルタリング処理を実行する(ステップS4)。A車の情報処理装置100は、抽出した駐車空間を車両サイズ等に基づいて、個々の駐車エリアに分割して駐車場地図を生成する(ステップS5)。A車の情報処理装置100は、生成した駐車場地図をクラウド200に送信する。すなわち、A車の情報処理装置100は、スパース点群の準高密度化処理45に続いて、点群のフィルタリングおよび分割処理46を実行する。
クラウド200は、駐車場地図を受信すると、既にあるDB上の駐車場地図と比較して、DB上の駐車場地図を受信した駐車場地図で整形する(ステップS6)。すなわち、クラウド200は、例えば、B車、C車からも同じ駐車場の駐車場地図を受信すると、DB上の駐車場地図を順次整形して地図の精度を高める。また、クラウド200は、整形した駐車場地図に基づいて、DB上の走行用地図の補正を実行する(ステップS7)。すなわち、情報処理システム1では、各車両10から受信した地図情報でDB上の地図情報が更新されるので、車両10の数が多いほど精度を高めることができる。また、情報処理システム1では、駐車場の車の出入りによる変化を反映することができる。
続いて、図11を用いて情報処理装置100の機能構成について説明する。図11は、実施例の情報処理装置の機能構成の一例を示すブロック図である。図11に示すように、情報処理装置100は、通信部110と、カメラ111と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、図11に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の表示デバイス、入力デバイスや音声出力デバイス等の機能部を有することとしてもかまわない。
通信部110は、例えば、第3世代移動通信システム、LTE(Long Term Evolution)等の携帯電話回線および無線LAN等の通信モジュール等によって実現される。通信部110は、ネットワークNを介してクラウド200と無線で接続され、クラウド200との間で情報の通信を司る通信インタフェースである。なお、情報処理装置100とクラウド200との間は、携帯電話回線等の無線基地局を介して接続される場合、無線基地局とクラウド200との間については、無線または有線で接続される。通信部110は、クラウド200から走行用初期地図を受信すると、受信した走行用初期地図を制御部130に出力する。また、通信部110には、制御部130から自車位置情報、ランドマーク変化情報、走行用地図、走行履歴および駐車場地図等が入力される。通信部110は、入力された自車位置情報、ランドマーク変化情報、走行用地図、走行履歴および駐車場地図等をクラウド200に送信する。
カメラ111は、車両10の周辺環境を撮像する撮像装置である。カメラ111は、例えば、撮像素子としてCMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサ等を用いて、画像を撮像する。カメラ111は、撮像素子が受光した光を光電変換しA/D(Analog/Digital)変換を行って撮像画像を生成する。カメラ111は、生成した撮像画像を制御部130に出力する。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、走行用地図記憶部121と、自車位置記憶部122と、キーフレーム記憶部123と、駐車場地図記憶部124とを有する。また、記憶部120は、制御部130での処理に用いる情報を記憶する。
走行用地図記憶部121は、走行用地図、つまり3次元の形状を環境特徴点の疎な点群で示す第1の点群を記憶する。走行用地図記憶部121は、車両10が走行すると、SLAMにより逐次更新される。
自車位置記憶部122は、車両10の自車位置および走行履歴を記憶する。自車位置記憶部122は、車両10が走行すると、走行用地図記憶部121と同様にSLAMにより逐次更新される。
キーフレーム記憶部123は、カメラで撮像された画像と、カメラの位置および姿勢を示すポーズ情報とを含むキーフレームを記憶する。キーフレームは、SLAMに用いるデータであり、第1の点群の生成の際に生成される。キーフレーム記憶部123は、車両10が走行すると、走行用地図記憶部121と同様にSLAMにより逐次更新される。
駐車場地図記憶部124は、駐車空間における各駐車エリアが特定された駐車場地図を記憶する。駐車場地図記憶部124は、例えば、車両10が駐車場を1回走行するたびに生成される駐車場地図を記憶する。
図11の説明に戻る。制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部130は、取得部131と、第1生成部132と、第2生成部133と、第3生成部134と、抽出部135と、特定部136と、送信制御部137とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図11に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
取得部131は、カメラ111から撮像画像が入力されると、入力された撮像画像の取得を開始する。つまり、取得部131は、カメラ111で撮像された画像の取得を開始する。取得部131は、取得した画像を第1生成部132に出力する。
また、取得部131は、走行用初期地図をクラウド200から取得するようにしてもよい。取得部131は、例えば、図示しない位置検出装置等の位置情報を、通信部110およびネットワークNを介して、クラウド200に送信する。取得部131は、車両10が位置する駐車場の走行用初期地図がクラウド200にある場合には、ネットワークNおよび通信部110を介して、クラウド200から走行用初期地図を受信して取得する。取得部131は、取得した走行用初期地図を走行用地図記憶部121に記憶する。
第1生成部132は、取得部131から画像が入力されると、入力された画像に基づいて、SLAMを実行する。SLAMは、例えば、Two−view SfMによる推定結果の連結、Bundle adjustmentを用いた順次復元、PTAM(Parallel Tracking and Mapping)、MonoSLAM等を用いることができる。なお、PTAMは、キーフレームおよびBundle adjustmentを用いたTrackingとMappingとを並列化するアルゴリズムである。第1生成部132は、例えば、PTAMを用いることで、入力された画像と、カメラ111の位置および姿勢を示すポーズ情報とを含むキーフレームを生成することができる。
第1生成部132は、入力された画像に基づいて、当該画像と、カメラ111の位置および姿勢を示すポーズ情報とを含むキーフレームを生成する。第1生成部132は、生成したキーフレームに基づいて、自車位置の推定、および、車両10の周囲の3次元の形状を示す第1の点群の生成を開始する。すなわち、第1生成部132は、車両10の自車位置の推定を開始するとともに、走行用地図の生成を開始する。なお、第1生成部132は、走行用初期地図が走行用地図記憶部121に記憶されている場合には、走行用初期地図の更新を開始する。また、第1生成部132は、走行用地図の生成の際に、キーフレームおよび第1の点群に基づいて、同一地点に戻ってきたと判定すると、バンドル調整を行って、第1の点群、つまり走行用地図の補正を実行する。つまり、第1生成部132は、車両10の現在位置、キーフレームおよび第1の点群に基づいて従前の第1の点群を補正し、走行用地図を生成または更新する。
第1生成部132は、生成した第1の点群を走行用地図として走行用地図記憶部121に記憶する。また、第1生成部132は、推定した自車位置および走行履歴を自車位置記憶部122に記憶する。さらに、第1生成部132は、生成したキーフレームをキーフレーム記憶部123に記憶する。なお、走行用地図記憶部121、自車位置記憶部122およびキーフレーム記憶部123は、統合して一つの記憶部とし、第1の点群、自車位置、走行履歴およびキーフレームを統合した記憶部に記憶するようにしてもよい。また、第1生成部132は、SLAMの出力である自車位置情報およびランドマーク変化情報の送信制御部137への出力を開始する。
言い換えると、第1生成部132は、取得した画像に基づいて、第1のアルゴリズムで第1の移動体の自己位置を推定するとともに、第1の移動体の周囲の3次元の形状を示す第1の点群を生成する。
第1生成部132は、推定した自車位置に基づいて、車両10の走行が終了したか否かを判定する。第1生成部132は、車両10の走行が終了していないと判定した場合には、引き続き、自車位置の推定および走行用地図の生成を行う。第1生成部132は、車両10の走行が終了したと判定した場合には、第2の点群の生成指示を第2生成部133に出力する。
ここで、図12を用いてSLAMの出力と、画像およびポーズ情報について説明する。図12は、駐車場のある範囲のSLAMの出力と、画像およびポーズ情報の一例を示す図である。図12の例では、駐車場の所定領域50内を車両10が走行した場合のSLAMの出力を示す。所定領域50に対応する走行用地図51は、所定領域50内に駐車されている車両の3次元の形状を示している。また、現在位置52は、車両10が所定領域50内を1周した後に、さらに1/3程度進んだ位置である。車両10の走行経路には、当該走行経路に沿って複数のキーフレーム53が並んでおり、スタート地点では、バンドル調整がなされている。各キーフレーム53は、カメラ111の位置および姿勢を示すポーズ情報と、各キーフレーム53の位置におけるRGB画像とが対応付けられている。第2生成部133では、これらの情報に基づいて、オフラインSFMを用いて密な点群を求める。
図11の説明に戻る。第2生成部133は、第1生成部132から第2の点群の生成指示が入力されると、キーフレーム記憶部123を参照し、各キーフレームの画像およびポーズ情報を取得する。第2生成部133は、取得した画像およびポーズ情報に基づいて、SfMにより、3次元モデルの構築、GCP(Ground Control Point:地上基準点)の設定等の処理を実行する。また、第2生成部133は、構築した3次元モデルを地形モデルに変換して第2の点群として第3生成部134に出力する。すなわち、第2生成部133は、キーフレームに基づいて、第2の点群を生成する。言い換えると、第2生成部133は、第1のアルゴリズムで用いたデータに基づいて、第2のアルゴリズムで3次元の形状を示す第2の点群を生成する。なお、SfMには、例えば、VisualSFM、PMVS2/CMVSといったソフトウェアを用いることができる。
すなわち、第2生成部133は、駐車場において撮像された全ての画像を用いて3次元モデルを生成する。このため、第2生成部133が出力する第2の点群は、第1生成部132の出力である第1の点群と比較して、高密度な点群となる。つまり、第1生成部132が出力する第1の点群は、リアルタイム性はあるが点群が疎らとなり、第2生成部133が出力する第2の点群は、リアルタイム性はないが点群が密となる。
第3生成部134は、第2生成部133から第2の点群が入力されると、走行用地図記憶部121を参照し、第1の点群を取得する。第3生成部134は、第1の点群と第2の点群とをマージして第3の点群を生成する。すなわち、第3生成部134は、第1の点群の準高密度(Semi-Dense)化を行う。第3生成部134は、生成した第3の点群を抽出部135に出力する。
ここで、図13を用いて準高密度化した第3の点群について説明する。図13は、準高密度化した第3の点群の一例を示す図である。図13に示す点群55は、駐車場56における第3の点群の一例である。領域57は、領域58に対応し、領域58に駐車されている車両の特徴点が多く含まれている。なお、点群55の上部の特徴点59は、駐車場56の奥にある木等の特徴点である。点群60は、領域57の点群を拡大したものであり、通路側の車両の輪郭が人にも判る程度に表されている。
図11の説明に戻る。抽出部135は、第3生成部134から第3の点群が入力されると、第3の点群から駐車空間を抽出する。抽出部135は、自車位置記憶部122を参照し、駐車場における車両10の走行履歴、つまり移動軌跡を取得する。抽出部135は、予め設定した車両の幅や高さ等のサイズに関する情報と、取得した移動軌跡とに基づいて、3次元の境界ボックス(3D BoundingBox)を生成する。抽出部135は、第3の点群に対して生成した境界ボックスを用いてフィルタリングすることで、第3の点群から駐車空間を抽出する。言い換えると、抽出部135は、第1の移動体である車両10の移動軌跡と、第2の移動体である駐車車両のサイズに関する情報とに基づいて、第3の点群から第2の移動体を停めるエリア群の空間を抽出する。抽出部135は、抽出した駐車空間の点群を特定部136に出力する。
ここで、図14を用いて駐車空間の抽出について説明する。図14は、駐車空間の抽出の一例を示す図である。図14の例では、抽出部135は、駐車場56の領域58内における車両10の走行履歴である移動軌跡61と、予め設定した車両のサイズに関する情報とに基づいて、境界ボックス62を生成する。抽出部135は、点群55に対して境界ボックス62を用いてフィルタリングして点群63を抽出する。なお、点群63は、駐車車両を横から見た状態を表しており、上空からの視点、つまり平面上では、点群64に示すようになる。
図11の説明に戻る。特定部136は、抽出部135から駐車空間の点群が入力されると、駐車空間を1台ごとの駐車エリアに分割する。特定部136は、駐車空間の点群の空間分布と、予め設定した車両の幅や高さ等のサイズに関する情報とに基づいて、駐車空間の点群を1台ごとの駐車エリアに分割する。特定部136は、分割した各駐車エリアの幅および奥行きを平均化して、各駐車エリアを特定する。すなわち、特定部136は、抽出した空間を分割してエリア群の各エリアを特定する。特定部136は、特定した各駐車エリアに基づいて、駐車場地図を生成する。特定部136は、生成した駐車場地図を駐車場地図記憶部124に記憶する。
ここで、図15および図16を用いて駐車空間の分割および駐車エリアの特定について説明する。図15は、駐車空間の分割の一例を示す図である。図15の例では、特定部136は、駐車空間の点群63の一部分である点群65の空間分布と、車両のサイズに関する情報とに基づいて、点群65を駐車エリア66、67、68に分割する。特定部136は、駐車空間の点群63の他の部分も同様に各駐車エリアに分割し、それらを平面上の点群64に並べて駐車エリア群69を生成する。なお、点群65は、3次元の点群であるので、駐車車両の隙間が2次元の画像と比べて判りやすくなっている。
図16は、駐車エリアの特定の一例を示す図である。図16の例では、特定部136は、点群64の一部である点群64aに対する駐車エリア群69について、各駐車エリアの幅d〜di−1の平均値dを算出する。また、特定部136は、各駐車エリアの奥行きL〜Lの平均値Lを算出する。特定部136は、幅dと奥行きLとを有する駐車エリアを特定し、特定した複数の駐車エリアを纏めて駐車エリア群70を生成する。特定部136は、生成した駐車エリア群70を駐車場地図として駐車場地図記憶部124に記憶する。言い換えると、特定部136は、抽出した空間におけるエリア群の各エリアの幅および奥行きの平均値を算出し、算出した各エリアの幅および奥行きの平均値に基づいて、空間を分割してエリア群の各エリアを特定する。
また、特定部136は、生成した駐車場地図に基づいて、走行用地図記憶部121に記憶された走行用地図を補正する。特定部136は、生成した駐車場地図に基づいて、3次元のテンプレート点群を生成する。特定部136は、走行用地図記憶部121から取得した走行用地図、つまり第1の点群に対して、生成したテンプレート点群をテンプレートとして、例えば非剛体ICP(Iterative Closest Point)アライメントにより補正する。つまり、特定部136は、走行用地図である第1の点群を補正する。すなわち、特定部136は、駐車場地図を用いて走行用地図のドリフト誤差を補正する。言い換えると、特定部136は、特定した各エリアの幅および奥行きに基づいて、第1の点群をアライメントすることで第1の点群のドリフトを補正する。特定部136は、補正した走行用地図を走行用地図記憶部121に記憶する。特定部136は、補正した走行用地図を走行用地図記憶部121に記憶すると、地図送信指示を送信制御部137に出力する。
ここで、図17を用いて走行用地図の補正について説明する。図17は、特定した駐車エリアの幅と奥行きとに基づく走行用地図の補正の一例を示す図である。図17に示すように、特定部136は、駐車エリア群70に基づいて、3次元のテンプレート点群71を生成する。特定部136は、生成したテンプレート点群71を用いて第1の点群72に対して、非剛体ICPアルゴリズムを用いたアライメントによりドリフト誤差の補正を行う。特定部136は、例えば、テンプレート点群71を駐車場の一部の駐車エリア群70に基づいて生成し、駐車場の他の部分に適用することで、他の部分のドリフト誤差を補正する。
具体的には、特定部136は、テンプレート点群71を用いて第1の点群72の位置合わせを行うことで、第1の点群72のドリフト誤差を補正する。すなわち、特定部136は、第1の点群72の各特徴点をテンプレート点群71の対応する各特徴点に近づけるように変形させて補正する。特定部136は、ドリフト誤差の補正後の第1の点群、つまり走行用地図を走行用地図記憶部121に記憶する。
図11の説明に戻る。送信制御部137は、第1生成部132から自車位置情報およびランドマーク変化情報の入力が開始されると、通信部110およびネットワークNを介して、自車位置情報およびランドマーク変化情報のクラウド200への送信を開始する。また、送信制御部137は、特定部136から地図送信指示が入力されると、走行用地図記憶部121および駐車場地図記憶部124を参照し、通信部110およびネットワークNを介して、走行用地図および駐車場地図をクラウド200に送信する。なお、送信制御部137は、自車位置記憶部122を参照して、走行用地図および駐車場地図と併せて、車両10の走行履歴をクラウド200に送信するようにしてもよい。
次に、実施例の情報処理装置100の動作について説明する。図18は、実施例の駐車場地図生成処理の一例を示すフローチャートである。
取得部131は、カメラ111で撮像された画像の取得を開始する(ステップS11)。取得部131は、取得した画像を第1生成部132に出力する。第1生成部132は、取得部131から画像が入力されると、入力された画像に基づいてSLAMを実行し、画像とポーズ情報とを含むキーフレームを生成する(ステップS12)。第1生成部132は、生成したキーフレームに基づいて、自車位置推定および第1の点群の生成を開始する(ステップS13)。
第1生成部132は、車両10の現在位置、キーフレームおよび第1の点群に基づいて従前の第1の点群を補正し、走行用地図を生成または更新する(ステップS14)。第1生成部132は、生成した第1の点群を走行用地図として走行用地図記憶部121に記憶する。また、第1生成部132は、推定した自車位置および走行履歴を自車位置記憶部122に記憶する。さらに、第1生成部132は、生成したキーフレームをキーフレーム記憶部123に記憶する。
第1生成部132は、推定した自車位置に基づいて、車両10の走行が終了したか否かを判定する(ステップS15)。第1生成部132は、車両10の走行が終了していないと判定した場合には(ステップS15:否定)、ステップS14に戻る。第1生成部132は、車両10の走行が終了したと判定した場合には(ステップS15:肯定)、第2の点群の生成指示を第2生成部133に出力する。
第2生成部133は、第1生成部132から第2の点群の生成指示が入力されると、キーフレーム記憶部123を参照し、キーフレームを取得する。第2生成部133は、取得したキーフレームに基づいて、第2の点群を生成し、第3生成部134に出力する(ステップS16)。
第3生成部134は、第2生成部133から第2の点群が入力されると、走行用地図記憶部121を参照し、第1の点群を取得する。第3生成部134は、第1の点群と第2の点群とをマージして第3の点群を生成する(ステップS17)。第3生成部134は、生成した第3の点群を抽出部135に出力する。
抽出部135は、第3生成部134から第3の点群が入力されると、第3の点群から駐車空間を抽出する(ステップS18)。抽出部135は、抽出した駐車空間の点群を特定部136に出力する。特定部136は、抽出部135から駐車空間の点群が入力されると、駐車空間を1台ごとの駐車エリアに分割する。特定部136は、分割した各駐車エリアの幅および奥行きを平均化して、各駐車エリアを特定する。特定部136は、特定した各駐車エリアに基づいて、駐車場地図を生成する(ステップS19)。特定部136は、生成した駐車場地図を駐車場地図記憶部124に記憶する。
特定部136は、生成した駐車場地図に基づいて、走行用地図記憶部121に記憶された走行用地図を補正する(ステップS20)。特定部136は、走行用地図を補正すると、地図送信指示を送信制御部137に出力する。
送信制御部137は、特定部136から地図送信指示が入力されると、走行用地図記憶部121および駐車場地図記憶部124を参照し、走行用地図および駐車場地図をクラウド200に送信する(ステップS21)。これにより、情報処理装置100は、容易に駐車エリアを特定できる。
このように、情報処理装置100は、第1の移動体である車両10に設置されたカメラ111、つまり撮像装置で撮像された画像を取得する。また、情報処理装置100は、取得した画像に基づいて、第1のアルゴリズムで第1の移動体の自己位置を推定するとともに、第1の移動体の周囲の3次元の形状を示す第1の点群を生成する。また、情報処理装置100は、第1のアルゴリズムで用いたデータに基づいて、第2のアルゴリズムで3次元の形状を示す第2の点群を生成する。また、情報処理装置100は、生成した第1の点群と、第2の点群とをマージして第3の点群を生成する。また、情報処理装置100は、第1の移動体の移動軌跡と、第2の移動体のサイズに関する情報とに基づいて、第3の点群から第2の移動体を停めるエリア群の空間を抽出する。また、情報処理装置100は、抽出した空間を分割してエリア群の各エリアを特定する。その結果、情報処理装置100は、容易に駐車エリアを特定できる。
また、情報処理装置100は、抽出した空間におけるエリア群の各エリアの幅および奥行きの平均値を算出する。また、情報処理装置100は、算出した各エリアの幅および奥行きの平均値に基づいて、空間を分割してエリア群の各エリアを特定する。その結果、情報処理装置100は、大きさの異なる車両が駐車されている駐車場であっても、容易に駐車エリアを特定できる。
また、情報処理装置100は、特定した各エリアの幅および奥行きに基づいて、第1の点群をアライメントすることで第1の点群のドリフトを補正する。その結果、情報処理装置100は、走行用地図のドリフト誤差を補正できる。
また、情報処理装置100では、第2の移動体は、車両、つまり自動車である。また、情報処理装置100は、空間を分割して自動車を停めるエリア群の各駐車エリアを特定する。その結果、情報処理装置100は、自動車の駐車エリアを容易に特定できる。
なお、上記の実施例では、移動体として車両10を用いたが、これに限定されない。例えば、UAV(Unmanned aerial vehicle)等のいわゆるドローンを用いて画像を取得して駐車場地図を生成するようにしてもよい。
また、上記の実施例では、複数の車両10から取得した各種の情報を記憶するデータベースをクラウド200として構成したが、これに限定されない。例えば、クラウドに代えて、単体のサーバやサーバ群を用いてもよい。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、抽出部135と特定部136とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図19は、情報処理プログラムを実行するコンピュータの一例を示す図である。
図19に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、データ入力を受け付ける入力装置302と、モニタ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る媒体読取装置304と、各種装置と接続するためのインタフェース装置305と、他の情報処理装置等と有線または無線により接続するための通信装置306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。また、各装置301〜308は、バス309に接続される。
ハードディスク装置308には、図11に示した取得部131、第1生成部132、第2生成部133、第3生成部134、抽出部135、特定部136および送信制御部137の各処理部と同様の機能を有する情報処理プログラムが記憶される。また、ハードディスク装置308には、走行用地図記憶部121、自車位置記憶部122、キーフレーム記憶部123、駐車場地図記憶部124、および、情報処理プログラムを実現するための各種データが記憶される。入力装置302は、例えば、コンピュータ300のユーザから操作情報等の各種情報の入力を受け付ける。モニタ303は、例えば、コンピュータ300のユーザに対して表示画面等の各種画面を表示する。インタフェース装置305は、例えばカメラ等が接続される。通信装置306は、例えば、図11に示した通信部110と同様の機能を有しネットワークNと接続され、クラウド200と各種情報をやりとりする。
CPU301は、ハードディスク装置308に記憶された各プログラムを読み出して、RAM307に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ300を図11に示した取得部131、第1生成部132、第2生成部133、第3生成部134、抽出部135、特定部136および送信制御部137として機能させることができる。
なお、上記の情報処理プログラムは、必ずしもハードディスク装置308に記憶されている必要はない。例えば、コンピュータ300が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ300が読み出して実行するようにしてもよい。コンピュータ300が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの情報処理プログラムを記憶させておき、コンピュータ300がこれらから情報処理プログラムを読み出して実行するようにしてもよい。
1 情報処理システム
10 車両
100 情報処理装置
110 通信部
111 カメラ
120 記憶部
121 走行用地図記憶部
122 自車位置記憶部
123 キーフレーム記憶部
124 駐車場地図記憶部
130 制御部
131 取得部
132 第1生成部
133 第2生成部
134 第3生成部
135 抽出部
136 特定部
137 送信制御部
200 クラウド
N ネットワーク

Claims (6)

  1. 第1の移動体に設置された撮像装置で撮像された画像を取得し、
    取得した前記画像に基づいて、第1のアルゴリズムで前記第1の移動体の自己位置を推定するとともに、前記第1の移動体の周囲の3次元の形状を示す第1の点群を生成し、
    前記第1のアルゴリズムで用いたデータに基づいて、第2のアルゴリズムで前記3次元の形状を示す第2の点群を生成し、
    生成した前記第1の点群と、前記第2の点群とをマージして第3の点群を生成し、
    前記第1の移動体の移動軌跡と、第2の移動体のサイズに関する情報とに基づいて、前記第3の点群から前記第2の移動体を停めるエリア群の空間を抽出し、
    抽出した前記空間を分割して前記エリア群の各エリアを特定する、
    処理をコンピュータに実行させることを特徴とする情報処理プログラム。
  2. 前記特定する処理は、抽出した前記空間における前記エリア群の前記各エリアの幅および奥行きの平均値を算出し、算出した前記各エリアの前記幅および奥行きの平均値に基づいて、前記空間を分割して前記エリア群の前記各エリアを特定する、
    ことを特徴とする請求項1に記載の情報処理プログラム。
  3. さらに、
    特定した前記各エリアの幅および奥行きに基づいて、前記第1の点群をアライメントすることで前記第1の点群のドリフトを補正する、
    処理をコンピュータに実行させることを特徴とする請求項2に記載の情報処理プログラム。
  4. 前記第2の移動体は、自動車であり、
    前記特定する処理は、前記空間を分割して前記自動車を停めるエリア群の各駐車エリアを特定する、
    ことを特徴とする請求項1に記載の情報処理プログラム。
  5. 第1の移動体に設置された撮像装置で撮像された画像を取得し、
    取得した前記画像に基づいて、第1のアルゴリズムで前記第1の移動体の自己位置を推定するとともに、前記第1の移動体の周囲の3次元の形状を示す第1の点群を生成し、
    前記第1のアルゴリズムで用いたデータに基づいて、第2のアルゴリズムで前記3次元の形状を示す第2の点群を生成し、
    生成した前記第1の点群と、前記第2の点群とをマージして第3の点群を生成し、
    前記第1の移動体の移動軌跡と、第2の移動体のサイズに関する情報とに基づいて、前記第3の点群から前記第2の移動体を停めるエリア群の空間を抽出し、
    抽出した前記空間を分割して前記エリア群の各エリアを特定する、
    処理をコンピュータが実行することを特徴とする情報処理方法。
  6. 第1の移動体に設置された撮像装置で撮像された画像を取得する取得部と、
    取得した前記画像に基づいて、第1のアルゴリズムで前記第1の移動体の自己位置を推定するとともに、前記第1の移動体の周囲の3次元の形状を示す第1の点群を生成する第1生成部と、
    前記第1のアルゴリズムで用いたデータに基づいて、第2のアルゴリズムで前記3次元の形状を示す第2の点群を生成する第2生成部と、
    生成した前記第1の点群と、前記第2の点群とをマージして第3の点群を生成する第3生成部と、
    前記第1の移動体の移動軌跡と、第2の移動体のサイズに関する情報とに基づいて、前記第3の点群から前記第2の移動体を停めるエリア群の空間を抽出する抽出部と、
    抽出した前記空間を分割して前記エリア群の各エリアを特定する特定部と、
    を有することを特徴とする情報処理装置。
JP2018561776A 2017-01-16 2017-01-16 情報処理プログラム、情報処理方法および情報処理装置 Active JP6699761B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/001265 WO2018131165A1 (ja) 2017-01-16 2017-01-16 情報処理プログラム、情報処理方法および情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2018131165A1 true JPWO2018131165A1 (ja) 2019-11-07
JP6699761B2 JP6699761B2 (ja) 2020-05-27

Family

ID=62840339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018561776A Active JP6699761B2 (ja) 2017-01-16 2017-01-16 情報処理プログラム、情報処理方法および情報処理装置

Country Status (4)

Country Link
US (1) US10885357B2 (ja)
JP (1) JP6699761B2 (ja)
DE (1) DE112017006840B4 (ja)
WO (1) WO2018131165A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473422B (zh) * 2019-07-16 2022-07-12 盐城工学院 一种室外公共区域地面停车位导航装置
TWI725681B (zh) * 2019-12-24 2021-04-21 財團法人工業技術研究院 無人載具語意地圖建置系統及其建置方法
CN111260661B (zh) * 2020-01-15 2021-04-20 江苏大学 一种基于神经网络技术的视觉语义slam系统及方法
JP7396123B2 (ja) * 2020-03-02 2023-12-12 株式会社デンソー 走行支援制御装置、駐停車制限区間作成方法、走行支援制御プログラム
WO2021200038A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 道路劣化診断装置、道路劣化診断方法、及び、記録媒体
US11443131B2 (en) * 2020-05-20 2022-09-13 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for creating a parking map
US11462021B2 (en) * 2021-01-13 2022-10-04 GM Global Technology Operations LLC Obstacle detection and notification for motorcycles
KR102577907B1 (ko) * 2021-03-02 2023-09-14 네이버랩스 주식회사 3차원 맵 생성 방법 및 시스템
JPWO2022186256A1 (ja) * 2021-03-04 2022-09-09

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193240A (ja) * 2008-02-13 2009-08-27 Toyota Motor Corp 移動ロボット及び環境地図の生成方法
WO2015107623A1 (ja) * 2014-01-15 2015-07-23 パイオニア株式会社 管理システム及び位置特定方法
US20160017830A1 (en) * 2013-03-06 2016-01-21 Heraeus Sensor Technology Gmbh Method for producing a soot sensor with a laser beam

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170103A (ja) 2000-12-01 2002-06-14 Nissan Motor Co Ltd 駐車スペース地図作成装置および駐車スペース地図表示装置
US7831094B2 (en) 2004-04-27 2010-11-09 Honda Motor Co., Ltd. Simultaneous localization and mapping using multiple view feature descriptors
JP4480083B2 (ja) * 2005-02-23 2010-06-16 アイシン精機株式会社 物体認識装置
JP4780385B2 (ja) * 2005-11-17 2011-09-28 アイシン精機株式会社 周辺監視システム
US8243994B2 (en) * 2006-05-09 2012-08-14 Nissan Motor Co., Ltd. Vehicle circumferential image providing device and vehicle circumferential image providing method
JP2007315956A (ja) 2006-05-26 2007-12-06 Aisin Aw Co Ltd 駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置
US8698875B2 (en) * 2009-02-20 2014-04-15 Google Inc. Estimation of panoramic camera orientation relative to a vehicle coordinate frame
JP5782708B2 (ja) 2010-12-03 2015-09-24 日産自動車株式会社 走行支援装置
JP6079131B2 (ja) * 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム
US9082008B2 (en) * 2012-12-03 2015-07-14 Honeywell International Inc. System and methods for feature selection and matching
US10179543B2 (en) * 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
NL2010463C2 (nl) * 2013-03-15 2014-09-16 Cyclomedia Technology B V Werkwijze voor het genereren van een panoramabeeld.
JP5886809B2 (ja) * 2013-09-27 2016-03-16 富士重工業株式会社 車外環境認識装置
JP6149676B2 (ja) * 2013-10-09 2017-06-21 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム
KR102059311B1 (ko) * 2013-12-19 2019-12-24 애플 인크. 모바일 디바이스에서의 slam
US9305219B2 (en) * 2014-01-23 2016-04-05 Mitsubishi Electric Research Laboratories, Inc. Method for estimating free space using a camera system
WO2016063545A1 (ja) * 2014-10-24 2016-04-28 京セラ株式会社 ステレオカメラ装置及びステレオカメラ装置を備える車両
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6724425B2 (ja) * 2016-03-04 2020-07-15 アイシン精機株式会社 駐車支援装置
JP6868805B2 (ja) * 2016-06-07 2021-05-12 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法、およびプログラム
JP6660595B2 (ja) * 2016-06-07 2020-03-11 パナソニックIpマネジメント株式会社 駐車空間探索装置、プログラムおよび記録媒体
US11761790B2 (en) * 2016-12-09 2023-09-19 Tomtom Global Content B.V. Method and system for image-based positioning and mapping for a road network utilizing object detection
CN106767706B (zh) * 2016-12-09 2019-05-14 中山大学 一种无人机勘查交通事故现场的航拍图像采集方法及系统
SG10201700299QA (en) * 2017-01-13 2018-08-30 Otsaw Digital Pte Ltd Three-dimensional mapping of an environment
EP3633985B1 (en) * 2017-05-24 2023-02-15 Furuno Electric Co., Ltd. Video generation device
WO2019000417A1 (en) * 2017-06-30 2019-01-03 SZ DJI Technology Co., Ltd. SYSTEMS AND METHODS OF GENERATING CARDS
JP7039879B2 (ja) * 2017-08-03 2022-03-23 株式会社アイシン 表示制御装置
JP7013751B2 (ja) * 2017-09-15 2022-02-01 株式会社アイシン 画像処理装置
US11009884B2 (en) * 2017-09-29 2021-05-18 Direct Current Capital LLC Method for calculating nominal vehicle paths for lanes within a geographic region
US10854011B2 (en) * 2018-04-09 2020-12-01 Direct Current Capital LLC Method for rendering 2D and 3D data within a 3D virtual environment
KR101930796B1 (ko) * 2018-06-20 2018-12-19 주식회사 큐픽스 이미지를 이용한 3차원 좌표 계산 장치, 3차원 좌표 계산 방법, 3차원 거리 측정 장치 및 3차원 거리 측정 방법
JP7222254B2 (ja) * 2019-01-25 2023-02-15 株式会社アイシン 周辺表示制御装置
DE102020107949A1 (de) * 2019-03-29 2020-10-01 Panasonic Intellectual Property Management Co., Ltd. Sichtfeldunterstützungsbild-Erzeugungsvorrichtung und Bildumwandlungsverfahren

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193240A (ja) * 2008-02-13 2009-08-27 Toyota Motor Corp 移動ロボット及び環境地図の生成方法
US20160017830A1 (en) * 2013-03-06 2016-01-21 Heraeus Sensor Technology Gmbh Method for producing a soot sensor with a laser beam
WO2015107623A1 (ja) * 2014-01-15 2015-07-23 パイオニア株式会社 管理システム及び位置特定方法

Also Published As

Publication number Publication date
DE112017006840T5 (de) 2019-09-26
US20190318179A1 (en) 2019-10-17
JP6699761B2 (ja) 2020-05-27
WO2018131165A1 (ja) 2018-07-19
US10885357B2 (en) 2021-01-05
DE112017006840B4 (de) 2023-11-02

Similar Documents

Publication Publication Date Title
JP6699761B2 (ja) 情報処理プログラム、情報処理方法および情報処理装置
US20210012520A1 (en) Distance measuring method and device
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP4692371B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
US10645365B2 (en) Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium
JP6872128B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP6150531B2 (ja) 地形情報取得装置、地形情報取得システム、地形情報取得方法及びプログラム
JP2019211900A (ja) 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置
CN111433818A (zh) 目标场景三维重建方法、系统及无人机
JP2019124538A (ja) 情報処理装置、システム、情報処理方法
JP2017182695A (ja) 情報処理プログラム、情報処理方法および情報処理装置
JPWO2013133129A1 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
KR102167835B1 (ko) 영상 처리 방법 및 장치
CN112097732A (zh) 一种基于双目相机的三维测距方法、系统、设备及可读存储介质
US20190220676A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
KR101207535B1 (ko) 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법
JP2015114954A (ja) 撮影画像解析方法
JP2019102007A (ja) 勾配推定装置、勾配推定方法、プログラムおよび制御システム
US20220397903A1 (en) Self-position estimation model learning method, self-position estimation model learning device, recording medium storing self-position estimation model learning program, self-position estimation method, self-position estimation device, recording medium storing self-position estimation program, and robot
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
CN112446905A (zh) 基于多自由度传感关联的三维实时全景监控方法
KR20220069541A (ko) 지도제작플랫폼장치 및 이를 이용한 지도제작방법
CN110827340B (zh) 地图的更新方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200413

R150 Certificate of patent or registration of utility model

Ref document number: 6699761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150