JP2022106624A - 位置特定プログラム、位置特定方法および情報処理装置 - Google Patents

位置特定プログラム、位置特定方法および情報処理装置 Download PDF

Info

Publication number
JP2022106624A
JP2022106624A JP2021001755A JP2021001755A JP2022106624A JP 2022106624 A JP2022106624 A JP 2022106624A JP 2021001755 A JP2021001755 A JP 2021001755A JP 2021001755 A JP2021001755 A JP 2021001755A JP 2022106624 A JP2022106624 A JP 2022106624A
Authority
JP
Japan
Prior art keywords
region
depth
road
change
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021001755A
Other languages
English (en)
Inventor
駿 木幡
Shun Kobata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021001755A priority Critical patent/JP2022106624A/ja
Priority to US17/475,982 priority patent/US11967108B2/en
Publication of JP2022106624A publication Critical patent/JP2022106624A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】被写体の位置を精度良く特定する。【解決手段】情報処理装置1は、撮像画像と撮像位置からの距離を表す撮像画像に対応する深度画像とを取得し、撮像画像から道路領域と前記道路領域と接する他の領域とを特定する。情報処理装置1は、深度画像に含まれる道路領域に対応する第1の領域の深度の変化と、深度画像に含まれる他の領域に対応する第2の領域の深度の変化とを算出し、第1の領域の深度の変化と第2の領域の深度の変化とに基づいて、他の領域が検出対象か否かを判定する。情報処理装置1は、他の領域が検出対象と判定された場合、第2の領域の深度と撮影位置とに基づいて、他の領域に含まれる被写体の位置を特定する。【選択図】図2

Description

本発明は、被写体の位置特定技術に関する。
近年、大規模な地震や台風では被災域が広大であることから、行政や医療機関等による公助だけではなく、地域住民間で取り組む共助が重要視されている。そこで、スマートフォン等の端末を用いた避難時の共助支援ツール等も利用されている。
例えば、各避難者は、火災、建物倒壊、浸水等による通行困難な場所に遭遇した場合に、端末の共助支援ツールを用いて障害物(被災場所)の写真を撮像し、撮像した写真をこのときのスマートフォンの位置情報とともに、サーバにアップロードする。サーバでは、各被災者から収集した障害物の画像と位置情報とを用いて、被災場所に障害物の画像を添付した地図情報を含む被災情報を生成する。各避難者は、端末の共助支援ツールを用いて、サーバが生成する被災情報を閲覧しながら、被災場所を避けた経路で避難する。
国際公開第2020/31812号
しかしながら、上記技術では、端末で撮像した被写体である障害物の位置と、端末の位置とにずれがあり、被災場所が正確ではないことがある。
具体的には、避難者は、障害物から離れた場所から障害物を撮像するので、障害物の実際の位置と、端末のGPS(Global Positioning System)で取得された位置とは少しずれる。このため、サーバが生成する被災情報においても、障害物が実際の位置とは異なる位置にマッピングされるので、各避難者に誤った避難経路の判断をもたらす可能性がある。
一つの側面では、被写体の位置を精度良く特定することができる位置特定プログラム、位置特定方法および情報処理装置を提供することを目的とする。
第1の案では、位置特定プログラムは、撮像画像と撮像位置からの距離を表す前記撮像画像に対応する深度画像とを取得し、前記撮像画像から道路領域と前記道路領域と接する他の領域とを特定し、前記深度画像に含まれる前記道路領域に対応する第1の領域の深度の変化と、前記深度画像に含まれる前記他の領域に対応する第2の領域の深度の変化とを算出し、前記第1の領域の深度の変化と前記第2の領域の深度の変化とに基づいて、前記他の領域が検出対象か否かを判定し、前記他の領域が検出対象と判定された場合、前記第2の領域の深度と前記撮影位置とに基づいて、前記他の領域に含まれる被写体の位置を特定する、処理をコンピュータに実行させる。
一実施態様によれば、被写体の位置を精度良く特定することができる。
図1は、実施例1にかかる位置特定システムの機能構成を示す機能ブロック図である。 図2は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。 図3は、実施例1にかかる位置特定を説明する図である。 図4は、実施例1にかかる写真深度推定を説明する図である。 図5は、実施例1にかかる写真セグメント推定を説明する図である。 図6は、実施例1にかかる位置特定処理のフローチャートの一例を示す図である。 図7は、位置特定の問題を説明する図である。 図8は、道路の深度特性を説明する図である。 図9は、実施例2にかかる情報処理装置の機能構成を示す機能ブロック図である。 図10は、実施例2にかかる写真セグメント推定を説明する図である。 図11は、実施例2にかかる障害物候補抽出を説明する図である。 図12-1は、実施例2にかかる障害物判定を説明する図(1)である。 図12-2は、実施例2にかかる障害物判定を説明する図(2)である。 図13-1は、実施例2にかかる位置特定を説明する図(1)である。 図13-2は、実施例2にかかる位置特定を説明する図(2)である。 図14は、被災者の端末に表示された障害物の表示例を示す図である。 図15は、実施例2にかかる位置特定処理のフローチャートの一例を示す図である。 図16-1は、実施例2にかかる位置特定をサンプル写真で評価した場合を説明する図(1)である。 図16-2は、実施例2にかかる位置特定をサンプル写真で評価した場合を説明する図(2)である。 図16-3は、実施例2にかかる位置特定をサンプル写真で評価した場合を説明する図(3)である。 図17は、ハードウェア構成例を説明する図である。
以下に、本発明にかかる位置特定プログラム、位置特定方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
図1は、実施例1にかかる位置特定システムの機能構成を示す機能ブロック図である。位置特定システム9は、情報処理装置1と、端末3と、端末5とを有する。
端末3は、避難者の端末であって、避難者が災害時に通行困難となった道路に遭遇した場合に、避難支援アプリを通して障害物(被災場所)の写真を撮影する避難者の端末である。端末3は、撮影機能、通信機能、操作機能、表示機能に加えて、GPS機能および電子コンパス(磁気センサ)などを有する。端末3は、GPSによって写真を撮影した位置が取得でき、電子コンパスによって撮影方向が取得できる。端末3は、例えば、GPS付きおよび電子コンパス付きのスマートフォンである。なお、避難支援アプリは、避難時の共助支援ツールの一例である。
端末5は、避難者の端末であって、避難支援アプリを利用する避難者の端末である。端末5は、端末3と同様の各機能を有する。端末5は、例えば、スマートフォンである。
情報処理装置1は、撮像者が撮影した被災場所の写真、写真を撮影した位置および撮影方向を端末3から取得すると、避難支援アプリの地図上で、写真から撮影方向に対応する道路を特定する。そして、情報処理装置1は、例えばLiDAR(Light Detection and Ranging)データを訓練した深度推定モデルを用いて写真の深度を推定する。そして、情報処理装置1は、写真を撮影した位置と写真の道路の深度から、道路における被災場所を示す障害物の位置を特定する。
つまり、写真を撮影した位置と、撮影された道路における被災場所の位置とはずれがあるが、情報処理装置1は、このずれを補正して被災場所の位置を特定する。そして、情報処理装置1は、撮影した写真を避難支援アプリの地図上の推定位置に表示する。ここで、被災場所を道路としたのは、災害時に避難経路として使用するのは道路であるからである。災害時に通行困難となる道路が存在すると、迅速な避難の妨害となる。そこで、情報処理装置1は、道路上の被災場所を示す障害物の位置を精度良く推定する。これにより、情報処理装置1は、撮像写真から被害状況を、避難支援アプリを利用する地域住民と共有させ、より安全な避難を支援することができる。
図2は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。図2に示すように、情報処理装置1は、通信部11、記憶部12および制御部20を有する。通信部11は、他の装置との間の通信を制御する。例えば、通信部11は、端末3から、被災場所(障害物)の写真、写真を撮影した位置および撮影方向を受信する。また、通信部11は、端末3および端末5に対して、障害物の位置を推定した位置に記した、避難支援アプリの地図を送信する。
記憶部12は、各種データや制御部20が実行するプログラム等を記憶する。例えば、記憶部12は、深度推定モデル13とセグメンテーションモデル14を記憶する。
深度推定モデル13は、深度を推定する機械学習モデルであって、訓練データ「データ、ラベル」として「RGB(Red Green Blue)の画像データ、LiDARデータ」を用いた機械学習により生成された機械学習モデルである。すなわち、深度推定モデル13は、RGBの画像データの入力に応じて、LiDARにおける深度マップを出力とする。
セグメンテーションモデル14は、画像セグメンテーション(セマンティックセグメンテーション)を推定する機械学習モデルであって、訓練データ「データ、ラベル」として「RGBの画像データ、セグメント情報」とを用いた機械学習により生成された機械学習モデルである。すなわち、セグメンテーションモデル14は、RGBの画像データの入力に応じて、セグメント情報を出力する。ここでいう画像セグメンテーションとは、画像領域の中のセグメントを分けることを意味する。セグメントとは、画像領域の中の分類(意味)のことをいう。例えば、RGBの画像データが道路上の被災場所を撮影した写真である場合には、セグメントとして、道路、空、車、歩行者等が分類可能である。なお、以降では、写真を、写真データ、RGBの画像データ、または、RGB画像と記載する場合がある。
制御部20は、情報処理装置10全体を司る処理部であり、道路特定部21、深度推定部22、セグメント推定部23および位置特定部24を有する。道路特定部21は、撮影方向に対応する道路を特定する。例えば、道路特定部21は、端末3から写真データ、撮影位置および電子コンパス情報を取得する。道路特定部21は、電子コンパス情報から撮影方向を取得する。そして、道路特定部21は、避難支援アプリの地図上で、撮影位置からの撮影方向に対応する道路を特定する。
深度推定部22は、深度推定モデル13を用いて、写真データに対応する深度を推定する。例えば、深度推定部22は、RGBの画像データである写真データを深度推定モデル13に入力し、深度推定モデル13から画像データに対応する深度マップを出力する。すなわち、深度推定部22は、写真の撮影位置からの距離を表す、撮像画像に対応する深度マップを取得する。なお、深度推定部22は、深度推定モデル13を用いて、写真データに対応する深度を推定すると説明したが、これに限定されない。深度推定部22は、端末3または情報処理装置1にLiDAR機能が付いている場合には、LiDAR機能によって計測された深度マップを用いても良い。
セグメント推定部23は、セグメンテーションモデル14を用いて、写真データに対応するセグメントを推定する。例えば、セグメント推定部23は、RGBの画像データをセグメンテーションモデル14に入力し、セグメンテーションモデル14から道路を含むセグメント情報を推定する。
位置特定部24は、撮影位置と道路の深度とから、被災場所の位置を特定する。例えば、位置特定部24は、セグメント推定部23によって推定される道路セグメントを抽出する。位置特定部24は、撮影位置と道路セグメントの深度とから、被災場所の位置を特定する。一例として、位置特定部24は、道路セグメントの最上部の深度を障害物の深度と推定する。そして、位置特定部24は、障害物の深度を用いて撮影位置からの障害物の距離を推定し、障害物(被災場所)の位置を特定する。そして、位置特定部24は、避難アプリの地図データ上の、特定した位置に写真データ(RGBの画像データ)を対応付ける。
図3は、実施例1にかかる位置特定を説明する図である。図3には、避難支援アプリの地図のイメージ図が表わされている。図3に示すように、道路特定部21は、GPSの撮影位置で被災場所が撮影された際の電子コンパスの撮影方向に対応する道路を特定する。深度推定部22は、写真の撮像画像に対応する深度マップを推定する。セグメント推定部23は、写真の撮像画像に対応する道路セグメントを推定する。位置特定部24は、GPSの撮影位置と、深度マップから得られる道路セグメントの深度とから、GPSの撮影位置からの被災場所の深度(距離)を推定する。この結果、位置特定部24は、被災場所の位置を特定する。
図4は、実施例1にかかる写真深度推定を説明する図である。図4に示すように、深度推定部22は、RGB画像データを深度推定モデル13に入力し、深度推定モデル13からRGB画像データに対応する深度マップを出力する。すなわち、深度推定部22は、写真の撮影位置からの距離を表す、RGB画像データに対応する深度マップを出力する。なお、深度推定部22は、深度推定モデル13の代わりにLiDAR機能を用いて、RGB画像データから深度マップを出力しても良い。
図5は、実施例1にかかる写真セグメント推定を説明する図である。図5上図には、RGB画像データの深度マップが表わされている。図5上図に示すように、深度マップの中から障害物までの距離(深度)をどのように抽出するのかが問題となる。かかる問題に対して、セグメント推定部23は、画像セグメンテーション(セマンティックセグメンテーション)を用いた道路の検出を利用する。すなわち、図5下図に示すように、セグメント推定部23は、RGB画像データから、セグメンテーションモデル14を用いて道路を含む各種セグメントを推定する。ここでは、セグメントとして道路の他、歩道、木、空、建物が推定されている。そして、セグメント推定部23は、被災場所が存在する道路セグメントを推定する。そして、位置特定部24は、撮影位置と深度マップとから、例えば、道路セグメントの最上部の深度を撮影位置からの障害物の深度(距離)と推定する。そして、位置特定部24は、撮影位置と推定した距離を加算して、被災場所の位置を特定する。
図6は、実施例1にかかる位置特定処理のフローチャートの一例を示す図である。なお、情報処理装置1は、端末3から被災場所の写真データ、GPS撮影位置および電子コンパス情報を取得したものとする。図6に示すように、道路特定部21は、電子コンパス情報から撮影方向を取得する(ステップS11)。道路特定部21は、撮影方向に対応する道路を特定する(ステップS12)。
続いて、深度推定部22は、写真の深度を推定する(ステップS13)。例えば、深度推定部22は、深度推定モデル13を用いて、RGBの画像データである写真データから写真の深度マップを推定する。
そして、セグメント推定部23は、写真のセグメント情報を推定する(ステップS14)。例えば、セグメント推定部23は、セグメンテーションモデル14を用いて、RGBの画像データである写真データに対応するセグメントを推定する。
そして、セグメント推定部23は、セグメント情報から得られる道路セグメントに対応する画像ピクセル群にそれぞれラベリングする(ステップS15)。例えば、セグメント推定部23は、セグメント情報を基に、道路セグメントに対応するピクセル群(連結領域)にそれぞれラベリングする。
そして、位置特定部24は、ラベリングに基づいて、写真の最下部から出ている道路を判定する(ステップS16)。例えば、位置特定部24は、ラベリングに基づいて、道路セグメントの輪郭を抽出する。そして、位置特定部24は、道路セグメントの輪郭から写真の最下部から出ている道路セグメントを判定する。写真の最下部から出ている道路がないと判定した場合には(ステップS16;No)、位置特定部24は、位置特定処理を終了する。
一方、写真の最下部から出ている道路があると判定した場合には(ステップS16;Yes)、位置特定部24は、写真の最下部から出ている道路セグメントを分析対象の道路セグメントとして特定する(ステップS17)。
そして、位置特定部24は、道路セグメントの最上部の深度を取得する(ステップS18)。例えば、位置特定部24は、深度マップを用いて、分析対象の道路セグメントの市場部の深度を取得する。そして、位置特定部24は、GPS撮影位置と取得された深度から被災場所の位置を推定する(ステップS19)。そして、位置特定部24は、位置特定処理を終了する。
上記実施例1によれば、情報処理装置1は、撮像画像と撮像位置からの距離を表す撮像画像に対応する深度マップとを取得する。情報処理装置1は、撮像画像から画像セグメンテーションを用いて道路領域を特定する。情報処理装置1は、深度マップから得られる道路領域の深度と撮影位置とに基づいて、道路領域に存在する被災場所(障害物)の位置を特定する。かかる構成によれば、情報処理装置1は、撮影位置と道路領域の深度を用いることで、被災情報を精度良く特定することが可能になる。
ところで、実施例1では、情報処理装置1が、道路セグメントの最上部の深度を被災場所(障害物)の深度とした場合を説明した。しかしながら、災害時には、倒壊物や陥没等の障害物が、道路の一部にも存在することがある。障害物が道路の一部に存在する場合には、セグメンテーションでは、道路セグメントが障害物から先までつながって検出される。また、セグメンテーションでは、ノイズのために、道路セグメント上に別のセグメントが検出されることがある。障害物が道路の一部に存在する場合や、道路セグメント上に別のセグメントが検出される場合には、障害物がどこに位置するのかを判別することが難しい場合もある。
図7は、位置特定の問題を説明する図である。図7左に示すように、情報処理装置1は、障害物が道路セグメントの最上部に存在する場合には、道路セグメントの最上部の深度を障害物の深度としても障害物の位置が判別できる。すなわち、情報処理装置1は、深度画像の下部から上部への奥行方向に向かって距離Aにある位置を障害物の位置と特定できる。
一方、図7右に示すように、情報処理装置1は、障害物が道路セグメントの最上部に存在しない場合、すなわち障害物が道路の一部に存在する場合には、障害物が道路セグメントのどこに位置するのかが判別できない。例えば、情報処理装置1は、深度画像の下部から上部への奥行方向に向かって距離Bに位置する道路上にある別セグメントの位置や、距離Cに位置する障害物の位置を特定することが難しい。
ここで、道路の深度特性について、図8を参照して説明する。図8は、道路の深度特性を説明する図である。図8左には、RGBの画像データである写真データから推定された道路セグメントのセグメンテーション結果が表わされている。道路セグメントには、別セグメントと障害物が検出されている。
そして、同じ写真データから推定された深度マップにセグメント情報を重ね合せた結果が図8右に表わされている。図8右に示すように、道路の深度は、深度マップの下方から上方に向けて連続に増加する。障害物の深度は、道路セグメントの深度と異なる深度傾向となる。別セグメントの深度は、道路セグメントの深度と同じ深度傾向となる。深度傾向は、例えば、深度の変位情報で示される。
したがって、深度の傾向から障害物の有無を判別することが可能である。そこで、実施例2では、道路の深度特性を利用して障害物の位置を推定する情報処理装置1について説明する。
図9は、実施例2にかかる情報処理装置の機能構成を示す機能ブロック図である。なお、実施例1の図2に示す情報処理装置1と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、障害物候補抽出部31および障害物判定部32を追加した点である。また、実施例1と実施例2とが異なるところは、セグメント推定部23をセグメント推定部23Aに変更し、位置特定部24を位置特定部24Aに変更した点である。
セグメント推定部23Aは、セグメンテーションモデル14を用いて、写真データから道路セグメントを推定する。例えば、セグメント推定部23Aは、RGBの画像データをセグメンテーションモデル14に入力し、セグメンテーションモデル14から道路を含むセグメント情報を推定する。そして、セグメント推定部23Aは、セグメント情報を基に、分析対象の道路セグメントの輪郭を抽出する。一例として、セグメント推定部23Aは、道路セグメントに対応するピクセル群(連結領域)にそれぞれラベリングし、ラベリングに基づいて、写真の最下部から出ている道路セグメントの輪郭を抽出する。そして、セグメント推定部23Aは、抽出した道路セグメントの輪郭の内側を分析対象の道路とし、抽出した道路セグメントの輪郭の外側を分析対象外と推定する。すなわち、セグメント推定部23Aは、避難者が道路上から写真を撮影していることを利用し、写真の最下部から出ている道路を分析対象の道路とする。
障害物候補抽出部31は、道路セグメント内の障害物候補を抽出する。例えば、障害物候補抽出部31は、道路セグメント内に別のセグメントが存在する場合には、道路セグメント内の別のセグメントを障害物候補セグメントとし、障害物候補セグメントの座標(x軸ピクセル値,y軸ピクセル値)を算出する。そして、障害物候補抽出部31は、深度マップに道路セグメント情報をマッピングする。そして、障害物候補抽出部31は、各障害物候補セグメントに対し、以下の処理を実施する。すなわち、障害物候補抽出部31は、障害物候補の深度データを抽出するとともに、障害物候補に関連する道路セグメントの深度データを抽出する。ここでいう深度データとは、座標(x軸ピクセル値,y軸ピクセル値)に対応する深度の値を示す。ここでいう障害物候補に関連する道路セグメントとは、障害物候補の前後の道路セグメントのことをいう。なお、道路セグメン内の障害物候補が、第2の領域の一例である。障害物候補に関連する道路セグメントが、第1の領域の一例である。
障害物判定部32は、障害物候補に関連する道路セグメントの深度の変化と障害物候補セグメントの深度の変化とに基づいて、障害物候補セグメントが障害物セグメントとして検出対象か否かを判定する。例えば、障害物判定部32は、障害物候補に関連する道路セグメントの深度の変化を深度データから算出する。障害物判定部32は、障害物候補セグメントの深度の変化を深度データから算出する。障害物判定部32は、障害物候補に関連する道路セグメントの深度の変化と障害物候補セグメントの深度の変化とに基づいて、障害物候補セグメントが道路であるか障害物であるかを統計的に判別する。一例として、障害物判定部32は、障害物候補に関連する道路セグメントの深度データを、統計的な有意差検定を行うための線形回帰式に変換する。障害物判定部32は、障害物候補セグメントの深度データを、統計的な有意差検定を行うための線形回帰式に変換する。そして、障害物判定部32は、2つの線形回帰式に基づいて有意差があるか否かを判定する。障害物判定部32は、有意差があれば、障害物候補セグメントが障害物セグメントであると判定する。障害物判定部32は、有意差がなければ、障害物候補セグメントが道路セグメントであると判定する。なお、障害物判定部32は、所定の閾値以上の有意差があれば、障害物候補セグメントが障害物セグメントであると判定するとしても良い。
位置特定部24Aは、撮影位置と障害物直下の深度とから、被災場所(障害物)の位置を特定する。例えば、位置特定部24Aは、道路セグメント内に障害物セグメントがある場合には、障害物セグメント直下の道路セグメントの深度を取得する。位置特定部24Aは、道路セグメント内に障害物セグメントがない場合には、道路セグメントの最上部の深度を取得する。そして、位置特定部24Aは、撮影位置と得られた深度とから、被災場所の位置を特定する。そして、位置特定部24Aは、避難アプリの地図データ上の、特定した位置に写真データ(RGBの画像データ)を対応付ける。
図10は、実施例2にかかる写真セグメント推定を説明する図である。図10に示すように、セグメント推定部23Aは、画像セグメンテーション(セマンティックセグメンテーション)を用いた道路の検出を利用する。すなわち、セグメント推定部23Aは、RGB画像データから、セグメンテーションモデル14を用いて道路を含む各種セグメント情報を推定する。
そして、セグメント推定部23Aは、セグメント情報を基に、分析対象の道路セグメントの輪郭を抽出する。一例として、セグメント推定部23Aは、道路セグメントに対応するピクセル群(連結領域)にそれぞれラベリングし、ラベリングに基づいて、写真の最下部から出ている道路セグメントの輪郭を抽出する。そして、セグメント推定部23Aは、抽出した道路セグメントの輪郭の内側を分析対象の道路とし、抽出した道路セグメントの輪郭の外側を分析対象外と推定する。ここでは、写真の最下部から出ている道路セグメントの輪郭の内側を示す道路(2)が、分析対象の道路とする。また、写真の最下部から出ている道路セグメントの輪郭の外側を示す道路(1)は、分析対象外の道路と推定する。
図11は、実施例2にかかる障害物候補抽出を説明する図である。図11左には、分析対象の道路のセグメンテーション結果が表わされている。障害物候補抽出部31は、道路セグメント内に別のセグメントが存在する場合には、道路セグメント内の別のセグメントを障害物候補として特定する。ここでは、分析対象の道路のセグメント内に障害物候補<1>と障害物候補<2>が特定される。そして、障害物候補抽出部31は、障害物候補の座標(x軸ピクセル値,y軸ピクセル値)を算出する。
図11右には、深度マップに、図11左に示される道路セグメント情報をマッピングした結果を示す深度マップが表わされている。深度マップは、下方から上方に向けて距離が遠くなっていく。障害物候補抽出部31は、各障害物候補に対し、以下の処理を実施する。すなわち、障害物候補抽出部31は、深度マップから障害物候補の深度データを抽出するとともに、障害物候補に関連する道路セグメントの深度データを抽出する。ここでは、障害物候補<1>と障害物候補<2>が表わされている。これらのうち障害物候補<1>の深度データが、一例として図11右下に表わされている。例えば、x軸ピクセルが「30」、y軸ピクセルが「13」である場合に、深度として「2.5」が設定されている。x軸ピクセルが「50」、y軸ピクセルが「12」である場合に、深度として「2.2」が設定されている。
図12-1および図12-2は、実施例2にかかる障害物判定を説明する図である。図12-1左には、図11右に示された深度マップが表わされている。ここでは、障害物候補<1>を一例として説明する。障害物判定部32は、障害物候補<1>に関連する道路セグメントの深度の変化と障害物候補<1>の深度の変化とに基づいて、障害物候補<1>が道路であるか障害物であるかを統計的に判別する。一例として、障害物判定部32は、障害物候補<1>の前後の道路セグメントおよび障害物候補<1>の、あるx軸ピクセル値に対応する深度およびy軸ピクセルの関数の形を比較することで、障害物候補<1>が道路であるか障害物であるかを判別する。これは、道路の深度が、深度マップのy軸ピクセルに対して連続に増加するという特性があるからである。すなわち、道路の深度は、深度マップの下方から上方に向けて連続に増加するという特性があるからである。なお、あるx軸ピクセル値は、例えば、障害物候補<1>を構成するx軸ピクセル値の中間値であれば良い。
したがって、障害物候補<1>が道路である場合には、図12-1中に示すように、関数の形が同じ(深度の変化に統計的有意差がない)であるので、障害物判定部32は、障害物候補が道路であると判別する。これに対して、障害物候補<1>が障害物である場合には、図12-1右に示すように、関数の形が異なる(深度の変化に統計的有意差がある)ので、障害物判定部32は、障害物候補が障害物であると判別する。
障害物判定方法の一例について、図12-2を参照して説明する。まず、深度とy軸ピクセルの関係を示す関数は、遠近法から、以下の式(1)で表わされる。そして、式(1)は、例えば、図12-2上に示すグラフの形となる。なお、xが深度を示し、yが深度マップのy軸ピクセル値を示す。
Figure 2022106624000002
ここでは、式(1)を障害物の判定に使うために、式(1)を以下の式(2)のように非線形回帰式に近似する。なお、xが深度を示し、yが深度マップのy軸ピクセル値を示す。また、a,bは、回帰係数を示す。
Figure 2022106624000003
さらに、統計的な有意差の検定を行うために、式(2)を以下の式(3)のように線形回帰式に変換する。そして、式(3)は、例えば、図12-2中に示すグラフの形となる。
Figure 2022106624000004
障害物判定部32は、障害物候補<1>の前後の道路セグメントの深度データを式(3)の線形回帰式に変換する。障害物判定部32は、障害物候補<1>の深度データを式(3)の線形回帰式に変換する。そして、障害物判定部32は、2つの線形回帰式に基づいて有意差があるか否かを判定する。ここでは、図12-2下左に示すグラフが、障害物候補<1>の前後の道路セグメントに対応する線形回帰式である。図12-2下右に示すグラフが、障害物候補<1>に対応する線形回帰式である。
障害物判定部32は、有意差があれば、障害物候補<1>が障害物であると判定する。障害物判定部32は、有意差がなければ、障害物候補<1>が道路であると判定する。
図13-1および図13-2は、実施例2にかかる位置特定を説明する図である。図13-1左に示すように、位置特定部24Aは、道路セグメント内に障害物がない場合には、深度マップから道路セグメントの最上部の深度(距離)を取得する。また、図13-1右に示すように、位置特定部24Aは、道路セグメント内に障害物がある場合には、障害物直下の道路セグメントの深度(距離)を取得する。
図13-2には、避難支援アプリの地図のイメージ図が表わされている。図13-2に示すように、位置特定部24Aは、電子コンパスの撮影方向に対応する道路に関し、GPSの撮影位置と、深度マップから得られる障害物までの深度とから、GPSの撮影位置からの被災場所の深度(距離)を推定する。この結果、位置特定部24Aは、被災場所の位置を特定する。例えば、位置特定部24Aは、GPSの撮影位置と推定した深度(距離)を加算して、被災場所の位置を特定する。
図14は、被災者の端末に表示された障害物の表示例を示す図である。図14には、避難支援アプリの地図データ上に、道路に障害物がある被災場所の位置が表示されている。地図データ上の被災場所の位置に写真データが対応付けられている。ここでは、黒塗りの吹き出しの位置が道路上の被災場所の位置であり、現在通行不可になっている。これにより、避難支援アプリは、被災場所の正確な位置を表示することで、被害状況を地域住民と共有させ、より安全な避難を支援することができる。
図15は、実施例2にかかる位置特定処理のフローチャートの一例を示す図である。なお、情報処理装置1は、端末3から被災場所の写真データ、GPS撮影位置および電子コンパス情報を取得したものとする。図15に示すように、道路特定部21は、電子コンパス情報から撮影方向を取得する(ステップS21)。道路特定部21は、撮影方向に対応する道路を特定する(ステップS22)。
続いて、深度推定部22は、写真の深度を推定する(ステップS23)。例えば、深度推定部22は、深度推定モデル13を用いて、RGBの画像データである写真データから写真の深度マップを推定する。
そして、セグメント推定部23は、写真のセグメント情報を推定する(ステップS24)。例えば、セグメント推定部23は、セグメンテーションモデル14を用いて、RGBの画像データである写真データに対応するセグメントを推定する。
そして、セグメント推定部23Aは、セグメント情報から得られる道路セグメントに対応する画像ピクセル群にそれぞれラベリングする(ステップS25)。例えば、セグメント推定部23Aは、セグメント情報を基に、道路セグメントに対応するピクセル群(連結領域)にそれぞれラベリングする。
そして、セグメント推定部23Aは、ラベリングに基づいて、写真の最下部から出ている道路を判定する(ステップS26)。例えば、セグメント推定部23Aは、ラベリングに基づいて、道路セグメントの輪郭を抽出する。そして、セグメント推定部23Aは、道路セグメントの輪郭から写真の最下部から出ている道路セグメントを判定する。写真の最下部から出ている道路がないと判定した場合には(ステップS26;No)、セグメント推定部23Aは、位置特定処理を終了する。
一方、写真の最下部から出ている道路があると判定した場合には(ステップS26;Yes)、セグメント推定部23Aは、写真の最下部から出ている道路セグメントを分析対象の道路セグメントとして特定する(ステップS27)。
そして、障害物候補抽出部31は、分析対象の道路セグメン内の障害物候補セグメントを特定する(ステップS28)。例えば、障害物候補抽出部31は、道路セグメント内に別のセグメントが存在する場合には、道路セグメント内の別のセグメントを障害物候補セグメントとして特定する。そして、障害物候補抽出部31は、障害物候補セグメントが存在するか否かを判定する(ステップS29)。障害物候補セグメントが存在しないと判定した場合には(ステップS29;No)、障害物候補抽出部31は、ステップS39に移行する。
一方、障害物候補セグメントが存在すると判定した場合には(ステップS29;Yes)、障害物判定部32は、深度マップに分析対象の道路セグメント情報をマッピングする(ステップS30)。そして、障害物判定部32は、障害物候補セグメントの深度情報を抽出する(ステップS31)。そして、障害物判定部32は、障害物候補セグメントに関連する道路セグメントの深度情報を抽出する(ステップS32)。
障害物判定部32は、障害物候補セグメントの深度情報を統計的な有意差検定向けの線形回帰式情報に変換する(ステップS33)。障害物判定部32は、障害物候補セグメントに関連する道路セグメントの深度情報を統計的な有意差検定向けの線形回帰式情報に変換する(ステップS34)。
そして、障害物判定部32は、2群の交互作用の統計的有意差を検定する(ステップS35)。そして、障害物判定部32は、2つの線形回帰式情報に基づいて統計的な有意差を検定する。そして、障害物判定部32は、統計的な有意差があるか否かを判定する(ステップS36)。統計的な有意差がないと判定した場合には(ステップS36;No)、障害物判定部32は、障害物候補セグメントが道路であると判定する(ステップS37)。そして、障害物判定部32は、ステップS39に移行する。
一方、統計的な有意差があると判定した場合には(ステップS36;Yes)、障害物判定部32は、障害物候補セグメントが障害物であると判定する(ステップS38)。そして、障害物判定部32は、ステップS39に移行する。
そして、位置特定部24Aは、分析対象の道路セグメント内に障害物があるか否かを判定する(ステップS39)。道路セグメント内に障害物がないと判定した場合には(ステップS39;No)、位置特定部24Aは、深度マップから道路セグメントの最上部の深度を取得する(ステップS40)。そして、位置特定部24Aは、ステップS42に移行する。
一方、道路セグメント内に障害物があると判定した場合には(ステップS39;Yes)、位置特定部24Aは、障害物と判定された障害物セグメント直下の道路セグメントの深度を取得する(ステップS41)。そして、位置特定部24Aは、ステップS42に移行する。
ステップS42において、位置特定部24Aは、GPS撮影位置と取得された深度から被災場所の位置を推定する(ステップS42)。そして、位置特定部24Aは、位置特定処理を終了する。
図16-1~図16-3は、実施例2にかかる位置特定をサンプル写真で評価した場合を説明する図である。図16-1左に示すように、セグメント推定部23Aは、サンプル写真のRGB画像G0から、セグメンテーションモデル14を用いて道路を含む各種セグメント情報を推定し、各種セグメント情報を基に、写真の最下部から出ている道路セグメントを抽出する。画像G1は、各種セグメント情報から道路セグメントを抜き出した画像である。そして、障害物候補抽出部31は、抽出した道路セグメント内に別のセグメントが存在する場合には、当該道路セグメント内の別セグメントを障害物候補として特定する。ここでは、道路セグメント内に別セグメントs0が障害物候補として特定される。
図16-1中に示すように、障害物候補抽出部31は、道路セグメント情報をRGB画像G0に対応する深度マップにマッピングし、道路セグメントの深度マップG2を取得する。また、図16-1右に示すように、障害物候補抽出部31は、道路セグメント情報をRGB画像G0に対応する深度マップにマッピングし、障害物候補セグメントの深度マップG3を取得する。
そして、障害物判定部32は、障害物候補セグメントs0に関連する道路セグメントの深度の変化と障害物候補セグメントs0の深度の変化とに基づいて、障害物候補セグメントs0が道路であるか障害物であるかを統計的に判別する。例えば、障害物判定部32は、障害物候補セグメントs0を構成するx軸ピクセルに対応する前後の道路セグメントの深度データを式(3)の線形回帰式に変換する。障害物判定部32は、障害物候補s0の深度データを式(3)の線形回帰式に変換する。
そして、障害物判定部32は、2つの線形回帰式に基づいて有意差があるか否かを判定する。障害物判定部32は、有意差があれば、障害物候補セグメントs0が障害物であると判定する。障害物判定部32は、有意差がなければ、障害物候補セグメントs0が道路であると判定する。図16-2に示すように、2つの線形回帰式に対応するグラフが表わされている。ここでは、黒色のグラフが、障害物候補セグメントs0に関連する道路セグメントの線形回帰式のグラフである。灰色のグラフが、障害物候補セグメントs0の線形回帰式のグラフである。2つの線形回帰式に対応するグラフは、同じ深度傾向である。そして、障害物判定部32は、有意差を示すP値が0.518であるので、有意差がないと判定する。したがって、障害物判定部32は、有意差がないので、障害物候補セグメントs0が道路であると判定する。
ここで、発明者は、障害物候補セグメントに仮想的な障害物を設置した。すると、図16-3に示すような2つの線形回帰式に対応するグラフが表わされる。2つの線形回帰式に対応するグラフは、異なる深度傾向である。そして、障害物判定部32は、有意差を示すP値が5.08×10-10であるので、有意差があると判定する。したがって、障害物判定部32は、有意差があるので、障害物候補セグメントが障害物と判定する。
上記実施例2によれば、情報処理装置1は、撮像画像と撮像位置からの距離を表す撮像画像に対応する深度画像とを取得する。情報処理装置1は、撮像画像から道路領域と道路領域と接する他の領域とを特定する。情報処理装置1は、深度画像に含まれる道路領域に対応する第1の領域の深度の変化と、深度画像に含まれる他の領域に対応する第2の領域の深度の変化とを算出する。情報処理装置1は、第1の領域の深度の変化と第2の領域の深度の変化とに基づいて、他の領域が検出対象か否かを判定する。情報処理装置1は、他の領域が検出対象と判定された場合、第2の領域の深度と撮影位置とに基づいて、他の領域に含まれる被写体の位置を特定する。これにより、情報処理装置1は、道路領域と道路領域と接する他の領域との深度の変化を用いることで、被災場所の位置を精度良く推定することができる。この結果、情報処理装置1は、避難支援アプリの利用者に被災場所を的確に伝えることが可能になる。
また、上記実施例2によれば、情報処理装置1は、RGB画像の入力に応じて深度画像を出力する機械学習モデルに、撮像画像を入力して撮像画像に対応する深度画像を取得する。これにより、情報処理装置1は、機械学習モデルを用いることで、撮像画像に対応する精度良い深度画像を取得できる。
また、上記実施例2によれば、情報処理装置1は、他の領域に対応する前記第2の領域について、第2の領域の前後では第1の領域の深度の変化と一致し、第2の領域に対応する第2の領域の深度の変化が第1の領域の深度の変化と異なる場合に、他の領域を検出対象と判定する。これにより、情報処理装置1は、第2の領域と第2の領域の前後の第1の領域との深度の変化を比較することで、深度の変化の傾向を判定できる。
また、上記実施例2によれば、情報処理装置1は、深度画像の下部から上部への奥行方向に向かって、道路領域に対応する第1の領域の深度の変化と、他の領域に対応する第2の領域の深度の変化を算出する。情報処理装置1は、第2の深度の変化の傾向が第1の深度の変化の傾向と閾値以上異なる場合に、他の領域を検出対象と判定する。これにより、情報処理装置1は、深度の変化の傾向を用いることで、検出対象を判定できる。
また、上記実施例2によれば、情報処理装置1は、深度画像の下部から上部への奥行方向に向かって、道路領域に対応する第1の領域の深度の変化と、他の領域に対応する第2の領域の深度の変化とを算出する。情報処理装置1は、第1の領域の深度の変化と第2の領域の深度の変化とのそれぞれを、奥行方向へのピクセル数と深度画像の深度との関係を示す各線形回帰式情報に変換する。情報処理装置1は、各線形回帰式情報の間に統計的な有意差が有る場合に、第2の領域を検出対象外と判定し、統計的な有意差がない場合に、第2の領域を検出対象と判定する。これにより、情報処理装置1は、深度とy軸ピクセル数との関係を示す線形回帰式情報を用いることで、道路領域(第1の領域)と第2の領域との統計的な有意差の有無を容易に判定できる。つまり、情報処理装置1は、道路領域の深度が深度画像(深度マップ)のy軸ピクセル数に対して連続に増加するという深度特性を利用することで、道路領域(第1の領域)と第2の領域との統計的な有意差の有無を容易に判定できる。
また、上記実施例2によれば、情報処理装置1は、各線形回帰式情報に基づいて第2の領域が検出対象と判定された場合には、第2の領域の深度と撮像位置とに基づいて、他の領域に含まれる被写体の位置を特定する。そして、情報処理装置2は、地図データ上の被写体の位置に被写体の画像データを対応付ける。これにより、情報処理装置1は、道路領域でない第2の領域(被災場所)の位置を精度良く推定できる。この結果、情報処理装置1は、被災場所を、避難支援アプリを利用する地域住民と共有させ、より安全な避難を支援することができる。
また、上記実施例2によれば、情報処理装置1は、各線形回帰式情報に基づいて第2の領域が検出対象外と判定された場合には、第1の領域の最上部の深度と撮像位置とに基づいて、被写体の位置を特定する。そして、情報処理装置2は、地図データ上の被写体の位置に被写体の画像データを対応付ける。これにより、情報処理装置1は、道路領域の最上部の位置を被災場所として精度良く推定できる。この結果、情報処理装置1は、被災場所を、避難支援アプリを利用する地域住民と共有させ、より安全な避難を支援することができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図17は、ハードウェア構成例を説明する図である。図17に示すように、情報処理装置1は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図10に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカード等であり、他の装置との通信を行う。HDD10bは、図2および図9に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2および図9に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2および図9等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置1が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、道路特定部21、深度推定部22、セグメント推定部23,23A、障害物候補抽出部31、障害物判定部32、位置特定部24,24A等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、道路特定部21、深度推定部22、セグメント推定部23,23A、障害物候補抽出部31、障害物判定部32、位置特定部24,24A等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置1は、プログラムを読み出して実行することで位置特定方法を実行する情報処理装置として動作する。また、情報処理装置1は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置1によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
1 情報処理装置
3,5 端末
9 位置特定システム
11 通信部
12 記憶部
13 深度推定モデル
14 セグメンテーションモデル
20 制御部
21 道路特定部
22 深度推定部
23,23A セグメント推定部
24,24A 位置特定部
31 障害物候補抽出部
32 障害物判定部

Claims (9)

  1. 撮像画像と撮像位置からの距離を表す前記撮像画像に対応する深度画像とを取得し、
    前記撮像画像から道路領域と前記道路領域と接する他の領域とを特定し、
    前記深度画像に含まれる前記道路領域に対応する第1の領域の深度の変化と、前記深度画像に含まれる前記他の領域に対応する第2の領域の深度の変化とを算出し、
    前記第1の領域の深度の変化と前記第2の領域の深度の変化とに基づいて、前記他の領域が検出対象か否かを判定し、
    前記他の領域が検出対象と判定された場合、前記第2の領域の深度と前記撮像位置とに基づいて、前記他の領域に含まれる被写体の位置を特定する、
    処理をコンピュータに実行させることを特徴とする位置特定プログラム。
  2. 前記取得する処理は、
    RGB画像の入力に応じて深度画像を出力する機械学習モデルに、前記撮像画像を入力して前記撮像画像に対応する前記深度画像を取得する処理、
    を含むことを特徴とする請求項1に記載の位置特定プログラム。
  3. 前記判定する処理は、
    前記他の領域に対応する前記第2の領域について、前記第2の領域の前後で前記第1の領域の深度の変化と一致し、前記第2の領域に対応する前記第2の領域の深度の変化が前記第1の領域の深度の変化と異なる場合に、前記他の領域を検出対象と判定する処理、
    を含むことを特徴とする請求項1に記載の位置特定プログラム。
  4. 前記算出する処理は、
    前記深度画像の下部から上部への奥行方向に向かって、前記道路領域に対応する前記第1の領域の深度の変化と、前記他の領域に対応する前記第2の領域の深度の変化とを算出する処理と、
    前記判定する処理は、
    前記第2の領域の深度の変化の傾向が前記第1の領域の深度の変化の傾向と閾値以上異なる場合に、前記他の領域を検出対象と判定する処理と、
    を含むことを特徴とする請求項1に記載の位置特定プログラム。
  5. 前記算出する処理は、
    前記深度画像の下部から上部への奥行方向に向かって、前記道路領域に対応する前記第1の領域の深度の変化と、前記他の領域に対応する前記第2の領域の深度の変化とを算出し、前記第1の領域の深度の変化と前記第2の領域の深度の変化とのそれぞれを、前記奥行方向へのピクセル数と前記深度画像の深度との関係を示す各線形回帰式情報に変換する処理と、
    前記判定する処理は、
    前記各線形回帰式情報の間に統計的な有意差が有る場合に、前記第2の領域を検出対象外と判定し、前記統計的な有意差がない場合に、前記第2の領域を検出対象と判定する処理と、
    を含むことを特徴とする請求項1に記載の位置特定プログラム。
  6. 前記被写体の位置を特定する処理は、
    前記各線形回帰式情報に基づいて前記第2の領域が検出対象と判定された場合には、前記第2の領域の深度と前記撮像位置とに基づいて、前記他の領域に含まれる被写体の位置を特定する処理と、
    地図データ上の前記被写体の位置に前記被写体の画像データを対応付ける処理と、
    を含むことを特徴とする請求項5に記載の位置特定プログラム。
  7. 前記被写体の位置を特定する処理は、前記各線形回帰式情報に基づいて前記第2の領域が検出対象外と判定された場合には、前記第1の領域の最上部の深度と前記撮像位置とに基づいて、前記被写体の位置を特定する処理と、
    地図データ上の前記被写体の位置に前記被写体の画像データを対応付ける処理と、
    を含むことを特徴とする請求項5に記載の位置特定プログラム。
  8. 撮像画像と撮像位置からの距離を表す前記撮像画像に対応する深度画像とを取得し、
    前記撮像画像から道路領域と前記道路領域と接する他の領域とを特定し、
    前記深度画像に含まれる前記道路領域に対応する第1の領域の深度の変化と、前記深度画像に含まれる前記他の領域に対応する第2の領域の深度の変化とを算出し、
    前記第1の領域の深度の変化と前記第2の領域の深度の変化とに基づいて、前記他の領域が検出対象か否かを判定し、
    前記他の領域が検出対象と判定された場合、前記第2の領域の深度と前記撮像位置とに基づいて、前記他の領域に含まれる被写体の位置を特定する、
    処理を実行する制御部を含むことを特徴とする情報処理装置。
  9. 撮像画像と撮像位置からの距離を表す前記撮像画像に対応する深度画像とを取得し、
    前記撮像画像から道路領域と前記道路領域と接する他の領域とを特定し、
    前記深度画像に含まれる前記道路領域に対応する第1の領域の深度の変化と、前記深度画像に含まれる前記他の領域に対応する第2の領域の深度の変化とを算出し、
    前記第1の領域の深度の変化と前記第2の領域の深度の変化とに基づいて、前記他の領域が検出対象か否かを判定し、
    前記他の領域が検出対象と判定された場合、前記第2の領域の深度と前記撮像位置とに基づいて、前記他の領域に含まれる被写体の位置を特定する、
    処理をコンピュータが実行することを特徴とする位置特定方法。
JP2021001755A 2021-01-07 2021-01-07 位置特定プログラム、位置特定方法および情報処理装置 Pending JP2022106624A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021001755A JP2022106624A (ja) 2021-01-07 2021-01-07 位置特定プログラム、位置特定方法および情報処理装置
US17/475,982 US11967108B2 (en) 2021-01-07 2021-09-15 Computer-readable recording medium storing position identification program, position identification method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021001755A JP2022106624A (ja) 2021-01-07 2021-01-07 位置特定プログラム、位置特定方法および情報処理装置

Publications (1)

Publication Number Publication Date
JP2022106624A true JP2022106624A (ja) 2022-07-20

Family

ID=82219760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021001755A Pending JP2022106624A (ja) 2021-01-07 2021-01-07 位置特定プログラム、位置特定方法および情報処理装置

Country Status (2)

Country Link
US (1) US11967108B2 (ja)
JP (1) JP2022106624A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9297641B2 (en) * 2011-12-12 2016-03-29 Mobileye Vision Technologies Ltd. Detection of obstacles at night by analysis of shadows
US9946259B2 (en) * 2015-12-18 2018-04-17 Raytheon Company Negative obstacle detector
US11812197B2 (en) 2018-08-09 2023-11-07 Sony Corporation Information processing device, information processing method, and moving body

Also Published As

Publication number Publication date
US11967108B2 (en) 2024-04-23
US20220215577A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
KR20200040665A (ko) 컨볼루션 신경망을 이용하여 poi 변화를 검출하기 위한 시스템 및 방법
US20120114175A1 (en) Object pose recognition apparatus and object pose recognition method using the same
TW201715476A (zh) 運用擴增實境技術之導航系統
US9471982B2 (en) Information processing apparatus and information processing method for associating an image with related information
JP6521626B2 (ja) 被写体追跡装置、方法およびプログラム
US20100322510A1 (en) Sky detection system used in image extraction device and method using sky detection system
JP6868061B2 (ja) 人物追跡方法、装置、機器及び記憶媒体
WO2021237731A1 (zh) 一种目标检测方法、装置和计算机可读介质
JP2020087312A (ja) 行動認識装置、行動認識方法及びプログラム
JP7001150B2 (ja) 識別システム、モデル再学習方法およびプログラム
KR101636171B1 (ko) 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템
US20220215576A1 (en) Information processing device, information processing method, and computer program product
JP2012103859A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2020044510A1 (ja) コンピュータシステム、物体検知方法及びプログラム
JP2020095668A (ja) 道路画像再構成及び車両測位のための方法及びシステム
JP6943183B2 (ja) 位置特定装置、位置特定方法、位置特定プログラムおよびカメラ装置
JP6713422B2 (ja) 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
US10535154B2 (en) System, method, and program for image analysis
JP2022106624A (ja) 位置特定プログラム、位置特定方法および情報処理装置
JP2008276613A (ja) 移動体判定装置、コンピュータプログラム及び移動体判定方法
JP5983033B2 (ja) 位置関係判定プログラム、位置関係判定方法および位置関係判定装置
JP6981553B2 (ja) 識別システム、モデル提供方法およびモデル提供プログラム
CN114463663A (zh) 一种人员身高的计算方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604