JP7249919B2 - 推定装置、推定方法及びプログラム - Google Patents

推定装置、推定方法及びプログラム Download PDF

Info

Publication number
JP7249919B2
JP7249919B2 JP2019168062A JP2019168062A JP7249919B2 JP 7249919 B2 JP7249919 B2 JP 7249919B2 JP 2019168062 A JP2019168062 A JP 2019168062A JP 2019168062 A JP2019168062 A JP 2019168062A JP 7249919 B2 JP7249919 B2 JP 7249919B2
Authority
JP
Japan
Prior art keywords
estimation
reliability
camera
orientation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019168062A
Other languages
English (en)
Other versions
JP2021047479A (ja
Inventor
佑典 田副
雄磨 佐野
晃仁 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Original Assignee
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Electronic Devices and Storage Corp filed Critical Toshiba Corp
Priority to JP2019168062A priority Critical patent/JP7249919B2/ja
Priority to EP20156871.4A priority patent/EP3796257A1/en
Priority to US16/795,711 priority patent/US20210082140A1/en
Priority to CN202010118380.4A priority patent/CN112529932A/zh
Publication of JP2021047479A publication Critical patent/JP2021047479A/ja
Application granted granted Critical
Publication of JP7249919B2 publication Critical patent/JP7249919B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明の実施形態は推定装置、推定方法及びプログラムに関する。
移動体に設置されたカメラ等で撮影した画像から、撮像時のカメラ、つまり移動体の位置を推定する推定装置が知られている。移動体の自己位置推定は種々の原因で失敗することがある。このとき、移動体は自己位置推定に失敗してもその事実を認識することなくそのまま移動を続ける。そのため、移動体が、例えば本来移動不可能な領域に侵入する可能性がある。また、自己位置推定に失敗した場合、再び推定が成功するまでの間の区間は「何も推定されていない」区間となり、これにより移動体の移動軌跡が途切れることがある。
特開2017-207942号公報 特許第6061770号公報 特許第6240595号公報
しかしながら、従来の技術では、カメラ以外のセンサを用いずに、移動軌跡を途切れさせることなく自己位置を推定することが難しかった。
実施形態の推定装置は、取得部と第1の推定部と第1の算出部と第2の推定部と第2の算出部と判定部とを備える。取得部は、カメラによって撮像された画像を取得する。第1の推定部は、前記画像から前記カメラの位置及び姿勢の少なくとも一方を示す第1の推定情報を推定する。第1の算出部は、前記第1の推定情報の信頼度を示す第1の信頼度を算出する。第2の推定部は、前記カメラの位置及び姿勢の少なくとも一方を示す第2の推定情報を推定する。第2の算出部は、前記第2の推定情報の信頼度を示す第2の信頼度を算出する。判定部は、前記第1及び第2の信頼度に基づき、前記第1及び第2の推定情報から前記カメラの位置及び姿勢の少なくとも一方を決定し、決定された位置及び姿勢の少なくとも一方を判定処理結果として出力する。前記第2の推定部は、前記判定部による過去の判定処理結果に基づいて前記第2の推定情報を推定する。
第1実施形態の移動体の例を示す図。 第1実施形態の移動体の機能構成の例を示す図。 第1実施形態の推定方法の例を示すフローチャート。 第2実施形態の推定装置の処理部の機能構成の例を示す図。 第2実施形態の推定方法の例を示すフローチャート。 第3実施形態の推定装置の処理部の機能構成の例を示す図。 第3実施形態の推定方法の例を示すフローチャート。 第1乃至第3実施形態の推定装置のハードウェア構成の例を示す図。
以下、添付図面を参照して実施形態の推定装置、推定方法及びプログラムについて説明する。
(第1実施形態)
第1実施形態の推定装置は、例えば移動体に搭載される。
[移動体の例]
図1は第1実施形態の移動体10の例を示す図である。
移動体10は、推定装置20、出力部10A、カメラ10B、センサ10C、動力制御部10G及び動力部10Hを備える。
移動体10は任意でよい。移動体10は、例えば車両、台車及び移動ロボット等である。車両は、例えば自動二輪車、自動四輪車及び自転車等である。また、移動体10は、例えば人による運転操作を介して走行する移動体でもよいし、人による運転操作を介さずに自動的に走行(自律走行)可能な移動体でもよい。
推定装置20は、例えば専用又は汎用のコンピュータハードウェアにより実現される。推定装置20は、移動体10の位置及び姿勢の少なくとも一方を示す自己位置を推定する。具体的には、推定装置20は、複数の異なる方法で得られた自己位置推定結果に対してそれぞれ信頼度を算出し、予め設定した閾値との比較により、自己位置推定結果を選択又は統合する。これにより、移動体10の追跡の途切れをなくすことが可能となる。
なお、推定装置20は、移動体10に搭載された形態に限定されない。推定装置20は、静止物に搭載されていてもよい。静止物は、例えば地面に固定された物等の移動不可能な物である。地面に固定された静止物は、例えばガードレール、ポール、駐車車両及び道路標識等である。また例えば、静止物は、地面に対して静止した状態の物である。また、推定装置20は、クラウドシステム上で処理を実行するクラウドサーバに搭載されていてもよい。
動力部10Hは、移動体10に搭載された駆動デバイスである。動力部10Hは、例えば、エンジン、モータ及び車輪等である。
動力制御部10Gは、動力部10Hを制御する。動力制御部10Gの制御によって動力部10Hが駆動する。
出力部10Aは情報を出力する。第1実施形態では、出力部10Aは、推定装置20により推定されたカメラ10Bの運動の推定結果を示す推定結果情報を出力する。
出力部10Aは、例えば、推定結果情報を送信する通信機能、推定結果情報を表示する表示機能、及び、推定結果情報を示す音を出力する音出力機能等を備える。出力部10Aは、例えば通信部10D、ディスプレイ10E及びスピーカ10Fの少なくとも1つを備える。なお、第1実施形態では、出力部10Aは、通信部10D、ディスプレイ10E及びスピーカ10Fを備えた構成を例にして説明する。
通信部10Dは、推定結果情報を他の装置へ送信する。例えば、通信部10Dは、通信回線を介して推定結果情報を他の装置へ送信する。ディスプレイ10Eは、推定結果に関する情報を表示する。ディスプレイ10Eは、例えばLCD(Liquid Crystal Display)、投影装置及びライト等である。スピーカ10Fは、推定結果に関する情報を示す音を出力する。
カメラ10Bは、例えば単眼カメラ、ステレオカメラ、魚眼カメラ及び赤外線カメラ等である。カメラ10Bの数は任意でよい。また、撮像される画像はRGBの3チャネルで構成されたカラー画像であってもよく、グレースケールで表現された1チャネルのモノクロ画像であってもよい。カメラ10Bは、移動体10周辺の時系列の画像を撮像する。カメラ10Bは、例えば移動体10の周辺を時系列に撮像することにより、時系列の画像を撮像する。移動体10の周辺は、例えば当該移動体10から予め定められた範囲内の領域である。この範囲は、例えばカメラ10Bの撮像可能な範囲である。
第1実施形態では、カメラ10Bが、移動体10の前方を撮影方向として含むように設置されている場合を例にして説明する。すなわち、第1実施形態では、カメラ10Bは、移動体10の前方を時系列に撮像する。
センサ10Cは、測定情報を測定するセンサである。測定情報は、例えば移動体10の速度、並びに、移動体10のハンドルの舵角を含む。センサ10Cは、例えば慣性計測装置(IMU:Inertial Measurement Unit)、速度センサ及び舵角センサ等である。IMUは、移動体10の三軸加速度及び三軸角速度を含む測定情報を測定する。速度センサは、タイヤの回転量から速度を測定する。舵角センサは、移動体10のハンドルの舵角を測定する。
次に、第1実施形態の移動体10の機能構成の例について詳細に説明する。
[機能構成の例]
図2は第1実施形態の移動体10の機能構成の例を示す図である。
移動体10は、推定装置20、出力部10A、カメラ10B、センサ10C、動力制御部10G及び動力部10Hを備える。推定装置20は、処理部20A及び記憶部20Bを備える。出力部10Aは、通信部10D、ディスプレイ10E及びスピーカ10Fを備える。
処理部20A、記憶部20B、出力部10A、カメラ10B、センサ10C及び動力制御部10Gは、バス10Iを介して接続されている。動力部10Hは、動力制御部10Gに接続されている。
なお、出力部10A(通信部10D、ディスプレイ10E及びスピーカ10F)、カメラ10B、センサ10C、動力制御部10G及び記憶部20Bは、ネットワークを介して接続されていてもよい。接続に使用されるネットワークの通信方式は、有線方式であっても無線方式であってもよい。また、接続に使用されるネットワークは、有線方式と無線方式とを組み合わせることにより実現されていてもよい。
記憶部20Bは情報を記憶する。記憶部20Bは、例えば半導体メモリ素子、ハードディスク及び光ディスク等である。半導体メモリ素子は、例えばRAM(Random Access Memory)及びフラッシュメモリ等である。なお、記憶部20Bは、推定装置20の外部に設けられた記憶装置であってもよい。また、記憶部20Bは、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、記憶部20Bを、複数の記憶媒体から構成してもよい。
処理部20Aは、取得部21、第1の推定部22、第1の算出部23、第2の推定部24、第2の算出部25、及び、判定部26を備える。取得部21、第1の推定部22、第1の算出部23、第2の推定部24、第2の算出部25、及び、判定部26は、例えば1又は複数のプロセッサにより実現される。
処理部20Aは、例えばCPU(Central Processing Unit)等のプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現されてもよい。また例えば、処理部20Aは、専用のIC(Integrated Circuit)等のプロセッサ、すなわちハードウェアにより実現されてもよい。また例えば、処理部20Aは、ソフトウェア及びハードウェアを併用することにより実現されてもよい。
なお、実施形態において用いられる「プロセッサ」の文言は、例えば、CPU、GPU(Graphical Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、及び、プログラマブル論理デバイスを含む。プログラマブル論理デバイスは、例えば単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及び、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)等を含む。
プロセッサは、記憶部20Bに保存されたプログラムを読み出し実行することで、処理部20Aを実現する。なお、記憶部20Bにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成してもよい。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで、処理部20Aを実現する。
処理部20Aの各機能について説明する。取得部21は、カメラ10Bによって撮像された画像を取得する。
第1の推定部22は、取得部21から画像を受け付けると、当該画像からカメラ10Bの位置及び姿勢の少なくとも一方を推定し、推定された位置及び姿勢の少なくとも一方を第1の推定情報として出力する。
第1の算出部23は、第1の推定情報の信頼度を示す第1の信頼度を算出する。
第2の推定部24は、判定部26による過去の判定処理結果に基づいて、カメラ10Bの位置及び姿勢の少なくとも一方を推定し、推定された位置及び姿勢の少なくとも一方を第2の推定情報として出力する。例えば、第2の推定部24は、判定部26により出力された過去の判定処理結果にカルマンフィルタリングを適用して、現在のカメラ10Bの位置及び姿勢を線形補間することによって推定する。
第2の算出部25は、第2の推定情報の信頼度を示す第2の信頼度を算出する。
判定部26は、第1の信頼度と第2の信頼度とに基づき、第1の推定情報と第2の推定情報とから、カメラ10Bの位置及び姿勢の少なくとも一方を決定し、決定された位置及び姿勢の少なくとも一方を判定処理結果として出力する。
[推定方法の例]
図3は第1実施形態の推定方法の例を示すフローチャートである。なお、図3の説明では、推定装置20が、カメラ10Bの位置及び姿勢の両方を推定する場合について説明するが、推定装置20はカメラ10Bの位置及び姿勢の一方を推定してもよい。すなわち、推定装置20は、カメラ10Bの位置及び姿勢の少なくとも一方を推定してもよい。後述する第2及び第3実施形態についても同様である。
はじめに、取得部21が、少なくとも1つ以上のカメラ10Bによって撮像された画像を取得する(ステップS101)。
次に、第1の推定部22が、ステップS101の処理により撮像された画像を使用して、上述の第1の推定情報を推定する(ステップS102)。
具体的には、第1の推定部22は、例えば画像中から複数個の特徴点を抽出して画像間で対応付けを行うことによって、それぞれの画像が撮像されたときのカメラ10Bの位置及び姿勢を推定する。具体的には、移動体10に設置されたカメラ10Bから得られる複数の画像から、SfM(Structure from Motion)を適用することにより、それぞれの画像が撮像されたときのカメラ10Bの位置及び姿勢を推定可能である。
また例えば、第1の推定部22は、カメラ10Bによって取得された画像にSLAM(Simultaneous Localization and Mapping)を適用することにより、画像を撮像したときのカメラ10Bの位置及び姿勢を推定してもよい。具体的には、複数の特徴点のカメラ座標の組を用いて、基本行列や基礎行列、射影変換行列に基づいて位置及び姿勢を算出可能となる。複数の特徴点組は、画像間で特徴点の対応付けを行うことにより求めることが可能である。対応付けは、例えば、テンプレートマッチングや、Lucas-Kanade法、SIFT等を用いることで実現可能である。なお、この場合は、絶対的なスケールを求めるために、並進ベクトルのノルムを1に正規化する等の処理を実施してもよいし、加速度センサやジャイロセンサによりスケールを決定してもよい。
また、カメラ10Bの位置及び姿勢の表現方法は任意でよい。カメラ10Bの位置及び姿勢は、例えば3次元空間中の座標と回転を表す4元数の組み合わせで表現してよい。また例えば、床面での移動等、移動が平面上で行われると仮定できる場合には、並進に関する2自由度と、回転に関する1自由度を合わせた3自由度で表現することができる。また例えば、三次元空間中の姿勢を表現するために、四元数のかわりに回転行列、回転軸と回転方向を表すベクトル、オイラー角などを用いてもよい。
また、カメラ姿勢のその他の推定方法として、特徴点を経由せずに推定する方法を用いてもよい。具体的な方法として、例えば入力画像から深度を推定するネットワークと、カメラ姿勢を推定するネットワークとを有する深層学習モデルによるカメラ姿勢推定を用いることで実現可能である。
次に、第1の算出部23が、上述の第1の信頼度を算出する(ステップS103)。
第1の信頼度の算出方法は、例えば推定されたカメラ10Bの姿勢の回転成分を4成分で表現したクォータニオンを用いることで実現可能である。このとき、回転成分のうちのqw(=cos^2(θ/2)または1-qwの値が高いほど信頼度が高いというように定義してよい。
また、推定されたカメラ10Bの姿勢の並進成分を3変数で表現したトランスレーションを用いてもよく、その場合は、世界座標系におけるx方向とz方向に対する2次元での移動に着目し、移動量に基づいてフィッティングしたn次式の第1項の係数が大きければ第1の信頼度が高いというように定義してよい。
次に、判定部26が、判定部26による過去の判定処理結果があるか否かを判定する(ステップS104)。
過去の判定処理結果が存在しない場合(ステップS104,No)、判定部26は、ステップS101の処理により取得された画像から直接、カメラ10Bの位置及び姿勢を決定する(ステップS105)。カメラ10Bの位置及び姿勢を決定する方法は、例えば第1の推定部22の処理(ステップS102の処理)と同等でもよいし、第1の推定部22の処理とは異なる方法を用いてもよい。例えば、判定部26は、第1の推定部22の処理(ステップS102の処理)と同じ方法を用いる場合、第1の推定情報によって、最終的なカメラ10Bの位置及び姿勢を決定する。
過去の判定処理結果がある場合(ステップS104,Yes)、第2の推定部24が、判定部26による過去の判定処理結果を使用して、上述の第2の推定情報を推定する(ステップS106)。具体的には、第2の推定部24は、過去の判定処理結果に含まれる位置及び姿勢を入力として、フィルタリングによって現在の位置及び姿勢を推定する。フィルタリングは、例えばカルマンフィルタリングを用いてもよい。第2の推定部24は、過去の判定処理結果(例えば第1の推定部22によって推定された前フレームまでのカメラ10Bの位置及び姿勢が判定部26により選択されていた場合は、当該位置及び姿勢)に対して、カルマンフィルタリングを適用し、現フレームに対するカメラの位置及び姿勢を線形補間によって算出してよい。
次に、第2の算出部25が、上述の第2の信頼度を算出する(ステップS107)。
第2の信頼度の算出方法は、例えば推定したカメラ姿勢の回転成分を4成分で表現したクォータニオンを用いることで実現可能である。このとき、回転成分のうちのqw(=cos^2(θ/2)または1-qwの値が高いほど信頼度が高いというように定義してよい。また、推定したカメラ姿勢の並進成分を3変数で表現したトランスレーションを用いてもよく、その場合は、TxとTzの移動量から得られる2次の近似式の第1項が大きければ信頼度が高いというように定義してよい。
次に、判定部26が、第1の信頼度と第2の信頼度とに基づき、第1の推定情報と第2の推定情報とからカメラ10Bの位置及び姿勢を決定する(ステップS108)。具体的には、判定部26は、第1の信頼度および第2の信頼度に基づいて、どちらかの推定情報を判定処理結果(最終的な出力結果)としてもよい。判定部26は、例えば第1の推定部102で推定が行われ、かつ、第1の信頼度が閾値(第1の閾値)より大きければ、第1の推定情報を最終的な出力結果にしてもよい。また例えば、判定部26は、第1の信頼度が閾値以下の場合は第2の信頼度を参照し、第2の信頼度が閾値(第2の閾値)より大きければ、第2の推定情報を最終的な出力結果にしてもよい。また例えば、判定部26は、第1の信頼度が閾値以下であり、かつ、第2の信頼度が閾値以下である場合、判定処理結果を出力しない。
また例えば、判定部26は、第1の信頼度が閾値よりも大きく、かつ、第2の信頼度が閾値よりも大きい場合、第1の推定情報と第2の推定情報とを統合することによって得られた新たな位置及び姿勢によって、カメラ10Bの位置及び姿勢を決定し、決定された位置及び姿勢を判定処理結果として出力する。
第1の推定情報と第2の推定情報とを統合する具体的な方法について説明する。例えば、判定部26は、第1の信頼度と第2の信頼度とに基づく重み付き平均によって、第1の推定情報に含まれるカメラ10Bの並進成分と、第2の推定情報に含まれるカメラ10Bの並進成分とを統合する。また例えば、判定部26は、第1の信頼度と第2の信頼度とに基づく球面線形補間によって、第1の推定情報に含まれるカメラ10Bの回転成分と、第2の推定情報に含まれるカメラ10Bの回転成分とを統合する。
なお、信頼度に対する閾値(判定閾値)はユーザが任意に定めてよく、例えば0.9997等の浮動小数点で表現される定数としてよい。また、第1の信頼度と第2の信頼度とで同一の閾値を定めてもよいし、それぞれ異なる閾値を定めてもよい。例えば第1の信頼度を主の推定方法とする場合は、第1の信頼度に対する閾値を低めに設定してよい。また第1の信頼度が閾値を超えない場合に、第2の推定部による推定情報を必ず出力結果として採用するように、第2の信頼度の閾値を0としてもよい。
以上、説明したように、第1実施形態の推定装置20では、取得部21は、カメラ10Bによって撮像された画像を取得する。第1の推定部22は、画像からカメラ10Bの位置及び姿勢の少なくとも一方を示す第1の推定情報を推定する。第1の算出部23は、第1の推定情報の信頼度を示す第1の信頼度を算出する。第2の推定部24は、カメラ10Bの位置及び姿勢の少なくとも一方を示す第2の推定情報を推定する。第2の算出部は、第2の推定情報の信頼度を示す第2の信頼度を算出する。判定部26は、第1及び第2の信頼度に基づき、第1及び第2の推定情報からカメラ10Bの位置及び姿勢の少なくとも一方を決定し、決定された位置及び姿勢の少なくとも一方を判定処理結果として出力する。第2の推定部24は、判定部26による過去の判定処理結果に基づいて第2の推定情報を推定する。
これにより第1実施形態の推定装置20によれば、カメラ10B以外のセンサを用いずに、移動軌跡を途切れさせることなく自己位置を推定することができる。例えば、カメラ10Bが搭載された移動体10の自己位置を、移動軌跡を途切れさせることなく推定することができる。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。第2実施形態では、2つの異なる方法で画像から、当該画像を撮像したカメラ10Bの位置及び姿勢を推定する。
[機能構成の例]
図4は第2実施形態の推定装置20の処理部20A-2の機能構成の例を示す図である。処理部20A-2は、取得部21、第1の推定部22、第1の算出部23、第2の推定部24、第2の算出部25、判定部26、第3の推定部27、及び、第3の算出部28を備える。すなわち、第2実施形態では、第1実施形態の構成に第3の推定部27、及び、第3の算出部28が更に追加されている。
第3の推定部27は、取得部21から画像を受け付けると、当該画像から、第1の推定部22とは異なる方法で、カメラ10Bの位置及び姿勢を推定し、推定された位置及び姿勢を第3の推定情報として出力する。例えば、第1の推定部22が、複数の画像にSfMを適用することにより、それぞれの画像が撮像されたときのカメラ10Bの位置及び姿勢を推定する場合、第3の推定部27は、画像にSLAMを適用することにより、画像が撮像されたときのカメラ10Bの位置及び姿勢を推定する。
第3の算出部28は、第3の推定情報の信頼度を示す第3の信頼度を算出する。
判定部26は、第1の信頼度と第2の信頼度と第3の信頼度とに基づき、第1の推定情報と第2の推定情報と第3の推定情報とから、カメラ10Bの位置及び姿勢を決定する。第1乃至第3の信頼度は、カメラ10Bの姿勢の回転成分の値、及び、カメラ10Bの並進成分の移動量の少なくとも一方に基づいて算出される。
[推定方法の例]
図5は第2実施形態の推定方法の例を示すフローチャートである。
ステップS201~ステップS203の処理は、第1実施形態のステップS101~ステップS103の処理と同じなので説明を省略する。
第3の推定部27が、ステップS201の処理により撮像された画像を使用して、当該画像から、第1の推定部22とは異なる方法で、カメラ10Bの位置及び姿勢を推定し、上述の第3の推定情報を推定する(ステップS204)。
次に、第3の算出部28が、上述の第3の信頼度を算出する(ステップS205)。第3の信頼度の算出方法は、第1の信頼度の算出方法と同様であるので説明を省略する。
次に、判定部26が、判定部26による過去の判定処理結果があるか否かを判定する(ステップS206)。
過去の判定処理結果が存在しない場合(ステップS206,No)、判定部26は、ステップS201の処理により取得された画像から直接、カメラ10Bの位置及び姿勢を決定する(ステップS207)。カメラ10Bの位置及び姿勢を決定する方法は、例えば第1の推定部22の処理(ステップS202の処理)、又は、第3の推定部27の処理(ステップS204の処理)と同等でもよいし、第1の推定部22又は第3の推定部27の処理とは異なる方法を用いてもよい。例えば、判定部26は、第1の信頼度と第3の信頼度とを比較し、信頼度がより高い方の処理結果によって、最終的なカメラ10Bの位置及び姿勢を決定してもよい。例えば、判定部26は、第1の推定部22の処理(ステップS202の処理)と同じ方法を用いる場合、第1の推定情報によって、最終的なカメラ10Bの位置及び姿勢を決定する。
過去の判定処理結果がある場合(ステップS206,Yes)、第2の推定部24が、判定部26による過去の判定処理結果を使用して、上述の第2の推定情報を推定する(ステップS208)。
次に、第2の算出部25が、上述の第2の信頼度を算出する(ステップS209)。
次に、判定部26が、第1の信頼度と第2の信頼度と第3の信頼度とに基づき、第1の推定情報と第2の推定情報と第3の推定情報とからカメラ10Bの位置及び姿勢を決定する(ステップS210)。具体的には、判定部26は、第1の信頼度、第2の信頼度および第3の信頼度に基づいて、いずれかの推定情報を最終的な出力結果としてよい。判定部26は、例えば第1の推定部202で推定が行われ、かつ、第1の信頼度が閾値以上であれば第1の推定情報を最終的な出力結果にしてもよい。また例えば、判定部26は、第1の信頼度が閾値以下の場合は第3の信頼度を参照し、第3の信頼度が閾値以上であれば第3の推定情報を最終的な出力結果にしてもよい。また例えば、判定部26は、第3の信頼度も閾値以下の場合は、第2の推定情報を最終的な出力結果としてよい。
また例えば、別の統合方法として、判定部26は、第1の信頼度および第3の信頼度に基づいてそれぞれの推定情報を統合し、新たなカメラ10Bの位置及び姿勢を最終的な出力結果としてもよい。具体的には、判定部26は、3変数で表現される並進成分の対しては、第1の推定情報と第3の推定情報とを用いて線形重み付き平均によって新たな並進成分を算出してよい。また判定部26は、クォータニオンによる4成分で表現される回転成分に対しては、それぞれの回転成分の4変数における共通項であるθに着目し、球面線形補間(SLERP:Spherical Linear Interpolation)によって新たな回転成分を算出してよい。
なお、信頼度に対する閾値はユーザが任意に定めてよく、例えば0.9997等の浮動小数点で表現される定数としてよい。また、第1の信頼度と第2の信頼度と第3の信頼度とで同一の閾値を定めてもよいし、それぞれ異なる閾値を定めてもよい。例えば第1の信頼度と第3の信頼度とを主の推定手法とする場合は、第1の信頼度と第3の信頼度とに対する閾値を低めに設定してよい。また第1の信頼度と第3の信頼度とが閾値を超えない場合に、第2の推定部による推定情報を必ず出力結果として採用するように、第2の信頼度の閾値を0としてもよい。
以上、説明したように、第2実施形態の推定装置20によれば、第3の信頼度を有する第3の推定情報に更に基づいて、移動体10の位置及び姿勢を推定することができる。
(第3実施形態)
次に第3実施形態について説明する。第3実施形態の説明では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。第3実施形態では、判定部26により判定されたカメラ10Bの位置及び姿勢を保存又は棄却する制御について説明する。
[機能構成の例]
図6は第3実施形態の推定装置20の処理部20A-3の機能構成の例を示す図である。処理部20A-3は、取得部21、第1の推定部22、第1の算出部23、第2の推定部24、第2の算出部25、判定部26、第3の推定部27、第3の算出部28、及び、記憶制御部29を備える。すなわち、第3実施形態では、第2実施形態の構成に記憶制御部29が更に追加されている。
記憶制御部29は、画像取得時の時系列情報と、判定処理結果とを含む推定結果を記憶部20Bに記憶する。画像取得時の時系列情報は、例えば画像を特定する番号(フレーム番号等)である。判定処理結果は、判定部26により決定された直近のカメラ10Bの位置及び姿勢を含む。
また、記憶制御部29は、上述の第1乃至第3の信頼度の全てが閾値以下であり、かつ、カメラ10Bの位置及び姿勢が出力されていない区間が推定可能区間を超えない場合に上述の推定結果を棄却する。記憶制御部29による記憶制御の詳細、及び、推定可能区間の説明については、図7のフローチャートを参照して後述する。
[推定方法の例]
図7は第3実施形態の推定方法の例を示すフローチャートである。
ステップS301~ステップS310の処理は、第1実施形態のステップS201~ステップS210の処理と同じなので説明を省略する。
記憶制御部29が、第1乃至第3の信頼度の全てが閾値以下であるか否かを判定する(ステップS311)。
第1乃至第3の信頼度の全てが閾値以下でない場合(ステップS311,No)、記憶制御部29は、ステップS310の処理によって決定された位置及び姿勢、画像取得時の時系列情報と、統合処理判定処理結果とを含む推定結果を記憶部20Bに記憶する(ステップS312)。
第1乃至第3の信頼度の全てが閾値以下である場合(ステップS311,Yes)、記憶制御部29は、カメラ10Bの位置及び姿勢の推定可能区間(前回記憶された判定処理結果が有効な有効区間)であるか否かを判定する(ステップS313)。
推定可能区間とは、推定装置20がカメラ20Bの位置及び姿勢を推定可能な時系列の長さである。時系列の長さは、例えば画像のフレーム数で表現してもよく、またフレーム番号に対応した時刻(タイムスタンプ)であってもよい。つまり、記憶制御部29は、推定情報が最後に保存されてからの区間がこの推定可能区間を超えていない場合(ステップS313,Yes)、推定結果を棄却する(ステップS314)。推定可能区間を超えている場合(ステップS313,No)、推定結果を記憶部20Bに記憶する(ステップS312)。
具体的には、例えば記憶制御部29が推定を開始してからnフレーム目に推定結果を記憶部20Bに記憶し、推定装置20の推定可能区間が5フレームの場合は、n+1~n+4フレーム目までは推定結果を棄却してもよい。
一方、記憶制御部29は、n+5フレームまで保存されているカメラ10Bの位置及び姿勢が更新されていない場合は、信頼度に依らず推定結果(カメラ10Bの位置及び姿勢)を記憶部20Bに記憶する。その場合のカメラ10Bの位置及び姿勢は、第1の推定部22、第2の推定部24、及び、第3の推定部27によって推定されたカメラ10Bの位置及び姿勢のいずれかでもよいし、それぞれの位置及び姿勢の結果を統合した新たな位置及び姿勢であってもよい。
以上、説明したように、第3実施形態の推定装置20では、記憶制御部29が、第1乃至第3の信頼度のいずれかが判定閾値より大きい場合、判定処理結果を記憶し、第1乃至第3の信頼度の全てが判定閾値以下であり、かつ、カメラ10Bの位置及び姿勢が更新されていない区間が、前回記憶された判定処理結果が有効な有効区間内である場合、今回判定された判定処理結果を棄却し、第1乃至第3の信頼度の全てが判定閾値以下であり、かつ、カメラ10Bの位置及び姿勢が更新されていない区間が、有効区間を超えている場合、今回判定された判定処理結果を記憶する。
これにより第3実施形態の推定装置20によれば、カメラ10B以外のセンサを用いずに、移動軌跡を途切れさせることなく、移動体10の自己位置(位置及び姿勢の少なくとも一方)を推定することができる。
最後に、第1乃至第3実施形態の推定装置20のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図9は第1乃至第3実施形態の推定装置20のハードウェア構成の例を示す図である。推定装置20は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
なお、表示装置304、入力装置305及び通信装置306は備えていなくてもよい。例えば、推定装置20が他の装置と接続される場合、当該他の装置の表示機能、入力機能及び通信機能を利用してもよい。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。制御装置301は、例えばCPU等の1以上のプロセッサである。主記憶装置302はROM(Read Only Memory)、及び、RAM等のメモリである。補助記憶装置303はメモリカード、及び、HDD(Hard Disk Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばハードウェアキー等である。なお表示装置304及び入力装置305は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置306は他の装置と通信する。
推定装置20で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R、及び、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また推定装置20で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また推定装置20が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また推定装置20で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
推定装置20で実行されるプログラムは、推定装置20の機能のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、主記憶装置302にロードされる。すなわちプログラムにより実現される機能は、主記憶装置302上に生成される。
なお推定装置20の機能の一部を、IC等のハードウェアにより実現してもよい。ICは、例えば専用の処理を実行するプロセッサである。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2つ以上を実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 移動体
10A 出力部
10B カメラ
10C センサ
10D 通信部
10E ディスプレイ
10F スピーカ
10G 動力制御部
10H 動力部
10I バス
20 推定装置
21 取得部
22 第1の推定部
23 第1の算出部
24 第2の推定部
25 第2の算出部
26 判定部
27 第3の推定部
28 第3の算出部
29 記憶制御部
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス

Claims (11)

  1. カメラによって撮像された画像を取得する取得部と、
    前記画像から前記カメラの位置及び姿勢の少なくとも一方を示す第1の推定情報を推定する第1の推定部と、
    前記第1の推定情報の信頼度を示す第1の信頼度を算出する第1の算出部と、
    前記カメラの位置及び姿勢の少なくとも一方を示す第2の推定情報を推定する第2の推定部と、
    前記第2の推定情報の信頼度を示す第2の信頼度を算出する第2の算出部と、
    前記第1及び第2の信頼度に基づき、前記第1及び第2の推定情報から前記カメラの位置及び姿勢の少なくとも一方を決定し、決定された位置及び姿勢の少なくとも一方を判定処理結果として出力する判定部と、を備え、
    前記第2の推定部は、前記判定部による過去の判定処理結果に基づいて前記第2の推定情報を推定する、
    推定装置。
  2. 前記第2の推定部は、前記過去の判定処理結果にカルマンフィルタリングを適用して、現在の前記カメラの位置及び姿勢の少なくとも一方を線形補間することによって推定する、
    請求項1に記載の推定装置。
  3. 前記判定部は、
    前記第1の信頼度が第1の閾値よりも大きい場合、前記第1の推定情報によって前記カメラの位置及び姿勢の少なくとも一方を判定し、
    前記第1の信頼度が前記第1の閾値以下であり、かつ、前記第2の信頼度が第2の閾値よりも大きい場合、前記第2の推定情報によって前記カメラの位置及び姿勢の少なくとも一方を判定し、
    前記第1の信頼度が前記第1の閾値以下であり、かつ、前記第2の信頼度が第2の閾値以下である場合、前記判定処理結果を出力しない、
    請求項1に記載の推定装置。
  4. 前記判定部は、前記第1の信頼度が第1の閾値よりも大きく、かつ、前記第2の信頼度が第2の閾値よりも大きい場合、前記第1の推定情報と前記第2の推定情報とを統合することによって得られた新たな位置及び姿勢の少なくとも一方によって、前記カメラの位置及び姿勢の少なくとも一方を決定する、
    請求項1に記載の推定装置。
  5. 前記判定部は、前記第1の信頼度と前記第2の信頼度とに基づく重み付き平均によって、前記第1の推定情報に含まれる前記カメラの並進成分と、前記第2の推定情報に含まれる前記カメラの並進成分とを統合する、
    請求項4に記載の推定装置。
  6. 前記判定部は、前記第1の信頼度と前記第2の信頼度とに基づく球面線形補間によって、前記第1の推定情報に含まれる前記カメラの回転成分と、前記第2の推定情報に含まれる前記カメラの回転成分とを統合する、
    請求項4に記載の推定装置。
  7. 前記第2の推定部とは異なる推定方法を用いて、前記画像から前記カメラの位置及び姿勢の少なくとも一方を示す第3の推定情報を推定する第3の推定部と、
    前記第3の推定情報の信頼度を示す第3の信頼度を算出する第3の算出部と、を更に備え、
    前記判定部は、前記第3の信頼度に更に基づき、前記第1乃至第3の推定情報から前記カメラの位置及び姿勢の少なくとも一方を決定する、
    請求項1に記載の推定装置。
  8. 前記第1乃至第3の信頼度は、前記カメラの姿勢の回転成分の値、及び、前記カメラの並進成分の移動量の少なくとも一方に基づいて算出される、
    請求項7に記載の推定装置。
  9. 前記第1乃至第3の信頼度のいずれかが判定閾値より大きい場合、前記判定処理結果を記憶し、前記第1乃至第3の信頼度の全てが判定閾値以下であり、かつ、前記カメラの位置及び姿勢の少なくとも一方が更新されていない区間が、前回記憶された前記判定処理結果が有効な有効区間内である場合、今回判定された前記判定処理結果を棄却し、前記第1乃至第3の信頼度の全てが判定閾値以下であり、かつ、前記カメラの位置及び姿勢の少なくとも一方が更新されていない区間が、前記有効区間を超えている場合、今回判定された前記判定処理結果を記憶する記憶制御部、
    を更に備える請求項7に記載の推定装置。
  10. カメラによって撮像された画像を取得するステップと、
    前記画像から前記カメラの位置及び姿勢の少なくとも一方を示す第1の推定情報を推定するステップと、
    前記第1の推定情報の信頼度を示す第1の信頼度を算出するステップと、
    前記カメラの位置及び姿勢の少なくとも一方を示す第2の推定情報を推定するステップと、
    前記第2の推定情報の信頼度を示す第2の信頼度を算出するステップと、
    前記第1及び第2の信頼度に基づき、前記第1及び第2の推定情報から前記カメラの位置及び姿勢の少なくとも一方を決定し、決定された位置及び姿勢の少なくとも一方を判定処理結果として出力するステップと、を含み、
    前記第2の推定情報を推定するステップは、前記出力するステップによる過去の判定処理結果に基づいて前記第2の推定情報を推定する、
    推定方法。
  11. コンピュータを、
    カメラによって撮像された画像を取得する取得部と、
    前記画像から前記カメラの位置及び姿勢の少なくとも一方を示す第1の推定情報を推定する第1の推定部と、
    前記第1の推定情報の信頼度を示す第1の信頼度を算出する第1の算出部と、
    前記カメラの位置及び姿勢の少なくとも一方を示す第2の推定情報を推定する第2の推定部と、
    前記第2の推定情報の信頼度を示す第2の信頼度を算出する第2の算出部と、
    前記第1及び第2の信頼度に基づき、前記第1及び第2の推定情報から前記カメラの位置及び姿勢の少なくとも一方を決定し、決定された位置及び姿勢の少なくとも一方を判定処理結果として出力する判定部、として機能させ、
    前記第2の推定部は、前記判定部による過去の判定処理結果に基づいて前記第2の推定情報を推定する、
    プログラム。
JP2019168062A 2019-09-17 2019-09-17 推定装置、推定方法及びプログラム Active JP7249919B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019168062A JP7249919B2 (ja) 2019-09-17 2019-09-17 推定装置、推定方法及びプログラム
EP20156871.4A EP3796257A1 (en) 2019-09-17 2020-02-12 Estimation device, estimation method, and computer program product
US16/795,711 US20210082140A1 (en) 2019-09-17 2020-02-20 Estimation device, estimation method, and computer program product
CN202010118380.4A CN112529932A (zh) 2019-09-17 2020-02-26 推定装置、推定方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019168062A JP7249919B2 (ja) 2019-09-17 2019-09-17 推定装置、推定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021047479A JP2021047479A (ja) 2021-03-25
JP7249919B2 true JP7249919B2 (ja) 2023-03-31

Family

ID=69571951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019168062A Active JP7249919B2 (ja) 2019-09-17 2019-09-17 推定装置、推定方法及びプログラム

Country Status (4)

Country Link
US (1) US20210082140A1 (ja)
EP (1) EP3796257A1 (ja)
JP (1) JP7249919B2 (ja)
CN (1) CN112529932A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170132794A1 (en) 2015-11-05 2017-05-11 Samsung Electronics Co., Ltd. Pose estimation method and apparatus
US20180286056A1 (en) 2015-09-30 2018-10-04 Sony Corporation Information processing device, information processing method, and program
JP2019125112A (ja) 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9031782B1 (en) * 2012-01-23 2015-05-12 The United States Of America As Represented By The Secretary Of The Navy System to use digital cameras and other sensors in navigation
JP5843288B2 (ja) * 2012-04-19 2016-01-13 Kddi株式会社 情報提示システム
JP6482844B2 (ja) * 2014-12-11 2019-03-13 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
KR102472767B1 (ko) * 2017-09-14 2022-12-01 삼성전자주식회사 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180286056A1 (en) 2015-09-30 2018-10-04 Sony Corporation Information processing device, information processing method, and program
US20170132794A1 (en) 2015-11-05 2017-05-11 Samsung Electronics Co., Ltd. Pose estimation method and apparatus
JP2019125112A (ja) 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム

Also Published As

Publication number Publication date
EP3796257A1 (en) 2021-03-24
CN112529932A (zh) 2021-03-19
JP2021047479A (ja) 2021-03-25
US20210082140A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
KR102508843B1 (ko) 서라운드 뷰 영상에서 차량의 자차 동작을 산정하는 방법 및 장치
CN110060297B (zh) 信息处理装置、系统、信息处理方法和存储介质
JP4899424B2 (ja) 物体検出装置
JP2020064046A (ja) 車両位置決定方法及び車両位置決定装置
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
WO2019197140A1 (en) Apparatus for determining an angle of a trailer attached to a vehicle
CN109900245B (zh) 坡度推定装置、坡度推定方法以及存储介质
US20170259830A1 (en) Moving amount derivation apparatus
JP5935435B2 (ja) 画像処理装置、画像処理方法
JP2020057358A (ja) ポーズ情報を取得する方法及び装置
US10916018B2 (en) Camera motion estimation device, camera motion estimation method, and computer program product
US11775577B2 (en) Estimation device, movable body, estimation method, and computer program product
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
JP7249919B2 (ja) 推定装置、推定方法及びプログラム
TWI791261B (zh) 在移動中提供虛擬環境的方法與系統以及非暫態電腦可讀取儲存媒體
KR101071061B1 (ko) 차량의 특징점을 이용한 운전 보조 장치 및 방법과 이에 사용되는 마이크로프로세서 및 기록매체
WO2022190848A1 (ja) 測距装置、測距システム及び測距方法
JP6488697B2 (ja) オプティカルフロー算出装置、オプティカルフロー算出方法、及びプログラム
US12112502B2 (en) Three-dimensional map estimation apparatus and obstacle detection apparatus
US20240098231A1 (en) Image processing device, image processing method, and computer-readable medium
JPWO2020246202A1 (ja) 計測システム、計測方法、及び計測プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7249919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150