JP2015149059A - 繰り返し補間及びワーピングにより奥行マップを生成するシステム及び方法 - Google Patents

繰り返し補間及びワーピングにより奥行マップを生成するシステム及び方法 Download PDF

Info

Publication number
JP2015149059A
JP2015149059A JP2014228303A JP2014228303A JP2015149059A JP 2015149059 A JP2015149059 A JP 2015149059A JP 2014228303 A JP2014228303 A JP 2014228303A JP 2014228303 A JP2014228303 A JP 2014228303A JP 2015149059 A JP2015149059 A JP 2015149059A
Authority
JP
Japan
Prior art keywords
depth map
image
warped
estimated
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014228303A
Other languages
English (en)
Other versions
JP6601935B2 (ja
Inventor
アニケット・ムラーカ
Murarka Aniket
ニールス・アイネッケ
Einecke Nils
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2015149059A publication Critical patent/JP2015149059A/ja
Application granted granted Critical
Publication of JP6601935B2 publication Critical patent/JP6601935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ざらつきのない表面及び傾斜面など複雑な表面が含まれている場合でも、正しい奥行きを判定するシステム及び方法を提供する。【解決手段】第1画像は、撮像デバイスから受信された一対のステレオ画像の1つであり、一対のステレオ画像は、第1画像及び第2画像を含む第1画像の初期奥行マップを生成する工程310と、初期奥行マップ内の欠落領域の奥行値を仮定することにより初期奥行マップに基づいて推定奥行マップを生成する工程312と、推定奥行マップに基づいて第2画像をワーピングする工程316と、第1画像及びワーピングされた第2画像に基づいてワーピングされた奥行マップを生成する工程318と、ワーピングされた奥行マップ及び推定奥行マップに基づいて第2画像に対する第1画像用の新規奥行マップを生成する工程320と、を含む。【選択図】図3

Description

(関連出願の相互参照)
本願は、本明細書に参考として明示的に組み込まれる、2014年2月8日に出願された米国特許仮出願第61/937496号の優先権を主張するものである。
コンピュータステレオビジョンシステムは、通常、同じ画像シーンの2つの異なる視覚を得るために2台のカメラを含む。2つの異なる視覚における物体及び表面は、画像シーンでのカメラの異なる視点のために、わずかに異なる位置に現れることがある。局所的ブロックマッチングステレオ法は、2つの異なる視覚から奥行を復元するために使用されることがある。しかしながら、例えば、ざらつきのない表面及び傾斜面など複雑な表面を見る場合には、物体及び表面の奥行を復元することが困難である場合がある。したがって、カメラ画像から奥行を復元する局所的ブロックマッチングステレオ法は、通常、数ある問題の中で特に、フロントパラレル仮定及び質感の不足のために、正しい奥行を判定できない。
一態様によると、奥行マップを生成するコンピュータ実装方法は、第1画像の初期奥行マップを生成する工程であって、第1画像は、撮像デバイスから受信された一対のステレオ画像の1つであり、一対のステレオ画像は、第1画像及び第2画像を含む工程と、初期奥行マップ内の欠落領域の奥行値を仮定することにより初期奥行マップに基づいて推定奥行マップを生成する工程と、推定奥行マップに基づいて第2画像をワーピングする工程と、を含む。この方法は、第1画像及びワーピングされた第2画像に基づいてワーピングされた奥行マップを生成する工程と、ワーピングされた奥行マップ及び推定奥行マップに基づいて第2画像に対する第1画像用の新規奥行マップを生成する工程と、を含む。
別の態様によると、非一時的なコンピュータで読み取り可能な媒体は、プロセッサによって実行されるとき、第1画像用の初期奥行マップを生成する工程であって、第1画像は、撮像デバイスから受信された画像シーンの一対のステレオ画像の1つであり、一対のステレオ画像は、第1画像及び第2画像を含む工程と、初期奥行マップ内の欠落領域の奥行値を仮定することにより初期奥行マップに基づいて推定奥行マップを生成する工程と、推定奥行マップに基づいて第2画像をワーピングする工程と、を含む、奥行マップを生成する方法を実行する命令を含む。第1画像及びワーピングされた第2画像に基づいてワーピングされた奥行マップを生成する工程と、ワーピングされた奥行マップ及び推定奥行マップに基づいて第2画像に対する第1画像用の新規奥行マップを生成する工程と、を含む方法。
更なる態様によると、奥行マップを生成するコンピュータシステムは、プロセッサ及びプロセッサに第1画像用の初期奥行マップを生成させる推定奥行マップモジュールを含み、第1画像は、撮像デバイスから受信された画像シーンの一対のステレオ画像の1つであり、一対のステレオ画像は、第1画像及び第2画像を含み、初期奥行マップ内の欠落領域の奥行値を仮定することにより初期奥行マップに基づいて推定奥行マップを生成する。このシステムは、推定奥行マップに基づきプロセッサに第2画像をワーピングさせる奥行マップ改良モジュールを含み、第1画像及びワーピングされた第2画像に基づきワーピングされた奥行マップを生成し、ワーピングされた奥行マップ及び推定奥行マップに基づいて第2画像に対する第1画像用の新規奥行マップを生成する。
この開示に特有であると考えられる新しい特徴は、添付の請求の範囲に記載されている。以下の記載において、類似の部分には、明細書及び図面の全体にわたって同じ符号がそれぞれ付けられる。図面は、必ずしも一定の比率で描かれるわけではなく、かつ特定の図面は明瞭さ及び簡潔さのために誇張されあるいは一般化された形態で示され得る。しかしながら、開示それ自体並びに好ましい使用のモード、更なる目標及びその進歩は、添付の図面と併せて読むときに例証となる実施形態の以下の詳細な説明を参照することにより最も良く理解されることになる。
本願の一態様に従った、繰り返し補間及びワーピングにより奥行マップを生成する例示のシステムの概略図である。 本願の一態様に従った、若干傾斜した表面に対する標準の局所的ブロックマッチングの例示の実施例である。 本願の一態様に従った、繰り返し補間及びワーピングにより奥行マップを生成する例示の実施形態による、若干傾斜した表面に対する局所的ブロックマッチングの例示の実施例である。 本願の一態様に従った、繰り返し補間及びワーピングにより奥行マップを生成する例示の方法を示すフローチャートである。 本願の一態様に従った、例示の水平直線補間に使用される例示の画素ブロックの概略図である。 本願の一態様に従った、多方向の直線補間に使用される例示の画素ブロックの概略図である。 本願の一態様に従った、例示の左ステレオ画像である。 本願の一態様に従った、図5aの左ステレオ画像の例示の視差マップである。 本願の一態様に従った、1回繰り返し後の図5aの左ステレオ画像の例示の視差マップである。 本願の一態様に従った、8回繰り返し後の図5aの左ステレオ画像の例示の視差マップである。
以下は、本願明細書において使用される選択された用語の定義を含む。この定義は、用語の範囲内に収まるとともに実施のために使用することができる、構成要素の様々な実施例及び/又は形態を含む。この実施例は、制限的なものであることを意図していない。更に、当業者は、本明細書で議論される構成要素は、組み合わされたり、省略されたり、又は他の構成要素と共に編成されたり若しくは異なるアーキテクチャに編成されたりしてよいことを認識するであろう。
本明細書で用いる「バス」は、コンピュータの内部のあるいはコンピュータの間の他のコンピュータ構成要素に動作可能に接続された、相互に連結されるアーキテクチャを指す。バスは、コンピュータ構成要素間でデータを転送することができる。結果的に、バスは、他のバスを使用して様々な装置、モジュール、論理、及び周辺機器と通信することができる。バスは、単一の内部バス相互連結アーキテクチャ及び/又は他のバス若しくはメッシュアーキテクチャであってよい(例えば外部)。バスは、とりわけ、メモリバス、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスであってよい。いくつかの実施形態では、バスは、とりわけ、コントローラエリアネットワーク(CAN)、ローカル相互接続ネットワーク(LIN)といったプロトコルを使用して、車両内の構成要素を相互接続する車両バスであってよい。
「コンピュータ通信」は、本明細書において使用される際、2つ以上のコンピューティングデバイス(例えば、コンピュータ、ポータブルデバイス、個人用デジタル補助装置、セルラ電話、ネットワークデバイス)間の通信を指し、例えば、ネットワーク転送、ファイル転送、アプレット転送、電子メール、ハイパーテキスト転送プロトコル(HTTP)転送などであってよい。コンピュータ通信は、例えば、とりわけ、無線システム(例えば、IEEE 802.11)、イーサネット(登録商標)システム(例えば、IEEE 802.3)、トークンリングシステム(例えば、IEEE 802.5)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、ポイントツーポイントシステム、回路交換システム、パケット交換システムにわたって行われてもよい。
「奥行マップ」は、本明細書において使用される際、通常、視点からのシーン物体の表面の距離に関する情報を含有する画像又は画像チャネルである。いくつかの実施形態では、奥行マップは、各奥行値がシーン内のそれぞれの位置に対応し、特定の基準位置から対応のシーン位置までの距離を示す、奥行値の2次元マトリックス(例えば、アレイ)を含む。いくつかの実施形態では、視差マップは、奥行情報が同じシーンのオフセット画像から導出される奥行マップである。視差マップは、所定のカメラ校正パラメータの変換によって得られる反転奥行マップ(inverse depth map)であってよい。
本明細書で用いる「ディスク」は、例えば、磁気ディスクドライブ、ソリッドステートディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、Zipドライブ、フラッシュメモリカード及び/又はメモリスティックとすることができる。更にまた、ディスクは、CD−ROM(コンパクトディスクROM)、CDレコーダブルドライブ(CD−Rドライブ)、CDリライタブルドライブ(CD−RWドライブ)、及び/又はデジタルビデオROMドライブ(DVD ROM)とすることができる。このディスクは、コンピューティングデバイスのリソースを制御するか、割り当てるオペレーティングシステムを書き込むことができる。
本明細書で用いる「局所的ブロックマッチングステレオ法」は、画像間の視差を計算するための対応付けの方法である。通常、第1画像内の各画素に対し、第1ブロックをその周囲で抽出する。探索は、第1ブロックに最もよく対応する第2ブロック用の第2画像で実行される。この探索は、第1画像内の画素を中心とする周囲の所定の範囲内の画素で実行される。第1ブロック及び第2ブロックは比較されて、画素が最小マッチングコストにより選択される。利用されるコスト関数は、特に、累積絶対値誤差(SAD)、ランク変換相関(NCC)、及び累積正規化相互相関(SNCC)を含んでよい。
本明細書で用いる「メモリ」は、揮発性メモリ及び/又は不揮発性メモリを含んでよい。不揮発性メモリは、例えば、ROM(読出し専用メモリ)、PROM(プログラマブル読出し専用メモリ)、EPROM(消去可能なPROM)及びEEPROM(電気的消去可能PROM)を含んでよい。揮発性メモリは、例えばRAM(ランダムアクセスメモリ)、シンクロナスRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、ダイレクトRAMバスRAM(DRRAM(登録商標))を含んでよい。メモリは、コンピューティングデバイスのリソースを制御するか、割り当てるオペレーティングシステムを記憶することができる。
本明細書で用いる「入出力」機構は、特に、キーボード、マイクロホン、ポインティング及び選択デバイス、カメラ、撮像デバイス、ビデオカード、ディスプレイ、ディスク、ネットワークデバイスを含んでよい。入出力機構は、例えば、シリアルポート、パラレルポート、及びUSBポートなどの入出力ポートを含んでよい。
本明細書で用いる「モジュール」は、命令を記憶する非一時的なコンピュータで読み取り可能な媒体、マシンで実行中の命令、ハードウェア、ファームウェア、マシンで実行中のソフトウェア、並びに/又は機能若しくはアクションを実行する、並びに/若しくは別のモジュール、方法、及び/若しくはシステムから機能若しくはアクションを起こすためのそれぞれの組み合わせを含むが、これらに限定されない。モジュールはまた、論理、ソフトウェア制御されたマイクロプロセッサ、離散論理回路、アナログ電子回路、デジタル回路、プログラムされた論理デバイス、実行命令を含有する記憶装置、論理ゲート、ゲートの組み合わせ、及び/又は他の回路構成要素を含んでよい。複数モジュールは、1つのモジュールに組み合わされてよく、単一のモジュールは、複数モジュールに分散されてよい。
「動作可能な接続」、又はエンティティが「動作可能に接続される」接続は、信号、物理的通信、及び/又は論理的通信を送信及び/又は受信することができるものである。動作可能な接続は、物理的なインターフェース、データインターフェース及び/又は電気的インターフェースを含んでよい。
本明細書で用いる「プロセッサ」は、信号を処理し、一般的な計算及び算術関数を実行する。プロセッサによって処理される信号は、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は受信、伝送、及び/若しくは検出することができる他の手段を含んでよい。一般に、プロセッサは、マルチ、シングル及びマルチコアのプロセッサ及びコプロセッサ、並びに他のマルチ、シングル及びマルチコアのプロセッサ及びコプロセッサのアーキテクチャを含む様々なプロセッサとすることができる。プロセッサは、種々の機能を実行するための種々のモジュールを含んでよい。
本明細書で用いる「車両」は、1人以上のヒト占有者を運ぶことが可能であり、かつ任意の形態のエネルギーを動力とする、任意の移動車両を指す。用語「車両」は車、トラック、バン、ミニバン、SUV、オートバイ、スクータ、ボート、パーソナルウォータークラフト及び航空機を含むが、それらには限定されない。場合によっては、自動車は、1つ以上のエンジンを含む。更に、用語「車両」は、1人以上のヒト占有者を運ぶことが可能であり、かつ電気バッテリによって給電される1つ以上の電気モータを完全に又は部分的に動力とする、電気車両(EV)を指す。EVは、バッテリ電気車両(BEV)及びプラグインハイブリッド電気車両(PHEV)を含むことができる。加えて、用語「車両」は、任意の形態のエネルギーを動力とする、自律走行車両及び/又は自動運転車両を指すこともできる。自律走行車両は、1人以上のヒト占有者を運んでも、運ばなくてもよい。
本明細書で用いる「車両システム」は、車両、運転、及び/又は安全を改良するために使用され得る任意の自動又は手動システムを含んでよいが、それらに限定されない。代表的な車両システムには、これらに限定されるものではないが、特に、電子安定制御システムアンチロックブレーキシステム、ブレーキ補助システム、自動ブレーキプレフィルシステム、低速追従システム、クルーズ制御システム、衝突警報システム、衝突軽減ブレーキシステム、自動クルーズ制御システム、車線逸脱警報システム、ブラインドスポットインジケータシステム、車線維持支援システム、ナビゲーションシステム、伝送システム、ブレーキペダルシステム、電子パワーステアリングシステム、視覚装置(例えば、カメラシステム、近接センサシステム)、気象制御システム、電子プレテンショニングシステムが挙げられる。
ここで図面を参照すると、表示は1つ以上の例示の実施例を示す目的であり、それに限定する目的ではなく、図1は、繰り返し補間及びワーピングにより奥行マップを生成する例示のシステム100の概略図を示している。システム100の構成要素、並びに本明細書で議論される他のシステム、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャは、様々な実施形態で組み合わされ、除外され、又は異なるアーキテクチャに編成されてよい。更に、システム100及び/又はシステム100の1つ以上の構成要素は、いくつかの実施形態では、車両又は車両システム(例えば、インフォテインメントシステム、ナビゲーションシステム、車両ヘッドユニット)(図示なし)と共に実装されてよい。
図1の図示した実施形態では、システム100は、システム100の様々な構成要素と共に処理、通信、及び相互作用を行う装置を備えたコンピュータ102を含む。通常、コンピュータ102は、プロセッサ104、メモリ106、ディスク108、及び通信インターフェース110を含み、これらはバス112を介したコンピュータ通信のためにそれぞれ動作可能に接続される。コンピュータは、いくつかの実施形態において、例えば、特に、ECU、車両ヘッドユニット、イメージングシステムなど、車両(図示なし)と一体化されているか又は関連付けられている。通信インターフェース112は、コンピュータ102と、本明細書に記載される、他の構成要素、ネットワーク、及びデータ源との間のデータ入力及び出力を容易にするように、ソフトウェア及びハードウェアを提供する。加えて、本明細書で議論されるシステム及び方法により詳細に説明するように、プロセッサ104は、推定奥行マップモジュール118及び奥行マップ改良モジュール120を含む。
コンピュータ102はまた、撮像デバイス114及び表示デバイス116とのコンピュータ通信のために動作可能に接続される。撮像デバイス114は、1台以上のカメラを含んでよい。撮像デバイス114は、視覚の一対の画像を得る。一対の画像は、視覚の第1画像及び第2画像であってよい。例えば、一対の画像は、視覚の左画像及び右画像であってよい。撮像デバイス114は、視覚に関する画像データの取得及び/又は取り込みを行う任意のタイプのデバイスであってよい。例えば、撮像デバイス114は、特に、1台以上の立体カメラ、3Dカメラ、2Dカメラ、移動奥行カメラ、ビデオカメラ、CCDカメラ、CMOSカメラ、ポータブルデバイスカメラであってよい。車両内で、撮像デバイス114は、例えば前方監視カメラなど、車両の内側、又は車両の外側に位置してよい。他の実施形態では、撮像デバイス114は、1つ以上のポータブルデバイス(図示なし)からコンピュータ102へのコンピュータ通信のために動作可能に接続される1つ以上の撮像デバイスを含んでよい。更なる実施形態では、一対の画像は、ネットワーク(図示なし)、データベース(図示なし)、又は撮像デバイスから取得された一対の画像を記憶する他のデバイスから取得されてよい。
図1に示す実施形態では、表示デバイス116は、コンピュータ102からの情報を受信及び/又は表示する入力及び/又は出力デバイスを含んでよい。例えば、表示デバイス116は、特に、画像表示画面、タッチ表示画面、ポータブルデバイスのディスプレイ、車両内のディスプレイ、ヘッドアップ表示装置、LCDディスプレイであってよい。いくつかの実施形態では、本明細書で議論される方法及びシステムで処理された奥行マップ及び画像は、表示デバイス116上に表示されてよい。
図1の推定奥行マップモジュール118及び奥行マップ改良モジュール120は、例示の実施形態に従って奥行マップを精製する例示のシステムに関して、ここで詳細に議論される。推定奥行マップモジュールは、プロセッサに第1画像の初期奥行マップを生成させる。第1画像は、例えば撮像デバイス114など、撮像デバイスから受信された画像シーン(例えば、同じ画像シーン)の一対のステレオ画像の1つである。一対のステレオ画像は、画像シーンの第1画像及び第2画像を含む、いくつかの実施形態では、第1画像は左画像(例えば、画像シーンの左視点を示す画像)であり、第2画像は右画像(例えば、画像シーンの右透視点を示す画像)であり、あるいは逆もまた同様である。本明細書で議論される例示のシステム及び方法は、第1画像が左画像、第2画像が右画像であるとして記載されるものの、上述のように他の実装が想到される。更に、いくつかの実施形態で、第1画像及び第2画像はカラーステレオ画像であり、システム100は、カラーステレオ画像をグレースケール(例えば、1チャネル画像)に変換できる、又はシステム100は、ステレオ画像をカラーで処理することができることが理解される。
一対のステレオ画像は、図2a及び2bに関してここで議論される。図2aは、若干傾斜した表面に対する標準の局所的ブロックマッチングの例示の実施例である。図2aは、画像シーンの第1画像(例えば、左画像、L)202a及び画像シーンの第2画像(例えば、右画像、R)202bを含む。図2a及び2bで、画像シーンは、例えば、車両の前方監視カメラ(例えば、撮像デバイス114)による取り込みなどのストリートビューである。第1画像202a及び第2画像202bで、ストリート204a(例えば、画像シーン内の物体)は、両方のカメラ(例えば、視点)の像平面に対して傾斜している。図2aに示すように、ブロック206aは、第1画像202aにおいて局所的ブロックマッチング法により計算され、そのブロック206aは、ストリート204aを含む。ブロック206bは、ブロック206aに基づき、第2画像202bにおいて局所的ブロックマッチングにより計算される。図2aで対応するブロック(即ち、ブロック206a及びブロック206b)間の視差値は、第2画像202b内のストリート204aの大きく傾斜した表面のためもあって、大きく変化する。これは、対応するブロックの大きな相違につながり、この相違は、不正確な相関値、並びにブロック206a及びブロック206bに基づき生成された奥行マップ内の不正確な又は欠落した奥行の領域をもたらす場合がある。
図2aと対照的に、図2bは、繰り返し補間及びワーピングにより奥行マップを生成する例示の実施形態による、若干傾斜した表面に対する局所的ブロックマッチングの例示の実施例である。図2aと同様に、図2bは、画像シーンの第1画像(例えば、左画像、L)210a及び画像シーンの第2画像(例えば、右画像、R)210bを含む。第1画像210a及び第2画像210bで、ストリート212a(例えば、画像シーン内の物体)は、大きく傾斜している。ただし、ストリートが異なる視点から見える図2aと異なり、推定奥行マップ(本明細書に記載されるような)を使用して、画像210bの視点を画像210aの視点に対応するように変更する。これは、本明細書で議論される例示の方法及びシステムと共に記載されるように、画像210bを得るためワーピング画像202bによって実現される。図2bに示すように、ブロック214aは、第1画像210aの局所的ブロックマッチング法により計算され、ストリート212aを含む。ブロック214bは、第2画像210bの局所的ブロックマッチング法により計算され、ブロック214aに基づいてワーピングされる。図2bで対応するブロック(即ち、ブロック214a及びブロック214b)間の視差値は、最小であり、第2画像210bがワーピングされることもあって、類似の対応するブロックをもたらす。結果的に、ブロック214a及びブロック213bに基づいて生成される奥行マップは、より正確になる。
図1を再び参照すると、推定奥行マップモジュール118は、初期奥行マップ内の欠落領域の奥行値を仮定することにより、初期奥行マップに基づいて推定奥行マップを生成する。欠落領域の奥行値は、例えば、水平直線補間及び/又は多方向の補間などの補間を使用して仮定(hypothosized)してもよく、そのことは、後で図3、4a、及び4bに関連して詳しく説明する。通常、初期奥行マップは、局所的ブロックマッチング法を使用した推定奥行マップモジュール118により生成され、推定奥行マップは、補間を用いて領域に欠落している奥行値を入れることによって推定奥行マップモジュール118により生成される。
例えば、図2bの第2画像210bにより示されるように、奥行マップ改良モジュール120により、推定奥行マップを使用して第2画像をワーピングすることができる。具体的には、奥行マップ改良モジュール120は、プロセッサ104に第2画像を推定奥行マップに基づいてワーピングさせる。奥行マップ改良モジュール120は、第1画像及びワーピングされた第2画像に基づきワーピングされた奥行マップを生成する。奥行マップ改良モジュール120は、ワーピングされた奥行マップ及び推定奥行マップに基づいて第2画像に対する第1画像の新規奥行マップを生成する。いくつかの実施形態では、奥行マップ改良モジュール120は、ワーピングされた奥行マップのワーピングを除去することによって新規奥行マップを生成する。奥行マップのワーピングの除去は、奥行マップ改良モジュール120が推定奥行マップ内の対応する画素とワーピングされた第2画像との間の視差を識別することを含む。視差は、次にワーピングされた奥行マップに付加され、それにより新規奥行マップを生成する。
一実施形態では、プロセッサ104は、推定奥行マップモジュール118及び奥行マップ改良モジュール120を繰り返し実行し、初期奥行マップを奥行マップ改良モジュール120によって出力された新規奥行マップで書き換える。更なる実施形態では、プロセッサ104は、推定奥行マップモジュール118及び奥行マップ改良モジュール120を、先の繰り返しからの奥行マップ(例えば、初期奥行マップであってもよい)と新規奥行マップの対応する値が一定に保たれると判断されるまで繰り返し実行する。繰り返し過程の詳細は、図3によって更に詳しく説明される。この繰り返し及びワーピングのアプローチは、奥行に誤りのある画素の割合を低く保ちながら、局所的方法用の有効な奥行の割合を増加させる。
前述の図1に図示されるシステム100は、ここで図3の方法に関連して説明される。図1に前述のシステム及び構成要素は、図3の方法と同様に実装されてよいことが理解されよう。図3の方法は、繰り返し補間及びワーピングによって奥行マップを生成する例示の方法を図示する。前述のとおり、図3の方法は、第1画像が画像シーンの左画像(L)であり、第2画像が画像シーンの右画像(R)である状態で議論されるが、他の実施形態において第1画像が右画像となり第2画像が左画像となり得ることが理解される。
ここで図3を参照すると、ブロック310で、方法は第1画像(即ち、左画像、L)、本明細書でDとして示される画像用の初期奥行マップの生成を含む。一実施形態では、図1の推定奥行マップモジュール118は、第1画像(即ち、左画像、L)用の初期奥行マップDを生成することができる。具体的には、初期奥行マップDは、第1画像用に生成され、この第1画像は撮像デバイスから受信された一対のステレオ画像の1つであり、一対のステレオ画像は第1画像及び第2画像を含む。図3で、左画像(即ち、第1画像)は、ブロック210で入力302として受信され、右画像(即ち、第2画像)はブロック310で入力304として受信される。左画像及び右画像は、例えば、図1の撮像デバイス114から取得される。
初期奥行マップDは、ワーピングされていない左画像及びワーピングされていない右画像(例えば、元の画像、L、R)から生成される。いくつかの実施形態では、初期奥行マップDは、局所的ブロックマッチング法を使用して生成される。加えて、例えば、左右確認及び/又は小さい視差領域の除去など、他の画像処理工程は、初期奥行マップDの生成後に適用されることがあることが理解される。更に、ループの繰り返しを示すカウンタITERはまた、ブロック310で入力306として受信される。入力306に示されるように、最初の繰り返しで、ITERは0にセットされる。図1のプロセッサ104は、カウンタITERを保持することができる。図3に示される方法で、ブロック310は、最初の繰り返しで実行される(即ち、ITER=0)。
いくつかの状況では、後処理テクニックを用いても、初期奥行マップDは、欠落した奥行(例えば、孔)のある領域を数多く有する。結果的に、図3を再び参照すると、ブロック312で、方法は、初期奥行マップ内の欠落領域の奥行値を仮定することによる、初期奥行マップに基づいて推定奥行マップを生成する工程を含む。推定奥行マップは、本明細書でDとして示される。一実施形態では、図1の推定奥行マップモジュール118は、初期奥行マップに基づいて推定奥行マップを生成する。本明細書でより詳細に説明されるように、ITER>0である場合、推定奥行マップは新規奥行マップ
Figure 2015149059

に基づいている。したがって、ITER>0である場合、
Figure 2015149059
欠落領域の奥行値の仮定は、例えば、ブロック314での補間によってなど、様々な方法で行われてよい。ブロック314で、ITERカウンタは、1ずつ増分され、例えば、プロセッサ104は、ITERカウンタを保持してよく、このITERカウンタを1ずつ増分する。更にブロック314では、奥行マップDは、推定奥行マップDを得るために補間される。一実施形態では、初期奥行マップ内の欠落領域の奥行値を仮定することによって、初期奥行マップに基づいて推定奥行マップを生成する工程は、水平方向の補間によって奥行値を推定する工程を含む。水平方向の補間では、各段は水平方向に直線状に埋められ、第1の左及び右の画素の間の補間は有効な視差エントリを有する。一実施形態では、第1の左及び右の画素の間の補間は視差値が所定の(predetermine)しきい値内であると判定したときに完了される。例えば、所定のしきい値は、例えば40ピクセルなどの画素数にセットすることができる。残りの画素は、近接する最小の視差で埋められる。
図4aは、水平直線補間に使用される例示の画素ブロック402の概略図である。図4aでは、画素ブロック402は、座標(1a,1a)を起点とし、座標(100a,100a)まで延在する10×10の画素ブロックである。図4aに示される黒ドット(例えば、黒ドット404)は、値を有する画像の画素である。画素ブロック402を有する第1画像が、例えば、図1の表示デバイス116に補間なしで表示されたとすると、値を有さない画素がいくつか存在するため、欠落した画素及び領域が存在する。例えば、座標(1a,2a)の画素は、値を有さない。値を有さない画素ブロック402内の画素を補間することができ、図4aに図示された実施例では、これらの画素は、矢印406によって示されるように水平直線補間を使用して補間される。結果的に、一実施形態では、プロセッサ104は、画素ブロック402から選択した画素を使用して値が欠落している画素の値を補間する。この実施形態では、例えば、座標(6a,5a)に位置する画素の値を、左側の画素(例えば(6a,4a))の有効な視差値及び右側の画素(例えば(6a,6a))の有効な視差値を使用して補間することができる。水平直線補間を、各段若しくは段の部分集合及び/又は画素に適用することができる。
別の実施形態では、初期奥行マップ内の欠落領域の奥行値を仮定することによって、初期奥行マップに基づいて推定奥行マップを生成する工程は、多方向の直線補間によって奥行値を推定する工程を含む。多方向の直線補間は、繰り返しに基づいてもよい(即ち、ITER)。更に、一実施形態では、繰り返しの方向は、繰り返しのたびに変わる。例えば、繰り返しの方向は、繰り返しの回数によって180度の周りに分散される。例えば、2回繰り返しの場合、1回目の繰り返し(即ち、ITER=1)は0度の水平方向で、2回目の繰り返し(即ち、ITER=2)は90度の垂直方向である。4回繰り返しの場合は、1回目の繰り返し(即ち、ITER=1)は0度の水平方向で、2回目の繰り返し(即ち、ITER=2)は90度の垂直方向で、3回目の繰り返し(即ち、ITER=3)は45度で、4回目の繰り返し(即ち、ITER=4)は135度である。残りの画素は、近接する最小の視差で埋められてよい。
図4bは、例示の多方向の直線補間によって使用される例示の画素ブロック408の概略図である。図4bでは、画素ブロック408は、座標(1b,1b)を起点とし、座標(100b,100b)まで延在する10×10の画素ブロックである。図4bに示される黒ドット(例えば、黒ドット410)は、値を有する画像の画素である。画素ブロック408を有する第1画像が、例えば、図1の表示デバイス116に補間なしで表示されたとすると、値を有さない画素がいくつか存在するため、欠落した画素及び領域が存在する。例えば、座標(1b,2b)の画素は、値を有さない。値を有さない画素ブロック408内の画素を補間してよく、図4bの実施例では、これらの画素は、繰り返しに基づく多方向の直線補間を使用して補間される。例えば、1回目の繰り返しi(即ち、ITER=1)では、補間は0度の水平方向である。2回目の繰り返しi(即ち、ITER=2)では、補間は90度の垂直方向である。3回目の繰り返しi即ち、(ITER=3)では、補間は45度である。4回目の繰り返しi(即ち、ITER=4)では、補間は135度である。多方向の直線補間が1つ以上の補間を含み、4回を超える繰り返しを含むことができることが理解される。多方向の直線補間を、各段若しくは段の部分集合及び/又は画素に適用することができる。
図3を再び参照すると、工程316で、方法は、推定奥行マップDに基づいて第2画像をワーピングする工程を含む。一実施形態では、奥行マップ改良モジュール120は、推定奥行マップDに基づいて第2画像をワーピングする。具体的には、一実施形態では、推定奥行マップDを使用して、新規画像Rを得るために右画像(R)をワーピングする。具体的には、推定奥行マップに基づいて第2画像をワーピングする工程は、推定奥行マップ内の対応する画素の強度に基づいて第2画像内の1つ以上の画素の強度を判定する工程を含む。言い換えれば、新画像Rを生成するために、画素位置(x,y)(R(即ち、元の右画像)からのR内)の強度は、次のように計算される。
Figure 2015149059
図3を再び参照すると、ブロック318で、方法は、第1画像及びワーピングされた第2画像に基づいてワーピングされた奥行マップを生成する工程を含む。ワーピングされた奥行マップは、本明細書でDとして示される。一実施形態では、奥行マップ改良モジュール120は、第1画像及びワーピングされた第2画像に基づきワーピングされた奥行マップを生成する。図3に例示した実施形態では、ワーピングされた奥行マップは、左画像L及びワーピングされた右画像Rに基づく。このように、第2画像(即ち、R)のワーピング後、新規画像の一対(L,R)の間の差は低減される。結果的に、新規画像の対は互いにより類似しているため、新規画像の対に基づく新規視差マップ(即ち、D)は、視点による効果が発生しやすい。
左画像とワーピングされた右画像との間の対応を発見すると、正負の視差が探索される。特に、Dにおける視差の推定は一部の画素の実際の視差より高くなることがあり、結果としてワーピングされた右画像内の画素は右側に多くシフトされ過ぎていた場合があるため、負の視差が探索される。このように、一実施形態では、視差探索範囲全体は、各繰り返しに対し変更されてよい。例えば、視差探索範囲は、次の繰り返しで縮小することができる。例示の実施例のように、元の探索範囲は、0〜128画素であってよく、それに対し、その後の繰り返しにおける探索範囲は、−8〜8画素と低くなってよい。加えて、例えば、左右確認及び小さい視差領域の除去など他の後処理工程をワーピングされた視差マップに適用することがあることが理解される。
ブロック320で、方法は、ワーピングされた奥行マップ及び推定奥行マップに基づく第2画像に対する第1画像の新規奥行マップを生成する工程を含む。新規奥行マップは、
Figure 2015149059

として示される。一実施形態では、新規奥行マップを生成する工程は、ブロック322でワーピングされた奥行マップのワーピングを除去する工程を含む。図3に図示された実施形態では、ワーピングされた奥行マップDは、左画像内の画素をワーピングされた右画像(即ち、R)内の画素に関連付ける視差を含有する。したがって、ワーピングされた奥行マップは、元の右画像に対する奥行値を得て、その後新規奥行マップを生成するために「ワーピングされていない」必要がある。
一実施形態では、ワーピングされた奥行マップのワーピングを除去する工程は、推定奥行マップ及びワーピングされた第2画像における対応する画素間の視差を識別する工程と、ワーピングされた奥行マップへの視差を付加する工程と、を含む。具体的には、ワーピングされた右画像内の対応する画素がシフトされた視差は、Dに付加され、ワーピングされた右画像は次のように補間された奥行マップを使用して取得されたので、Dとした補間された奥行マップが使用される。
Figure 2015149059
一実施形態では、新規奥行マップはまた、複数回の繰り返しにわたる誤差の蓄積を防ぐため、更にフィルター処理されてよい。具体的には、推定奥行マップ内の画素の値は、ブロック324で示すように推定奥行マップ内の画素の値がワーピングされた奥行マップ内の画素の値と整合するかどうかに基づいて、拒否されるか又は受け入れられる。一実施形態では、新規奥行マップを確認して、新規奥行マップがブロック314で局所的ブロックマッチングの元の探索範囲外に視差を有さないようにする。更に、最後の繰り返し(即ち、2回の後処理確認後)で正しい推定奥行値を有する画素は、それらの最後の値が再度割り当てられ、現在の繰り返しの1回目に計算された奥行値を有した画素は、それらが補間された(例えば、推定された)奥行値のしきい値内にある場合のみ、それらの奥行値を維持することができる。例えば、
Figure 2015149059

は、次の場合にのみ受け入れられる。
Figure 2015149059

式中tは、例えば、0.5ピクセルなど所定の値の画素である。結果的に、より古い視差が好ましく、補間された視差と整合しない視差は破棄される。
図3の方法を再度参照すると、図3のブロックは、繰り返し実行されてもよい。特に、次の繰り返しでは、奥行マップD(初期奥行マップであってもよい)は、ブロック320で生成された新規奥行マップ
Figure 2015149059

と置き換えられる。一実施形態では、図3のブロックは、一定の繰り返し回数で繰り返し実行される。ブロック326で示されるように、ITERは、<=MAX_ITERであるかどうかが判定され、式中MAX_ITERは、所定の値である。YESの場合、方法はブロック312に続き、推定奥行マップDを生成する。NOの場合、方法は終了し、一実施形態ではブロック340で、例えばディスプレイ116(図1)に新規奥行マップを出力する。いくつかの実施形態では、新規奥行マップを出力して、更に処理してもよい。
別の実施形態では、方法は、ブロック328で、新規奥行マップ
Figure 2015149059

と先の繰り返しからの奥行マップDと比較する工程を含む。方法は、新規奥行マップ
Figure 2015149059

と先の奥行マップDとの間の対応する値が一定であると判断されるまで、繰り返し継続する。ブロック328で、新規奥行マップと初期奥行マップとの間の対応する値が、一定でない(NO)場合、方法は、ブロック312に続き、推定奥行マップDを生成する。ブロック328で、新規奥行マップと先の奥行マップとの間の対応する値が一定である(YES)場合、方法は終了し、一実施形態ではブロック326で、例えばディスプレイ116に新規奥行マップを出力する。いくつかの実施形態では、新規奥行マップが出力であり、更に処理されてよい。この繰り返し及びワーピングのアプローチは、奥行に誤りのある画素の割合を低く保ちながら、局所的方法用の有効な奥行の割合を増加させる。
ここで図5a〜5dを参照すると、本明細書で議論されるシステム及び方法の例示の結果がこれから記述される。図5aは、例示の左ステレオ画像である。例えば、図2bの第1画像210a及び/又は図3内の入力302として受信された左画像である。図5aの左ステレオ画像は、例えば、車両の前方監視カメラから(例えば、撮像デバイス114から)取りこまれたストリートビューである。図5aの左ステレオ画像は、グレースケールで再現された。図5bは、例えば、図2aを用いて説明されるように、標準の局所的ブロックマッチング法を使用した図5aの左ステレオ画像の例示の視差マップである。図5cは、本明細書で議論される繰り返し補間及びワーピングのシステム及び方法による1回繰り返し後の図5aの左ステレオ画像の例示の視差マップである。図5cに示されるように、図5bの視差マップと比較して道路の奥行推定における著しい改善及び建物に対するいくつかの改善がある。いくつかの実施形態では、密度は1回の繰り返し後、平均7〜13%だけ増加し得ることが発見された。図5dは、本明細書で議論される繰り返し補間及びワーピングのシステム及び方法による8回繰り返し後の図5aの左ステレオ画像の例示の視差マップである。図5dに示されるように、画像の左側の道路、建物、及び茂みの奥行推定に著しい改善がある。結果的に、この繰り返し及びワーピングのアプローチは、奥行に誤りのある画素の割合を低く保ちながら、局所的方法用の有効な奥行の割合を増加させる。
本明細書で議論した実施形態は、コンピュータで実行可能な命令を格納する非一時的なコンピュータ読み取り可能な記憶媒体の文脈において記載しかつ実施することもできる。非一時的なコンピュータ読み取り可能な記憶媒体は、コンピュータ記憶媒体及び通信媒体を含む。例えば、フラッシュメモリドライブ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、フロッピー(登録商標)ディスク及びテープカセットである。非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータで読み取り可能な命令、データ構造、モジュール、又は他のデータといった、情報の記憶のための任意の方法又は技術において実装される、揮発性及び不揮発性、取り外し可能及び取り外し不可能な媒体を含んでよい。非一時的なコンピュータ読み取り可能な記憶媒体は、一時的なデータ信号及び伝播されたデータ信号を除外する。
上で開示される種々の実装例、並びに他の特性及び機能、又はその代替案若しくは変形は、多くの他の異なるシステム又は適用に望ましく組み合わせられ得ることが理解されよう。また、種々の現在予期されていない、若しくは予想されていない代替案、修正、変形、又は改善が、後に当業者によって行われてもよく、それらも、以下の特許請求の範囲によって包含されるよう意図される。

Claims (20)

  1. 奥行マップを生成するコンピュータ実装方法であって、
    第1画像の初期奥行マップを生成する工程であって、前記第1画像が撮像デバイスから受信された一対のステレオ画像の1つであり、該一対のステレオ画像が、前記第1画像及び第2画像を含む、工程と、
    前記初期奥行マップ内の欠落領域の奥行値を仮定することにより、前記初期奥行マップに基づいて推定奥行マップを生成する工程と、
    該推定奥行マップに基づいて前記第2画像をワーピングする工程と、
    前記第1画像及び前記ワーピングされた第2画像に基づいてワーピングされた奥行マップを生成する工程と、
    該ワーピングされた奥行マップ及び前記推定奥行マップに基づいて前記第2画像に対する前記第1画像の新規奥行マップを生成する工程と、を含む、方法。
  2. 請求項1が繰り返し実行され、前記初期奥行マップが、各繰り返しにおける前記新規奥行マップと置き換えられる、請求項1に記載のコンピュータ実装方法。
  3. 請求項1が一定の繰り返し回数で繰り返し実行される、請求項2に記載のコンピュータ実装方法。
  4. 前記新規奥行マップと前記初期奥行マップとを比較する工程を含み、前記新規奥行マップと前記先の奥行マップとの間の対応する値が一定であると判断されるまで、請求項1が繰り返し実行される、請求項2に記載のコンピュータ実装方法。
  5. 前記初期奥行マップ内の欠落領域の奥行値を仮定することにより、前記初期奥行マップに基づいて前記推定奥行マップを生成する工程が、水平直線補間により奥行値を仮定する工程を含む、請求項1に記載のコンピュータ実装方法。
  6. 前記初期奥行マップ内の欠落領域の奥行値を仮定することにより、前記初期奥行マップに基づいて前記推定奥行マップを生成する工程が、前記繰り返しに基づく多方向の補間により奥行値を仮定する工程を含む、請求項2に記載のコンピュータ実装方法。
  7. 前記補間の方向が繰り返しごとに変化する、請求項6に記載のコンピュータ実装方法。
  8. 前記推定奥行マップに基づいて前記第2画像をワーピングする工程が、前記推定奥行マップ内の対応する画素の強度に基づいて前記第2画像内の1つ以上の画素の強度を判定する工程を含む、請求項1に記載のコンピュータ実装方法。
  9. 前記新規奥行マップを生成する工程が前記ワーピングされた奥行マップのワーピングを除去する工程を含む、請求項1に記載のコンピュータ実装方法。
  10. 前記ワーピングされた奥行マップのワーピングを除去する工程が、前記推定奥行マップ及び前記ワーピングされた第2画像における対応する画素間の視差を識別する工程と、前記ワーピングされた奥行マップに該視差を付加する工程を含む、請求項9に記載のコンピュータ実装方法。
  11. プロセッサによって実行されるとき、奥行マップを生成する方法であって、
    初期奥行マップを第1画像用に生成する工程であって、該第1画像が撮像デバイスから受信された画像シーンの一対のステレオ画像の1つであり、該一対のステレオ画像が前記第1画像及び第2画像を含む、工程と、
    前記初期奥行マップ内の欠落領域の奥行値を仮定することによって、該初期奥行マップに基づいて推定奥行マップを生成する工程と、
    該推定奥行マップに基づいて前記第2画像をワーピングする工程と、
    前記第1画像及び前記ワーピングされた第2画像に基づいてワーピングされた奥行マップを生成する工程と、
    前記ワーピングされた奥行マップ及び前記推定奥行マップに基づいて前記第2画像に対する前記第1画像の新規奥行マップを生成する工程と、を含む、方法を実行する命令を含む、非一時的なコンピュータで読み取り可能な媒体。
  12. 前記プロセッサが請求項11を繰り返し実行し、各繰り返しにおいて前記初期奥行マップを前記新規奥行マップで書き換える、請求項11に記載の非一時的なコンピュータで読み取り可能な媒体。
  13. 前記先の繰り返しからの前記奥行マップと比較したとき、前記新規奥行マップの値が一定に保たれていると前記プロセッサが判断するまで、前記プロセッサが請求項11を繰り返し実行する、請求項11に記載の非一時的なコンピュータで読み取り可能な媒体。
  14. 新規奥行マップを生成する工程が前記ワーピングされた奥行マップのワーピングを除去する工程を含む、請求項11に記載の非一時的なコンピュータで読み取り可能な媒体。
  15. 前記ワーピングされた奥行マップのワーピングを除去する工程が、前記推定奥行マップ及び前記ワーピングされた第2画像における対応する画素間の視差を識別する工程と、前記ワーピングされた奥行マップへ視差を付加する工程と、を含む、請求項14に記載の非一時的なコンピュータで読み取り可能な媒体。
  16. 奥行マップを生成するコンピュータシステムであって、
    プロセッサと、
    該プロセッサに第1画像用の初期奥行マップを生成させる推定奥行マップモジュールであって、前記第1画像が、撮像デバイスから受信された画像シーンの一対のステレオ画像の1つであり、該一対のステレオ画像が、前記第1画像及び第2画像を含み、前記初期奥行マップ内の欠落領域の奥行値を仮定することにより前記初期奥行マップに基づいて推定奥行マップを生成する、推定奥行マップモジュールと、
    前記推定奥行マップに基づいて前記プロセッサに前記第2画像をワーピングさせる奥行マップ改良モジュールであって、前記第1画像及び前記ワーピングされた第2画像に基づいてワーピングされた奥行マップを生成し、該ワーピングされた奥行マップ及び前記推定奥行マップに基づいて前記第2画像に対する前記第1画像用の新規奥行マップを生成する、奥行マップ改良モジュールと、を含むコンピュータシステム。
  17. 前記プロセッサが、前記推定奥行マップモジュール及び前記奥行マップ改良モジュールを繰り返し実行し、前記初期奥行マップを前記奥行マップ改良モジュールによって出力された前記新規奥行マップで書き換える、請求項16に記載のシステム。
  18. 前記プロセッサが、前記推定奥行マップモジュール及び前記奥行マップ改良モジュールを、初期奥行マップと前記新規奥行マップの対応する値が一定に保たれると判断されるまで繰り返し実行する、請求項16に記載のシステム。
  19. 前記奥行マップ改良モジュールが、前記ワーピングされた奥行マップのワーピングを除去する、請求項16に記載のシステム。
  20. 前記奥行マップのワーピングを除去する工程が、前記奥行マップ改良モジュールで前記推定奥行マップ及び前記ワーピングされた第2画像における対応する画素間の視差を識別する工程を含み、前記ワーピングされた奥行マップへ視差を付加する、請求項19に記載のシステム。
JP2014228303A 2014-02-08 2014-11-10 繰り返し補間及びワーピングにより奥行マップを生成するシステム及び方法 Active JP6601935B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201461937496P 2014-02-08 2014-02-08
US61/937,496 2014-02-08
US14/297,792 US9336604B2 (en) 2014-02-08 2014-06-06 System and method for generating a depth map through iterative interpolation and warping
US14/297,792 2014-06-06

Publications (2)

Publication Number Publication Date
JP2015149059A true JP2015149059A (ja) 2015-08-20
JP6601935B2 JP6601935B2 (ja) 2019-11-06

Family

ID=53775359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014228303A Active JP6601935B2 (ja) 2014-02-08 2014-11-10 繰り返し補間及びワーピングにより奥行マップを生成するシステム及び方法

Country Status (4)

Country Link
US (1) US9336604B2 (ja)
JP (1) JP6601935B2 (ja)
CN (1) CN104835136B (ja)
DE (1) DE102015201953A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100705A (ja) * 2015-12-01 2017-06-08 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH ステレオカメラセンサを用いた車両用の予測的サスペンション制御
JP2020525912A (ja) * 2017-07-06 2020-08-27 ヒューマンアイズ テクノロジーズ リミテッド デジタル画像を適応的にスティッチするシステムおよび方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101676656B1 (ko) * 2014-12-22 2016-11-16 현대모비스 주식회사 장애물 검출 장치 및 장애물 검출 방법
US10097805B2 (en) * 2015-10-13 2018-10-09 Apple Inc. Multi-image color refinement with application to disparity estimation
EP3185208A1 (en) * 2015-12-22 2017-06-28 Thomson Licensing Method for determining missing values in a depth map, corresponding device, computer program product and non-transitory computer-readable carrier medium
CN106952310A (zh) * 2016-01-29 2017-07-14 法拉第未来公司 用于确定能见度状态的系统及方法
WO2018098789A1 (en) * 2016-12-01 2018-06-07 SZ DJI Technology Co., Ltd. Method and system for detecting and tracking objects using characteristic points
GB2561525B (en) * 2016-12-22 2020-06-10 Canon Kk Generation of depth maps for 3D image reconstruction
CN109426760A (zh) * 2017-08-22 2019-03-05 聚晶半导体股份有限公司 一种道路图像处理方法与道路图像处理装置
CN109472180A (zh) * 2017-09-07 2019-03-15 聚晶半导体股份有限公司 道路图像处理方法与道路图像处理装置
CN108845975B (zh) * 2018-06-22 2021-04-13 深圳大学 一种基于阵列天线的相位恢复方法
CN112396671B (zh) * 2019-08-16 2024-01-30 北京字节跳动网络技术有限公司 水波纹效果实现方法、装置、电子设备和计算机可读存储介质
US11532165B2 (en) * 2020-02-26 2022-12-20 GM Global Technology Operations LLC Natural surround view
US11704804B2 (en) * 2020-04-02 2023-07-18 GE Precision Healthcare LLC Domain adaptation using post-processing model correction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04329481A (ja) * 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 3次元データ獲得方法及び3次元データ獲得装置
JP2006065472A (ja) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd 3次元モデル生成装置および方法
US20140002605A1 (en) * 2012-06-27 2014-01-02 Imec Taiwan Co. Imaging system and method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6377712B1 (en) * 2000-04-10 2002-04-23 Adobe Systems Incorporated Iteratively building displacement maps for image warping
US7161606B2 (en) 2003-09-08 2007-01-09 Honda Motor Co., Ltd. Systems and methods for directly generating a view using a layered approach
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US8384763B2 (en) 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
EP2050067A1 (en) 2006-08-03 2009-04-22 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
WO2009013682A2 (en) * 2007-07-26 2009-01-29 Koninklijke Philips Electronics N.V. Method and apparatus for depth-related information propagation
EP2334089A1 (en) * 2009-12-04 2011-06-15 Alcatel Lucent A method and systems for obtaining an improved stereo image of an object
US8605992B2 (en) 2011-04-08 2013-12-10 Microsoft Corporation Image completion using scene geometry
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
US20130127988A1 (en) * 2011-11-17 2013-05-23 Sen Wang Modifying the viewpoint of a digital image
JP5303692B1 (ja) 2011-11-28 2013-10-02 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
CN102572488A (zh) * 2012-02-16 2012-07-11 友达光电股份有限公司 立体图像生成系统
US9838669B2 (en) * 2012-08-23 2017-12-05 Stmicroelectronics (Canada), Inc. Apparatus and method for depth-based image scaling of 3D visual content
EP2775723A1 (en) * 2013-03-07 2014-09-10 imcube labs GmbH Method, apparatus and computer program for generating a multiview image-plus-depth format

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04329481A (ja) * 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 3次元データ獲得方法及び3次元データ獲得装置
JP2006065472A (ja) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd 3次元モデル生成装置および方法
US20140002605A1 (en) * 2012-06-27 2014-01-02 Imec Taiwan Co. Imaging system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
服部 寛: ""物体表面の勾配を考慮したステレオマッチング"", 情報処理学会論文誌, vol. Vol.42, No.SIG 6(CVIM 2), JPN6018040751, 15 June 2001 (2001-06-15), JP, pages 22 - 32, ISSN: 0004111238 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100705A (ja) * 2015-12-01 2017-06-08 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH ステレオカメラセンサを用いた車両用の予測的サスペンション制御
JP2020525912A (ja) * 2017-07-06 2020-08-27 ヒューマンアイズ テクノロジーズ リミテッド デジタル画像を適応的にスティッチするシステムおよび方法

Also Published As

Publication number Publication date
CN104835136A (zh) 2015-08-12
CN104835136B (zh) 2019-06-11
US20150228079A1 (en) 2015-08-13
US9336604B2 (en) 2016-05-10
JP6601935B2 (ja) 2019-11-06
DE102015201953A1 (de) 2015-08-27

Similar Documents

Publication Publication Date Title
JP6601935B2 (ja) 繰り返し補間及びワーピングにより奥行マップを生成するシステム及び方法
JP6799169B2 (ja) マルチモーダル融合による3dオブジェクト検出と配向推定の結合
JP2019509552A (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
JP5425897B2 (ja) 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法
US9454851B2 (en) Efficient approach to estimate disparity map
JP4943034B2 (ja) ステレオ画像処理装置
CN111627001B (zh) 图像检测方法及装置
CN111369617B (zh) 一种基于卷积神经网络的单目视图的3d目标检测方法
CN111539484B (zh) 训练神经网络的方法及装置
CN102422644A (zh) 用于由至少两个借助于立体摄像机系统拍摄的输入图像确定深度信息的图像处理方法
EP3293700B1 (en) 3d reconstruction for vehicle
JP2016119085A (ja) 障害物検出装置および障害物検出方法
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
WO2021110497A1 (en) Estimating a three-dimensional position of an object
JP2016206774A (ja) 立体物検出装置及び立体物検出方法
CN105389790B (zh) 为立体匹配校正插值系数的装置、方法和计算机可读介质
CN112818932A (zh) 图像处理方法、障碍物检测方法、装置、介质及车辆
CN107770512B (zh) 通过匹配立体图像而产生视差图的系统和方法
CN111762155B (zh) 车用测距系统及方法
US20230394690A1 (en) Method for obtaining depth images for improved driving safety and electronic device
CN115063772B (zh) 一种车辆编队后车检测方法、终端设备及存储介质
US20240169668A1 (en) Computer-implemented method for creating a three-dimensional virtual model of an environment of a motor vehicle
US20230419682A1 (en) Method for managing driving and electronic device
US20230386231A1 (en) Method for detecting three-dimensional objects in relation to autonomous driving and electronic device
US20230401733A1 (en) Method for training autoencoder, electronic device, and storage medium

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160411

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171019

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190814

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6601935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250