JP2019509552A - コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 - Google Patents

コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 Download PDF

Info

Publication number
JP2019509552A
JP2019509552A JP2018540453A JP2018540453A JP2019509552A JP 2019509552 A JP2019509552 A JP 2019509552A JP 2018540453 A JP2018540453 A JP 2018540453A JP 2018540453 A JP2018540453 A JP 2018540453A JP 2019509552 A JP2019509552 A JP 2019509552A
Authority
JP
Japan
Prior art keywords
distance
image
detection window
detection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018540453A
Other languages
English (en)
Other versions
JP6942712B2 (ja
Inventor
アイヴァシィ アルパー
アイヴァシィ アルパー
ハイゼル ベルンド
ハイゼル ベルンド
ヂアン ヂィンリィン
ヂアン ヂィンリィン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2019509552A publication Critical patent/JP2019509552A/ja
Application granted granted Critical
Publication of JP6942712B2 publication Critical patent/JP6942712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】【解決手段】車両付近において部分的に遮られる物体(例えば、歩行者)の検出を検証するシステム及び方法が提供される。画像入力装置は周囲の画像及び/又はビデオをキャプチャする。物体検出器は、受け取った画像情報において、部分的に遮られた歩行者及び他の物体を検出する。部分的に遮られた歩行者の検出ウィンドウが遮蔽物体の検出ウィンドウと重なっており、前記遮蔽物体のウィンドウが、前記部分的に遮られた物体のウィンドウよりも、画像入力装置に近い場合、部分的に遮られた歩行者の検出が確証される。さらに、LIDAR装置のような測距センサは、部分的に遮られた物体の方向に位置する物体までの距離を決定する。部分的に遮られた物体の方向に位置する他の物体のうちの1つの物体の距離が部分的に遮られた物体の距離よりも小さい場合、部分的に遮られた物体の検出が確証される。【選択図】図2

Description

本出願は、2016年2月3日に出願され、本願の譲受人に譲渡された米国特許出願第15/015,033号(タイトル「コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出」と題する)の優先権を主張するものであり、該米国特許出願の全体は、ここでの開示により明確に本出願に組み込まれる。
本発明は、一般に運転者支援システムに関し、より詳細には、運転シーンにおける部分的に遮られた物体の検出システムに関する。
運転者支援システムは、一般に、運転中に運転者を助けるシステムである。運転者支援システムのいくつかの例には、車載ナビゲーションシステム、適応型クルーズコントロール(ACC)システム、車線逸脱警報システム、衝突回避システム、自動駐車システム及び死角検出システムが含まれるが、これらに限定されない。運転者支援システムは、車両及び道路の安全性を高めるために使用される。
運転者支援システムのような(これに限定されるものではないが)現代の車両システムは、コンピュータビジョンに基づいた歩行者検出に依存している。コンピュータビジョンに基づく検出システムでは、周囲からデータを収集するために車両にセンサを装備し、センサデータに基づいて判定を行うことができる。歩行者を検出するための典型的なセンサとしては、周囲の画像を撮像するカメラがある。歩行者は、運転シーンにおいて、車、木、潅木、標識等の物体によって部分的に遮られる場合がある。従って、車両システムは、部分的に遮られた歩行者を検出するために、コンピュータビジョン技術(computer vision techniques)、例えば歩行者の上半身画像に基づいて学習が行われた部分ベースモデル(part−based models)を使用することができる。
しかしながら、物体の一部の画像に対して学習が行われた画像ベースの検出器は、物体全体の画像に対して学習が行われた画像ベースの検出器よりも精度が低い場合がある。従って、当分野において、偽陽性の結果を低減するために、部分的に遮蔽された物体の検出が正確であるかどうかを検証する部分的に遮蔽された物体の検出システムの必要性が存在する。
一態様によれば、本開示は、車両に関連する第2の物体によって部分的に遮られた第1の物体の検出を検証するためのコンピュータで実行される方法及びシステムを提供する。検証が求められている車両の画像入力装置は、周囲の画像及び/又はビデオを取り込む。物体検出器は、受信された画像及び/又はビデオ情報において、部分的に遮られた物体(例えば、歩行者)等の第1の物体を検出し(学習済み部分ベースのモデル(例えば、歩行者の上半身画像のセット)を使用してもよい)、任意の遮蔽物体を含む第2の物体又は物体(例えば、車両)を検出する。1つの検証手順では、部分的に遮蔽された物体の検出ウィンドウと、他の物体のうちの1つの物体の検出ウィンドウとが重なっている又は近接している場合で、且つ、部分的に遮蔽された物体の検出ウィンドウの画像入力装置までの距離が、他の遮蔽物体の1つの検出ウィンドウの画像入力装置までの距離よりも長い場合、部分的に遮蔽された物体の検出が確証される。
別の検証手順によれば、車両上の測距センサは、物体検出器によって検出された部分的に遮られた歩行者の方向に位置する他の車両及び/又は他の遮蔽物体までの距離を決定する。部分的に遮蔽された物体(例えば、歩行者)の方向に位置する車両又は他の遮蔽物体のうちの1つの物体の距離が、画像入力装置に対する部分的に遮られた物体の検出ウィンドウの距離よりも小さい場合、部分的に遮蔽された歩行者の検出が確証される。
これらの態様のさらなる利点及び新規な特徴は、以下の説明に部分的に記載され、一部は、本開示の実施による以下を検討又は学習すれば、当業者には、より明らかになるであろう。
本開示の態様の特徴であると考えられる新規な特徴は、添付の特許請求の範囲に記載されている。以下の説明では、明細書全体にわたって同様の部材又は部品は同じ符号を付している。図面は必ずしも縮尺通りに描かれておらず、一部の図は明瞭且つ簡潔にするために誇張された形態又は一般化された形態で示されている。しかしながら、開示自体は、添付の図面と併せて読むと、開示の例示的な態様の以下の詳細な説明を参照することによって最もよく理解されるであろう。
図1は、本開示の態様による部分的に遮られた物体の検出のためのシステム及び方法を実施するための動作環境例の概略図である。 図2は、本開示の態様による、部分的に遮られた物体の検出に関連する様々な特徴の画像の例である。 図3は、本開示の態様による、地平面推定(ground plane estimation)を用いて部分的に遮られた物体の検出を検証するための方法のプロセスフロー例を示す図である。 図4は、本開示の態様による、深さ検出を使用して部分的に遮られた物体の検出を検証するための方法のプロセスフロー例を示す図である。
以下において、本明細書で使用される選択された用語の定義が示される。それら定義には、用語の範囲内にあり且つ実施するために使用され得る様々な例及び/又は構成要素の形態が含まれる。これらの例は、限定を意図しているものではない。
本明細書で使用される「バス」は、コンピュータ内部又はコンピュータ間において他のコンピュータ構成要素に動作可能に接続される相互接続アーキテクチャを指す。バスは、コンピュータ構成要素間でデータを転送することができる。バスは、特に、メモリバス、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスとすることができる。バスは、メディア指向システムトランスポート(Media Oriented Systems Transport)(MOST)、コントローラエリアネットワーク(CAN)、ローカル相互接続ネットワーク(LIN)等のプロトコルを使用して車両内の構成要素を相互接続する車両バスであってもよい。
本明細書で使用する「コンピュータ通信」は、2つ以上のコンピューティングデバイス(例えば、コンピュータ、携帯情報端末、携帯電話、ネットワークデバイス)間の通信を指し、例えば、ネットワーク転送、ファイル転送、アプレット転送、電子メール、ハイパーテキスト転送プロトコル(HTTP)転送等が含まれる。コンピュータ通信は、例えば、無線システム(例えば、IEEE802.11)、イーサネット(登録商標)システム(例えば、IEEE802.3)、トークンリングシステム(例えば、IEEE802.5)、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、ポイント・ツー・ポイント・システム、回線交換システム、パケット交換システム等を通じて行われる。
本明細書で使用される「ディスク」は、例えば、磁気ディスクドライブ、ソリッドステートディスクドライブ、フロッピーディスクドライブ、テープドライブ、Zipドライブ、フラッシュメモリカード、及び/又はメモリスティックを含み得る。さらに、ディスクは、CD−ROM(コンパクトディスクROM)、CD記録可能ドライブ(CD−Rドライブ)、CD書き換え可能ドライブ(CD−RWドライブ)、及び/又はデジタルビデオROMドライブ(DVD−ROMドライブ)であってもよい。ディスクは、コンピューティングデバイスのリソースを制御又は割り当てるオペレーティングシステムを格納することができる。
本明細書で使用される「データベース」又は「データベースリポジトリ」は、テーブル、テーブルのセット、データストアのセット及び/又はそれらのデータストアにアクセス及び/又はそれらのデータストアを操作するための方法を指す。いくつかのデータベースは、上で定義したようなディスクに組み込むことができる。
本明細書で使用される「メモリ」は、揮発性メモリ及び/又は不揮発性メモリを含むことができる。不揮発性メモリは、例えば、ROM(読み出し専用メモリ)、PROM(プログラム可能な読み出し専用メモリ)、EPROM(消去可能なPROM)及びEEPROM(電気的に消去可能なPROM)を含み得る。揮発性メモリは、例えば、RAM(ランダムアクセスメモリ)、シンクロナスRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDR SDRAM)及びダイレクトラムバスRAM(DRRAM)を含み得る。メモリは、コンピューティングデバイスのリソースを制御又は割り当てるオペレーティングシステムを格納することができる。
本明細書で使用される「モジュール」は、限定されないが、命令を格納する非一過性コンピュータ可読媒体、マシンで実行される命令、ハードウェア、ファームウェア、マシンで実行されるソフトウェア及び/又はそれらを組み合わせたものを含み、機能やアクションを実行させるために又は/及び別のモジュール、方法及び/又はシステムから機能やアクションを実行させる。モジュールはまた、ロジック、ソフトウェア制御マイクロプロセッサ、個別論理回路、アナログ回路、デジタル回路、プログラムされた論理デバイス、実行命令を含むメモリデバイス、論理ゲート、ゲートの組み合わせ、及び/又は他の回路構成要素を含む。複数のモジュールを1つのモジュールに結合し、単一のモジュールを複数のモジュールに分散してもよい。
「動作可能な接続」又は実体的なもの(entities)が「動作可能に接続される」接続は、信号、物理的通信、及び/又は論理的通信を送信及び/又は受信することができる接続である。動作可能な接続は、無線インターフェース、物理インターフェース、データインターフェース及び/又は電気インターフェースを含むことができる。
本明細書で使用される「プロセッサ」は、信号を処理し、一般的な計算及び算術機能を実行する。プロセッサによって処理される信号は、受信、送信、及び/又は検出可能な、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は他の特徴を含むことができる。一般に、プロセッサは、種々のプロセッサを含むことができる。例えば、複数のシングル及びマルチコアプロセッサ及びコプロセッサ並びに他の複数のシングル及びマルチコアプロセッサ及びコプロセッサアーキテクチャを含む。プロセッサは、様々な機能を実行するための様々なモジュールを含むことができる。
本明細書で使用される「車両」は、1又は複数の乗員を運ぶことができ、任意の形態のエネルギーによって動力が与えられる任意の移動車両を指す。用語「車両」には、以下に限定されないが、例えば、車、トラック、バン、ミニバン、SUV、オートバイ、スクーター、ボート、ゴーカート、娯楽用乗り物、鉄道、水上バイク、航空機が含まれる。場合によっては、自動車は、1つ又は複数のエンジンを含む。さらに、「車両」という用語は、1人以上の乗員を運ぶことができ、電気バッテリによって駆動される1つ又は複数の電気モータによって全体的に又は部分的に作動される電気自動車(EV)を指すことができる。EVには、バッテリ電気自動車(BEV)とプラグインハイブリッド電気自動車(PHEV)が含まれる。「車両」という用語はまた、任意の形態のエネルギーによって駆動される自律型車両及び/又は自動運転車両を指してもよい。自律型車両は、1人以上の人間の乗員を運搬してもよいし、運搬しなくてもよい。さらに、「車両」という用語は、所定の経路を自動で又は非自動で動く車両でもよいし、又は自由に動く車両でもよい。
1.システム概略
一般に、本明細書で開示されたシステム及び方法は、特に、車両近傍において、部分的に遮られた物体(例えば、歩行者、オートバイ運転者、自転車運転者、及び/又は動物)を検出し、偽陽性検出結果を減少させるために、部分的に遮られた物体の検出が正確であるかどうかを検証するものである。以下で示されるものは、1つ以上の例示的な態様を説明するためのものであり、限定する目的ではないが、図面を参照すると、図1は、部分的に遮蔽された物体の検出のためのシステム及び方法を実施するための動作環境100の概略図である。環境100の構成要素、並びに本明細書で記載される他のシステム、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャの構成要素は、組み合わされたり、省略されたり、組織化されたりすることで、種々の実施例のために異なるアーキテクチャとして構成されてよい。さらに、動作環境100の構成要素は、例えば、先進運転者支援システム(Advanced Driver Assistance System)(ADAS)による部分的に遮られた歩行者の検出のための車両(図示せず)と共に実装されてもよいし、関連付けられてもよい。
図1は、本開示の態様に従って使用可能な環境100の例を示す。環境100は、車両の種々の構成要素及び環境100の他の構成要素に対して処理、通信、相互対話を行うための設備を備えた車両コンピューティング装置102(VCD)を含む。一態様では、VCD102は、特に、テレマティクスユニット、ヘッドユニット、ナビゲーションユニット、インフォテイメントユニット、電子制御ユニット(図示せず)の一部として一体化することができる。他の態様では、VCD102の構成要素及び機能は、例えばポータブルデバイス(図示せず)又はネットワーク(例えば、ネットワーク144)を介して接続された別のデバイスの使用と連動して、少なくとも一部は車両の遠隔から実行されてもよい。
一般に、VCD102は、プロセッサ120と、メモリ106と、ディスク108と、部分ベースのボディ検出器(part−based body detector)110と、物体検出器112と、入力/出力(I/O)インターフェース140とを含む。これらはそれぞれ、バス104及び/又は他の有線及び/又は無線技術を介してコンピュータ通信可能に動作可能に接続されている。I/Oインターフェース140は、本明細書で説明されるように、VCD102の構成要素、他の構成要素、ネットワーク、及びデータソース間のデータ入力及び出力を容易にするソフトウェア及びハードウェアを提供する。さらに、プロセッサ120は、環境100の構成要素によって支援される、部分的に遮られた物体の検出の検証を行うのに適した第1検証モジュール122及び第2検証モジュール124を含む。
VCD102はまた、(例えば、バス104及び/又はI/Oインターフェース140を介して)コンピュータ通信可能に、1つ又は複数の車両システム130に動作可能に接続される。車両システムは、車両システム、運転及び/又は安全性を向上させるために使用され得る任意の自動システム又は手動システムを含み得るが、これに限定されない。例えば、車両システム130は、コンピュータビジョンに基づく歩行者検出を利用するADASを含むことができるが、これに限定されない。車両システム130は、種々の車両センサ(例えば、画像入力装置132)を有してもよいし、コンピュータ通信可能に、動作可能に接続されてもよい。該センサは、車両、車両環境、及び/又は車両システム130に関連する情報を提供及び/又は感知する。
画像入力装置132を含む得る物体検出器は、入力画像を受け取る。画像入力装置132は、画像及び/又はビデオをキャプチャする任意のタイプの画像センサ及び/又は画像装置でよい。いくつかの態様では、画像入力装置132は、車両システム130又はコンピュータビジョンシステム(図示せず)の一部である。他の態様では、画像入力装置132は、例えばネットワーク144を介してアクセスされる遠隔装置である。ネットワーク144は、例えば、データネットワーク、インターネット、ワイドエリアネットワーク又はローカルエリアネットワークを含むことができる。ネットワーク144は、種々の遠隔装置(例えば、データベース、ウェブサーバ、リモートサーバ、アプリケーションサーバ、仲介サーバ、クライアントマシン、他のポータブルデバイス)への通信媒体としての役割を果たすことができる。
VCD102はまた、深度センサ142及び前述のようにネットワーク144に、通信可能に、動作可能に結合されてもよい。I/Oインターフェース140から深度センサ142及びネットワーク144への接続は、様々な方法で容易にすることができる。例えば、ネットワーク接続(例えば、有線及び/又は無線)、ポータブルデバイス(図示せず)からのモバイルデータ通信ネットワーク(cellular data network)、車両−車両アドホックネットワーク(図示せず)、車載ネットワーク(図示せず)、又はそれらの任意の組み合わせを介して接続される。
深度センサ142は、車両の周囲の障害物を検出し、それらの障害物に対する距離測定を行う。深度センサ142は、限定するものではないが、光検出及び測距(LIDAR)センサ、ステレオカメラ、及び/又は無線検出及び測距(RADAR)等の任意のタイプの測距センサ及び/又は測距装置である。例えば、本開示の態様に従って使用可能な1つのタイプのLIDARセンサについては、物体からの反射は、点群(point cloud)の一部としてスキャン点として返される。スキャン点はそれぞれ、例えば、センサの視野において1/2度ごとに提供される。一態様では、車両は、車両の周りに360°までの視野を提供するために複数の深度センサ142を有してもよい。これらの複数の深度センサ142は、側方センサ、後方センサ、及び前方センサを含むことができる。各深度センサ142は、他の深度センサ142とは独立して、その視野内の物体を検出する。単一の深度センサ又は複数の深度センサ142からのスキャン点の戻りを用いて、点群が生成されて、車両の近傍の物体を検出する。複数の深度センサ142を備えた車両では、複数の点群が戻されてもよく、センサ視野が重なり合う場合、いくつかの深度センサ142は同じ物体を検出している場合がある。この場合、複数の深度センサ142の点群を組み合わせて、深度センサ142によって検出された同じ物体が単一の物体として処理されるようにする必要がある。いくつかの態様では、深度センサ142は、例えばネットワーク144を介してアクセスされる遠隔装置を含むことができる。他の態様では、深度センサ142は車両システム130の一部であってもよい。
図1に示すシステムを、本開示の態様による実施例に従って説明する。上述したように、この実施例のシステムは、画像入力装置132を含む。画像入力装置は、入力画像を受け取る。例えば、図1において、画像入力装置132は入力画像を受け取る。入力画像は、例えば、物体検出のための、1又は複数の歩行者又は他の物体を含む運転シーン画像を含むことができる。ここでより詳細に説明される図2は、例示的な入力画像202を示す。
図1に示されるように、部分ベースのボディ検出器110は、入力画像の1又は複数の身体一部検出ウィンドウを決定する。本明細書で説明されるように、身体一部検出ウィンドウは、学習済みモデル(trained model)(例えば、歩行者の上半身画像のセット)に基づいて部分的に遮られた物体(例えば、部分的に遮られた歩行者)の検出に使用される「スライディング」ウィンドウ(例えば、画像上に置かれた、長さ及び/又は幅が可変のボックス形状のウィンドウ)を含む。学習済みモデルに基づく部分的に遮られた物体の検出の態様は、例えば、本出願人の同時係属の米国特許出願第14/641,506号に記載されており、該米国特許出願の全体は、ここでの開示により明確に本出願に組み込まれる。学習済みモデル(図示せず)は、例えば、メモリ106及び/又はネットワーク144内でアクセス可能な別のメモリに格納することができる。学習済みモデルは、データ(例えば、テンプレート)を使用して、観察された画像データ(例えば、入力画像)間の関係を学習し、画像データ及び画像シーンの特徴を推定し、画像データから画像シーンに関する新たな推論を行う。さらに、物体検出器112は、入力画像の1つ又は複数の物体検出ウィンドウ(例えば、車両検出及び/又は他の遮蔽物体のウィンドウ)を決定する。図1では別々の構成要素として示されているが、部分ベースのボディ検出器110及び物体検出器112は、組合せて単一の構成要素としてよいことを理解されたい。
再び図1を参照すると、システムはまた、画像入力装置、深度センサ、部分ベースのボディ検出器、及び物体検出器と通信可能に、動作可能に接続されたプロセッサを含む。上述したように、プロセッサ104は、(例えば、I/Oインターフェース140及び/又はネットワーク144を介して)コンピュータ通信できるように、画像入力装置132と、深度センサ142と、部分ベースのボディ検出器110と、物体検出器112と、動作可能に接続されている。さらに、プロセッサ104は、第1検証モジュール122及び第2検証モジュール124の動作の特徴を含み、及び/又は実行することができる。これらモジュールは、例えば、部分ベースのボディ検出器110による部分的に遮られた歩行者の検出が正確かどうかを検証するために使用される。本明細書で説明されるように、第1検証モジュール122は、部分ベースのボディ検出器110によって検出された部分的に遮られた歩行者の相対距離と、物体検出器112によって検出された車両又は他の物体の相対距離とを、画像入力装置132から受け取った画像情報に基づいて比較する。或いは又はさらに、第2検証モジュール124は、1)第1検証モジュール122における情報に基づいた、部分ベースのボディ検出器110によって検出された部分的に遮られた歩行者までの距離、2)深度センサ142によって検出された車両又は他の物体までの距離を比較する。
2.検証方法
図3を参照して、本開示の例示的な態様による、部分的に遮られた物体及び他の物体の検出を検証する方法について説明する。図3は、図1及び図2の構成要素を参照して説明される。さらに、これらの方法は、図1に示されるシステムや他のシステムや方法で実現されるアルゴリズムを参照して説明される。ブロック302において、該方法は、画像入力装置132(図1)から入力画像を受け取ることを含む。入力画像は、I: Λ ⊂ Z(Zは整数全体の集合を表す)→[0,255]として表現されるグレースケール画像であってよい。ここで、Λは格子である。入力画像は、例えば、画像入力装置132(図1)によって取り込まれた運転シーンの一部を含むことができる。さらに、入力画像は、1つ又は複数の部分的に遮られた物体を含むことができる。例えば、図2に示す入力画像202は、2つの歩行者(ボックス204、206参照)を含むことができ、各歩行者は、車両によって部分的に遮られている。
ブロック304において、該方法は、入力画像内において、部分的に遮られた物体(例えば、部分的に遮られた歩行者)を検出し、特定することを含む。一態様では、部分ベースのボディ検出器110は(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、身体一部画像の学習セット(例えば、歩行者の上半身画像)に基づいて、入力画像Iにおける身体一部検出ウィンドウのセット(例えば、上半身検出ウィンドウ)を決定する。部分ベースのボディ検出器110(図1)は、例えば、スライディングウィンドウ検出器を含むことができる。部分ベースのボディ検出器110(図1)によって特定された上半身検出ウィンドウは、{uii=1 Uとして表すことができる。また、各上半身検出ウィンドウui=[ui x、ui y、ui w、ui h]は、入力画像上の上半身境界ボックスとして表すことができ、上半身境界ボックスの左上隅の位置は、(ui x、ui y)として表される。上半身境界ボックスの幅と高さは(ui w、ui h)として表される。例えば、部分ベースのボディ検出器110(図1)は、図2に示すように、入力画像202上において2つの上半身検出ウィンドウ204、206を検出する。
ブロック306において、該方法は、各上半身境界ボックスを歩行者の略全身サイズに拡張することを含む。一態様では、部分ベースのボディ検出器110は(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、各上半身境界ボックスuiを、チルダ(〜)付きui(以下では簡略的にui〜と表記する)に対する係数σによって、拡張する。ここで、ui〜=[ui x、ui y、ui w、σui h]であり、σは歩行者の上半身画像の学習セットに基づいて、設定される。例えば、人体の3分の1を含む画像を使用して、部分ベースのボディ検出器110に学習させる場合、σは3に設定され、各上半身境界ボックスは、歩行者の身体サイズの3分の1から歩行者の略全身サイズに拡張される。例えば、上半身境界ボックス204、206(図2)は、図2に示すように、全身サイズに近づくように拡張される。従って、一旦拡張されると、上半身境界ボックスの底部の中点は、歩行者が地面に接触する位置を略表す。
ブロック308において、該方法は、入力画像上における物体(例えば、遮る及び/又は遮っていない車両又は他の物体)を検出することを含む。ある態様では、物体検出器112は(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、入力画像I上において物体検出ウィンドウ(例えば、車両検出ウィンドウ)のセットを決定する。物体検出器112(図1)によって特定される車両検出ウィンドウのセットは、{cjj=1 Cとして表すことができる。さらに、各車両検出ウィンドウは、入力画像上の車両境界ボックスとして表すことができる。例えば、物体検出器112は、図2に示すように、入力画像202上の2つの車両検出ウィンドウ208、210を検出する。車両境界ボックスの底部の中点は、車両が地面に接触する位置を表す。
ブロック310において、該方法は、拡張された上半身境界ボックスと車両境界ボックスが、入力画像上で互いに重なり合っているか否かを判定することを含む。一態様では、第1検証モジュール122は(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、拡張された上半身境界ボックスui〜と車両境界ボックスcjとが重なり合う又は近接するように車両境界ボックスcjが存在しているかどうかを判定する。例えば、第1検証モジュール122(図1)は、図2に示すように、上半身境界ボックス204と車両境界ボックス210とは重なっていると判定する。一態様では、第1検証モジュール122(図1)が、拡張された上半身境界ボックスが車両境界ボックスと重なっていると判定した場合、該方法はブロック312に進む。もしそうでなければ、第1検証モジュール122は、部分ベースのボディ検出器110による部分的に遮られた歩行者の検出は正確でないと判断し、該方法はブロック320で終了する。
ブロック312において、該方法は、上半身境界ボックスの画像入力装置からの距離を決定することを含む。一態様では、第1検証モジュール122は(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、上半身境界ボックスの画像入力装置132(図1)からの距離を判定する。一態様では、画像入力装置132(図1)の位置は、[0,0,0]Tによって与えられ、画像入力装置132(図1)の固有パラメータは、以下のように与えられる。
Figure 2019509552
ここで、fx及びfyは焦点距離、ox及びoyは画像入力装置の主点オフセット(principal point offsets)である。さらに、地面Gの基底を推定して、g0∈R及びg1∈R(Rは実数全体の集合)として表現する。ここで、地面G上の点は、拘束条件nxX+nyY+nzZ+b=0に従う。ここで、地面Gの法線は、[nx,ny,nz]=g0×g1によって与えられる。従って、地面G上のピクセル(p,q)∈Λの3次元(3−D)座標は、以下に従って計算される。
Figure 2019509552
ここで、
Figure 2019509552
検出された物体について、該物体の検出ウィンドウの底部の中点は、検出された物体が地面Gに接触する点であると仮定することができる。例えば、検出ウィンドウd=[x,y,w,h]とすると、物体が地面Gに接触する位置は、(x+w/2,y+h)で与えられる。この例では、検出された物体が地面Gに接触する点の3次元座標は、上記の式(2)及び(3)に従って、φ(x+w/2,y+h)によって与えられる。簡略化のために、検出された物体が地面Gに接触する点は、代わりに、φ(d)として表されてもよい。第1検証モジュール122(図1)は、部分的に遮られた物体(例えば部分的に遮られた歩行者)が地面Gに接触する場所に基づいて、部分的に遮られた物体の画像入力装置132(図1)からの距離を決定する。一態様では、第1検証モジュール122(図1)は、画像入力装置132(図1)の場所に対する部分的に遮られた物体が地面Gに接触する場所の位置を表す3次元ベクトルのノルムを計算することによって、部分的に遮られたオブジェクトの画像入力装置142(図1)からの距離を求める。例えば、第1検証モジュール122(図1)は、||φ(ui〜)||の値を計算することによって、拡張された上半身境界ボックスui〜の画像入力装置132(図1)からの距離を求めることができる。ここで、φ(ui〜)は、上記の式(2)及び(3)によって与えられ、ui〜=[ui x,ui y,ui w,σui h]である。
図3の方法を再び参照すると、ブロック314において、本方法は、車両境界ボックスの画像入力装置からの距離を決定することを含む。一態様では、第1検証モジュール122は(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、車両境界ボックスcjの画像入力装置142(図1)からの距離を決定する。ブロック312に関して上述したように、第1検証モジュール122(図1)は、||φ(cj)||の値を計算することによって、車両境界ボックスcjの画像入力装置142(図1)からの距離を決定する。
ブロック316において、該方法は、車両境界ボックスが、拡張された上半身境界ボックスよりも画像入力装置に近いか否かを判定することを含む。一態様では、第1検証モジュール122は(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、次の条件が満たされた場合に、車両境界ボックスcjは上半身境界ボックスui〜よりも入力画像装置132(図1)に近いと判断することができる。
Figure 2019509552
ここで、φ(ui〜)及びφ(cj)は式(2)、(3)に従って、計算することができる。第1検証モジュール122(図1)が、車両境界ボックスcjは、画像入力装置142(図1)に対して、上半身境界ボックスui〜よりも近い位置にあると判定した場合、第1検証モジュール122(図1)は、ブロック318において、部分ベースのボディ検出器110(図1)による部分的に遮られた歩行者の検出が正確であることを確証する。そうでない場合、第1検証モジュール122(図1)は、ブロック320において、部分ベースのボディ検出器110(図1)による部分的に遮られた歩行者の検出は正確ではないと判定する。
次に図4を参照して、図3の方法に加えて(又はその代わりに)、部分的に遮られた物体の検出を検証するための方法を説明する。例えば、図4の方法は、図3の方法の前、又は後に実行される追加の検証手順として使用してもよい。例えば、入力画像中に車両の切り欠かれた画像(truncated image)を含み且つ/又は物体検出器112(図1)がそのクラスの物体(例えば、車両)を検出するように学習されていないために物体検出器112(図1)が車両検出ウィンドウを特定できない場合、図4の方法を図3の方法の代替として使用することもできる。図1及び図2の構成要素を参照して、図4を説明する。さらに、該方法は、図1において上述したシステムや他のシステム及び他の方法で実行され得るアルゴリズムを参照して、説明される。
図4のブロック402、404、406はそれぞれ、図3において説明されたブロック302、304、306に対応する。一態様では、ブロック402、404、406は、第1検証モジュール122によって(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、及び/又は第2検証モジュール124によって(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、実行される。
ブロック408において、図4の方法はさらに、拡張された身体一部の境界ボックスの入力画像装置からの距離を決定することを含む。一態様では、第2検証モジュール124は(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、画像入力装置132(図1)からの拡張された上半身境界ボックスui〜の距離を決定することができる。画像入力装置132(図1)からの拡張された上半身境界ボックスui〜の距離は、||φ(ui〜)||によって与えられる。ここで、φ(ui〜)は、第2検証モジュール124(図1)によって、上記式(2)、(3)に従って、計算される。
ブロック410において、この方法は、画像入力装置からの遮蔽物体の距離を測定するための深度検知(depth sensing)を行うことを含む。一態様では、深度センサ142は(例えば、図1に示すようにプロセッサ120及び/又はメモリ106と協働して)、遮蔽物体(例えば、車両)の画像入力装置132(図1)からの距離を測定するための深度検知を行う。深度センサ142(図1)は、シーンの点群を生成するLIDARセンサ、ステレオカメラ、及び/又はRADARセンサのいずれかであってもよいが、これらに限定されない。一態様では、深度センサ142(図1)は、画像入力装置132(図1)が入力画像Iを取り込むのと同時に、又は略同時に深度検知を行う。例えばLIDARを介した深度検知の間、シーン内の各物体からの反射は、点群の一部としてのスキャン点として返される。ここで、各スキャン点は、深度センサの視野において、例えば1/2°毎に与えられる。次いで、深度センサは、返された点群に基づいて、シーン内の各物体の深度測定値のセットを計算する。一態様では、深度センサ142によって計算された深度測定値のセットは、{sjj=1 Sとして表すことができる。ここで、sj∈R3(R3は実3次元数ベクトル空間を表す)である。
一態様では、第2検証モジュール124は(例えば、図1に示す深度センサ142、プロセッサ120、及び/又はメモリ106と協働して)、深度センサ142によって測定された深度測定値のセットSのうち、拡張された身体一部の境界ボックスの方向におけるサブセットを選択する。一態様では、第2検証モジュール124は、測定された深度測定値のセットSのうち、拡張された上半身境界ボックスui〜の方向におけるサブセットを選択する。例えば、第2検証モジュール124は、図2に示すように、拡張された上半身境界ボックス206付近の車両によって反射されたLIDAR点群212に対応する深度測定値のセットを選択する。選択されたサブセットSui⊂Sは、以下のように表現される。
Figure 2019509552
ここで、αは、拡張された上半身境界ボックスui〜の、左下隅uiL=φ(uix,uiy+uih)の3次元座標と右下隅uiL=φ(uix+uiw,uiy+uih)の3次元座標との間の角度を表し、projG(s)は、点sの地面Gへの投影を表す。さらに、遮蔽物体は、画像入力装置132(図1)に対して、より近い又は最も近い物体なので、画像入力装置142(図1)に最も近い物体に関連付けられた点のサブセットが、第2検証モジュール124(図1)によって選択される。すなわち、第2検証モジュール124は、選択されたサブセットSuiを、Sui=∪i=n NSunとなるように、互いに素のサブセットのセットに分ける。ここでは、隣接する点間の距離が閾値τ(例えば、1メートル)よりも小さい場合には、それらの点を、1つのサブセットにグループ化してもよい。一態様では、第2検証モジュール124は、深度測定値の選択されたサブセットSuiに基づいて、画像入力装置132(図1)からの遮蔽物体(本明細書では「オクルーダ物体(occluder object)」とも称し、交換可能である)の距離を測定する。すなわち、第2検証モジュール124は、以下の(6)の値を計算することによって、画像入力装置132(図1)からの遮蔽物体の距離を測定することができる。
Figure 2019509552
ここで、avg(.)は、点群における平均点(mean point)を表し、式(6)は、拡張された上半身境界ボックスui〜の方向において画像入力装置に最も近い物体の深度を表す。
図4の方法を再び参照すると、ブロック412において、本方法は、遮蔽物体が、拡張された身体一部の境界ボックスよりも画像入力装置に近いかどうかを判定することを含む。一態様では、第2検証モジュール124は、(例えば、図1に示すプロセッサ120及び/又はメモリ106と協働して)、遮蔽物体が、拡張された上半身境界ボックスui〜よりも、画像入力装置132(図1)に近いかどうかを判定する。第2検証モジュール124は、以下の条件が満たされた場合、遮蔽物体は、拡張された上半身境界ボックスui〜よりも、画像入力装置132(図1)に近いと判定する。
Figure 2019509552
ここで、avg(.)は、点群の平均点を表す。式(7)に従って、第2検証モジュール124が、遮蔽物体は拡張された上半身境界ボックスui〜よりも画像入力装置132(図1)に近いと判定した場合、部分ベースのボディ検出器110(図1)による部分的に遮蔽された物体の検出は正確であると、ブロック414において、確認される。そうでない場合は、部分ベースのボディ検出器110(図1)による部分的に遮蔽された物体の検出は不正確であると、ブロック416において、判定される。
図3及び図4において説明された、部分的に遮蔽された物体の検出を検証するための方法は、共に実行されてもよいし、或いは、別々に実行されてもよいと理解されるべきである。例えば、図3及び図4の方法が共に実行される場合、第1検証モジュール122又は第2検証モジュール124の少なくとも1つが(例えば、図1に示されるようなプロセッサ120及び/又はメモリ106と協働して)、部分的に遮蔽された物体の検出が正確であることを検証することで、部分的に遮られた物体の検出が検証される。
本開示の様々な態様によれば、運転シーンにおける部分的に遮られた物体(例えば、部分的に遮られた歩行者)の検出及び検証は、車両システム130(例えば、ADAS)に送信され、車両システム130は、それに応じて、種々の車両システムを調整し、及び/又は他の対応策をとる。
本明細書で説明される態様は、コンピュータ実行可能命令を格納する非一過性コンピュータ可読記憶媒体との関連において、説明され実施されてもよい。非一過性コンピュータ可読記憶媒体は、コンピュータ記憶媒体及び通信媒体を含む。例えば、フラッシュメモリドライブ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、フロッピーディスク、テープカセット等である。非一過性コンピュータ可読記憶媒体としては、コンピュータ可読命令、データ構造、モジュール又は他のデータのような情報を記憶するための任意の方法又は技術で実施される揮発性及び不揮発性媒体、取り外し可能な媒体及び取り外し不可能な媒体が挙げられる。非一過性コンピュータ可読記憶媒体としては、一時的且つ伝搬されたデータ信号を除く。
上記に開示された特徴及び機能、及び他の特徴及び機能、又はその代替形態又は変形形態の様々な実施形態を望ましいように組み合わせて、多くの他の異なるシステム又はアプリケーションとして構成してもよいことは理解されよう。 また、以下の請求項に包含されることが意図されるが、現在は予測されていない、又は予想されていない種々の代替、変形、変更、又は改良は、当業者であれば、引き続き行うことができる。

Claims (20)

  1. 第1の物体の検出を検証する方法であって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られており、該方法は、
    画像入力装置を介して画像情報を受け取るステップと、
    前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定するステップと、
    前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定するステップと、
    前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているか否かを判断するステップと、
    前記第1検出ウィンドウまでの第1距離と前記第2検出ウィンドウまでの第2距離とを決定するステップと、
    前記第1距離と前記第2距離とを比較するステップと、
    前記第1距離が前記第2距離よりも大きい場合、前記第1の物体は前記第2の物体によって部分的に遮られていると確証するステップと、
    を有する、
    方法。
  2. 請求項1記載の方法において、
    前記第1の物体は前記第2の物体によって部分的に遮られていると確証する前記ステップは、
    深度センサから、前記深度センサと前記第2の物体との間の測定距離に対応する入力を受け取るステップと、
    前記第1距離と前記測定距離とを比較するステップと、
    前記第1距離が前記測定距離よりも大きいことを確証するステップと、
    をさらに有する、
    方法。
  3. 請求項1記載の方法において、
    前記第1の物体はヒトである、
    方法。
  4. 請求項1記載の方法において、
    前記第1の物体は、ヒト、自転車、オートバイ、動物からなる群から選択される、
    方法。
  5. 請求項1記載の方法において、
    前記画像入力装置はカメラである、
    方法。
  6. 請求項5記載の方法において、
    前記カメラは前記車両に搭載される、
    方法。
  7. 請求項1記載の方法において、
    前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断する前記ステップは、
    前記第1画像は部分的な画像であるかどうかを判定するステップを含む、
    方法。
  8. 請求項7記載の方法において、
    前記第1画像はヒトであり、
    前記第1画像は部分的な画像であるかどうかを判定する前記ステップは、
    前記第1画像の少なくとも一部に対して、ヒト認識を適用するステップを含む、
    方法。
  9. 請求項2記載の方法において、
    前記深度センサは、LIDAR装置、RADAR装置、ステレオカメラシステムからなる群から選択される、
    方法。
  10. 第1の物体の検出を検証する方法であって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られ、該方法は、
    画像入力装置を介して画像情報を受け取るステップと、
    前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定するステップと、
    前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定するステップと、
    前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断するステップと、
    前記第1検出ウィンドウまでの第1距離を決定するステップと、
    深度センサから、前記深度センサと前記第2の物体との間の測定距離に対応する入力を受け取るステップと、
    前記第1距離と前記測定距離とを比較するステップと、
    前記第1距離が前記測定距離よりも大きい場合、前記第1の物体は前記第2の物体によって部分的に遮られていると確証するステップと、
    有する、方法。
  11. 第1の物体の検出を検証するシステムであって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られ、該システムは、
    画像情報を受け取る画像入力装置と、
    前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定し、また前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定する物体検出器と、
    コンピュータ通信可能に、前記画像入力装置及び前記物体検出器に動作可能に接続されたプロセッサと、
    を備え、
    前記プロセッサは、
    前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断し、
    前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっている場合、前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定し、
    前記第1距離が前記第2距離よりも大きい場合、前記第1の物体は部分的に遮られていると確証する、
    システム。
  12. 請求項11記載のシステムにおいて、
    前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
    前記第1検出ウィンドウのための位置情報と受け取った前記画像情報とを用いて、前記第1の物体までの第1距離を決定する、
    システム。
  13. 請求項12記載のシステムにおいて、
    前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
    前記第2検出ウィンドウのための位置情報と受け取った前記画像情報とを用いて、前記第2の物体までの第2距離を決定する、
    システム。
  14. 請求項12記載のシステムにおいて、
    該システムはさらに深度センサを備え、
    前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
    前記深度センサと前記第2の物体との間の距離に対応する深度センサ入力を、前記第2距離として受け取る、
    システム。
  15. 請求項11記載のシステムにおいて、
    前記第1の物体はヒトである、
    システム。
  16. 請求項11記載のシステムにおいて、
    前記画像入力装置はカメラである、
    システム。
  17. 請求項16記載のシステムにおいて、
    前記カメラは前記車両に搭載される、
    システム。
  18. 請求項11記載のシステムにおいて、
    前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断する際、前記第1画像は部分的な画像であるかどうかを判定する、
    システム。
  19. 請求項18記載のシステムにおいて、
    前記第1画像はヒトであり、
    前記第1画像は部分的な画像であるかどうかを判定する際、
    前記第1画像の少なくとも一部に対して、ヒト認識を適用する、
    システム。
  20. 請求項14記載のシステムにおいて、
    前記深度センサは、LIDAR装置、RADAR装置、ステレオカメラシステムからなる群から選択される、
    システム。
JP2018540453A 2016-02-03 2017-02-02 コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 Active JP6942712B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/015,033 US9805274B2 (en) 2016-02-03 2016-02-03 Partially occluded object detection using context and depth ordering
US15/015,033 2016-02-03
PCT/US2017/016254 WO2017136578A1 (en) 2016-02-03 2017-02-02 Partially occluded object detection using context and depth ordering

Publications (2)

Publication Number Publication Date
JP2019509552A true JP2019509552A (ja) 2019-04-04
JP6942712B2 JP6942712B2 (ja) 2021-09-29

Family

ID=59386887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018540453A Active JP6942712B2 (ja) 2016-02-03 2017-02-02 コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出

Country Status (5)

Country Link
US (1) US9805274B2 (ja)
JP (1) JP6942712B2 (ja)
CN (1) CN108604405A (ja)
DE (1) DE112017000643T5 (ja)
WO (1) WO2017136578A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025642B (zh) * 2016-01-27 2018-06-22 百度在线网络技术(北京)有限公司 基于点云数据的车辆轮廓检测方法和装置
JP6649178B2 (ja) 2016-05-24 2020-02-19 株式会社東芝 情報処理装置、および、情報処理方法
JP6536521B2 (ja) * 2016-09-22 2019-07-03 株式会社デンソー 物体検知装置及び物体検知方法
US10248872B2 (en) 2016-10-19 2019-04-02 Texas Instruments Incorporated Estimation of time to collision in a computer vision system
KR20180060784A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 비정상 객체 판단 방법 및 장치
US10331960B2 (en) * 2017-05-10 2019-06-25 Fotonation Limited Methods for detecting, identifying and displaying object information with a multi-camera vision system
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
US10788585B2 (en) 2017-09-15 2020-09-29 Toyota Research Institute, Inc. System and method for object detection using a probabilistic observation model
US10445597B2 (en) * 2017-10-17 2019-10-15 Toyota Research Institute, Inc. Systems and methods for identification of objects using audio and sensor data
JP6834020B2 (ja) * 2017-11-13 2021-02-24 三菱電機株式会社 物体認識装置および物体認識方法
CN109978950B (zh) * 2017-12-26 2023-05-09 中国船舶重工集团公司七五0试验场 一种应用于海上油田安防三维虚拟显示的视点控制方法
US10642269B2 (en) * 2018-01-03 2020-05-05 Denso International America, Inc. Vehicle localization system
EP3676754A4 (en) 2018-03-12 2021-09-01 Ratti, Jayant ARTIFICIAL INTELLIGENCE AND ROAD MANAGEMENT SYSTEM ON DEMAND
US10884424B2 (en) 2018-09-07 2021-01-05 GM Global Technology Operations LLC Traffic light occlusion detection for autonomous vehicle
US11448518B2 (en) 2018-09-27 2022-09-20 Phiar Technologies, Inc. Augmented reality navigational overlay
US10495476B1 (en) * 2018-09-27 2019-12-03 Phiar Technologies, Inc. Augmented reality navigation systems and methods
US10474930B1 (en) * 2018-10-05 2019-11-12 StradVision, Inc. Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same
US11693423B2 (en) * 2018-12-19 2023-07-04 Waymo Llc Model for excluding vehicle from sensor field of view
RU2769921C2 (ru) 2019-11-21 2022-04-08 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для автоматизированного определения присутствия объектов
EP4078088A2 (en) * 2020-01-03 2022-10-26 Mobileye Vision Technologies Ltd. Vehicle navigation with pedestrians and determining vehicle free space
US11481913B2 (en) * 2020-03-11 2022-10-25 Gm Cruise Holdings Llc LiDAR point selection using image segmentation
DE102020209983A1 (de) * 2020-08-06 2022-02-10 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erkennen eines Objekts aus Eingabedaten unter Verwendung von relationalen Attributen
US11977165B2 (en) 2020-08-10 2024-05-07 Waymo Llc Self-reflection filtering
US11960009B2 (en) * 2020-12-30 2024-04-16 Zoox, Inc. Object contour determination
DE102021200923A1 (de) 2021-02-02 2022-08-04 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren und System zum Berechnen einer Abmessung einer Bounding Box und Trainingsverfahren
CN113221739B (zh) * 2021-05-12 2023-04-14 中国科学技术大学 基于单目视觉的车距测量方法
CN118056228A (zh) * 2021-10-22 2024-05-17 深圳市速腾聚创科技有限公司 遮挡关系判断方法、装置、存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069328A (ja) * 2002-08-01 2004-03-04 Nissan Motor Co Ltd 前方環境認識装置及び前方環境認識方法
US20060239558A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
JP2007257338A (ja) * 2006-03-23 2007-10-04 Toyota Central Res & Dev Lab Inc 潜在危険度推定装置
WO2010140613A1 (ja) * 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7242460B2 (en) 2003-04-18 2007-07-10 Sarnoff Corporation Method and apparatus for automatic registration and visualization of occluded targets using ladar data
US6956469B2 (en) * 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection
US20090041297A1 (en) 2005-05-31 2009-02-12 Objectvideo, Inc. Human detection and tracking for security applications
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
US8086071B2 (en) 2007-10-30 2011-12-27 Navteq North America, Llc System and method for revealing occluded objects in an image dataset
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
CN100595792C (zh) * 2008-04-01 2010-03-24 东南大学 基于视频技术的车辆检测与跟踪方法
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
EP2395452A1 (en) 2010-06-11 2011-12-14 Toyota Motor Europe NV/SA Detection of objects in an image using self similarities
US20130163879A1 (en) 2010-08-30 2013-06-27 Bk-Imaging Ltd. Method and system for extracting three-dimensional information
US8744123B2 (en) 2011-08-29 2014-06-03 International Business Machines Corporation Modeling of temporarily static objects in surveillance video data
US9111147B2 (en) 2011-11-14 2015-08-18 Massachusetts Institute Of Technology Assisted video surveillance of persons-of-interest
DE102013100569A1 (de) * 2013-01-21 2014-07-24 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung
US9904852B2 (en) 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning
CN104573612B (zh) * 2013-10-16 2019-10-22 北京三星通信技术研究有限公司 估计深度图像中重叠的多个人体对象的姿态的设备和方法
CN104408689B (zh) 2014-12-10 2017-10-24 武汉大学 基于全景影像的街景面片优化方法
CN205132567U (zh) 2015-10-27 2016-04-06 浩通国际货运代理有限公司 一种带装卸漏斗的装卸机
CN205174534U (zh) 2015-11-30 2016-04-20 河南福泉健康科技实业有限公司 一种温灸药熨保健型暖手宝

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069328A (ja) * 2002-08-01 2004-03-04 Nissan Motor Co Ltd 前方環境認識装置及び前方環境認識方法
US20060239558A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
JP2007257338A (ja) * 2006-03-23 2007-10-04 Toyota Central Res & Dev Lab Inc 潜在危険度推定装置
WO2010140613A1 (ja) * 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置

Also Published As

Publication number Publication date
JP6942712B2 (ja) 2021-09-29
DE112017000643T5 (de) 2018-10-25
US20170220874A1 (en) 2017-08-03
WO2017136578A1 (en) 2017-08-10
US9805274B2 (en) 2017-10-31
CN108604405A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
JP2019509552A (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
JP6799169B2 (ja) マルチモーダル融合による3dオブジェクト検出と配向推定の結合
CN110895674B (zh) 用于基于自我中心视觉的未来车辆定位的系统和方法
CN112292711B (zh) 关联lidar数据和图像数据
US10949684B2 (en) Vehicle image verification
CN111223135B (zh) 通过使用雷达和运动数据的单目相机来增强距离估计的系统和方法
JP6833630B2 (ja) 物体検出装置、物体検出方法およびプログラム
US9443309B2 (en) System and method for image based mapping, localization, and pose correction of a vehicle with landmark transform estimation
US10121082B2 (en) System and method for providing laser camera fusion for identifying and tracking a traffic participant
US9971934B2 (en) System and method for partially occluded object detection
US9483700B1 (en) System and method for lane vehicle localization with lane marking detection and likelihood scoring
JP2019500602A (ja) 画像ベースの車両位置特定のためのシステム及び方法
US11555927B2 (en) System and method for providing online multi-LiDAR dynamic occupancy mapping
JP2019096072A (ja) 物体検出装置、物体検出方法およびプログラム
CN112997187A (zh) 基于鸟瞰图点云的二维对象边界框信息估计
US10614320B2 (en) System and method for advanced highway lane detection
CN111986128A (zh) 偏心图像融合
CN112633465A (zh) 车辆神经网络训练
CN113177429A (zh) 车辆神经网络训练
EP4176373A1 (en) Systems and methods for detecting projection attacks on object identification systems
CN115359332A (zh) 基于车路协同的数据融合方法、装置、电子设备及系统
CN116137655A (zh) 用于环绕视图增强的智能车辆系统和控制逻辑
CN115236672A (zh) 障碍物信息生成方法、装置、设备及计算机可读存储介质
WO2019123582A1 (ja) 物体情報生成装置及び物体情報生成プログラム
US20240161398A1 (en) Late-to-early temporal fusion for point clouds

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210908

R150 Certificate of patent or registration of utility model

Ref document number: 6942712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150