JP6906567B2 - 障害物の検知方法、システム、コンピュータ装置、コンピュータ記憶媒体 - Google Patents

障害物の検知方法、システム、コンピュータ装置、コンピュータ記憶媒体 Download PDF

Info

Publication number
JP6906567B2
JP6906567B2 JP2019118557A JP2019118557A JP6906567B2 JP 6906567 B2 JP6906567 B2 JP 6906567B2 JP 2019118557 A JP2019118557 A JP 2019118557A JP 2019118557 A JP2019118557 A JP 2019118557A JP 6906567 B2 JP6906567 B2 JP 6906567B2
Authority
JP
Japan
Prior art keywords
obstacle
camera
image
image frame
taken
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019118557A
Other languages
English (en)
Other versions
JP2020042775A (ja
Inventor
リー,グオ
ガオ,ハン
サン,シュン
シア,ティアン
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2020042775A publication Critical patent/JP2020042775A/ja
Application granted granted Critical
Publication of JP6906567B2 publication Critical patent/JP6906567B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/08Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、自動車両の運転分野に関し、具体的に、障害物の検知方法、システム、コンピュータ装置、コンピュータ記憶媒体等に関する。
従来の無人車両では、単一のカメラヘッドで特定の角度方向における路面状況を検知する場合が多い。単一のカメラヘッドに基づく視覚的な検知はレーザーレーダと異なり、その検知環境の範囲は非常に狭く、当該カメラの視野角(fov)に依存することが一般的である。一般に、カメラの視野角(fov)は180度未満であり、検知距離とのバランスを取るために、視野角は広すぎてはならない場合がある。そのため、単一のカメラヘッドによっては特定の角度方向における路面状況しか検知できず、視野角内に存在しない障害物については検知できない。障害物が主車両(無人車両)から近すぎると、無人車両を急ブレーキや衝突等の事故を発生させやすい。さらに悪いことは、障害物が視野に現れたばかりの期間に、障害物の画像検出枠が遮断状態にあるため、画像枠が完了せず、その正確な3D位置を推定できなくなる。これにより、検知システムは障害物の速度を正確に推定できなくなり、無人車両の意思決定システムへ誤った情報を入力させ、無人車両が正常に動作できなくなる。
本発明は、少なくともある程度まで関連技術における技術課題の一部を解決することを目的とする。
本発明の第1態様によれば、自動車両に配置された少なくとも二つの隣り合うカメラによって、自動車両の周囲の障害物を連続的に撮影することと、一方のカメラの撮影した障害物画像を他方のカメラの撮影した障害物画像に関連付けることと、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断することと、を含んでもよい障害物の検知方法を提供する。
本発明の第1態様の一実施例によれば、一方のカメラの撮影した障害物画像を他方のカメラの撮影した障害物画像に関連付けることは、
隣り合うカメラの視野が重なる場合、少なくとも二つの隣り合うカメラの撮影した障害物画像の画像枠の特徴によって、障害物画像を関連付けることを含んでもよい。
本発明の第1態様の他の実施例によれば、少なくとも二つの隣り合うカメラの撮影した障害物画像の画像枠の特徴によって、障害物画像を関連付けることは、
一方のカメラの撮影した障害物画像の第1画像枠を、参照座標系を介して他方のカメラの結像平面に投影することで、第2画像枠を構成し、第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠とを比較して、画像枠の特徴に基づいて第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断することを含んでもよい。
本発明の第1態様のまた一実施例によれば、隣り合うカメラの視野が重ならない場合、障害物が一方のカメラの視野から消え、他方のカメラの視野に入ったばかりの時間帯に、運動方程式の推定を行って、障害物画像を関連付ける。
本発明の第1態様のまた一実施例によれば、障害物画像を関連付けることは、一方のカメラの撮影した障害物画像の第1画像枠における第1座標を参照座標系の参照座標に変換し、さらに参照座標を運動方程式の推定に従って連続的に更新し、障害物が他方のカメラの視野に入ったばかりの時、最新の更新された参照座標を他方のカメラの結像平面に投影することで、第2座標を構成し、第2座標が構成した障害物画像の第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠とを比較し、さらに画像枠の特徴に基づいて第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断することを含む。
本発明の第1態様の一実施例によれば、運動方程式の推定は、等速、等加速又は等減速の場合に運動方程式の推定を行うことを含んでもよい。
本発明の第1態様の他の実施例によれば、画像枠の特徴は、他方のカメラの結像平面に投影された第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠との間の中心距離、各画像枠のアスペクト比、及び/又は重なりの割合を含む。
本発明の第1態様のまた一実施例によれば、自動車両に配置された少なくとも二つの隣り合うカメラは、自動車両の車体左前、車体左後、車体真正面、車体真後ろ、車体右前、車体右後にそれぞれ配置された複数のカメラを含むことにより、自動車両の周囲360°内の障害物を検知することができる。
本発明の第1態様のまた一実施例によれば、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断することは、障害物の類型、運動速度、運動方向及び/又は画像枠の特徴に基づいて判断することを含む。
本発明の第2態様に係る障害物の検知システムは、自動車両に配置された、自動車両の周囲の障害物を連続的に撮影するための少なくとも二つの隣り合うカメラと、一方のカメラの撮影した障害物画像を他方のカメラの撮影した障害物画像と関連付けるための関連手段と、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断するための判断手段と、を備えてもよい。
本発明の第2態様の一実施例によれば、関連手段は、隣り合うカメラの視野が重なる場合、少なくとも二つの隣り合うカメラの撮影した障害物画像の画像枠の特徴によって、障害物画像を関連付けるためにさらに用いられる。
本発明の第2態様の他の実施例によれば、関連手段は、一方のカメラの撮影した障害物画像の第1画像枠を、参照座標系を介して他方のカメラの結像平面に投影することで、第2画像枠を構成し、第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠とを比較して、画像枠の特徴に基づいて第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断するためにさらに用いられる。
本発明の第2態様のまた一実施例によれば、関連手段は、隣り合うカメラの視野が重ならない場合、障害物が一方のカメラの視野から消え、他方のカメラの視野に入ったばかりの時間帯に、運動方程式の推定を行って、障害物画像を関連付けるためにさらに用いられる。
本発明の第2態様のまた一実施例によれば、関連手段は、一方のカメラの撮影した障害物画像の第1画像枠における第1座標を参照座標系の参照座標に変換し、さらに参照座標を運動方程式の推定に従って連続的に更新し、障害物が他方のカメラの視野に入ったばかりの時、最新の更新された参照座標を他方のカメラの結像平面に投影することで、第2座標を構成し、第2座標が構成した障害物画像の第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠とを比較し、さらに画像枠の特徴に基づいて第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断するためにさらに用いられる。
本発明の第2態様の一実施例によれば、運動方程式の推定は、等速、等加速又は等減速の場合に運動方程式の推定を行うことを含む。
本発明の第2態様の他の実施例によれば、画像枠の特徴は、他方のカメラの結像平面に投影された第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠との間の中心距離、各画像枠のアスペクト比、及び/又は重なりの割合を含む。
本発明の第2態様のまた一実施例によれば、自動車両に配置された少なくとも二つの隣り合うカメラは、自動車両の車体左前、車体左後、車体真正面、車体真後ろ、車体右前、車体右後にそれぞれ配置された複数のカメラを含むことにより、自動車両の周囲360°内の障害物を検知することができる。
本発明の第2態様のまた一実施例によれば、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断することは、障害物の類型、運動速度、運動方向及び/又は画像枠の特徴に基づいて判断することを含む。
本発明の第3態様に係るコンピュータ装置は、一つ又は複数のプロセッサーと、一つ又は複数のプログラムを記憶するためのメモリーと、を備え、一つ又は複数のプログラムが一つ又は複数のプロセッサーにより実行されると、一つ又は複数のプロセッサーが上記した方法を実現するようにすることを含んでもよい。
本発明の第4態様に係るコンピュータ可読記憶媒体は、コンピュータプログラムを記憶しており、当該プログラムはプロセッサーにより実行されると、上記した方法を実現する。
本発明の障害物の検知方法、システムによれば、自動車両、例えば無人車両に対して、車体の広い視野角範囲、例えば周り360度範囲の障害物の状況をリアルタイムに検知することができる。広い視野角範囲である場合、このような検知方法やシステムは、自動車両、例えば無人車両からの特定の範囲での障害物の運動状態(位置、速度等)を完全に表現できる。例えば、障害物の位置、速度、運動方向、障害物の類型等に対する正確な推定によって、自動車両、例えば無人車両の意思決定システムに正確な情報を提供し、衝突等のハイリスクの発生を防止する。
上記概説は明細書のためのものであって、いかなる方式で制限するためのものではない。上記説明される模式的な態様、実施形態及び特徴を除き、本発明のさらなる態様、実施形態及び特徴は、図面及び以下の詳細な説明によって明らかになる。
図面において、特に断りがない限り、複数の図面における同一記号は同様又は類似する部材又は要素を示す。これらの図面は比率で描かれるとは限らない。これらの図面は本発明の開示に係るいくつかの実施形態を描くものに過ぎず、本発明の範囲を制限するものと見なされるべきではないと理解すべきである。
本発明の第1態様の一実施例に係る障害物の検知方法を模式的に示す模式図である。 本発明の第1態様の一実施例に係る一方のカメラの撮影した障害物画像を他方のカメラの撮影した障害物画像に関連付けることを模式的に示す模式図である。 本発明の第1態様の一実施例に係る運動方程式の推定を模式的に示す模式図である。 本発明の第1態様の一実施例に係る画像枠の特徴を模式的に示す模式図である。 本発明の第1態様の一実施例に係る周囲にカメラが配置された自動車両を模式的に示す模式図である。 本発明の第1態様の一実施例に係る一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断することを模式的に示す模式図である。 本発明の第1態様の一実施例に係る二つの隣り合うカメラ1とカメラ2との視野が重なる場合を模式的に示す模式図である。 本発明の第1態様の一実施例に係る二つの隣り合うカメラ1とカメラ2の視野が重ならない場合を模式的に示す模式図である。 本発明の第1態様の一実施例に係る隣り合う複数のカメラが融合することを模式的に示す模式図である。 本発明の第2態様の一実施例に係る障害物の検知システムを模式的に示す模式図である。 本発明の第3態様に係るコンピュータ装置に関する一実施例を模式的に示す。
以下、本開示の実施例について、図面を参照しながら詳細に説明する。図面には本開示の幾つかの実施例が示されているが、本開示は様々な形態で実現でき、さらに、ここで説明した実施例に限定されると解釈してはならなく、逆に、本開示をより明らかで完全に理解するために、これらの実施例が提供されると理解すべきである。なお、本開示の図面及び実施例は例示的な役割のみに用いられ、本開示の保護範囲を限定するためのものではないことを理解すべきである。
本開示の実施例の説明において、用語「含む」及びその類似な用語は、開放的に含む、即ち「含むが、これに限定されない」と理解すべきである。用語「基づいて」は、「少なくとも一部に基づいて」と理解すべきである。「一実施例」又は「当該実施例」という用語は、「少なくとも一つの実施例」と理解すべきである。以下では、その他の明示的および暗黙的な定義を含む可能性もある。
以下、本発明の図1〜図11を参照しながら詳細に説明する。
図1は、本発明の第1態様の一実施例に係る障害物の検知方法100を模式的に示す模式図であり、次のようなステップを含むことができ、即ち、自動車両に配置された少なくとも二つの隣り合うカメラによって、自動車両の周囲の障害物を連続的に撮影するステップ102と、一方のカメラの撮影した障害物画像を他方のカメラの撮影した障害物画像に関連付けるステップ104と、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断するステップ106と、を含む。
ここで示したのは、自動車両に配置された少なくとも二つの隣り合うカメラであり、必要に応じて、より多くのカメラが配置されてもよい。例えば、自動車両における少なくとも二つの隣り合うカメラは、自動車両の車体左前、車体左後、車体真正面、車体真後ろ、車体右前、車体右後にそれぞれ配置された複数のカメラを含むことができる。この様な状況は図5及び図10に示され、自動車両の周囲の広い視野範囲、例えば360内の障害物を検知することができる。カメラ毎に自分の視野、即ち視野角を持っているため、自動車両の周囲の大視角又は大視野、例えば360内の障害物を検知する必要がある場合、例えば6個又は8個等のカメラを配置する必要がある可能性があり、この点については、当業者であれば理解できるだろう。
例えば、図5及び図10に示す模式図では、自動車両8の周囲に8個のカメラを配置している。即ち、車体左前にカメラ2、車体左後にカメラ1、車体真正面にカメラ3、カメラ4及びカメラ5、車体真後ろにカメラ8、車体右前にカメラ6、車体右後にカメラ7が配置される。
本発明の明細書の各実施例で言及された用語の「障害物」は、広義に理解することができる。例えば、自動車両の周囲の歩行者、自転車、電気自転車、その他の非自動車両又は自動車両は、本車(自動車両)にとって、障害物であるとみなすことができる。
注意すべきことは、本発明の各実施例において出現する用語の「障害物画像」は、複数の障害物画像を含む場合もある。例えば、「障害物画像」は、歩行者の障害物画像、自転車の障害物画像、電気自転車の障害物画像、その他の非自動車両又は自動車両の障害物画像等を含む可能性がある。
本発明の明細書の各実施例において言及された用語の「カメラ」は、広義に理解することができる。例えば、魚眼カメラ、広角カメラ等を含むことができる。
本発明の明細書の各実施例において言及された用語の「参照座標系」や「参照座標」は、広義に理解することができる。例えば、車体座標系である場合の車体座標や、世界座標系である場合の世界座標を含むことができ、二つの隣り合うカメラからこの座標系への変換関係を承知できればよく、同様に、その他の座標系であってもよい。
自動車両に配置された少なくとも二つの隣り合うカメラによって、自動車両の周囲の障害物を連続的に撮影することは、障害物、例えば他の自動車両のリアルタイムな状況の検知に寄与でき、自動車両、例えば無人車両から特定の範囲での障害物の運動状態(位置、速度等)に対する自動車両の完全な記述に寄与できる。例えば、障害物の位置、速度、運動方向、障害物の類型等に対する正確な推定によって、自動車両、例えば無人車両の意思決定システムに正確な情報を提供し、衝突等のハイリスクの発生を防止する。
図2は、本発明の第1態様の一実施例に係る一方のカメラの撮影した障害物画像を他方のカメラの撮影した障害物画像に関連付けることを模式的に示す模式図である。一実施例において、一方のカメラの撮影した障害物画像を他方のカメラの撮影した障害物画像に関連付けるステップ104は、隣り合うカメラの視野が重なっている場合、少なくとも二つの隣り合うカメラの撮影した障害物画像の画像枠の特徴によって障害物画像を関連付けるステップ108を含んでもよい。また、本発明の一実施例において、少なくとも二つの隣り合うカメラの撮影した障害物画像の画像枠の特徴によって障害物画像を関連付けるステップ108は、一方のカメラの撮影した障害物画像の第1画像枠を、参照座標系を介して他方のカメラの結像平面に投影することで、第2画像枠を構成し、第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠とを比較して、画像枠の特徴に基づいて第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断するステップ110を含んでもよい。
この点については、図7を参照できる。図7は、本発明の第1態様の一実施例に係る二つの隣り合うカメラ1とカメラ2との視野の重なる場合を模式的に示す模式図である。図7に示すカメラ1の視野をV1で表し、視野の横断面は略V字状の横断面である。同様に、カメラ2の視野をV2で表し、視野の横断面も略V字状の横断面である。視野V1と視野V2とは、重複領域Aを有する。また、視野V1と視野V2とは、非重複領域C、及び重複領域と非重複領域との間にある領域Bを有する。ここでは、先ず障害物がカメラ1の視野V1から重複領域Aを経てカメラ2の視野V2に入る場合を検討する。障害物がカメラ1の視野V1から非重複領域C又は領域B(重複領域もあるし、非重複領域もある)を経てカメラ2の視野V2に入る場合については、後述する。
上記の説明において、ステップ108では、隣り合うカメラの視野が重なっている場合、少なくとも二つの隣り合うカメラの撮影した障害物画像の画像枠の特徴によって障害物画像を関連付ける。そして、少なくとも二つの隣り合うカメラの撮影した障害物画像の画像枠の特徴によって障害物画像を関連付ける必要がある理由は、隣り合うカメラ、例えばカメラ1とカメラ2とが撮影した障害物画像を比較するためである。撮影された1つのフレームの画像において多くの障害物の画像枠、例えば歩行者、非自動車両、他の自動車両等の画像枠が含まれる可能性があるため、隣り合うカメラの撮影した障害物画像の画像枠の特徴を関連することは、同一の障害物画像であると初歩的にみなされる画像枠を関連すること、例えば、カメラ1の撮影した歩行者画像の画像枠をカメラ2の撮影した歩行者画像の画像枠に関連付けることと、カメラ1の撮影した自転車画像の画像枠をカメラ2の撮影した自転車画像の画像枠に関連付けることと、カメラ1の撮影した他の自動車両画像の画像枠をカメラ2の撮影した他の自動車両画像の画像枠に関連付けることとなどである。
上記に言及されたステップ110については、一方のカメラの撮影した障害物画像の第1画像枠を、参照座標系を介して他方のカメラの結像平面に投影することで、第2画像枠を構成し、第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠とを比較して、画像枠の特徴に基づいて第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断する。ここで説明する必要があるのは、参照座標系が広義の概念であり、車体座標系である場合の車体座標や、世界座標系である場合の世界座標を含むことができ、上記にも説明したように、二つの隣り合うカメラからこの座標系への変換関係を承知できればよい。以下では、世界座標系を例として簡単に説明する。
例えば、カメラ1の結像平面における第1座標(u1,v1)は、回転・平行移動行列R1,T1を介して世界座標系における世界座標P(x1,y1,z1)に変換することができ、さらに、当該世界座標P(x1,y1,z1)を、回転・平行移動行列R2,T2を介してカメラ2の結像平面における第2座標に変換する。例えば、カメラ1が撮影した障害物画像の画像枠における第1点の第1座標(u1,v1)は、回転・平行移動行列R1,T1を介して世界座標系における世界座標P1(x1,y1,z1)に変換することができ、さらに、当該世界座標P1(x1,y1,z1)を、回転・平行移動行列R2,T2を介してカメラ2の結像平面における第1点の第2座標(u12,v12)に変換して、第1点の投影を完了する。同様に、カメラ1が撮影した障害物画像の画像枠における第2点の第1座標(u2,v2)は、回転・平行移動行列R1’,T1’を介して世界座標系における世界座標P2(x2,y2,z2)に変換することができ、さらに、当該世界座標P2(x2,y2,z2)を、回転・平行移動行列R2’,T2’を介してカメラ2の結像平面における第2点の第2座標(u22,v22)に変換して、第2点の投影を完了する。同様に、カメラ1が撮影した障害物画像の画像枠における第3点の第1座標(u3,v3)は、回転・平行移動行列R1’’,T1’’を介して世界座標系における世界座標P3(x3,y3,z3)に変換することができ、さらに、当該世界座標P3(x3,y3,z3)を、回転・平行移動行列R2’’,T2’’を介してカメラ2の結像平面における第3点の第2座標(u32,v32)に変換して、第3点の投影を完了する、等々。
カメラ1が撮影した障害物画像の第1画像枠におけるキーポイントの第1座標を、すべて世界座標系を介してカメラ2の結像平面中の第2画像枠におけるキーポイントの第2座標に変換すると、カメラ1の撮影した障害物画像の第1画像枠を、参照座標系を介してカメラ2の結像平面に投影して、第2画像枠を構成する処理が完了する。
如何にしてカメラ1の撮影した障害物画像の第1画像枠におけるキーポイントの第1座標を、世界座標系における世界座標に変換するか、及び如何にして世界座標をカメラ2の結像平面中の第2画像枠におけるキーポイントの第2座標に変換するかの技術は既知のものであり、本発明の発明点ではないため、ここでさらに詳しく説明しない。
図8は、本発明の第1態様の一実施例に係る二つの隣り合うカメラ1とカメラ2の視野が重なっていない場合を模式的に示す模式図である。図7に示す領域Cは、実際に二つの隣り合うカメラ1とカメラ2の視野の非重複領域であり、二つの隣り合うカメラ1とカメラ2の視野が重ならない別の場合にも属する。同様に、図8に示すカメラ1の視野をV1で表し、視野の横断面は略V字状の横断面であり、カメラ2の視野をV2で表し、視野の横断面も略V字状の横断面である。
図2を再度参照すると、図2は、隣り合うカメラの視野が重なっていない場合、障害物が一方のカメラの視野から消え、他方のカメラの視野に入ったばかりの時間帯に、運動方程式の推定を行って、障害物画像を関連付けるステップ112を示している。さらに、障害物画像を関連付けるステップ112は、一方のカメラの撮影した障害物画像の第1画像枠における第1座標を参照座標系の参照座標に変換し、さらに参照座標を運動方程式の推定に従って連続的に更新し、障害物が他方のカメラの視野に入ったばかりの時、最新の更新された参照座標を他方のカメラの結像平面における第2座標に投影し、第2座標の構成した障害物画像の第2画像枠を他方のカメラの撮影した障害物画像の第3画像枠と比較し、さらに画像枠の特徴に基づいて第1画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断するステップ114をさらに含んでもよい。
上記に言及したように、隣り合うカメラ、例えば図8に示す二つの隣り合うカメラの視野V1及びV2が重なっていない場合、又は、図7に示す二つの隣り合うカメラの視野V1及びV2の非重複領域Cにおいて、障害物がカメラ1の視野V1から消え、他方のカメラ2の視野V2に入ったばかりの時間帯に、運動方程式の推定を行って、障害物画像を関連付ける。ここで、障害物がカメラ1の視野V1から消え、他方のカメラ2の視野V2に入ったばかりの時間帯を考慮する理由は、障害物が運動している可能性があることを考えたためである。このような時間帯の存在し、この時間帯内に障害物がカメラにより撮影されても追跡されてもないため、この時間帯内における障害物の運動状況に対して運動方程式の推定を行う必要がある。運動方程式の推定は、既に図3で模式的に示されている。例えば、運動方程式の推定116は、等速の場合に行われる運動方程式の推定118や、等加速の場合に行われる運動方程式の推定又は等減速の場合に行われる運動方程式の推定等を含んでもよい。
上記に言及したように、一方のカメラ1の撮影した障害物画像の画像枠における第1点の第1座標(u1,v1)を参照座標系の参照座標P(x1,y1,z1)に変換し、さらに、参照座標P(x1,y1,z1)を運動方程式の推定に従って連続的に更新し、例えば、障害物が等速で運動すると仮定すると、更新後の第1点の参照座標はP(x1+vt,y1+vt,z1+vt)となり、ここで、vは障害物の運動速度であり、tは障害物がカメラ1の視野V1から離れた直後、現在までの時間帯であり、障害物がカメラ2の視野V2に入ったばかりであると、tは障害物がカメラ1の視野V1から離れた直後、カメラ2の視野V2に入る直前までの時間帯の長さを意味する。同様に、一方のカメラ1の撮影した障害物画像の画像枠における第2点の第1座標(u2,v2)を参照座標系の参照座標P(x2,y2,z2)に変換し、さらに参照座標P(x2,y2,z2)を運動方程式の推定に従って連続的に更新する。例えば、障害物が等速で運動すると仮定すると、更新後の第2点の参照座標はP(x2+vt,y2+vt,z2+vt)となり、ここで、vは障害物の運動速度であり、tは障害物がカメラ1の視野V1から離れた直後、現在までの時間帯であり、障害物がカメラ2の視野V2に入ったばかりであると、tは障害物がカメラ1の視野V1から離れた直後、カメラ2の視野V2に入る直前までの時間帯を意味する。一方のカメラ1の撮影した障害物画像の画像枠における第3点の第1座標(u3,v3)を参照座標系の参照座標P(x3,y3,z3)に変換し、さらに参照座標P(x3,y3,z3)を運動方程式の推定に従って連続的に更新する。例えば、障害物が等速で運動すると仮定すると、更新後の第3点の参照座標はP(x3+vt,y3+vt,z3+vt)となり、ここで、vは障害物の運動速度であり、tは障害物がカメラ1の視野V1から離れた直後、現在までの時間帯であり、障害物がカメラ2の視野V2に入ったばかりであると、tは障害物がカメラ1の視野V1から離れた直後、カメラ2の視野V2に入る直前までの時間帯を意味する、等々。
カメラ1の撮影した障害物画像の画像枠におけるキーポイントの参照座標をすべて最新の参照座標に更新すると、参照座標を運動方程式の推定に従って連続的に更新するステップが完了する。
障害物が他方のカメラV2の視野に入ったばかりの時、最新の更新された参照座標、例えばP(x1+vt,y1+vt,z1+vt)、P(x2+vt,y2+vt,z2+vt)、P(x3+vt,y3+vt,z3+vt)等を他方のカメラV2の結像平面中の第2座標、例えば(u12,v12)、(u22,v22)、(u32,v32)等に投影し、第2座標が構成した障害物画像の第2画像枠を他方のカメラの撮影した障害物画像の第3画像枠と比較し、さらにこれら二つの画像枠の画像枠の特徴に基づいて第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断する。
以上は障害物が等速で運動する場合について説明したが、障害物の等加速、等減速、ひいては静止の場合でも類似な方法を採用でき、第2座標が構成した障害物画像の第2画像枠を他方のカメラの撮影した障害物画像の第3画像枠と比較し、さらにこれら二つの画像枠の画像枠の特徴に基づいて二つの画像枠が同じ障害物に対するものであるか否かを判断する。
図4は画像枠の特徴124を示す示意図であり、例えば、他方のカメラの結像平面(障害物画像からなる)に投影された画像枠と他方のカメラの撮影した障害物画像の画像枠との間の中心距離126、各画像枠のアスペクト比128、及び/又は重なりの割合130を含むことができる。
なお、元のカメラV1の撮影した障害物画像の第1画像枠を、参照座標系を介して他方のカメラV2の結像平面に投影することで構成される第2画像枠とは、他方のカメラV2自身の撮影した障害物画像の第3画像枠との差が存在することが一般である。例えば、第2画像枠と第3画像枠とは完全に重複するものではない。そのため、他方のカメラV2に投影された障害物画像の第2画像枠と他方のカメラV2自身の撮影した障害物画像の第3画像枠の中心との間には中心距離が存在し、この中心距離は、第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断する判断指標の一つである。例えば、中心距離が特定の閾値より小さいである場合、二つの画像枠が同じ障害物に対するものであると判定することができる。特定の閾値の大きさについては、場合によって決定してもよい。
各画像枠のアスペクト比128も、これら二つの画像枠が同じ障害物に対するものであるか否かを判断する判断指標の一つである。画像枠のアスペクト比は近ければ近いほど、二つの画像枠が同じ障害物に対する撮影である可能性が高い。同様に、各画像枠のアスペクト比128が特定の閾値よりも大きい場合、二つの画像枠が同じ障害物に対するものであると判定することができる。特定の閾値の大きさについては、場合によって決定してもよい。
重なりの割合130とは、他方のカメラV2に投影された障害物画像の第2画像枠と他方のカメラV2自身の撮影した障害物画像の第3画像枠との間の重複率、即ち、それらの共通集合と合併集合との比を意味する。重なりの割合の比が1に近ければ近いほど、二つの画像枠が同じ障害物に対する撮影である可能性が高い。同様に、重なりの割合の比が特定の閾値よりも大きい場合、二つの画像枠が同じ障害物に対するものであると判定することができる。特定の閾値の大きさについては、場合によって決定してもよい。
本発明の一実施例において、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断すること(ステップ106)は、次のような判断方式、即ち、図6に示すように、障害物の類型による判断方式(132)、障害物の運動速度による判断方式(134)、障害物の運動方向による判断方式(136)、及び/又は画像枠の特徴による判断方式(138)をさらに含んでもよい。
障害物の類型による判断方式(132)として、例えばカメラ1の追跡撮影した障害物が歩行者であれば、表示する障害物の画像枠が歩行者に対応し、隣り合うカメラ2の撮影した画像において、障害物が歩行者である画像枠だけでなく、障害物が自転車である画像枠も含まれる場合、言うまでもなく、カメラ2の視野に投影された障害物が歩行者である画像枠とカメラ2自身の撮影した障害物が歩行者である画像枠とを比較するだけで、カメラ1の撮影した歩行者である障害物画像とカメラ2自身の撮影した歩行者である障害物画像とは同じ障害物に対するものであるか否かを判断できる。同様に、カメラ1の追跡撮影した障害物が自転車であれば、表示する障害物の画像枠が自転車に対応し、隣り合うカメラ2の撮影した画像において、障害物が自転車である画像枠だけでなく、障害物が歩行者である画像枠等が含まれる場合、言うまでもなく、カメラ2の視野に投影された障害物が自転車である画像枠とカメラ2自身の撮影した障害物が自転車である画像枠とを比較するだけで、カメラ1が撮影した自転車である障害物画像とカメラ2自身の撮影した自転車である障害物画像とが同じ障害物に対するものであるか否かを判断できる。
なお、隣り合うカメラの視野に重複があってもなくても、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とは同じ障害物に対するものであるか否かを判断すること(ステップ106)は、いずれも一方のカメラの撮影した障害物画像の画像枠(第1画像枠)を隣り合うカメラの結像平面に投影して障害物の画像枠(第2画像枠)を構成し、その後に、第2画像枠と隣り合うカメラ自身の撮影した障害物の画像枠(第3画像枠)とを比較することにより達成される。
障害物の運動速度による判断方式(134)として、カメラの撮影した画像において、歩行者や、自転車、他の自動車両、木等が含まれ、これらの物体の運動速度が一致しない。例えば、カメラ1の撮影したのは歩行者であり、歩行者の画像枠をカメラ2の視野内の障害物が歩行者である画像枠に投影し、第1歩行者と第2歩行者の運動速度が通常同じではないので、カメラ1の撮影した第1歩行者の障害物画像とカメラ2自身の撮影した第2歩行者の障害物画像とが同じ歩行者の障害物であるか否かを判断できる。
画像枠の特徴による判断方式(138)の説明については、上述した画像枠の特徴の説明を参照でき、これにより、カメラ1の撮影した障害物画像とカメラ2自身の撮影した障害物画像とが同じ障害物に対するものであるか否かを判断できる。
ここでは、単に隣り合うカメラ1及びカメラ2を例として説明したが、当業者であれば、隣り合うカメラ2とカメラ3との間、隣り合うカメラ3とカメラ4との間、隣り合うカメラ4とカメラ5との間、隣り合うカメラ5とカメラ6との間、隣り合うカメラ6とカメラ7との間、隣り合うカメラ7とカメラ8との間、隣り合うカメラ8とカメラ1との間にも同様にカメラ1とカメラ2との間の関連方式を参照して関連付けを行うことができるのを理解できる。例えば、隣り合うカメラ間の視野が重なる場合はどのように関連付けるか、隣り合うカメラ間の視野が重ならない場合はどのように関連付けるかについては、上記の通りである。
図9は、本発明の第1態様の一実施例に係る複数の隣り合うカメラが融合することを模式的に示す模式図である。例えば、検出枠はカメラにより追跡する必要がある障害物の画像枠を示しており(ステップ140)、複数のカメラにより構成された多重目標追跡システムは、例えば歩行者や、自転車、電気自動車、木、他の自動車両及び非自動車両等を同時に追跡できる(ステップ142)。本発明の一態様に係る障害物の検知方法又はシステム等によって、対応するカメラと融合済みか否かを判断する必要がある。即ち、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断するステップ106が完了したか否かを判断する必要がある。上記に言及したように、隣り合うカメラ1及びカメラ2の関連付けが完了したか否か、即ち、融合済みか否かについては、隣り合うカメラ2とカメラ3との間、隣り合うカメラ3とカメラ4との間、隣り合うカメラ4とカメラ5との間、隣り合うカメラ5とカメラ6との間、隣り合うカメラ6とカメラ7との間、隣り合うカメラ7とカメラ8との間、隣り合うカメラ8とカメラ1との間に全部関連すればこそ、関連が完了する。完了しないと、引き続けて隣り合うカメラの関連を行い(ステップ146)、完了したら、現在の追跡結果を出力する(ステップ148)。
なお、上記に言及された隣り合うカメラ1とカメラ2との間、隣り合うカメラ2とカメラ3との間、隣り合うカメラ3とカメラ4との間、隣り合うカメラ4とカメラ5との間、隣り合うカメラ5とカメラ6との間、隣り合うカメラ6とカメラ7との間、隣り合うカメラ7とカメラ8との間、隣り合うカメラ8とカメラ1との間は、全部関連すればこそ、関連完了又は融合済みとなり、自動車両の周囲360内の障害物に対して検知を行う一実施例である。一部の場合、例えば自動車両8の左側のみの障害物を検知する必要があったら、隣り合うカメラ8とカメラ1との間、隣り合うカメラ1とカメラ2との間、隣り合うカメラ2とカメラ3との間を関連させばよい。一部の場合、例えば自動車両8の右側のみの障害物を検知する必要があったら、隣り合うカメラ5とカメラ6との間、隣り合うカメラ6とカメラ7との間、隣り合うカメラ7とカメラ8との間を関連させばよい。
本発明の第2態様によれば、障害物の検知システム300を提供し、図10に模式的に示すように、自動車両8に配置された、自動車両の周囲の障害物を連続的に撮影するための少なくとも二つの隣り合うカメラ、例えばカメラ1〜8と、一方のカメラの撮影した障害物画像を他方のカメラの撮影した障害物画像と関連付けるための関連手段302と、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否かを判断するための判断手段304と、を備えてもよい。
本発明の第2態様の一実施例によれば、関連手段302は、隣り合うカメラの視野が重なる場合、少なくとも二つの隣り合うカメラの撮影した障害物画像の画像枠の特徴によって、障害物画像を関連付けるためにさらに用いられる。
本発明の第2態様の他の実施例によれば、関連手段302は、一方のカメラの撮影した障害物画像の第1画像枠を、参照座標系を介して他方のカメラの結像平面に投影することで、第2画像枠を構成し、第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠とを比較して、画像枠の特徴に基づいて第2画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断するためにさらに用いられる。
本発明の第2態様のまた一実施例によれば、関連手段302は、隣り合うカメラの視野が重なっていない場合、障害物が一方のカメラの視野から消え、他方のカメラの視野に入ったばかりの時間帯に、運動方程式の推定を行って、障害物画像を関連付けるためにさらに用いられる。
本発明の第2態様のまた一実施例によれば、関連手段302は、一方のカメラの撮影した障害物画像の第1画像枠における第1座標を参照座標系の参照座標に変換し、さらに参照座標を運動方程式の推定に従って連続的に更新し、障害物が他方のカメラの視野に入ったばかりの時、最新の更新された参照座標を他方のカメラの結像平面に投影することで第2座標を構成し、第2座標の構成した障害物画像の第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠とを比較し、さらに画像枠の特徴に基づいて第1画像枠と第3画像枠とが同じ障害物に対するものであるか否かを判断するためにさらに用いられる。
好ましくは、運動方程式の推定は、等速、等加速又は等減速の場合に運動方程式の推定を行うことを含んでもよい。
本発明の第2態様の一実施例によれば、画像枠の特徴は、他方のカメラの結像平面に投影された第2画像枠と他方のカメラの撮影した障害物画像の第3画像枠との間の中心距離、各画像枠のアスペクト比、及び/又は重なりの割合を含んでもよい。
好ましくは、自動車両に配置された少なくとも二つの隣り合うカメラは、自動車両の車体左前、車体左後、車体真正面、車体真後ろ、車体右前、車体右後にそれぞれ配置された複数のカメラを含んでもよく、これにより、自動車両の周囲360内の障害物を検知することができる。
好ましくは、一方のカメラの撮影した障害物画像と他方のカメラの撮影した障害物画像とが同じ障害物に対するものであるか否か判断することは、障害物の類型、運動速度、運動方向及び/又は画像枠の特徴に基づいて判断することを含んでもよい。
本発明の第3態様の実施例によれば、一つ又は複数のプロセッサーと、一つ或複数のプログラムを記憶するためのメモリーと、を備え、一つ又は複数のプログラムが一つ又は複数のプロセッサーにより実行される時、一つ又は複数のプロセッサーが上記した方法を実現するようにするコンピュータ装置を提供する。
本発明の第4態様の実施例によれば、コンピュータプログラムを記憶しているコンピュータ可読記憶媒体を提供し、当該プログラムはプロセッサーにより実行される時、上記した方法を実現することを特徴とする。
例えば、図11には本開示の実施例を実施するための例示的なコンピュータ装置400の模式ブロック図を示している。また、理解すべきものは、コンピュータ装置400は、本開示に記述された障害物の検知方法100を実現するために用いられることである。図面に示すように、コンピュータ装置400は、中央処理ユニット(CPU)402を備え、当該CPU402は、読み出し専用メモリー(ROM)404に記憶されたコンピュータプログラム命令又は記憶手段416からランダムアクセスメモリ(RAM)406にロードされたコンピュータプログラム命令に応じて、様々な適切な動作及び処理を実行することができる。RAM406には、コンピュータ装置400の操作に必要な各種のプログラム及びデータが記憶されてもよい。CPU402、ROM404及びRAM406はバス408を介して互いに接続される。入力/出力(I/O)インタフェース410もバス408に接続されている。
コンピュータ装置400における複数の部材は、I/Oインタフェース410に接続され、その複数の部材は、例えばキーボードや、マウス等の入力手段412と、例えば各種タイプのディスプレイや、スピーカー等の出力手段414と、例えば磁気ディスクや、光ディスク等の記憶手段416と、例えばネットワークカードや、モデム、無線通信送受信機等の通信手段418と、を備える。コンピュータ装置400は、通信手段418により、インターネットのようなコンピュータネットワーク及び/又は各種の電気通信ネットワークを介して、他の装置と情報/データを交換することができる。
処理手段402は上述した各方法及びプロセス、例えば方法100を実行する。例えば、一部の実施例において、方法100は、コンピュータソフトウェアプログラムとして実現されることができ、プログラムが物理的に例えば記憶手段416のような機械可読媒体に含まれる。一部の実施例において、コンピュータプログラムの一部又は全部は、ROM404及び/又は通信手段418を介してコンピュータ装置400にロード及び/又はインストールされることができる。コンピュータプログラムがRAM406にロードされてCPU62により実行される時、上記した方法100の一つ又は複数の動作又はステップを実行することができる。好ましくは、他の実施例において、CPU402はいずれか他の適切な方式(例えば、ファームウェアを介して)により方法100を実行するように配置されることができる。
以上、本明細書で説明した機能は、一つ又は複数のハードウェア論理部材により少なくとも一部が実行される。例えば、限定的ではないが、使用可能な模範タイプのハードウェア論理部材として、フィールド・プログラマブル・ゲート・アレイ(FPGA)、専用集積回路(ASIC)、専用標準製品(ASSP)、システム・オン・チップのシステム(SOC)、ロード・プログラマブル・ロジック・デバイス(CPLD)等を含む。
本明細書の説明において、用語「一実施例」、「いくつかの実施例」、「例」、「具体例」、又は「いくつかの例」等の説明とは、該実施例又は例を参照すると説明した具体的な特徴、構造、材料又は特性が本発明の少なくとも1つの実施例又は例に含まれることを意味する。且つ、説明される具体的な特徴、構造、材料又は特性はいずれか1つ又は複数の実施例又は例で適切な方式で結合してもよい。また、矛盾しない限り、当業者は本明細書に説明される様々な実施例又は例、及び様々な実施例又は例の特徴を結合及び組み合わせすることができる。
また、用語の「第1」、「第2」は説明のためのものに過ぎず、相対重要性を指示又は示唆し、又は指示された技術的特徴の数を暗示すると理解すべきではない。従って、「第1」、「第2」で制限された特徴は少なくとも1つの該特徴を明示的又は暗示的に含んでもよい。本発明の説明において、特に明確且つ具体的に制限しない限り、「複数」の意味は2つ又は2つ以上である。
当業者であれば、フローチャートにおける、又はここでほかの方式で説明されるいかなる過程又は方法についての説明は、確定の論理機能又は過程を実現するための1つ又は複数のステップの実行可能命令のコードを含むモジュール、セグメント又は部分を示すと理解されてもよく、且つ本発明の好適な実施形態の範囲はほかの実現を含み、指示又は検討される順序通りでなくてもよく、関わる機能に基づいて、ほぼ同時に、又は逆順序で機能を実行してもよいと理解すべきである。
フローチャートに示す、又はここでほかの方式で説明される論理及び/又はステップは、例えば、論理機能を実現するための実行可能命令の順序付けリストであると見なされてもよく、具体的にいかなるコンピュータ可読媒体に実現されてもよく、命令実行システム、装置又はデバイス(例えばコンピュータに基づくシステム、プロセッサーを含むシステム又は命令実行システム、装置又はデバイスから命令を受信し且つ命令を実行するシステム)の使用に備え、又はこれらの命令実行システム、装置又はデバイスと組み合わせて使用される。本明細書については、「コンピュータ可読媒体」はプログラムを包含、記憶、通信、伝播又は伝送することにより、命令実行システム、装置又はデバイス、又はこれらの命令実行システム、装置又はデバイスと組み合わせて使用されるいかなる装置であってもよい。コンピュータ可読媒体のさらなる具体例(非網羅的リスト)は、1つ又は複数の配線を有する電気接続部(電子装置)、ポータブルコンピュータケース(磁気装置)、ランダムアクセスメモリ(RAM)、読み出し専用メモリー(ROM)、電気的消去再書込み可能な読出し専用メモリー(EPROM又はフラッシュメモリー)、光ファイバー装置、及び携帯型読み出し専用メモリー(CDROM)を含む。また、コンピュータ可読媒体は更にその上に前記プログラムを印刷できる用紙又はほかの適切な媒体であってもよい理由は、例えば用紙又はほかの媒体を光学的に走査し、次に編集、解釈し、又は必要な時にほかの適切な方式で処理して、電子方式で前記プログラムを取得し、次にそれをコンピュータメモリに記憶することができるためである。
本発明の各部分はハードウェア、ソフトウェア、ファームウェア又はそれらの組み合わせで実現されてもよいと理解すべきである。上記実施形態において、複数のステップ又は方法は、メモリーに記憶される、且つ適切な命令実行システムで実行するソフトウェア又はファームウェアで実現されてもよい。例えば、ハードウェアで実現する場合は、別の実施形態と同様に、データ信号に対して論理機能を実現する論理ゲート回路を有する離散論理回路、適切な組み合わせ論理ゲート回路を有する確定用途向け集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)等の本分野での公知技術のうちのいずれか1つ又はそれらの組み合わせで実現してもよい。
当業者であれば、上記実施例方法におけるステップの全部又は一部の実現がプログラムによって関連するハードウェアを命令して完了させてもよく、前記プログラムがコンピュータ可読記憶媒体に記憶されてもよく、実行時に、該プログラムは方法実施例のステップの1つ又はそれらの組み合わせを含むと理解される。
また、本発明の各実施例における各機能ユニットが1つの処理モジュールに統合されてもよく、各ユニットが独立して物理的に存在してもよく、2つ又は2つ以上のユニットが1つのモジュールに統合されてもよい。上記統合モジュールはハードウェアのタイプで実現されてもよいし、ソフトウェア機能モジュールのタイプで実現されてもよい。前記統合モジュールはソフトウェア機能モジュールのタイプで実現され、且つ独立した製品として販売又は使用される時、1つのコンピュータ可読記憶媒体に記憶されてもよい。前記記憶媒体は読み出し専用メモリー、磁気ディスク又は光ディスク等であってもよい。
以上の説明は、本発明の具体的な実施形態に過ぎず、本発明の保護範囲を制限するためのものではなく、当業者が本発明に開示される技術的範囲内に容易に想到し得る種々の変更又は置換は、いずれも本発明の保護範囲内に含まれるべきである。従って、本発明の保護範囲は特許請求の範囲に準じるべきである。

Claims (20)

  1. 障害物の検知方法であって、
    自動車両に配置された少なくとも二つの隣り合うカメラによって、前記自動車両の周囲の障害物を連続的に撮影することと、
    一方のカメラ撮影した障害物画像を他方のカメラ撮影した障害物画像に関連付けることと、
    前記一方のカメラ撮影した障害物画像と前記他方のカメラ撮影した障害物画像とは同じ障害物に対するものであるか否かを判断することと、を含み、
    前記一方のカメラが撮影した障害物画像を前記他方のカメラが撮影した障害物画像に関連付けることは、
    前記隣り合うカメラの視野が重ならない場合、運動方程式の推定によって、前記一方のカメラが撮影した障害物画像に基づいて、前記障害物が前記一方のカメラの視野から消えて前記他方のカメラの視野に入った時点の障害物画像を推定して、前記推定された障害物画像と、前記他方のカメラが撮影した前記時点の障害物画像とを関連付けることを含む、
    ことを特徴とする障害物の検知方法。
  2. 前記隣り合うカメラの視野が重ならない場合における前記関連付けることは、
    前記一方のカメラが撮影した障害物画像及び前記他方のカメラが撮影した障害物画像のそれぞれの画像枠の特徴に基づいて、前記一方のカメラが撮影した障害物画像と前記他方のカメラが撮影した障害物画像との関連付けを行うことを含む、
    ことを特徴とする請求項1に記載の障害物の検知方法。
  3. 前記隣り合うカメラの視野が重ならない場合における前記関連付けることは、
    前記一方のカメラ撮影した障害物画像の第1画像枠における第1座標を参照座標系の参照座標に変換し、さらに前記参照座標を前記運動方程式の推定に従って連続的に更新し、前記障害物が前記他方のカメラの視野に入ったばかりの時、最新の更新された参照座標を前記他方のカメラの結像平面に投影することで第2座標を構成し、前記第2座標が構成した障害物画像の2画像枠と前記他方のカメラ撮影した障害物画像の3画像枠とを比較し、さらに画像枠の特徴に基づいて前記第1画像枠と前記第3画像枠とが同じ障害物に対するものであるか否かを判断することを含むことを特徴とする請求項に記載の障害物の検知方法。
  4. 前記運動方程式の推定は、等速、等加速又は等減速の場合に運動方程式の推定を行うことを含むことを特徴とする請求項1又は3に記載の障害物の検知方法。
  5. 前記一方のカメラ撮影した障害物画像を前記他方のカメラ撮影した障害物画像に関連付けることは、
    前記隣り合うカメラの視野が重なる場合、前記少なくとも二つの隣り合うカメラ撮影した障害物画像の画像枠の特徴によって、前記障害物画像を関連付けることをさらに含む、
    ことを特徴とする請求項1乃至4のいずれか一項に記載の障害物の検知方法。
  6. 前記少なくとも二つの隣り合うカメラ撮影した障害物画像の画像枠の特徴によって、前記障害物画像を関連付けることは、
    前記一方のカメラ撮影した障害物画像の第1画像枠を、参照座標系を介して前記他方のカメラの結像平面に投影することで、第2画像枠を構成し、前記第2画像枠と前記他方のカメラ撮影した障害物画像の第3画像枠と比較して、画像枠の特徴に基づいて前記第2画像枠と前記第3画像枠とが同じ障害物に対するものであるか否かを判断することを含むことを特徴とする請求項に記載の障害物の検知方法。
  7. 前記画像枠の特徴は、前記他方のカメラの結像平面に投影された第2画像枠と前記他方のカメラ撮影した障害物画像の第3画像枠との間の中心距離、各画像枠のアスペクト比、及び/又は重なりの割合を含むことを特徴とする請求項2、3、5、6のいずれか一項に記載の障害物の検知方法。
  8. 前記自動車両に配置された少なくとも二つの隣り合うカメラは、前記自動車両の車体左前、車体左後、車体真正面、車体真後ろ、車体右前、車体右後にそれぞれ配置された複数のカメラを含むことにより、前記自動車両の周囲360°内の障害物を検知することができることを特徴とする請求項1乃至のいずれか一項に記載の障害物の検知方法。
  9. 前記一方のカメラ撮影した障害物画像と前記他方のカメラ撮影した障害物画像とが同じ障害物に対するものであるか否かを判断することは、障害物の類型、運動速度、運動方向及び/又は障害物画像の画像枠の特徴に基づいて判断することを含むことを特徴とする請求項1乃至のいずれか一項に記載の障害物の検知方法。
  10. 障害物の検知システムであって、自動車両に配置された、前記自動車両の周囲の障害物を連続的に撮影するための少なくとも二つの隣り合うカメラと、
    一方のカメラ撮影した障害物画像と他方のカメラ撮影した障害物画像とを関連付けるための関連手段と、
    前記一方のカメラ撮影した障害物画像と前記他方のカメラ撮影した障害物画像とが同じ障害物に対するものであるか否かを判断するための判断手段と、を備え
    前記関連手段は、前記隣り合うカメラの視野が重ならない場合、運動方程式の推定によって、前記一方のカメラが撮影した障害物画像に基づいて、前記障害物が前記一方のカメラの視野から消えて前記他方のカメラの視野に入った時点の障害物画像を推定して、前記推定された障害物画像と、前記他方のカメラが撮影した前記時点の障害物画像とを関連付けるためにさらに用いられることを特徴とする障害物の検知システム。
  11. 前記関連手段は、前記一方のカメラが撮影した障害物画像及び前記他方のカメラが撮影した障害物画像のそれぞれの画像枠の特徴に基づいて、前記一方のカメラが撮影した障害物画像と前記他方のカメラが撮影した障害物画像との関連付けを行うことにさらに用いられることを特徴とする請求項10に記載の障害物の検知システム。
  12. 前記関連手段は、前記一方のカメラ撮影した障害物画像の第1画像枠における第1座標を参照座標系の参照座標に変換し、さらに前記参照座標を前記運動方程式の推定に従って連続的に更新し、前記障害物が前記他方のカメラの視野に入ったばかりの時、最新の更新された参照座標を前記他方のカメラの結像平面に投影することで第2座標を構成し、前記第2座標が構成した障害物画像の第2画像枠と前記他方のカメラ撮影した障害物画像の第3画像枠とを比較し、さらに画像枠の特徴に基づいて前記第1画像枠と前記第3画像枠とが同じ障害物に対するものであるか否かを判断するためにさらに用いられることを特徴とする請求項11に記載の障害物の検知システム。
  13. 前記運動方程式の推定は、等速、等加速又は等減速の場合に運動方程式の推定を行うことを含むことを特徴とする請求項10又は12に記載の障害物の検知システム。
  14. 前記画像枠の特徴は、前記他方のカメラの結像平面に投影された第2画像枠と前記他方のカメラ撮影した障害物画像の第3画像枠との間の中心距離、各画像枠のアスペクト比、及び/又は重なりの割合を含むことを特徴とする請求項11又は12に記載の障害物の検知システム。
  15. 前記関連手段は、前記隣り合うカメラの視野が重なる場合、前記少なくとも二つの隣り合うカメラ撮影した障害物画像の画像枠の特徴によって、前記障害物画像を関連付けるためにさらに用いられることを特徴とする請求項10乃至14のいずれか一項に記載の障害物の検知システム。
  16. 前記関連手段は、前記一方のカメラ撮影した障害物画像の第1画像枠を、参照座標系を介して前記他方のカメラの結像平面に投影することで、第2画像枠を構成し、前記第2画像枠と前記他方のカメラ撮影した障害物画像の第3画像枠とを比較して、画像枠の特徴に基づいて前記第2画像枠と前記第3画像枠とが同じ障害物に対するものであるか否かを判断するためにさらに用いられることを特徴とする請求項15に記載の障害物の検知システム。
  17. 前記自動車両に配置された少なくとも二つの隣り合うカメラは、前記自動車両の車体左前、車体左後、車体真正面、車体真後ろ、車体右前、車体右後にそれぞれ配置された複数のカメラを含むことによって、前記自動車両の周囲360°内の障害物を検知することができることを特徴とする請求項10乃至16のいずれか一項に記載の障害物の検知システム。
  18. 前記一方のカメラ撮影した障害物画像と前記他方のカメラ撮影した障害物画像とが同じ障害物に対するものであるか否かを判断することは、障害物の類型、運動速度、運動方向及び/又は障害物画像の画像枠の特徴に基づいて判断することを含むことを特徴とする請求項11、12、14、15、16のいずれか一項に記載の障害物の検知システム。
  19. コンピュータ装置であって、
    一つ又は複数のプロセッサーと、
    一つ又は複数のプログラムを記憶するためのメモリーと、を備え、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサーにより実行される時、前記一つ又は複数のプロセッサーが請求項1乃至9のいずれか一項に記載の方法を実現するようにすることを特徴とするコンピュータ装置。
  20. コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、前記コンピュータプログラムはプロセッサーにより実行されると、請求項1乃至9のいずれか一項に記載の方法を実現することを特徴とするコンピュータ可読記憶媒体。
JP2019118557A 2018-09-06 2019-06-26 障害物の検知方法、システム、コンピュータ装置、コンピュータ記憶媒体 Active JP6906567B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811039205.5A CN109163707B (zh) 2018-09-06 2018-09-06 障碍物感知方法、系统、计算机设备、计算机存储介质
CN201811039205.5 2018-09-06

Publications (2)

Publication Number Publication Date
JP2020042775A JP2020042775A (ja) 2020-03-19
JP6906567B2 true JP6906567B2 (ja) 2021-07-21

Family

ID=64894420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118557A Active JP6906567B2 (ja) 2018-09-06 2019-06-26 障害物の検知方法、システム、コンピュータ装置、コンピュータ記憶媒体

Country Status (4)

Country Link
US (1) US11042761B2 (ja)
EP (1) EP3620960A3 (ja)
JP (1) JP6906567B2 (ja)
CN (1) CN109163707B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112959A (ja) * 2019-01-10 2020-07-27 株式会社ダイフク 物品搬送装置
CN109823268A (zh) * 2019-02-19 2019-05-31 百度在线网络技术(北京)有限公司 一种危险道路行为告警方法、装置、服务器及系统
CN110228066B (zh) * 2019-05-29 2022-04-08 常州中铁科技有限公司 隧道检测装置及其避障单元和避障方法
CN113011445A (zh) * 2019-12-19 2021-06-22 斑马智行网络(香港)有限公司 标定方法、识别方法、装置及设备
CN111242986B (zh) * 2020-01-07 2023-11-24 阿波罗智能技术(北京)有限公司 跨相机的障碍物跟踪方法、装置、设备、系统及介质
CN111222579B (zh) * 2020-01-09 2023-10-03 北京百度网讯科技有限公司 跨相机的障碍物关联方法、装置、设备、电子系统及介质
CN111309032A (zh) * 2020-04-08 2020-06-19 江苏盛海智能科技有限公司 一种无人驾驶车辆的自主避障方法及控制端

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3833786B2 (ja) * 1997-08-04 2006-10-18 富士重工業株式会社 移動体の3次元自己位置認識装置
JP3764086B2 (ja) * 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
JP4114647B2 (ja) * 2004-07-07 2008-07-09 日産自動車株式会社 障害物検出装置
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置
JP4956799B2 (ja) * 2006-05-09 2012-06-20 日産自動車株式会社 車両周辺画像提供装置及び車両周辺画像提供方法
JP4173901B2 (ja) * 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
TWI327536B (en) * 2007-05-16 2010-07-21 Univ Nat Defense Device and method for detecting obstacle by stereo computer vision
US9487172B2 (en) * 2012-03-09 2016-11-08 Lg Electronics Inc. Image display device and method thereof
WO2013148675A1 (en) * 2012-03-26 2013-10-03 Robert Bosch Gmbh Multi-surface model-based tracking
US9110169B2 (en) * 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
JP6091977B2 (ja) * 2013-04-22 2017-03-08 日立建機株式会社 建設機械
JP6266238B2 (ja) * 2013-07-03 2018-01-24 クラリオン株式会社 接近物検出システム、及び車両
JP6398347B2 (ja) * 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP2015064778A (ja) * 2013-09-25 2015-04-09 住友電気工業株式会社 検出対象識別装置、変換装置、監視システム、及びコンピュータプログラム
JP6331402B2 (ja) * 2014-01-14 2018-05-30 株式会社デンソー 移動体検出装置および移動体検出方法
JP6573361B2 (ja) * 2015-03-16 2019-09-11 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
CN107925745B (zh) * 2015-11-30 2020-09-08 住友重机械工业株式会社 施工机械用周边监视系统
US10152649B2 (en) * 2015-12-01 2018-12-11 Mobileye Vision Technologies Ltd. Detecting visual information corresponding to an animal
US10740627B2 (en) * 2017-05-10 2020-08-11 Fotonation Limited Multi-camera vision system and method of monitoring
CN107580199A (zh) * 2017-09-08 2018-01-12 深圳市伊码泰珂电子有限公司 重叠视域多摄像机协同的目标定位与跟踪系统
WO2019136479A1 (en) * 2018-01-08 2019-07-11 The Regents On The University Of California Surround vehicle tracking and motion prediction
US10685239B2 (en) * 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection

Also Published As

Publication number Publication date
EP3620960A2 (en) 2020-03-11
US20200082181A1 (en) 2020-03-12
CN109163707A (zh) 2019-01-08
US11042761B2 (en) 2021-06-22
CN109163707B (zh) 2019-11-26
JP2020042775A (ja) 2020-03-19
EP3620960A3 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP6906567B2 (ja) 障害物の検知方法、システム、コンピュータ装置、コンピュータ記憶媒体
JP6833630B2 (ja) 物体検出装置、物体検出方法およびプログラム
US11615629B2 (en) Estimation of time to collision in a computer vision system
US10268904B2 (en) Vehicle vision system with object and lane fusion
JP2019096072A (ja) 物体検出装置、物体検出方法およびプログラム
US10645365B2 (en) Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium
Fossati et al. Real-time vehicle tracking for driving assistance
US10699563B1 (en) Multi-sensor multi-object tracking
US9098750B2 (en) Gradient estimation apparatus, gradient estimation method, and gradient estimation program
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
CN111052201B (zh) 碰撞预测装置、碰撞预测方法以及存储介质
US10936886B2 (en) Method and system for stereo based vehicle pose estimation
WO2022160232A1 (zh) 一种检测方法、装置和车辆
CN113177976A (zh) 一种深度估计方法、装置、电子设备及存储介质
Nambi et al. FarSight: a smartphone-based vehicle ranging system
JP2021092996A (ja) 計測システム、車両、計測方法、計測装置及び計測プログラム
Shan et al. Probabilistic egocentric motion correction of lidar point cloud and projection to camera images for moving platforms
JP7064400B2 (ja) 物体検知装置
US20190304123A1 (en) Identification apparatus, identification method, and non-transitory recording medium storing identification program
JP2013161433A (ja) 車両の周辺監視装置
KR20200072590A (ko) 자동 주차 기능을 위한 주차선 이탈 감지 방법 및 장치
Park et al. Monocular fisheye lens model-based distance estimation for forward collision warning systems
JP2019020171A (ja) 車幅検出装置、車幅検出方法、およびプログラム
WO2021102911A1 (zh) 一种图像检测方法、图像检测设备及存储介质
WO2021232031A2 (en) Detection of hidden object using non-line-of-sight (nlos) imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210629

R150 Certificate of patent or registration of utility model

Ref document number: 6906567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350