JP7236556B2 - 物体検知装置および物体検知プログラム - Google Patents

物体検知装置および物体検知プログラム Download PDF

Info

Publication number
JP7236556B2
JP7236556B2 JP2021552369A JP2021552369A JP7236556B2 JP 7236556 B2 JP7236556 B2 JP 7236556B2 JP 2021552369 A JP2021552369 A JP 2021552369A JP 2021552369 A JP2021552369 A JP 2021552369A JP 7236556 B2 JP7236556 B2 JP 7236556B2
Authority
JP
Japan
Prior art keywords
vehicle
point
moving
movement
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021552369A
Other languages
English (en)
Other versions
JPWO2021075377A1 (ja
Inventor
陽平 鈴木
嘉紀 早川
秀典 田中
明宏 貴田
邦泰 杉原
豊 濱本
真澄 福万
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Publication of JPWO2021075377A1 publication Critical patent/JPWO2021075377A1/ja
Application granted granted Critical
Publication of JP7236556B2 publication Critical patent/JP7236556B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Description

関連出願への相互参照
本出願は、2019年10月14日に出願された日本特許出願番号2019-188278号に基づくもので、ここにその記載内容が参照により組み入れられる。
本開示は、自車両に搭載されることで当該自車両の周囲に存在する物体を検知するように構成された、物体検知装置に関する。また、本開示は、かかる物体検知装置により実行される物体検知プログラムに関する。
例えば、特許文献1に記載の障害物検出システムが知られている。かかる障害物検出システムは、移動する車両に装着され、撮像部により撮像された画像を用いて車両の後方にある障害物を検出する。移動検出部は、撮像部が第1の画像を撮像した位置から、車両が一定量の移動を行ったことを検出する。画像取得部は、第1の画像と、移動検出部において車両が一定量の移動を行ったと検出されたときの画像としての第2の画像とを取得し、障害物検出部に供給する。障害物検出部は、第1の画像と第2の画像とを用いて、移動ステレオ方式により物体までの距離を計測する。移動ステレオ方式は、1つのカメラで異なる時間に異なる位置で撮像された2枚の画像を用いて、三角測量の原理により画像中の物体の三次元位置を検出し、障害物か否かを検出する。
特開2009-180536号公報
特許文献1に記載の障害物検出システムは、移動ステレオ方式における三角測量の原理により画像中の物体の三次元位置を検出するに際し、検出対象の物体が静止物体であることを前提としている。このため、検出対象の物体が移動物体である場合、物体の三次元位置の誤差が大きくなる。誤差が大きな三次元位置を含む物体検出結果は、車両制御に良好に用いることができない。
本開示は、上記に例示した事情等に鑑みてなされたものである。すなわち、本開示は、例えば、車両制御に良好に用いることが可能な物体検知結果を提供する。
請求項1に記載の物体検知装置は、自車両に搭載されることで、当該自車両の周囲の障害物である物体の存在を検知するように構成されている。
この物体検知装置は、
前記自車両に搭載された1つの撮像部によって、前記自車両の移動に伴い異なる自車両位置にて撮影された複数の撮影画像に基づいて、前記物体に対応する検知点の位置座標を取得する、座標取得部と、
移動中の前記物体である移動物体に対応する前記検知点である移動点の位置座標を除く、前記移動点とは異なる前記検知点である停止点の位置座標に基づいて、前記物体を認識する、物体認識部と、
を備えている。
請求項9に記載の物体検知プログラムは、自車両に搭載されることで当該自車両の周囲の障害物である物体の存在を検知するように構成された物体検知装置により実行されるプログラムであって、
前記物体検知装置により実行される処理は、
前記自車両に搭載された1つの撮像部によって、前記自車両の移動に伴い異なる自車両位置にて撮影された複数の撮影画像に基づいて、前記物体に対応する検知点の位置座標を取得する処理と、
移動中の前記物体である移動物体に対応する前記検知点である移動点の位置座標を除く、前記移動点とは異なる前記検知点である停止点の位置座標に基づいて、前記物体を認識する処理と、
を含む。
なお、出願書類中の各欄において、各要素に括弧付きの参照符号が付されている場合がある。この場合、参照符号は、単に、同要素と後述する実施形態に記載の具体的構成との対応関係の一例を示すものである。よって、本開示は、参照符号の記載によって、何ら限定されるものではない。
実施形態に係る物体検知装置を搭載した車両の概略構成を示す平面図である。 図1に示された物体検知装置の一実施形態における概略的な機能構成を示すブロック図である。 図2に示された物体検知装置の動作例を示す概念図である。 図2に示された物体検知装置の動作例を示すフローチャートである。
(実施形態)
以下、本開示の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(車両全体構成)
図1を参照すると、車両10は、いわゆる四輪自動車であって、平面視にて略矩形状の車体11を備えている。以下、車両10の車幅方向における中心を通り、且つ車両10における車両全長方向と平行な仮想直線を、車両中心軸線LCと称する。図1において、車幅方向は図中左右方向である。車両全長方向は、車幅方向と直交し且つ車高方向と直交する方向である。車高方向は、車両10の車高を規定する方向であって、車両10を水平面に走行可能な状態で安定的に載置した場合の重力作用方向と平行な方向である。さらに、走行により車両10が移動する、車高方向と直交する任意の方向を、車両10の「並進方向」と称することがある。
説明の便宜上、車両10における「前」「後」「左」「右」を、図1中にて矢印で示された通りに定義する。すなわち、車両全長方向は、前後方向と同義である。また、車幅方向は、左右方向と同義である。なお、車高方向は、車両10の載置条件または走行条件により、重力作用方向と平行とはならない場合があり得る。もっとも、車高方向は多くの場合に重力作用方向に沿った方向となる。このため、車高方向と直交する「並進方向」は、「水平方向」、「面内方向」、「進入方向」、「進行方向」あるいは「進路方向」とも称され得る。
車体11における前側の端部である前面部12には、フロントバンパー13が装着されている。車体11における後側の端部である後面部14には、リアバンパー15が装着されている。車体11における側面部16には、ドアパネル17が装着されている。図1に示す具体例においては、左右にそれぞれ2枚ずつ、合計4枚のドアパネル17が設けられている。前側の左右一対のドアパネル17のそれぞれには、ドアミラー18が装着されている。
(物体検知装置)
車両10には、物体検知装置20が搭載されている。物体検知装置20は、車両10に搭載されることで、当該車両10の外側且つその周囲に存在する物体Bを検知するように構成されている。以下、物体検知装置20を搭載した車両10を、「自車両10」と略称することがある。
本実施形態においては、物体検知装置20は、撮像部21と、ソナーセンサ22と、レーダーセンサ23と、車速センサ24と、シフトポジションセンサ25と、舵角センサ26と、物体検知ECU27と、表示部28と、音声出力部29とを備えている。ECUはElectronic Control Unitの略である。以下、物体検知装置20を構成する各部の詳細について、図1および図2を参照しつつ説明する。なお、図示の簡略化のため、物体検知装置20を構成する各部の間の電気接続関係は、図1においては省略されている。
撮像部21は、自車両10の周囲の画像を撮影しつつ当該自車両10の移動に伴って移動するように、当該自車両10に搭載されている。撮像部21は、自車両10の周囲の撮影画像に対応する画像情報を生成するように構成されている。本実施形態においては、撮像部21は、デジタルカメラ装置であって、CCDあるいはCMOS等のイメージセンサを備えている。CCDはCharge Coupled Deviceの略である。CMOSはComplementary MOSの略である。
本実施形態においては、車両10には、複数の撮像部21、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRが搭載されている。フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRのうちの、いずれかであることを特定しない場合に、以下、「撮像部21」という単数形の表現、または「複数の撮像部21」という表現が用いられることがある。
フロントカメラCFは、自車両10の前方の画像に対応する画像情報を取得するように、車体11の前面部12に装着されている。リアカメラCBは、自車両10の後方の画像に対応する画像情報を取得するように、車体11の後面部14に装着されている。
左側カメラCLは、自車両10の左方の画像に対応する画像情報を取得するように、左側のドアミラー18に装着されている。右側カメラCRは、自車両10の右方の画像に対応する画像情報を取得するように、右側のドアミラー18に装着されている。
複数の撮像部21の各々は、車載通信回線を介して、物体検知ECU27と情報通信可能に接続されている。すなわち、複数の撮像部21の各々は、取得すなわち生成した画像情報を、物体検知ECU27にて受信可能に出力するようになっている。
ソナーセンサ22は、物体Bまでの距離を検出する測距センサであって、車体11に装着されている。本実施形態においては、ソナーセンサ22は、いわゆる超音波センサであって、超音波である探査波を自車両10の外側に向けて発信するとともに、超音波を含む受信波を受信可能に構成されている。すなわち、ソナーセンサ22は、探査波の物体Bによる反射波を含む受信波を受信することで、物体B上の測距点との距離の検出結果である測距情報を出力するように設けられている。「測距点」は、物体Bの表面上における、ソナーセンサ22から発信された探査波を反射したと推定される点であって、レーダーセンサ23における「反射点」に対応する点である。
物体検知装置20は、少なくとも1つのソナーセンサ22を備えている。具体的には、本実施形態においては、複数のソナーセンサ22が設けられている。複数のソナーセンサ22は、それぞれ、車両中心軸線LCから車幅方向におけるいずれか一方側にシフトして配置されている。また、複数のソナーセンサ22のうちの少なくとも一部は、車両中心軸線LCと交差する方向に沿って探査波を発信するように設けられている。
具体的には、フロントバンパー13には、ソナーセンサ22としての、第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、および第四フロントソナーSF4が装着されている。同様に、リアバンパー15には、ソナーセンサ22としての、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、および第四リアソナーSR4が装着されている。また、車体11の側面部16には、ソナーセンサ22としての、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4が装着されている。
第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、第四フロントソナーSF4、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、第四リアソナーSR4、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4のうちの、いずれかであることを特定しない場合に、以下、「ソナーセンサ22」という単数形の表現、または「複数のソナーセンサ22」という表現が用いられることがある。
或る1つのソナーセンサ22を「第一ソナーセンサ」と称し、別の1つのソナーセンサ22を「第二ソナーセンサ」と称して、「直接波」および「間接波」を、以下のように定義する。第一ソナーセンサに受信される受信波であって、第一ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「直接波」と称する。すなわち、直接波は、探査波を送信したソナーセンサ22と、当該探査波の物体Bによる反射波を受信波として検知したソナーセンサ22とが、同一である場合の、当該受信波である。これに対し、第二ソナーセンサに受信される受信波であって、第一ソナーセンサから発信された探査波の物体Bによる反射波に起因する受信波を、「間接波」と称する。すなわち、間接波とは、探査波を送信したソナーセンサ22と、当該探査波の物体Bによる反射波を受信波として検知したソナーセンサ22とが、異なる場合の、当該受信波である。
第一フロントソナーSF1は、自車両10の左前方に探査波を発信するように、フロントバンパー13の前側表面における左端部に設けられている。第二フロントソナーSF2は、自車両10の右前方に探査波を発信するように、フロントバンパー13の前側表面における右端部に設けられている。第一フロントソナーSF1と第二フロントソナーSF2とは、車両中心軸線LCを挟んで対称に配置されている。
第三フロントソナーSF3と第四フロントソナーSF4とは、フロントバンパー13の前側表面における中央寄りの位置にて、車幅方向に配列されている。第三フロントソナーSF3は、自車両10の略前方に探査波を発信するように、車幅方向について第一フロントソナーSF1と車両中心軸線LCとの間に配置されている。第四フロントソナーSF4は、自車両10の略前方に探査波を発信するように、車幅方向について第二フロントソナーSF2と車両中心軸線LCとの間に配置されている。第三フロントソナーSF3と第四フロントソナーSF4とは、車両中心軸線LCを挟んで対称に配置されている。
上記の通り、車体11の左側に装着された第一フロントソナーSF1および第三フロントソナーSF3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一フロントソナーSF1と第三フロントソナーSF3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
すなわち、第一フロントソナーSF1は、自己が発信した探査波に対応する直接波と、第三フロントソナーSF3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三フロントソナーSF3は、自己が発信した探査波に対応する直接波と、第一フロントソナーSF1が発信した探査波に対応する間接波との双方を受信可能に配置されている。
同様に、車体11の車幅方向における中央寄りに装着された第三フロントソナーSF3および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三フロントソナーSF3と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
同様に、車体11の右側に装着された第二フロントソナーSF2および第四フロントソナーSF4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二フロントソナーSF2と第四フロントソナーSF4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
第一リアソナーSR1は、自車両10の左後方に探査波を発信するように、リアバンパー15の後側表面における左端部に設けられている。第二リアソナーSR2は、自車両10の右後方に探査波を発信するように、リアバンパー15の後側表面における右端部に設けられている。第一リアソナーSR1と第二リアソナーSR2とは、車両中心軸線LCを挟んで対称に配置されている。
第三リアソナーSR3と第四リアソナーSR4とは、リアバンパー15の後側表面における中央寄りの位置にて、車幅方向に配列されている。第三リアソナーSR3は、自車両10の略後方に探査波を発信するように、車幅方向について第一リアソナーSR1と車両中心軸線LCとの間に配置されている。第四リアソナーSR4は、自車両10の略後方に探査波を発信するように、車幅方向について第二リアソナーSR2と車両中心軸線LCとの間に配置されている。第三リアソナーSR3と第四リアソナーSR4とは、車両中心軸線LCを挟んで対称に配置されている。
上記の通り、車体11の左側に装着された第一リアソナーSR1および第三リアソナーSR3は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第一リアソナーSR1と第三リアソナーSR3とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
すなわち、第一リアソナーSR1は、自己が発信した探査波に対応する直接波と、第三リアソナーSR3が発信した探査波に対応する間接波との双方を受信可能に配置されている。同様に、第三リアソナーSR3は、自己が発信した探査波に対応する直接波と、第一リアソナーSR1が発信した探査波に対応する間接波との双方を受信可能に配置されている。
同様に、車体11の車幅方向における中央寄りに装着された第三リアソナーSR3および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第三リアソナーSR3と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
同様に、車体11の右側に装着された第二リアソナーSR2および第四リアソナーSR4は、平面視にて互いに異なる位置に配置されている。また、車幅方向について互いに隣接する第二リアソナーSR2と第四リアソナーSR4とは、相互に、一方が発信した探査波の物体Bによる反射波が他方における受信波として受信可能な位置関係に設けられている。
第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、側面部16の外側表面である車両側面から探査波を自車両10の側方に発信するように設けられている。第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、および第四サイドソナーSS4は、それぞれ、直接波のみを受信可能に設けられている。
第一サイドソナーSS1は、自車両10の左方に探査波を発信するように、前後方向について左側のドアミラー18と第一フロントソナーSF1との間に配置されている。第二サイドソナーSS2は、自車両10の右方に探査波を発信するように、前後方向について右側のドアミラー18と第二フロントソナーSF2との間に配置されている。第一サイドソナーSS1と第二サイドソナーSS2とは、車両中心軸線LCを挟んで対称に設けられている。
第三サイドソナーSS3は、自車両10の左方に探査波を発信するように、前後方向について左後側のドアパネル17と第一リアソナーSR1との間に配置されている。第四サイドソナーSS4は、自車両10の右方に探査波を発信するように、前後方向について右後側のドアパネル17と第二リアソナーSR2との間に配置されている。第三サイドソナーSS3と第四サイドソナーSS4とは、車両中心軸線LCを挟んで対称に設けられている。
複数のソナーセンサ22の各々は、車載通信回線を介して、物体検知ECU27と情報通信可能に接続されている。複数のソナーセンサ22の各々は、物体検知ECU27の制御下で探査波を発信するとともに、受信波の受信結果に対応する信号を発生して物体検知ECU27にて受信可能に出力するようになっている。受信波の受信結果に対応する信号に含まれる情報を、以下「測距情報」と称する。測距情報には、受信波の受信強度に関連する情報、および、距離情報が含まれる。「距離情報」は、複数のソナーセンサ22の各々と物体Bとの距離に関連する情報である。具体的には、例えば、距離情報には、探査波の発信から受信波の受信までの時間差に関連する情報が含まれる。
レーダーセンサ23は、レーダー波を送受信するレーザーレーダーセンサまたはミリ波レーダーセンサであって、車体11の前面部12に装着されている。レーダーセンサ23は、車載通信回線を介して、物体検知ECU27と情報通信可能に接続されている。レーダーセンサ23は、反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように構成されている。「反射点」は、物体Bの表面上における、レーダー波を反射したと推定される点である。「相対速度」は、反射点すなわちレーダー波を反射した物体Bの、自車両10に対する相対速度である。
車速センサ24、シフトポジションセンサ25、および舵角センサ26は、車載通信回線を介して、物体検知ECU27と情報通信可能に接続されている。車速センサ24は、自車両10の走行速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。自車両10の走行速度を、以下単に「車速」と称する。シフトポジションセンサ25は、自車両10のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。舵角センサ26は、自車両10の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力するように設けられている。
物体検知ECU27は、車体11の内側に配置されている。物体検知ECU27は、いわゆる車載マイクロコンピュータであって、図示しないCPU、ROM、RAM、不揮発性リライタブルメモリ、等を備えている。不揮発性リライタブルメモリは、例えば、EEPROM、フラッシュROM、ハードディスク、等である。EEPROMはElectronically Erasable and Programmable Read Only Memoryの略である。物体検知ECU27のCPU、ROM、RAMおよび不揮発性リライタブルメモリを、以下単に「CPU」、「ROM」、「RAM」および「不揮発記憶媒体」と略称する。ROMおよび不揮発記憶媒体は、コンピュータ読み取り可能な非遷移的実体的記憶媒体に相当するものである。
物体検知ECU27は、CPUがROMまたは不揮発記憶媒体からプログラムを読み出して実行することで、各種の制御動作を実現可能に構成されている。このプログラムには、後述のフローチャートあるいはルーチンに対応するものが含まれている。また、RAMおよび不揮発記憶媒体は、CPUがプログラムを実行する際の処理データを一時的に格納可能に構成されている。さらに、ROMおよび/または不揮発記憶媒体には、プログラムの実行の際に用いられる各種のデータが、あらかじめ格納されている。各種のデータには、例えば、初期値、ルックアップテーブル、マップ、等が含まれている。
物体検知ECU27は、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作を実行するように構成されている。また、物体検知ECU27は、表示部28および音声出力部29の動作を制御することで、物体検知状態に伴う報知動作を行うようになっている。
表示部28および音声出力部29は、車両10における車室内に配置されている。また、表示部28および音声出力部29は、車載通信回線を介して、物体検知ECU27と情報通信可能に接続されている。すなわち、表示部28は、物体検知結果およびこれを用いた各種動作に伴う報知動作を、表示画面またはインジケータを用いた表示により行うように構成されている。また、音声出力部29は、物体検知結果およびこれを用いた各種動作に伴う報知動作を、スピーカを用いた音声出力により行うように構成されている。
本実施形態においては、物体検知ECU27は、駐車支援機能および衝突回避機能を含む運転支援機能を奏するように構成されている。具体的には、例えば、物体検知ECU27は、撮像部21を用いて駐車スペースを検出するとともに、検出した駐車スペースへの自車両10の移動を、ソナーセンサ22等による障害物検知結果に基づいて支援するようになっている。「障害物」とは、自車両10の周囲に存在する物体Bのうち、高さが所定の閾値よりも高いために乗り越え走行が困難または不可能なものをいう。また、物体検知ECU27は、撮像部21を用いて検知した障害物を回避しつつ所定の算出経路を走行するために必要な、自車両10の加減速制御量および操舵制御量を算出するようになっている。
すなわち、物体検知装置20は、運転支援装置50の一部を構成するように設けられている。運転支援装置50は、物体検知装置20に加えて、入力操作部51と、動力制御ECU52と、制動制御ECU53と、操舵制御ECU54とを備えている。入力操作部51、動力制御ECU52、制動制御ECU53、および操舵制御ECU54は、車載通信回線を介して、物体検知ECU27と情報通信可能に接続されている。
入力操作部51は、車両10における車室内に配置されている。入力操作部51は、車両10の乗員である操作者による入力操作を受け付けるための、スイッチ類および/または音声入力部を備えている。
動力制御ECU52は、不図示の走行用モータおよび/またはエンジンの動作を制御して、車両10の走行出力を制御するように設けられている。制動制御ECU53は、不図示のブレーキアクチュエータ等の駆動を制御して、車両10の制動力を制御するように設けられている。操舵制御ECU54は、不図示の操舵用モータの駆動を制御して、車両10の操舵量を制御するように設けられている。
(物体検知ECU)
図2を参照すると、物体検知ECU27は、マイクロコンピュータ上にて実現される、以下の機能構成を有している。すなわち、物体検知ECU27は、画像情報取得部270と、特徴点抽出部271と、座標取得部272とを有している。また、物体検知ECU27は、移動状態量取得部273と、移動物体判定部274と、移動点特定部275と、停止点特定部276とを有している。また、物体検知ECU27は、測距情報取得部277と、物体認識部278と、制御内容判定部279とを有している。以下、本実施形態における、物体検知ECU27の機能構成の詳細について説明する。
画像情報取得部270は、自車両10の周囲の撮影画像に対応する画像情報を取得するように設けられている。具体的には、画像情報取得部270は、撮像部21により生成された画像情報を撮像部21から受信するとともに、受信した画像情報を、不揮発記憶媒体を用いて時系列で所定容量分保持するようになっている。
特徴点抽出部271は、画像情報取得部270にて取得した画像情報に基づいて、撮影画像における特徴点を抽出するように設けられている。特徴点は、撮影画像中の物体Bの形状を特徴付ける点であって、「検知点」に相当する。具体的には、特徴点は、撮影画像の画角内における、特徴的な点すなわち画素である。例えば、特徴点は、隣接する画素との間での輝度変化が大きな画素である。なお、特徴点およびその抽出手法は、本願の出願時点にて周知である。特徴点の検出手法として、周知の手法(例えば、Sobelフィルタ、Laplacianフィルタ、Canny法、等。)を用いることが可能である。したがって、本明細書においては、特徴点抽出部271による特徴点の抽出手法の詳細については、説明を省略する。なお、特徴点の「抽出」は、「検出」とも表現され得る。
座標取得部272は、自車両10に搭載された1つの撮像部21により異なる自車両位置にて撮影された複数の撮影画像に基づいて、物体Bに対応する検知点の位置座標を取得するように設けられている。「1つの撮像部21」は、例えば、自車両10の前方に存在する物体Bを検知する場合は、フロントカメラCFである。
具体的には、座標取得部272は、同一の撮像部21により異なる自車両位置および時刻にて撮像された複数の撮影画像に基づいて、移動ステレオの手法により、物体Bに対応する特徴点の三次元位置座標を算出するようになっている。移動ステレオは、単眼移動ステレオあるいはSFMとも称される。SFMはStructure from Motionの略である。なお、移動ステレオあるいはSFMについては、本願の出願時点において、すでに公知あるいは周知となっている。したがって、本明細書においては、移動ステレオあるいはSFMの詳細については、説明を省略する。
座標取得部272により位置座標が算出される、物体Bに対応する「検知点」は、特徴点抽出部271により抽出された特徴点のうち、異なる自車両位置および時刻にて撮像された複数の撮影画像間での対応付けがなされたものである。よって、「検知点」は、「特徴点」とも言い換えられ得る。
移動状態量取得部273は、物体Bの移動速度または移動量である移動状態量を取得するように設けられている。本実施形態においては、移動状態量取得部273は、異なる自車両位置にて撮影された複数の撮影画像に基づいて算出したオプティカルフローを用いて、移動状態量を取得するようになっている。
移動物体判定部274は、移動状態量取得部273による移動状態量の取得結果に基づいて、移動中の物体Bである移動物体の存否と、移動物体が存在する場合の自車両10との相対位置関係とを判定するように設けられている。具体的には、移動物体判定部274は、移動状態量が閾値を超える検知点の検知状態および分布状態に基づいて、移動物体の存否を判定するようになっている。また、移動物体判定部274は、ノイズではなく移動物体に対応するものであると判定された検知点の、三次元位置または画角内位置に基づいて、自車両10を基準として移動物体が存在する方向を判定するようになっている。なお、オプティカルフローを用いた移動物体の検知および移動状態量の算出については、本願の出願時点において、すでに公知あるいは周知となっている。したがって、本明細書においては、オプティカルフローを用いた移動物体の検知および移動状態量の算出の詳細については、説明を省略する。
移動点特定部275は、移動物体に対応する検知点を移動点として特定するように設けられている。図1および図2に加えて図3を参照すると、本実施形態においては、移動点特定部275は、移動物体の自車両10との相対位置関係に応じて設定される所定範囲である移動点特定範囲RM内に存在する検知点を、移動点として特定するようになっている。具体的には、移動点特定部275は、自車両10を基準として移動物体が存在する方向に、移動点特定範囲RMを設定するようになっている。
また、移動点特定部275は、移動状態量に応じて移動点特定範囲RMの形状を可変に設定するようになっている。具体的には、移動点特定部275は、移動物体の移動速度VB、あるいは、前回撮影時点と今回撮影時点との間の移動物体の移動量DBに応じて、移動点特定範囲RMの大きさを変更するようになっている。移動点特定範囲RMの設定態様の詳細については、後述の動作概要の説明欄において説明する。
停止点特定部276は、移動点とは異なる検知点である停止点を特定するように設けられている。停止点は、静止中の物体Bである静止物体に対応する検知点である。停止点特定部276は、複数取得された検知点から移動点を除くことで、停止点を特定するようになっている。具体的には、本実施形態においては、停止点特定部276は、座標取得部272により位置座標が取得された複数の検知点から、移動点を除くことで、停止点を特定するようになっている。
測距情報取得部277は、ソナーセンサ22による距離検出結果である測距情報を取得するように設けられている。また、測距情報取得部277は、複数のソナーセンサ22を用いて取得した測距情報に基づく三角測量により、物体Bの自車両10に対する並進方向についての相対位置情報を取得するように設けられている。さらに、測距情報取得部277は、測距情報および相対位置情報の取得結果を、不揮発記憶媒体を用いて時系列で所定時間分保持するようになっている。
物体認識部278は、座標取得部272によって取得された、検知点の位置座標に基づいて、物体Bを認識するように設けられている。具体的には、物体認識部278は、物体Bに対応する検知点の、所定の原点を基準に設定されたXYZ三次元座標系における位置に基づいて、物体Bの自車両10に対する相対位置と物体Bの三次元形状とを認識するようになっている。「所定の原点」は、例えば、所定の基準時点における、フロントカメラCFの位置である。「所定の基準時点」は、例えば、物体検知装置20による物体検知動作が開始された時点である。XYZ三次元座標系は、例えば、所定の基準時点における所定の原点を基準として、前方をX軸正方向とし、Y軸正方向を車幅方向と平行とし、Z軸正方向を車高方向と平行として設定した直交座標系である。
本実施形態においては、物体認識部278は、移動点の位置座標を用いず、停止点の位置座標を用いて、物体Bを認識するように設けられている。具体的には、物体認識部278は、座標取得部272により取得された複数の検知点の位置座標の中から、移動点の位置座標を除く停止点の位置座標に基づいて、物体Bを認識するようになっている。
物体認識部278は、座標取得部272による位置座標の算出結果と、測距情報取得部277にて取得した測距情報および相対位置情報とに基づいて、物体Bを認識するように設けられている。すなわち、本実施形態においては、物体認識部278は、画像認識結果と測距結果とを融合させる、いわゆる「センサフュージョン」技術を用いて、障害物としての物体Bを検知するようになっている。具体的には、物体認識部278は、座標取得部272による位置座標の算出結果を、測距情報取得部277にて取得した測距情報および相対位置情報に基づいて補正することで、物体BのXYZ三次元座標系における位置および形状を認識するようになっている。
制御内容判定部279は、測距情報取得部277による測距情報および相対位置情報の取得結果と、物体認識部278による物体Bの認識結果とに基づいて、制御内容を判定するようになっている。「制御内容」とは、物体Bの検知結果に応じて、当該物体Bを回避しつつ所定の算出経路を走行するために必要な、自車両10の加減速制御量および操舵制御量である。また、制御内容判定部279は、判定した制御内容を、車載通信回線を介して、動力制御ECU52、制動制御ECU53、および操舵制御ECU54に送信するようになっている。
(動作概要)
以下、本実施形態に係る、物体検知装置20すなわち物体検知ECU27における動作概要について、本実施形態の構成により奏される効果とともに説明する。
複数の撮像部21の各々、すなわち、フロントカメラCF、リアカメラCB、左側カメラCL、および右側カメラCRは、自車両10の周囲の画像を撮影して、撮影画像に対応する画像情報を生成する。また、複数の撮像部21の各々は、生成した画像情報を、物体検知ECU27にて受信可能に出力する。
複数のソナーセンサ22の各々は、自車両10の外側に向けて発信された探査波の反射波を含む受信波を受信することで、自車両10の周囲に存在する物体B上の点との距離を測定する。また、複数のソナーセンサ22の各々は、取得した測距情報を、物体検知ECU27にて受信可能に出力する。
レーダーセンサ23は、物体B上の反射点の位置および相対速度に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。車速センサ24は、車速に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。シフトポジションセンサ25は、自車両10のシフトポジションに対応する信号を発生して、物体検知ECU27にて受信可能に出力する。舵角センサ26は、自車両10の操舵角に対応する信号を発生して、物体検知ECU27にて受信可能に出力する。
物体検知ECU27は、複数の撮像部21の各々から、画像情報を受信する。また、物体検知ECU27は、複数のソナーセンサ22の各々から、測距情報を受信する。また、物体検知ECU27は、レーダーセンサ23、車速センサ24、シフトポジションセンサ25、および舵角センサ26からの出力信号を受信する。物体検知ECU27は、複数のソナーセンサ22の各々、複数の撮像部21の各々、車速センサ24、シフトポジションセンサ25、舵角センサ26、等から受信した信号および情報に基づいて、物体検知動作および運転支援動作を実行する。
画像情報取得部270は、自車両10の周囲の撮影画像に対応する画像情報を、複数の撮像部21の各々から取得する。取得された画像情報は、時系列で不揮発記憶媒体に格納される。特徴点抽出部271は、画像情報取得部270にて取得した画像情報に基づいて、撮影画像における特徴点を抽出する。座標取得部272は、1つの撮像部21によって自車両10の移動に伴い異なる自車両位置にて撮影された複数の撮影画像に基づいて、物体Bに対応する検知点の位置座標を取得する。
具体的には、例えば、自車両10の前方に存在する物体Bを検知する例においては、画像情報取得部270は、フロントカメラCFの撮影画像に対応する画像情報をするとともに、受信した画像情報を時系列で所定容量分保持する。座標取得部272は、フロントカメラCFの撮影画像から抽出された特徴点を用いて、移動ステレオの手法により、物体Bに対応する特徴点の位置座標すなわち三次元座標を算出する。
移動状態量取得部273は、物体Bの移動状態量を取得する。具体的には、上記の例においては、移動状態量取得部273は、フロントカメラCFにより撮影された複数の撮影画像に基づいて算出したオプティカルフローを用いて、自車両10の前方の物体Bに対応する移動状態量を取得する。
移動物体判定部274は、移動状態量取得部273による移動状態量の取得結果に基づいて、移動中の物体Bである移動物体の存否と、移動物体が存在する場合の自車両10との相対位置関係とを判定する。具体的には、移動物体判定部274は、ノイズではなく移動物体に対応するものであると判定された検知点の、三次元位置または画角内位置に基づいて、自車両10を基準として移動物体が存在する方向を判定する。
移動点特定部275は、移動物体に対応する検知点を移動点として特定する。具体的には、図3を参照すると、まず、移動点特定部275は、前回自車両位置VP1にて検知した、物体B上の第一特徴点DP1を、移動点特定範囲RMの基準点として設定する。前回自車両位置VP1は、今回自車両位置VP2の直前に、フロントカメラCFにより自車両10の前方画像を撮影した時点である。次に、移動点特定部275は、かかる基準点を基準として、移動点特定範囲RMを設定する。なお、図3では、移動点特定範囲RMは、基準点を中心として矩形に設定しているが、これに限らず、物体Bの進行方向および自車両側の領域が大きくなるように設定してもよい。具体的には、後述するように、算出誤差が発生する領域は、物体Bの進行方向および自車両側に発生し易いため、そのような領域をカバーできるように移動点特定範囲RMを設定するようにすれば良い。そして、移動点特定部275は、移動点特定範囲RM内に存在する検知点を、移動点として特定する。また、基準点の設定としては、上記に限らず、例えば、前回自車両位置VP1にてフロントカメラCFにて検知した物体Bの領域の重心(あるいは中心)を用いても良い。
物体Bが静止物体である場合、前回自車両位置VP1および今回自車両位置VP2の双方において、第一特徴点DP1の位置は不変である。しかしながら、物体Bが移動速度VBにて移動することで、第一特徴点DP1は第二特徴点DP2まで移動する。
ここで、SFM等の移動ステレオによる位置座標算出は、算出対象となる物体Bが静止物体であることが前提となっている。このため、移動物体について、移動ステレオによる位置座標算出を行うと、算出誤差が大きくなる。特に、検知点すなわち特徴点がエピポーラ線に沿って移動した場合、算出誤差が、かなり大きくなる。また、移動物体の移動速度VBあるいは移動量DBが大きくなるほど、算出誤差が大きくなる。図3に示された例においては、位置座標の算出結果は、誤検知候補点DPEを中心とした、図中楕円の一点鎖線で囲まれた範囲で生じる。誤検知候補点DPEは、前回自車両位置VP1におけるフロントカメラCFの位置と第一特徴点DP1とを結ぶ仮想線L1上に生じる。
そこで、移動点特定部275は、移動物体の移動速度VBまたは移動量DBに応じて、移動点特定範囲RMの大きさを決定する。具体的には、移動点特定部275は、移動物体の移動速度VBまたは移動量DBが大きくなるほど、移動点特定範囲RMの大きさを大きくなるように設定する。続いて、移動点特定部275は、自車両10と移動物体との相対速度に応じて、移動点特定範囲RMの基準点に対する相対位置を決定する。これにより、移動点特定部275は、自車両10を基準として移動物体が存在する方向に、移動点特定範囲RMを設定することができる。
再び図2を参照すると、停止点特定部276は、移動点とは異なる検知点である停止点を特定する。具体的には、停止点特定部276は、特徴点抽出部271および座標取得部272により複数取得された検知点から移動点を除くことで、停止点を特定する。より詳細には、停止点特定部276は、座標取得部272により位置座標が取得された複数の検知点から、移動点を除くことで、停止点を特定する。
測距情報取得部277は、複数のソナーセンサ22の各々から、物体Bに対応する測距情報を取得する。また、測距情報取得部277は、測距情報に基づいて、物体Bの自車両10に対する相対位置情報を取得する。測距情報取得部277は、測距情報および相対位置情報の取得結果を、時系列で所定時間分保持する。
物体認識部278は、座標取得部272による位置座標の算出結果と、測距情報取得部277にて取得した測距情報および相対位置情報とに基づいて、物体Bを認識する。制御内容判定部279は、測距情報取得部277による測距情報および相対位置情報の取得結果と、物体認識部278による物体Bの認識結果とに基づいて、制御内容を判定する。また、制御内容判定部279は、判定した制御内容を、車載通信回線を介して、動力制御ECU52、制動制御ECU53、および操舵制御ECU54に送信する。
本実施形態に係る物体検知装置20、ならびに、これによって実行される物体検知方法および物体検知プログラムによれば、以下のような効果が奏され得る。以下、本実施形態に係る物体検知装置20、ならびに、これによって実行される物体検知方法および物体検知プログラムを総称して、単に「本実施形態」と称する。
本実施形態においては、物体認識部278は、移動物体に対応する検知点である移動点の位置座標を用いず、停止点の位置座標を用いて、自車両10の周囲に存在する物体Bを移動ステレオ技術により認識する。具体的には、物体認識部278は、複数取得された検知点から移動点を除くことで特定される停止点の、位置座標に基づいて、自車両10の周囲に存在する物体Bを認識する。より詳細には、物体認識部278は、座標取得部272により取得された複数の検知点の位置座標のうち、移動点の位置座標を除いた、停止点の位置座標に基づいて、物体Bを認識する。
本実施形態によれば、移動ステレオ技術を用いた物体Bの検知において、物体Bの移動を起因とする誤検知に伴う自車両10の不必要な車両制御が、良好に回避され得る。例えば、自車両10の駐車支援あるいは衝突回避の場面において、自車両10と安全にすれ違うことが可能な対向車である移動物体が、衝突可能性が高い障害物と誤検知されると、無用な回避制御あるいは制動制御が行われる。しかしながら、本実施形態によれば、このような無用な回避制御あるいは制動制御の介入が、良好に回避され得る。したがって、本実施形態によれば、車両制御に良好に用いることが可能な物体検知結果が提供され得る。
本実施形態においては、物体認識部278は、座標取得部272による位置座標の算出結果と、測距情報取得部277にて取得した測距情報および相対位置情報とに基づいて、物体Bを認識する。このため、仮に、位置座標の算出結果が削除すなわち消去された移動物体が自車両10に接近してきても、衝突が発生する前に、測距情報取得部277にて取得した測距情報等を用いて、警報あるいは衝突回避動作制御が可能である。したがって、本実施形態によれば、良好な車両運転支援制御が可能となる。
本実施形態においては、移動点特定部275は、移動中の物体Bの移動状態量に応じた形状に設定された移動点特定範囲RMを、自車両10を基準として移動物体が存在する方向に設定する。そして、物体認識部278は、移動点特定範囲RMを用いて移動点特定部275により特定された移動点を除くことで特定される停止点の、位置座標に基づいて、自車両10の周囲に存在する物体Bを認識する。したがって、本実施形態によれば、物体Bの移動状態量に応じた移動点および停止点の特定が、良好な精度で行われ得る。
(動作例)
以下、本実施形態による、上記の動作概要に対応する具体的な動作例について、図4に示したフローチャートを用いて説明する。なお、図面中において、「ステップ」を単に「S」と略記する。
物体検知装置20、すなわち、物体検知ECU27のCPUは、所定の起動条件成立中に、図4に示されたルーチンを、所定時間間隔で繰り返し起動する。かかるルーチンが起動されると、まず、物体検知装置20は、ステップ401~ステップ407の処理を順に実行する。
ステップ401にて、物体検知装置20は、撮像部21を用いて、画像情報を取得する。ステップ402にて、物体検知装置20は、取得した画像情報に基づいて、特徴点を抽出する。ステップ403にて、物体検知装置20は、ステップ402にて抽出した特徴点に対応する位置座標すなわち三次元座標を取得する。
ステップ404にて、物体検知装置20は、異なる自車両位置にて撮影された複数の撮影画像に基づいて、オプティカルフローを算出する。ステップ405にて、物体検知装置20は、ステップ404にて算出したオプティカルフローに基づいて、各特徴点に対応する移動状態量を取得する。ステップ406にて、物体検知装置20は、ステップ405にて取得した移動状態量に基づいて、移動物体の存否と、移動物体が存在する場合の自車両10との相対位置関係とを判定する。
ステップ407にて、物体検知装置20は、移動物体が存在するか否かを判定する。移動物体が存在する場合(すなわちステップ407=YES)、物体検知装置20は、ステップ408およびステップ409の処理を実行した後、処理をステップ410以降に進行させる。
ステップ408にて、物体検知装置20は、移動点特定範囲RMを設定する。ステップ409にて、物体検知装置20は、設定した移動点特定範囲RMを用いて、移動点を特定する。ステップ410にて、物体検知装置20は、停止点を特定する。この場合、停止点の特定は、複数取得された検知点から移動点を除くことによって行われる。
移動物体が存在しない場合(すなわちステップ407=NO)、物体検知装置20は、ステップ408およびステップ409の処理をスキップして、処理をステップ410以降に進行させる。ステップ410にて、物体検知装置20は、停止点を特定する。この場合、停止点の特定は、複数取得された検知点のほぼ全てを停止点とすることによって行われる。
ステップ411にて、物体検知装置20は、ソナーセンサ22による距離検出結果である測距情報を取得する。また、ステップ411にて、物体検知装置20は、複数のソナーセンサ22を用いて取得した測距情報に基づく三角測量により、物体Bの自車両10に対する並進方向についての相対位置情報を取得する。
ステップ412にて、物体検知装置20は、ステップ403における位置座標の取得結果と、ステップ411における測距情報および相対位置情報の取得結果とに基づいて、物体Bを認識する。ステップ413にて、物体検知装置20は、ステップ412における物体Bの認識結果に基づいて、制御内容を判定する。
(変形例)
本開示は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
本開示は、上記実施形態にて示された具体的な装置構成に限定されない。すなわち、例えば、物体検知装置20を搭載する車両10は、四輪自動車に限定されない。具体的には、車両10は、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車であってもよい。車両10の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体11の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。ドアパネル17の数も、特段の限定はない。
物体検知装置20の適用対象についても、特段の限定はない。すなわち、例えば、物体検知装置20は、運転支援装置50に限定されない。具体的には、例えば、物体検知装置20は、自動運転の定義におけるレベル2~レベル5に相当する、半自動運転あるいは自動運転に対しても、好適に適用可能である。
撮像部21の配置および個数は、上記の例に限定されない。すなわち、例えば、フロントカメラCFは、車室内に配置され得る。具体的には、例えば、フロントカメラCFは、車両10における車室内に配置された不図示のルームミラーに装着され得る。左側カメラCLおよび右側カメラCRは、ドアミラー18とは異なる位置に配置され得る。あるいは、左側カメラCLおよび右側カメラCRは、省略され得る。
ソナーセンサ22の配置および個数は、上記の具体例に限定されない。すなわち、例えば、図1を参照すると、第三フロントソナーSF3が車幅方向における中央位置に配置される場合、第四フロントソナーSF4は省略される。同様に、第三リアソナーSR3が車幅方向における中央位置に配置される場合、第四リアソナーSR4は省略される。第三サイドソナーSS3および第四サイドソナーSS4は、省略され得る。
物体検知装置20に用いられる各種センサ類は、車速センサ24、シフトポジションセンサ25、舵角センサ26、等に限定されない。すなわち、例えば、車速センサ24、シフトポジションセンサ25、および舵角センサ26のうちの少なくとも1つは、省略されたり、他のセンサに代替されたりしてもよい。
上記実施形態においては、物体検知ECU27は、CPUがROM等からプログラムを読み出して起動する構成であった。しかしながら、本開示は、かかる構成に限定されない。すなわち、例えば、物体検知ECU27は、上記のような動作を可能に構成されたデジタル回路、例えばASICあるいはFPGAを備えた構成であってもよい。ASICはApplication Specific Integrated Circuitの略である。FPGAはField Programmable Gate Arrayの略である。
上記実施形態において、物体検知ECU27は、物体検知装置20の主要部を構成する。このため、撮像部21~舵角センサ26、表示部28、および音声出力部29は、上記実施形態において、物体検知装置20の主要な構成要素ではなく、物体検知装置20の付随的要素であるものと把握され得る。あるいは、例えば、少なくとも撮像部21は、物体検知ECU27とともに、物体検知装置20の主要な構成要素であるものと把握され得る。
本開示は、上記実施形態にて示された具体的な機能構成および動作例に限定されない。例えば、撮像部21およびソナーセンサ22は、それぞれ、画像情報取得部270および測距情報取得部277を構成するものとして、物体検知装置20の主要な構成要素としても把握され得る。あるいは、画像情報取得部270~制御内容判定部279のうちの一部または全部が、撮像部21に設けられていてもよい。
座標取得部272における処理内容は、単眼移動ステレオに限定されない。具体的には、例えば、複眼ステレオ、あるいは、単眼移動ステレオと複眼ステレオとの統合処理が用いられ得る。単眼移動ステレオと複眼ステレオとの統合処理については、本願の出願時において、すでに公知または周知となっている。したがって、本明細書においては、複眼ステレオ処理、および、単眼移動ステレオと複眼ステレオとの統合処理についての詳細については、説明を省略する。
移動状態量取得部273は、オプティカルフローに代えて、あるいはこれとともに、ソナーセンサ22および/またはレーダーセンサ23による検知結果を用いて、移動状態量を取得してもよい。
移動点特定部275は、座標取得部272による位置座標の算出前の特徴点から移動点を特定するようになっていてもよい。同様に、停止点特定部276は、座標取得部272による位置座標の算出前の特徴点から停止点を特定するようになっていてもよい。この場合、座標取得部272は、抽出済みの特徴点のうち、移動物体に対応する特徴点である移動点を除いたものに対して、移動ステレオの手法により位置座標を算出する。すなわち、座標取得部272は、複数取得された検知点すなわち特徴点から移動点を除いた停止点の、位置座標を取得する。そして、物体認識部278は、停止点の位置座標に基づいて、物体Bを認識する。具体的には、図4のフローチャートにおいて、ステップ403の処理は、ステップ410の後に行われる。これにより、計算負荷を効果的に軽減しつつ、精度良い位置座標算出が実現され得る。
測距情報取得部277は、ソナーセンサ22の出力に代えて、あるいはこれとともに、レーダーセンサ23の出力に基づいて、測距情報を取得してもよい。すなわち、探査波として、超音波または電磁波が用いられ得る。また、測距点として、レーダーセンサ23により取得された反射点が用いられ得る。この場合、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点の代替として用いられ得る。あるいは、反射点に関する相対位置情報は、ソナーセンサ22により取得された測距点の補正要素として用いられ得る。
物体認識部278にて物体認識に用いられない、移動点に対応する特徴点および/または位置座標のデータは、削除すなわち消去されてもよい。あるいは、移動点に対応する特徴点および/または位置座標のデータは、他の用途または他のECUによる利用に供するために、削除されずに保持されていてもよい。
上記の具体例においては、フロントカメラCFによる撮影画像を用いた物体Bの検知動作について説明した。しかしながら、本開示は、かかる態様に限定されない。すなわち、例えば、本開示は、リアカメラCBによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。同様に、本開示は、左側カメラCLおよび右側カメラCRによる撮影画像を用いた物体Bの検知動作に対しても、好適に適用され得る。
上記実施形態においては、位置座標として三次元座標を用いた例を示した。かかる例においては、「位置座標」は、「三次元位置座標」あるいは「三次元座標」とも称され得るものである。しかしながら、本開示は、かかる態様に限定されない。すなわち、例えば、位置座標として二次元座標が用いられてもよい。具体的には、例えば、座標取得部272は、自車両10の重心を原点とし、車幅方向をX軸とし、車長方向をY軸とした、XY二次元座標系における位置座標を、移動ステレオの手法による三角測量の原理で検出してもよい。同様に、移動状態量取得部273~制御内容判定部279は、二次元位置座標に基づいて機能あるいは動作するようになっていてもよい。
「取得」という表現と、「推定」「検出」「検知」「算出」等の類似の表現とは、技術的に矛盾しない範囲内において、適宜置換可能である。「検出」と「抽出」とも、技術的に矛盾しない範囲内において、適宜置換可能である。各判定処理における不等号は、等号付きであってもよいし、等号無しであってもよい。すなわち、例えば、「閾値未満」と「閾値以下」とは、技術的に矛盾しない範囲内において、互いに置換され得る。
上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数値に限定される場合等を除き、その特定の数値に本開示が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本開示が限定されることはない。
上記の各機能構成および方法は、コンピュータプログラムにより具体化された一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的実体的記憶媒体に記憶されていてもよい。すなわち、本開示に係る装置あるいは方法は、上記の各機能あるいは方法を実現するための手順を含むコンピュータプログラム、あるいは、当該プログラムを記憶した非遷移的実体的記憶媒体としても表現可能である。
変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。

Claims (16)

  1. 自車両(10)に搭載されることで当該自車両の周囲の障害物である物体(B)の存在を検知するように構成された、物体検知装置(20)であって、
    前記自車両に搭載された1つの撮像部(21)によって、前記自車両の移動に伴い異なる自車両位置にて撮影された複数の撮影画像に基づいて、前記物体に対応する検知点の位置座標を取得する、座標取得部(272)と、
    移動中の前記物体である移動物体に対応する前記検知点である移動点の位置座標を除く、前記移動点とは異なる前記検知点である停止点の位置座標に基づいて、前記物体を認識する、物体認識部(278)と、
    を備え、
    前記物体認識部は、前記物体の前記自車両に対する相対位置と三次元形状とを認識する、
    体検知装置。
  2. 前記座標取得部は、複数取得された前記検知点から前記移動点を除いた前記停止点の位置座標を取得し、
    前記物体認識部は、前記停止点の位置座標に基づいて、前記物体を認識する、
    請求項1に記載の物体検知装置。
  3. 前記物体認識部は、前記座標取得部により取得された複数の前記検知点の位置座標の中から、前記移動点の位置座標を除く前記停止点の位置座標に基づいて、前記物体を認識する、
    請求項1に記載の物体検知装置。
  4. 前記物体の移動速度または移動量である移動状態量を取得する、移動状態量取得部(273)と、
    前記移動状態量が閾値を超える前記移動物体に対応する前記検知点を前記移動点として特定する、移動点特定部(275)と、
    をさらに備えた、
    請求項1~3のいずれか1つに記載の物体検知装置。
  5. 前記移動点特定部は、前記移動物体と前記自車両との相対位置関係に応じて設定される所定範囲内に存在する前記検知点を、前記移動点として特定する、
    請求項4に記載の物体検知装置。
  6. 前記移動点特定部は、前記自車両を基準として前記移動物体が存在する方向に、前記所定範囲を設定する、
    請求項5に記載の物体検知装置。
  7. 前記移動点特定部は、前記移動状態量に応じて前記所定範囲の形状を可変に設定する、
    請求項5または6に記載の物体検知装置。
  8. 前記移動状態量取得部は、異なる自車両位置にて撮影された複数の前記撮影画像に基づいて算出したオプティカルフローを用いて前記移動状態量を取得する、
    請求項4~7のいずれか1つに記載の物体検知装置。
  9. 自車両(10)に搭載されることで当該自車両の周囲の障害物である物体(B)の存在を検知するように構成された物体検知装置(20)により実行される、物体検知プログラムであって、
    前記物体検知装置により実行される処理は、
    前記自車両に搭載された1つの撮像部(21)によって、前記自車両の移動に伴い異なる自車両位置にて撮影された複数の撮影画像に基づいて、前記物体に対応する検知点の位置座標を取得する処理と、
    移動中の前記物体である移動物体に対応する前記検知点である移動点の位置座標を除く、前記移動点とは異なる前記検知点である停止点の位置座標に基づいて、前記物体を認識する処理と、
    を含み、
    前記物体を認識する処理は、前記物体の前記自車両に対する相対位置と三次元形状とを認識する、
    体検知プログラム。
  10. 前記検知点の位置座標を取得する処理は、複数取得された前記検知点から前記移動点を除いた前記停止点の位置座標を取得し、
    前記物体を認識する処理は、前記停止点の位置座標に基づいて、前記物体を認識する、
    請求項9に記載の物体検知プログラム。
  11. 前記物体を認識する処理は、取得された複数の前記検知点の位置座標の中から、前記移動点の位置座標を除く前記停止点の位置座標に基づいて、前記物体を認識する、
    請求項9に記載の物体検知プログラム。
  12. 前記物体の移動速度または移動量である移動状態量を取得する処理と、
    前記移動状態量が閾値を超える前記移動物体に対応する前記検知点を前記移動点として特定する処理と、
    をさらに含む、
    請求項9~11のいずれか1つに記載の物体検知プログラム。
  13. 前記移動物体と前記自車両との相対位置関係に応じて設定される所定範囲内に存在する前記検知点を、前記移動点として特定する、
    請求項12に記載の物体検知プログラム。
  14. 前記自車両を基準として前記移動物体が存在する方向に、前記所定範囲を設定する、
    請求項13に記載の物体検知プログラム。
  15. 前記移動状態量に応じて前記所定範囲の形状を可変に設定する、
    請求項13または14に記載の物体検知プログラム。
  16. 前記移動状態量を取得する処理は、異なる自車両位置にて撮影された複数の前記撮影画像に基づいて算出したオプティカルフローを用いて前記移動状態量を取得する、
    請求項12~15のいずれか1つに記載の物体検知プログラム。
JP2021552369A 2019-10-14 2020-10-09 物体検知装置および物体検知プログラム Active JP7236556B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019188278 2019-10-14
JP2019188278 2019-10-14
PCT/JP2020/038319 WO2021075377A1 (ja) 2019-10-14 2020-10-09 物体検知装置、物体検知方法、および物体検知プログラム

Publications (2)

Publication Number Publication Date
JPWO2021075377A1 JPWO2021075377A1 (ja) 2021-04-22
JP7236556B2 true JP7236556B2 (ja) 2023-03-09

Family

ID=75538479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021552369A Active JP7236556B2 (ja) 2019-10-14 2020-10-09 物体検知装置および物体検知プログラム

Country Status (3)

Country Link
US (1) US20220237923A1 (ja)
JP (1) JP7236556B2 (ja)
WO (1) WO2021075377A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3988758B2 (ja) 2004-08-04 2007-10-10 日産自動車株式会社 移動体検出装置
JP2009180536A (ja) 2008-01-29 2009-08-13 Omron Corp 画像処理装置、画像処理方法、およびプログラム
JP2010152873A (ja) 2008-11-19 2010-07-08 Clarion Co Ltd 接近物体検知システム
WO2012160657A1 (ja) 2011-05-24 2012-11-29 富士通株式会社 物体接近検知装置、物体接近検知方法、及びプログラム
JP2016115305A (ja) 2014-12-18 2016-06-23 富士通テン株式会社 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP6208244B2 (ja) 2013-09-27 2017-10-04 日立オートモティブシステムズ株式会社 物体検知装置
JP2017220056A (ja) 2016-06-08 2017-12-14 株式会社デンソー 情報処理装置
JP2018163592A (ja) 2017-03-27 2018-10-18 クラリオン株式会社 物体検知支援装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
JP6197388B2 (ja) * 2013-06-11 2017-09-20 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
JP5991332B2 (ja) * 2014-02-05 2016-09-14 トヨタ自動車株式会社 衝突回避制御装置
JP2018009918A (ja) * 2016-07-15 2018-01-18 株式会社リコー 自己位置検出装置、移動体装置及び自己位置検出方法
US11016492B2 (en) * 2019-02-28 2021-05-25 Zoox, Inc. Determining occupancy of occluded regions

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3988758B2 (ja) 2004-08-04 2007-10-10 日産自動車株式会社 移動体検出装置
JP2009180536A (ja) 2008-01-29 2009-08-13 Omron Corp 画像処理装置、画像処理方法、およびプログラム
JP2010152873A (ja) 2008-11-19 2010-07-08 Clarion Co Ltd 接近物体検知システム
WO2012160657A1 (ja) 2011-05-24 2012-11-29 富士通株式会社 物体接近検知装置、物体接近検知方法、及びプログラム
JP6208244B2 (ja) 2013-09-27 2017-10-04 日立オートモティブシステムズ株式会社 物体検知装置
JP2016115305A (ja) 2014-12-18 2016-06-23 富士通テン株式会社 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP2017220056A (ja) 2016-06-08 2017-12-14 株式会社デンソー 情報処理装置
JP2018163592A (ja) 2017-03-27 2018-10-18 クラリオン株式会社 物体検知支援装置

Also Published As

Publication number Publication date
US20220237923A1 (en) 2022-07-28
WO2021075377A1 (ja) 2021-04-22
JPWO2021075377A1 (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
CN110573905B (zh) 障碍物检知装置
US10242576B2 (en) Obstacle detection device
CN110232836B (zh) 物体识别装置以及车辆行驶控制系统
CN109891262B (zh) 物体探测装置
US20170297488A1 (en) Surround view camera system for object detection and tracking
KR102205144B1 (ko) 주차 지원 방법 및 주차 지원 장치
US20160307026A1 (en) Stereoscopic object detection device and stereoscopic object detection method
JP6677474B2 (ja) 周辺認識装置
CN111886166A (zh) 驻车辅助装置
JP6778620B2 (ja) 区画線検出装置、区画線検出システム、及び区画線検出方法
WO2019151156A1 (ja) 物体検知装置および駐車支援装置
JP7135579B2 (ja) 物体検知装置
CN110462706B (zh) 障碍物检测装置
JP6327115B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2021008177A (ja) 駐車支援装置及び駐車支援方法
CN104697491A (zh) 在车辆中使用单视场成像器的距离确定
JP7236556B2 (ja) 物体検知装置および物体検知プログラム
JP7318377B2 (ja) 物体検知装置
US20230070221A1 (en) Obstacle detection apparatus, obstacle detection method, and obstacle detection program
JP4768499B2 (ja) 車載周辺他車検出装置
JP6958485B2 (ja) 物体検知装置
JP7334572B2 (ja) 物体検知装置および物体検知プログラム
WO2020170666A1 (ja) 情報処理装置および情報処理方法
JP7115872B2 (ja) ドライブレコーダ、及び画像記録方法
JP7452374B2 (ja) 物体検知装置および物体検知プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7236556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150