JP7843801B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム

Info

Publication number
JP7843801B2
JP7843801B2 JP2024101986A JP2024101986A JP7843801B2 JP 7843801 B2 JP7843801 B2 JP 7843801B2 JP 2024101986 A JP2024101986 A JP 2024101986A JP 2024101986 A JP2024101986 A JP 2024101986A JP 7843801 B2 JP7843801 B2 JP 7843801B2
Authority
JP
Japan
Prior art keywords
moving
lane
vehicle
unit
vanishing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024101986A
Other languages
English (en)
Other versions
JP2025168144A (ja
Inventor
孝方 越膳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to CN202510409918.XA priority Critical patent/CN120853374A/zh
Priority to US19/169,061 priority patent/US20250336213A1/en
Publication of JP2025168144A publication Critical patent/JP2025168144A/ja
Application granted granted Critical
Publication of JP7843801B2 publication Critical patent/JP7843801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。
従来、車両が走行する車線を検出する技術が知られている。例えば、特許文献1には、路面画像から区画線の候補である候補線を抽出し、抽出された候補線の線種、線色、及び、逆光の影響の有無を判定し、抽出された候補線が多重線を構成しているか否かを判定し、これら判定結果を用いて、区画線となる候補線を選択し、選択された候補線を認識して、車線の形状を推定する技術が開示されている。
特開2018-106259号公報
特許文献1に記載の技術は、路面画像から区画線の候補である候補線を抽出することを前提とするものである。しかしながら、例えば、自車両の周辺に複数の他車両が走行している場合や、道路区画線がそもそも明瞭でない場合、自車両の走行車線を適切に推定できない場合があった。
本発明は、このような事情を考慮してなされたものであり、路面画像から道路区画線を検出できない場合であっても、自車両の走行車線を適切に推定することができる情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。
この発明に係る情報処理装置、情報処理方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る情報処理装置は、移動体の周辺を撮像した画像データから一以上の他移動体を検出する検出部と、前記移動体を基準とする、前記移動体の横方向に関する前記他移動体の相対位置と、前記移動体の縦方向に関する前記他移動体の相対移動量とを算出する算出部と、前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて、前記他移動体をクラスタリングするクラスタリング部と、前記クラスタリングの結果に基づいて車線領域を特定する特定部と、前記車線領域に基づいて、前記移動体が走行する車線の中央線を推定する推定部と、を備えるものである。
(2):上記(1)の態様において、前記特定部は、前記クラスタリングの結果に基づいて、前記移動体が走行する自車線の領域を表す自車線領域と、前記移動体に対向する領域を表す対向車線領域とを特定し、前記推定部は、前記自車線領域と前記対向車線領域の間の線として前記中央線を推定するものである。
(3):上記(2)の態様において、前記特定部は、前記クラスタリングによって得られた複数のクラスタにそれぞれ属する複数の移動体群のうち、前記移動体に接近する移動体群を特定し、特定した前記移動体群が属するクラスタを含む領域を前記対向車線領域として特定するものである。
(4):上記(1)の態様において、前記推定部は、前記車線領域のエッジから第1消失点を推定するとともに、前記移動体から最も遠方に存在する他移動体を第2消失点として推定し、前記第1消失点と前記第2消失点との距離が閾値以内である場合に、前記第1消失点又は前記第2消失点を消失点として同定するものである。
(5):上記(1)の態様において、前記推定部は、前記移動体が曲線道路を走行していると判定した場合、前記車線領域のエッジから第1消失点を推定するとともに、前記移動体から最も遠方に存在する他移動体を第2消失点として推定し、前記第1消失点と前記第2消失点との距離が閾値以内である場合に、前記第1消失点又は前記第2消失点を消失点として同定するものである。
(6):上記(5)の態様において、前記推定部は、前記中央線に分節点が存在すると判定した場合、前記移動体が曲線道路を走行していると判定するものである。
(7):上記(1)の態様において、前記クラスタリング部は、時系列にわたって撮像された複数フレーム分の前記画像データから検出された一以上の他移動体をクラスタリングするものである。
(8):上記(1)の態様において、前記クラスタリング部は、前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量の移動平均に基づいて、前記他移動体をクラスタリングするものである。
(9):上記(1)の態様において、前記クラスタリング部は、四輪車である前記他移動体のみをクラスタリングするものである。
(10):上記(1)の態様において、前記検出部は、前記移動体の後方に位置する前記他移動体を検出し、前記情報処理装置は、前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて前記他移動体の移動方向を推定する移動方向推定部と、前記他移動体の推定移動方向と前記車線領域とに基づいて、他移動体が追い越しを行うか否かを判定する判定部と、をさらに備えるものである。
(11):上記(10)の態様において、前記判定部は、前記他移動体が前記移動体を追い越すと判定された場合、前記追い越しを前記移動体の乗員に報知する報知部をさらに備えるものである。
(12):この発明の別の態様に係る情報処理方法は、コンピュータが、移動体の周辺を撮像した画像データから一以上の他移動体を検出し、前記移動体を基準とする、前記移動体の横方向に関する前記他移動体の相対位置と、前記移動体の縦方向に関する前記他移動体の相対移動量とを算出し、前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて、前記他移動体をクラスタリングし、前記クラスタリングの結果に基づいて車線領域を特定し、前記車線領域に基づいて、前記移動体が走行する車線の中央線を推定するものである。
(13):この発明の別の態様に係るプログラムは、コンピュータに、移動体の周辺を撮像した画像データから一以上の他移動体を検出させ、前記移動体を基準とする、前記移動体の横方向に関する前記他移動体の相対位置と、前記移動体の縦方向に関する前記他移動体の相対移動量とを算出させ、前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて、前記他移動体をクラスタリングさせ、前記クラスタリングの結果に基づいて車線領域を特定させ、前記車線領域に基づいて、前記移動体が走行する車線の中央線を推定させるものである。
(1)~(13)の態様によれば、路面画像から道路区画線を検出できない場合であっても、自車両の走行車線を適切に推定することができる。
自車両Mに搭載される端末装置100の使用環境の一例を示す図である。 端末装置100の構成の一例を示す図である。 撮像画像IMから検出部110によって検出された一以上の他車両の一例を示す図である。 算出部120が自車両Mと他車両Mkとの間の相対位置を算出する場面の一例を示す図である。 算出部120が自車両Mと他車両との間の縦方向位置を算出する方法を説明するための図である。 算出部120が自車両Mと他車両との間の横方向位置を算出する方法を説明するための図である。 算出部120によって生成される鳥観図の一例を示す図である。 クラスタリング部130によって実行されるクラスタリングの概要を説明するための図である。 特定部140によって自車両Mを含む車線領域を特定する方法を説明するための図である。 推定部150によって推定される中央線および消失点の一例を示す図である。 自車両Mが曲線道路を走行する場合における推定部150の処理を説明するための図である。 端末装置100によって実行される処理の流れの一例を示すフローチャートである。 第2実施形態に係る自車両Mに搭載される端末装置200の使用環境の一例を示す図である。 第2実施形態に係る端末装置200の構成の一例を示す図である。 追い越し判定および報知処理の詳細を説明するための図である。 端末装置200によって実行される処理の流れの一例を示すフローチャートである。
以下、図面を参照し、本発明の情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。
[構成]
図1は、自車両Mに搭載される端末装置100の使用環境の一例を示す図である。自車両Mは、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
図1に示す通り、端末装置100は、自車両Mの進行方向に関する前方領域を撮像可能なように、自車両Mに設置される。端末装置100は、例えば、スマートフォンやタブレット端末などのコンピュータ装置である。端末装置100は、例えば、自車両Mのダッシュボードに取り付けられた不図示の車載用ホルダによって保持され、自車両Mの前方領域を撮像する。
図2は、端末装置100の構成の一例を示す図である。図2に示す通り、端末装置100は、例えば、カメラ10と、表示部20と、検出部110と、算出部120と、クラスタリング部130と、特定部140と、推定部150とを備える。検出部110と、算出部120と、クラスタリング部130と、特定部140と、推定部150は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。以下の説明では、検出部110と、算出部120と、クラスタリング部130と、特定部140と、推定部150の機能を総称して、「情報処理アプリ」と称する場合がある。情報処理アプリは、端末装置100に搭載され、例えば、端末装置100のユーザが自車両Mの運転を開始する際に起動されるものである。また、情報処理アプリを搭載する端末装置100は、「情報処理装置」の一例である。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。表示部20は、例えば、タッチパネルや液晶ディスプレイ等の表示装置である。表示部20は、後述する推定部150による推定結果を表示する。端末装置100のユーザは、表示部20に表示されるガイド線に従って、端末装置100を所定の高さ(後述する消失点Vの初期高さ)に位置合わせする。図1は、端末装置100が位置合わせされた結果、自車両Mの他車両M1の上端付近を、路面に関して略水平方向に撮像している様子を表している。
[検出部]
検出部110は、カメラ10が撮像した画像IM内に写される物体を認識する。より具体的には、例えば、検出部110は、カメラ10が撮像した画像が入力されると物体の存在、位置、種別などの情報を出力するように学習された学習済みモデルを用いて、物体を検出する。検出部110は、この学習済みモデルを用いて、二輪車や四輪車などの種別を区別しつつ、撮像画像IMにおける一以上の他車両を検出する。
図3は、撮像画像IMから検出部110によって検出された一以上の他車両の一例を示す図である。図3において、符号M1からM3は、検出部110によって検出された四輪車を表し、符号B1からB3は、検出部110によって検出された二輪車を表す。端末装置100は、検出部110によって検出された他車両を、例えば、バウンディングボックスによって囲むことによって表示部20に表示させる。図3では、検出された四輪車と二輪車とを同一のバウンディングボックスによって表示しているが、二輪車と四輪車とを異なる表示態様で表示部20に表示させてもよい。
[算出部]
算出部120は、検出部110が一以上の他車両を検出すると、さらに、自車両Mを基準とする一以上の他車両の縦方向位置および横方向位置(以下、縦方向位置と横方向位置の組み合わせを「相対位置」と称する場合がある)とを算出する。図4は、算出部120が自車両Mと他車両Mkとの間の相対位置を算出する場面の一例を示す図である。図4において、符号hAは、表示部20の下端に対応する道路位置から、画像の消失点Vまでの高さを示し、符号hBは、検出された他車両M1の下端に対応する道路位置から、画像の消失点Vまでの高さを示す。
図5は、算出部120が自車両Mと他車両との間の縦方向位置を算出する方法を説明するための図である。図5において、符号ISは、カメラ10に含まれる画像センサを示し、符号Dは、カメラ10に含まれるディスプレイ(カメラ10の端部)を示し、符号Oは、画像センサの中央部を示し、符号Aは、ディスプレイDの底部に写される道路位置Fに対応するディスプレイD上の位置を示し、符号Bは、他車両M1の後端部の道路位置Gに対応するディスプレイD上の位置を示し、符号Cは、画像センサによる撮像方向とディスプレイDとの交点を示し、符号Hは、路面を基準とするカメラ10の高さを示し、符号DAは、画像センサISの位置からディスプレイDの底部に写される道路位置Fまでの距離を示し、符号DBは、画像センサISの位置から他車両M1の後端部の道路位置Gまでの距離を示す。
図5において、三角形OACと三角形OEFとは相似関係にあり、三角形OBCと三角形OEGとは相似関係にある。すなわち、距離に関して、L:hA=DA:Hと、L:hB=DB:Hが成立するため、変形して、DA=L×H/hAと、DB=L×H/hBを得る。そのため、算出部120は、DB=DA×hA/hBの計算式を用いて、他車両M1の後端部の道路位置Gまでの距離を算出することができる。ここで、消失点までの高さhA、hBはカメラ10によって撮像された画像に基づいて事前に算出し、他車両M1の位置に依存しない距離DAは、端末装置100の設置位置に応じて、事前に算出することができる。なお、上記の計算は、消失点の座標情報全てを必要とすることなく、消失点の高さ情報のみを用いて実行することができる。
算出部120は、さらに、自車両Mと他車両との間の横方向位置を算出する。図6は、算出部120が自車両Mと他車両との間の横方向位置を算出する方法を説明するための図である。図6において、符号Vは画像の消失点を示し、符号Wbは、他車両M1の消失点Vを基準とする横方向のピクセル数を示し、符号Waは、ピクセル数WbをディスプレイDの最下端に移動したときのピクセル数を示す。
図6において、三角形VT’Tと、三角形VS’Sとは相似関係にある。すなわち、距離に関して、Wa:hA==Wb:hBが成立するため、変形して、Wa=Wb×hA/hBを得る。ここで、ディスプレイDの下端の全ピクセル数Wscと、自車両Mが走行する道路幅Wrdが既知であると仮定すると、算出部120は、ピクセル数Waに対応する実際の横方向に関する距離Wを、W=Wrd×Wa/Wscの計算式を用いて算出することができる。以上のようにして、算出部120は、自車両Mと他車両M1との間の相対位置を算出する。
算出部120は、自車両Mを基準とする一以上の他車両の相対位置を算出すると、これら一以上の他車両を、自車両Mを基準とした鳥観図にマッピングする。図7は、算出部120によって生成される鳥観図の一例を示す図である。図7の左部は、図3に示した状況に基づいて、算出部120が、自車両Mを基準とする一以上の他車両の相対位置を算出し、これらを鳥観図にマッピングした画面を表している。
算出部120は、さらに、カメラ10によって時系列に撮像されたTフレーム(Tは正の整数)分の画像について、他車両の相対位置を算出し、これら時系列の相対位置の差分に基づいて、自車両Mを基準とする他車両の相対移動量を算出する。より具体的には、算出部120は、時点t(k)(kは1以上T以下の整数)における他車両の相対位置と、期間t(k)-t(k-1)にわたる他車両の相対移動量を合わせて算出する。図7の右部に示す矢印は、各他車両の相対移動量の方向および大きさを表している。
[クラスタリング部]
クラスタリング部130は、算出部120によって算出された、自車両Mの横方向に関する他車両の相対位置と、自車両Mの縦方向に関する他車両の相対移動量とに基づいて、一以上の他車両をクラスタリングする。
図8は、クラスタリング部130によって実行されるクラスタリングの概要を説明するための図である。本実施形態において、クラスタリング部130は、各他車両について算出された縦方向に関する相対移動量および横方向位置を二次元グラフ上で表現し、これらの値にk-means法を施すことによって、他車両をクラスタリングする。図8は、横方向位置をX座標とし、相対移動量をY座標とし、k=2として、クラスタリングした結果を表している。より一般的に、kの値を決定するために、クラスタリング部130は、各kの値(例えば、2~5)でクラスタリングを実行した場合における各クラスタの平均値と各データ値との距離を算出して、その和を取り、距離の和が最小となったkの値を採用してもよい。
本実施形態では、図8に示す通り、クラスタリング部130は、検出された他車両のうち、四輪車に対してのみクラスタリングを実行する。これは、一般的に、二輪車に比して、四輪車は走行軌道が滑らかであり、また、推定対象となる車線に沿った走行を行う傾向が強いためである。クラスタリングの対象を四輪車に限定することにより、二輪車を含める場合に比して、同定される消失点の精度を高めることができ得る。代替的に、クラスタリング部130は、四輪車のみならず、二輪車を含めて、クラスタリングを実行してもよい。二輪車を含めてクラスタリングを行う場合、クラスタリング部130は、撮像された画像に四輪車が所定台数以上存在するか否かを判定し、四輪車が所定台数未満しか存在しないと判定された場合にのみ、二輪車を含めてクラスタリングを行ってもよい。
なお、本発明は、k-means法に限定されず、例えば、他の教師無しアルゴリズム(例えば、混合ガウス分布モデル、超体積法など)を用いてクラスタリングを行ってもよい。また、図8は、時点t(k)における他車両の横方向位置と、期間t(k)-t(k-1)にわたる他車両の相対移動量とをクラスタリングした場合を表しているが、クラスタリングの結果を安定させるため、各他車両について、時点t(1)を開始点とする横方向位置及び/又は相対移動量の移動平均値に対してクラスタリングを施してもよい。これにより、クラスタリングの結果を安定させることができる。代替的に、移動平均値に代えて、例えば、相対移動量および横方向位置に関する時系列の観測値から、ベイズ推定量を導出し、導出したベイズ推定量にクラスタリングを施してもよい。
[特定部]
図9は、特定部140によって、自車両Mを含む車線領域を特定する方法を説明するための図である。特定部140は、クラスタリング部130によって各クラスタが得られると、当該クラスタの横幅を求め、求めた横幅の左端および右端を、それぞれ左道路区画線および右道路区画線(以下、左道路区画線と右道路区画線の組み合わせを「エッジ」と称する場合がある)として特定し、左道路区画線および右道路区画線によって囲まれる領域を車線領域として特定する。図9の場合、特定部140は、クラスタC1について、左道路区画線LLおよび右道路区画線CLを特定し、これら左道路区画線LLおよび右道路区画線CLによって囲まれる領域を車線領域LDとして特定している。さらに、特定部140は、クラスタC2について、左道路区画線CLおよび右道路区画線RLを特定し、これら左道路区画線CLおよび右道路区画線RLによって囲まれる領域を車線領域RLとして特定している。
特定部140は、一以上の車線領域を特定すると、そのうち、自車両Mが走行する自車線を表す領域を自車線領域として特定し、自車線領域以外の車線領域を他車線領域として特定する。特定部140は、さらに、各クラスタを構成する他車両の相対移動量に基づいて、他車線領域が、自車両Mに対向する領域を表す対向車線領域であるか否かを特定する。より具体的には、例えば、特定部140は、各クラスタを構成する他車両の相対移動量に基づいて、当該他車両が自車両Mに接近していると判定した場合(すなわち、相対移動量が負であると判定した場合)、当該クラスタが対向車線領域であると特定することができる。クラスタが複数の他車両を含む場合、特定部140は、例えば、相対移動量の総和が負である場合に、当該クラスタが対向車線領域であると特定してもよいし、相対移動量が負である他車両の数に基づく多数決方式により、当該クラスタが対向車線領域であるか否かを特定してもよい。
[推定部]
推定部150は、特定部140によって特定された車線領域に基づいて、自車両Mが走行する自車線領域の中央線を推定する。より具体的には、例えば、推定部150は、特定部140によって特定された車線領域が複数存在する場合、特定された複数の車線領域の間の線を中央線として推定する。例えば、図9の場合、推定部150は、車線領域LDと車線領域RDの間を通る線CLを中央線として推定することとなる。特に、推定部150は、特定部140によって、自車線領域と対向車線領域とが特定された場合、自車線領域と対向車線領域の間を通る線CLを中央線として推定することができる。
図10は、推定部150によって推定される中央線および消失点の一例を示す図である。推定部150が中央線CLを推定すると、端末装置100は、推定された中央線CLを表示部20に表示させる。このとき、図10に示す通り、端末装置100は、推定された中央線CLに加えて、左道路区画線CLおよび右道路区画線RLを合わせて表示させる。自車両Mを運転する運転者は、これら中央線CL、左道路区画線CL、および右道路区画線RLを参照することにより、自車両Mが走行する車線を把握することができる。すなわち、本実施形態によれば、路面画像から道路区画線を検出できない場合であっても、自車両の走行車線を適切に推定することができる。
推定部150は、特定部140によって左道路区画線CLおよび右道路区画線RLが特定されると、これら特定された左道路区画線CLおよび右道路区画線RL(すなわち、エッジ)の交点を消失点Vとして同定する。代替的に、推定部150は、左道路区画線CLおよび右道路区画線RLのいずれか一方と、中央線CLとの交点を消失点Vとして同定してもよい。このようにして消失点Vが同定されると、検出部110および算出部120は、同定された消失点Vを用いて、図3から図7を介して説明した処理を再度実行し、鳥瞰図を再生成する。このような処理を繰り返すことにより、鳥瞰図の精度を向上させることができる。
[分節点の存在]
上記で説明した処理は、自車両Mが走行する道路が直線道路であるか曲線道路であるかを問わず、適用可能なものである。しかしながら、自車両Mが曲線道路を走行する場合、上記のクラスタリングに基づく車線推定は安定性に欠けることが分かっている。そのため、推定部150は、自車両Mが走行する道路に、直線道路から曲線道路への分節点が存在するか否かを判定する。より具体的には、例えば、推定部150は、特定部140によって特定された中央線CLの二階の導関数を算出し、算出した導関数の符号が変化する点を分節点DPとして推定してもよい。また、例えば、推定部150は、特定部140によって特定された中央線CLの曲率を算出し、算出した曲率が閾値以上となる点を分節点DPとして推定してもよい。
推定部150は、分節点が存在すると判定された場合、上述した左道路区画線CLおよび右道路区画線RLの交点としての消失点V1に加えて、自車両Mから最も遠方に存在する他車両を消失点V2と見なして、これら消失点V1および消失点V2に乖離が存在するか否かを判定することによって、クラスタリングに基づく車線推定の信頼性を検証する。
図11は、自車両Mが曲線道路を走行する場合における推定部150の処理を説明するための図である。図11は、一例として、クラスタリングの結果、クラスタC1~C4が検出された場合を表している。
推定部150は、分節点が存在すると判定した場合、自車両Mから最も遠方に存在する他車両M1を消失点V2と見なす。次に、推定部150は、左道路区画線CLおよび右道路区画線RLの交点としての消失点V1と、他車両M1としての消失点V2との距離が閾値以内であるか否かを判定する。消失点V1と消失点V2との距離が閾値以内であると判定した場合、推定部150は、これら消失点V1および消失点V2のいずれか一方を消失点Vとして同定する。このようにして消失点Vが同定されると、検出部110および算出部120は、同定された消失点Vを用いて、図3から図7を介して説明した処理を再度実行し、鳥瞰図を再生成する。このような処理を繰り返すことにより、鳥瞰図の精度を向上させることができる。
なお、本実施形態では、一例として、端末装置100が、自車両Mの前方領域を撮像するように設置され、自車両Mの前方領域における消失点を同定する場合について説明した。しかし、本発明は、そのような構成に限定されず、端末装置100は、自車両Mの後方領域を撮像するように設置され、自車両Mの後方領域における消失点を同定してもよい。その場合、生成される鳥観図は、自車両Mの後方領域を写すものとなり、自車両Mの乗員は、当該鳥観図を確認することによって、自車両Mの後方状況を確認することができる。また、例えば、二台以上の端末装置100を、自車両Mの前方領域および後方領域を撮像するようにそれぞれ設置し、これら二台以上の端末装置100が生成した前方領域の鳥観図および後方領域の鳥観図を統合して、いずれか一方の端末装置100や自車両Mのナビゲーション装置に表示させてもよい。
[処理の流れ]
次に、図12を参照して、端末装置100によって実行される処理の流れについて説明する。図12は、端末装置100によって実行される処理の流れの一例を示すフローチャートである。図12に示すフローチャートの処理は、例えば、自車両Mが走行中、繰り返し実行されるものである。
まず、検出部110は、カメラ10によって時系列に撮像されたTフレーム分の画像について複数の他車両を検出する(ステップS100)。次に、算出部120は、検出した他車両の相対位置および相対移動量を算出する(ステップS102)。次に、クラスタリング部130は、算出した他車両の相対位置および相対移動量に基づいて、他車両をクラスタリングする(ステップS104)。次に、特定部140は、クラスタリングの結果に基づいて車線領域を特定する(ステップS106)。次に、推定部150は、特定された車線領域に基づいて、中央線を推定する(ステップS108)。
次に、推定部150は、推定された中央線上に分節点が存在するか否かを判定する(ステップS110)。推定された中央線上に分節点が存在しないと判定された場合、推定部150は、特定された車線領域のエッジの交点として消失点Vを同定する(ステップS112)。一方、推定された中央線上に分節点が存在すると判定された場合、推定部150は、車線領域のエッジの交点として第1消失点V1を推定するとともに、遠方車両を第2消失点V2として推定する(ステップS114)。
次に、推定部150は、第1消失点V1と第2消失点V2の距離が閾値以内であるか否かを判定する(ステップS116)。第1消失点V1と第2消失点V2の距離が閾値以内ではないと判定された場合、端末装置100は、処理をステップS100に戻す。一方、第1消失点V1と第2消失点V2の距離が閾値以内であると判定された場合、推定部150は、第1消失点V1又は第2消失点V2を消失点Vとして同定する(ステップS118)。これにより、本フローチャートの処理が終了する。
以上の通り説明した本実施形態によれば、検出した他移動体の相対位置と相対移動量とに基づいて他移動体をクラスタリングし、クラスタリングの結果に基づいて車線領域を特定し、車線領域に基づいて、車線の中央線を推定する。これにより、路面画像から道路区画線を検出できない場合であっても、自車両の走行車線を適切に推定することができる。
[第2実施形態]
図13は、第2実施形態に係る自車両Mに搭載される端末装置200の使用環境の一例を示す図である。上記の実施形態では、端末装置100は、自車両Mの進行方向に関する前方領域を撮像可能なように、自車両Mに設置されていた。一方、第2実施形態では、図13に示す通り、端末装置200は、自車両Mの進行逆方向に関する後方領域を撮像可能なように、自車両Mに設置される。以下で説明する通り、第2実施形態において、端末装置200は、自車両Mの進行逆方向における車線領域を特定するのみならず、自車両Mの後方領域を走行する他車両の相対位置および相対移動量に基づいて、当該他車両が自車両Mを追い越すか否かを判定し、他車両が自車両Mを追い越すと判定された場合、自車両Mの乗員に対して報知を行う。
図14は、第2実施形態に係る端末装置200の構成の一例を示す図である。端末装置200は、第1実施形態に係る端末装置100の機能に加えて、第2推定部160と、判定部170と、報知部180と、を備える。第2推定部160と、判定部170と、報知部180は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
検出部110、算出部120、クラスタリング部130、特定部140、推定部150の機能は、第1実施形態と同様である。すなわち、検出部110は、カメラ10によって時系列に撮像され、自車両Mの後方領域を写したTフレーム分の画像について複数の他車両を検出する。算出部120は、自車両Mの後方領域において検出した他車両の横方向に関する相対位置および縦方向に関する相対移動量を算出する。クラスタリング部130は、算出した他車両の相対位置および相対移動量に基づいて、他車両をクラスタリングする。特定部140は、クラスタリングの結果に基づいて車線領域を特定する。推定部150は、特定された車線領域に基づいて、中央線を推定する。
第2推定部160は、算出部120によって算出された他車両の横方向に関する相対位置および縦方向に関する相対移動量に基づいて、他車両の移動方向を推定する。より具体的には、例えば、第2推定部160は、他車両の横方向に関する相対位置を時系列に算出し、算出した時系列の相対位置の差分が、正の値(右方向)を取るか負の値(左方向)を取るかによって、他車両の横方向に関する移動方向を推定することができる。第2推定部160は、さらに、縦方向に関する相対移動量が正の値(前方向)を取るか負の値(後方向)を取るかによって、他車両の縦方向に関する移動方向を推定することができる。第2推定部160は、これらの横方向および縦方向に関する推定結果を組み合わせて、例えば、算出した時系列の相対位置の差分が正の値(右方向)を取り、かつ縦方向に関する相対移動量が正の値(前方向)を取る場合、当該他車両の進行方向は、「右前方向」であると推定することができる。
なお、第2推定部160は、相対位置および相対移動量に関する微差や誤差を考慮して、閾値を用いて、移動方向を推定してもよい。例えば、第2推定部160は、算出した時系列の相対位置の差分の絶対値が閾値以上である場合にのみ、当該差分が正の値(右方向)を取るか負の値(左方向)を取るかを推定してもよい。さらに、第2推定部160は、縦方向に関する相対移動量の絶対値が閾値以上である場合にのみ、当該相対移動量が正の値(前方向)を取るか負の値(後方向)を取るかを推定してもよい。
図15は、追い越し判定および報知処理の詳細を説明するための図である。図15において、符号LLおよびRLは、特定部140によって特定された左道路区画線LLおよび右道路区画線CLを表し、特定部140は、これら左道路区画線LLおよび右道路区画線CLによって囲まれる領域を車線領域LDとして特定している。また、図15では、一例として、第2推定部160によって、他車両M1の進行方向が「右前方向」であると推定された場合を表している。判定部170は、第2推定部160によって推定された推定移動方向と、特定部140によって特定された車線領域LDとに基づいて、他車両M1が自車両Mを追い越すか否かを判定する。より具体的には、例えば、判定部170は、第2推定部160によって推定された推定移動方向が、「右前方向」又は「左前方向」であり、かつ他車両M1の位置が、左道路区画線LL又は右道路区画線CLから所定距離以内である場合、他車両M1が自車両Mを追い越すと判定する。このとき、判定部170は、他車両M1の縦方向に関する相対移動量が閾値以上であるか否か(すなわち、他車両M1が、自車両Mに比して高速で走行しているか否かを)を考慮してもよい。また、他の態様として、判定部170は、第2推定部160によって推定された推定移動方向が、「右方向」又は「左方向」である場合であっても(すなわち、縦方向に関する相対移動量が正の値を取らない場合であっても)、他車両M1の位置が、左道路区画線LL又は右道路区画線CLから所定距離以内である場合、他車両M1が自車両Mを追い越すと判定してもよい。より一般に、判定部170は、第2推定部160によって推定された推定移動方向と、特定部140によって特定された車線領域LDとの少なくとも一方を用いて、追い越し判定を行えばよい。
報知部180は、判定部170によって、他車両M1が自車両Mを追い越すと判定された場合、自車両Mの乗員に当該追い越しを報知する。より具体的には、例えば、図15の右部に示す通り、報知部180は、表示部20に、他車両M1が自車両Mを追い越そうする旨を示すアラート情報を表示させる。このとき、報知部180は、他車両M1が自車両Mを右方向から追い越すと判定された場合、表示部20の右側にアラート情報を表示させてもよいし、他車両M1が自車両Mを左方向から追い越すと判定された場合、表示部20の左側にアラート情報を表示させてもよい。代替的に、報知部180は、端末装置100の音声出力機能を活用して、音声によって、他車両M1が自車両Mを追い越そうする旨、通知してもよい。
図16は、端末装置200によって実行される処理の流れの一例を示すフローチャートである。図16に示すフローチャートの処理は、自車両Mが走行中、特定部140によって自車両Mの車線領域が特定されているという前提において、実行されるものである。
まず、第2推定部160は、算出部120によって算出された他車両の横方向に関する相対位置および縦方向に関する相対移動量に基づいて、他車両の移動方向を推定する(ステップS200)。次に、判定部170は、第2推定部160によって推定された推定移動方向と、特定部140によって特定された車線領域とに基づいて、他車両が自車両を追い越すか否かを判定する(ステップS202)。他車両が自車両を追い越さないと判定された場合、端末装置200は処理を終了する。一方、他車両が自車両を追い越すと判定された場合、報知部180は、表示部20に、車線変更を報知する(ステップS204)。これにより、本フローチャートの処理が終了する。
以上の通り説明した第2実施形態によれば、路面画像から道路区画線を検出できない場合であっても、自車両の走行車線を適切に推定し、推定した走行車線を活用して、自車両の乗員の運転支援を好適に行うことができる。
上記説明した実施形態は、以下のように表現することができる。
コンピュータによって読み込み可能な命令(computer-readable instructions)を格納する記憶媒体(storage medium)と、
前記記憶媒体に接続されたプロセッサと、を備え、
前記プロセッサは、前記コンピュータによって読み込み可能な命令を実行することにより(the processor executing the computer-readable instructions to:)
移動体の周辺を撮像した画像データから一以上の他移動体を検出し、
前記移動体を基準とする、前記移動体の横方向に関する前記他移動体の相対位置と、前記移動体の縦方向に関する前記他移動体の相対移動量とを算出し、
前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて、前記他移動体をクラスタリングし、
前記クラスタリングの結果に基づいて車線領域を特定し、
前記車線領域に基づいて、前記移動体が走行する車線の中央線を推定する、
情報処理装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
10 カメラ
20 表示部
100 端末装置
110 検出部
120 算出部
130 クラスタリング部
140 特定部
150 推定部

Claims (13)

  1. 移動体の周辺を撮像した画像データから複数の他移動体を検出する検出部と、
    前記複数の他移動体の各々について、前記移動体を基準とする、前記移動体の横方向に関する前記他移動体の相対位置と、前記移動体の縦方向に関する前記他移動体の相対移動量とを算出する算出部と、
    前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて、前記複数の他移動体をクラスタリングするクラスタリング部と、
    前記クラスタリングの結果に基づいて、前記クラスタリングによって得られた各クラスタの横幅として車線領域を特定する特定部と、
    前記車線領域に基づいて、前記移動体が走行する車線の中央線を推定する推定部と、を備える、
    情報処理装置。
  2. 前記特定部は、前記クラスタリングの結果に基づいて、前記移動体が走行する自車線の領域を表す自車線領域と、前記移動体に対向する領域を表す対向車線領域とを特定し、
    前記推定部は、前記自車線領域と前記対向車線領域の間の線として前記中央線を推定する、
    請求項1に記載の情報処理装置。
  3. 前記特定部は、前記クラスタリングによって得られた複数のクラスタにそれぞれ属する複数の移動体群のうち、前記移動体に接近する移動体群を特定し、特定した前記移動体群が属するクラスタを含む領域を前記対向車線領域として特定する、
    請求項2に記載の情報処理装置。
  4. 前記推定部は、前記車線領域のエッジから第1消失点を推定するとともに、前記移動体から最も遠方に存在する他移動体を第2消失点として推定し、前記第1消失点と前記第2消失点との距離が閾値以内である場合に、前記第1消失点又は前記第2消失点を消失点として同定する、
    請求項1に記載の情報処理装置。
  5. 前記推定部は、前記移動体が曲線道路を走行していると判定した場合、前記車線領域のエッジから第1消失点を推定するとともに、前記移動体から最も遠方に存在する他移動体を第2消失点として推定し、前記第1消失点と前記第2消失点との距離が閾値以内である場合に、前記第1消失点又は前記第2消失点を消失点として同定する、
    請求項1に記載の情報処理装置。
  6. 前記推定部は、前記中央線に分節点が存在すると判定した場合、前記移動体が曲線道路を走行していると判定する、
    請求項5に記載の情報処理装置。
  7. 前記クラスタリング部は、時系列にわたって撮像された複数フレーム分の前記画像データから検出された一以上の他移動体をクラスタリングする、
    請求項1に記載の情報処理装置。
  8. 前記クラスタリング部は、前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量の移動平均に基づいて、前記他移動体をクラスタリングする、
    請求項1に記載の情報処理装置。
  9. 前記クラスタリング部は、四輪車である前記他移動体のみをクラスタリングする、
    請求項1に記載の情報処理装置。
  10. 前記検出部は、前記移動体の後方に位置する前記他移動体を検出し、
    前記情報処理装置は、
    前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて前記他移動体の移動方向を推定する移動方向推定部と、
    前記他移動体の推定移動方向と前記車線領域とに基づいて、前記他移動体が追い越しを行うか否かを判定する判定部と、を備える、
    請求項1に記載の情報処理装置。
  11. 前記情報処理装置は、前記他移動体が前記移動体を追い越すと判定された場合、前記追い越しを前記移動体の乗員に報知する報知部をさらに備える、
    請求項10に記載の情報処理装置。
  12. コンピュータが、
    移動体の周辺を撮像した画像データから複数の他移動体を検出し、
    前記複数の他移動体の各々について、前記移動体を基準とする、前記移動体の横方向に関する前記他移動体の相対位置と、前記移動体の縦方向に関する前記他移動体の相対移動量とを算出し、
    前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて、前記複数の他移動体をクラスタリングし、
    前記クラスタリングの結果に基づいて、前記クラスタリングによって得られた各クラスタの横幅として車線領域を特定し、
    前記車線領域に基づいて、前記移動体が走行する車線の中央線を推定する、
    情報処理方法。
  13. コンピュータに、
    移動体の周辺を撮像した画像データから複数の他移動体を検出させ、
    前記複数の他移動体の各々について、前記移動体を基準とする、前記移動体の横方向に関する前記他移動体の相対位置と、前記移動体の縦方向に関する前記他移動体の相対移動量とを算出させ、
    前記横方向に関する前記他移動体の相対位置と、前記縦方向に関する前記他移動体の相対移動量とに基づいて、前記複数の他移動体をクラスタリングさせ、
    前記クラスタリングの結果に基づいて、前記クラスタリングによって得られた各クラスタの横幅として車線領域を特定させ、
    前記車線領域に基づいて、前記移動体が走行する車線の中央線を推定させる、
    プログラム。
JP2024101986A 2024-04-26 2024-06-25 情報処理装置、情報処理方法、およびプログラム Active JP7843801B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202510409918.XA CN120853374A (zh) 2024-04-26 2025-04-02 信息处理装置、信息处理方法以及存储介质
US19/169,061 US20250336213A1 (en) 2024-04-26 2025-04-03 Information processing device, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2024073105 2024-04-26
JP2024073105 2024-04-26

Publications (2)

Publication Number Publication Date
JP2025168144A JP2025168144A (ja) 2025-11-07
JP7843801B2 true JP7843801B2 (ja) 2026-04-10

Family

ID=97565431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024101986A Active JP7843801B2 (ja) 2024-04-26 2024-06-25 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7843801B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225546A (ja) 2014-05-28 2015-12-14 本田技研工業株式会社 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP2017004100A (ja) 2015-06-05 2017-01-05 アルプス電気株式会社 電子回路
US20180082133A1 (en) 2016-09-20 2018-03-22 Stmicroelectronics S.R.L. Method of detecting an overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle
CN111033589A (zh) 2017-08-10 2020-04-17 日产自动车株式会社 车道信息管理方法、行驶控制方法及车道信息管理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225546A (ja) 2014-05-28 2015-12-14 本田技研工業株式会社 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP2017004100A (ja) 2015-06-05 2017-01-05 アルプス電気株式会社 電子回路
US20180082133A1 (en) 2016-09-20 2018-03-22 Stmicroelectronics S.R.L. Method of detecting an overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle
CN111033589A (zh) 2017-08-10 2020-04-17 日产自动车株式会社 车道信息管理方法、行驶控制方法及车道信息管理装置

Also Published As

Publication number Publication date
JP2025168144A (ja) 2025-11-07

Similar Documents

Publication Publication Date Title
US11288833B2 (en) Distance estimation apparatus and operating method thereof
CN107914708B (zh) 后方障碍物检测和距离估算
JP6600892B2 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
JP6666883B2 (ja) 走行支援装置
US9076047B2 (en) System and method for recognizing parking space line markings for vehicle
US20180224857A1 (en) Ecu, autonomous vehicle including ecu, and method of determining driving lane for the same
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
KR20160123668A (ko) 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
WO2020154990A1 (zh) 目标物体运动状态检测方法、设备及存储介质
JP2016206776A (ja) 路面検出装置
CN114353813A (zh) 道路模型中的道路感知估计
CN115959112A (zh) 车辆控制装置、车辆控制方法及存储介质
CN115959111A (zh) 车辆控制装置、车辆控制方法及存储介质
WO2023122915A1 (zh) 一种车辆变道的预警方法及装置
CN111824163B (zh) 用于确定道路的曲线的方法和设备
US11981206B2 (en) Vehicle display control device, control method of vehicle display control device, and storage medium
CN115063772B (zh) 一种车辆编队后车检测方法、终端设备及存储介质
CN115959109A (zh) 车辆控制装置、车辆控制方法及存储介质
JP7843801B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20250336213A1 (en) Information processing device, information processing method, and storage medium
EP4202865B1 (en) Parking assisting device and parking assisting method
CN115959110A (zh) 车辆控制装置、车辆控制方法及存储介质
JP7718667B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2018194538A (ja) 情報処理装置およびプログラム
JP2007188349A (ja) 後方車両解析装置及び衝突予測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20260303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20260331

R150 Certificate of patent or registration of utility model

Ref document number: 7843801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150