JP7359922B1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7359922B1
JP7359922B1 JP2022152998A JP2022152998A JP7359922B1 JP 7359922 B1 JP7359922 B1 JP 7359922B1 JP 2022152998 A JP2022152998 A JP 2022152998A JP 2022152998 A JP2022152998 A JP 2022152998A JP 7359922 B1 JP7359922 B1 JP 7359922B1
Authority
JP
Japan
Prior art keywords
camera
vehicle camera
pair
information processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022152998A
Other languages
English (en)
Other versions
JP2024047398A (ja
Inventor
康司 大西
直士 垣田
隆幸 小笹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2022152998A priority Critical patent/JP7359922B1/ja
Priority to US18/186,575 priority patent/US20240104759A1/en
Application granted granted Critical
Publication of JP7359922B1 publication Critical patent/JP7359922B1/ja
Publication of JP2024047398A publication Critical patent/JP2024047398A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車載カメラの取り付け状態の異常を精度よく簡便に検知すること。【解決手段】実施形態に係る情報処理装置は、コントローラを備える。コントローラは、車載カメラのカメラ画像に設定された処理対象領域から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定される上記車載カメラ取り付けの角度推定値に基づいて上記車載カメラの姿勢を推定する姿勢推定処理を実行する。また、コントローラは、上記姿勢推定処理における上記ペアデータのデータ蓄積数、上記角度推定値の標準偏差、および、上記姿勢に関する既知のキャリブレーション値からのズレ量のうちの少なくともいずれかが許容外である場合に、上記車載カメラの取り付け状態が異常であると判定する。【選択図】図6

Description

開示の実施形態は、情報処理装置、情報処理方法およびプログラムに関する。
車載カメラの取り付け位置および姿勢は、不意の接触や経年変化などにより変化し、取り付け当初のキャリブレーション結果からズレを生じてしまうことがある。これを検知するため従来から、車載カメラによって撮像されたカメラ画像に基づいて車載カメラの姿勢を推定する技術が知られている。
例えば特許文献1には、カメラ画像中に設定された矩形状のROI(Region Of Interest;処理対象領域)から路面上の特徴点を抽出し、この特徴点のフレーム間での動きを示すオプティカルフローに基づいて車載カメラの姿勢を推定する技術が開示されている。
かかるオプティカルフローに基づいて実空間における平行な線分のペアを抽出し、例えば非特許文献1のアルゴリズムを用いることで、車載カメラの姿勢(PAN,TILT,ROLLの各軸の回転角)を推定することができる。
特開2021-086258号公報
[online],慶應義塾大学,[令和4年7月25日検索],インターネット<URL:http://im-lab.net/artoolkit-overview/>
しかしながら、上述した従来技術には、車載カメラの取り付け状態の異常を精度よく簡便に検知するうえで、さらなる改善の余地がある。
上述した従来技術を用いて推定された車載カメラの姿勢は、例えば車両システムの運転支援機能における画像認識処理に用いられるが、既知のキャリブレーション値からのズレ量が微量である場合は通常、この画像認識処理内で補正することが可能である。ただし、補正し切れないほどズレ量が大きい場合は、画像認識処理において例えば物体の誤検知や未検知が生じてしまう。
ここで、誤検知の場合、例えば誤検知によるアラートが多発すれば、ユーザは車載カメラの取り付け状態が異常であることを把握して取り付け状態の再調整を行うことができる。これに対し、誤検知でもアラートが通知されない場合や未検知の場合、ユーザは取り付け状態の異常を把握することができない。また、その結果、車載カメラの取り付け状態の再調整は行われず、車両システムは運転支援機能を正常に動作させることができない。
実施形態の一態様は、上記に鑑みてなされたものであって、車載カメラの取り付け状態の異常を精度よく簡便に検知することができる情報処理装置、情報処理方法およびプログラムを提供することを目的とする。
実施形態の一態様に係る情報処理装置は、コントローラを備える。前記コントローラは、車載カメラのカメラ画像に設定された処理対象領域から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定される前記車載カメラ取り付けの角度推定値に基づいて前記車載カメラの姿勢を推定する姿勢推定処理を実行する。また、前記コントローラは、前記姿勢推定処理における前記ペアデータのデータ蓄積数が予め設定された基準値の10分の1以下である場合に、前記車載カメラの取り付け状態が異常であると判定する。
実施形態の一態様によれば、車載カメラの取り付け状態の異常を精度よく簡便に検知することができる。
図1は、実施形態に係るカメラ取り付け状態の異常判定方法の説明図(その1)である。 図2は、実施形態に係るカメラ取り付け状態の異常判定方法の説明図(その2)である。 図3は、実施形態に係るカメラ取り付け状態の異常判定方法の説明図(その3)である。 図4は、実施形態に係るカメラ取り付け状態の異常判定方法の説明図(その4)である。 図5は、実施形態に係るカメラ取り付け状態の異常判定方法の説明図(その5)である。 図6は、実施形態に係る車載装置の構成例を示すブロック図である。 図7は、姿勢推定部の構成例を示すブロック図である。 図8は、判定条件情報に含まれる正常判定条件の説明図である。 図9は、判定条件情報に含まれる異常判定条件の説明図である。 図10は、実施形態に係る車載装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する情報処理装置、情報処理方法およびプログラムの実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
また、以下では、実施形態に係る情報処理装置が、カメラ11を備える車載装置10(図6参照)である場合を例に挙げて説明を行う。車載装置10は、例えばドライブレコーダである。また、以下では、実施形態に係る情報処理方法が、車載装置10の実行するカメラ11の取り付け状態の異常判定方法であるものとする。
また、以下では、「所定」と言った場合、「予め決められた」と言い換えてもよい。例えば、「所定値」は「予め決められた値」と言い換えてもよい。
まず、実施形態に係るカメラ取り付け状態の異常判定方法の内容について、図1~図5を用いて説明する。図1~図5は、実施形態に係るカメラ取り付け状態の異常判定方法の説明図(その1)~(その5)である。
車載装置10が路面上の特徴点のオプティカルフローに基づいてカメラ11の姿勢を推定する場合、抽出される路面上の特徴点としては、横断歩道や車線といった路面標示のコーナー部分などが挙げられる。
図1は、ROI30内において、横断歩道のコーナー部分に基づいてROI30を2分割した左半分の領域R1内にオプティカルフローOp1が、右半分の領域R2内にオプティカルフローOp2が、それぞれ抽出された例を示している。
非特許文献1のアルゴリズムは、実空間における平行な線分のペアを前提とする。また、本実施形態では、領域R1内に抽出されたオプティカルフローと領域R2内に抽出されたオプティカルフローとの組み合わせでペアを生成する。
図1のオプティカルフローOp1,Op2は、いずれも横断歩道のコーナー部分に基づくものであるので、実空間における平行な線分のペアである。したがって、オプティカルフローOp1,Op2のペアは姿勢推定における正しい組み合わせ(以下、適宜「正フロー」と言う)となる。
一方、ROI30内では、オプティカルフローOp1,Op2以外にもオプティカルフローOp1,Op2と非平行な場合を含む多くのオプティカルフローが抽出される。したがって、これらオプティカルフローにおいては、前述の正フローに対し、誤った組み合わせ(以下、適宜「誤フロー」と言う)となるペアも生じる。この誤フローに基づいては、カメラ11の姿勢を正しく推定することができない。
このため、カメラ11の姿勢推定処理では、抽出したオプティカルフローのペアのそれぞれについてPAN,TILT,ROLLの各軸の回転角を推定し、図2に示すように統計的に推定値をヒストグラム化した場合の中央値に基づいてカメラ11の軸ズレを判定している。図2の例の場合、中央値である推定値e5が角度推定値として採用される。
このようにして推定された角度推定値は、既に述べた通り、例えば車両システムの運転支援機能における画像認識処理に用いられるが、既知のキャリブレーション値からのズレ量が微量である場合は通常、この画像認識処理内で補正することが可能である。ただし、補正し切れないほどズレ量が大きい場合は、画像認識処理において例えば物体の誤検知や未検知が生じてしまい、運転支援機能が正常に動作しなくなるため、カメラ11の取り付け状態の再調整が必要となる。
この再調整が必要な場合の例を図3および図4に示す。なお、図3は、上下方向へのズレのうち、上方向へのズレを示す具体例となっているが下方向についても同様である。また、図4は、左右方向へのズレのうち、左方向へのズレを示す具体例となっているが右方向についても同様である。
図3に示すように、カメラ11の取り付け状態が上下方向へズレている場合、ROI30内には例えば空や自車両の車体などが映り込むため、ROI30内に特徴点が少なくなる。この場合、路面上の特徴点に基づく前述のオプティカルフローのペアのデータ(以下、適宜「ペアデータ」と言う)を、統計的に処理できるほど十分に蓄積できない。
また、図4に示すように、カメラ11の取り付け状態が左右方向へズレている場合、ROI30内に特徴点は出るが路面以外の例えば建物等の特徴点も多く含まれることとなる。すなわち、ROI30内に特徴点は出るが角度推定値のバラつきが大きくなる。
そこで、実施形態に係るカメラ取り付け状態の異常判定方法では、車載装置10が備えるコントローラ15(図6参照)が、図5に示すようにデータ蓄積数、標準偏差、キャリブレーション値からのズレ量のうちの少なくともいずれか一つが許容外である場合に、カメラ11の取り付け状態が異常と判定することとした。
データ蓄積数は、前述のペアデータのデータ蓄積数である。標準偏差は、ペアデータそれぞれに基づく角度推定値の標準偏差である。キャリブレーション値からのズレ量は、既知の、言い換えれば直近のキャリブレーション値からのズレ量である。
データ蓄積数が許容外とは、例えばデータ蓄積数が所定値以下である場合であり、図3に示した例に相当する。標準偏差が許容外とは、例えば標準偏差が所定値以上である場合であり、図4に示した例に相当する。キャリブレーション値からのズレ量が許容外とは、取り付け状態の再調整なしに算出された角度推定値に基づいて再キャリブレーションを行う場合であって、画像認識処理における補正が不可能である場合に相当する。
これらデータ蓄積数、標準偏差、キャリブレーション値からのズレ量のうちの少なくともいずれか一つが許容外である場合に、カメラ11の取り付け状態が異常と判定することによって、精度よくカメラ11の取り付け状態の異常を検知することができる。
また、当該異常判定方法は、姿勢推定処理のアルゴリズムにおいて用いられる既知の各種データ(すなわち、データ蓄積数、標準偏差、キャリブレーション値からのズレ量)を利用するものであるので、簡便にカメラ11の取り付け状態の異常を検知することができる。
したがって、実施形態に係るカメラ取り付け状態の異常判定方法によれば、カメラ11の取り付け状態の異常を精度よく簡便に検知することができる。
なお、図2には、上記姿勢推定処理が、前述のペアデータそれぞれから推定されるカメラ取り付けの角度推定値の「中央値」に基づいてカメラ11の姿勢を推定する例を挙げたが、データ蓄積数が十分であればほとんどの場合正規分布となる。このため、実情は「中央値≒最頻値」となる。したがって、姿勢推定処理は、「中央値」および「最頻値」のいずれを採用してもよい。姿勢推定処理は、「中央値」を採用した場合、処理コスト的に有利となる。一方、姿勢推定処理は、「最頻値」を採用した場合、より高い精度を求めることができる。本実施形態では、図2に示した通り、「中央値」を採用するものとする。
以下、上述したカメラ取り付け状態の異常判定方法を適用した車載装置10の構成例について、より具体的に説明する。
図6は、実施形態に係る車載装置10の構成例を示すブロック図である。また、図7は、姿勢推定部15aの構成例を示すブロック図である。なお、図6および図7では、本実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。
換言すれば、図6および図7に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
また、図6および図7を用いた説明では、既に説明済みの構成要素については、説明を簡略するか、説明を省略する場合がある。
図6に示すように、実施形態に係る車載装置10は、カメラ11と、センサ部12と、通知デバイス13と、記憶部14と、コントローラ15とを有する。
カメラ11は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、この撮像素子を用いて予め決められた撮像範囲を撮像する。カメラ11は、例えばフロントガラスやダッシュボード等の車両の各所に車両前方の所定の撮像範囲を撮像するように取り付けられる。
センサ部12は、車両に搭載される各種のセンサである。センサ部12は、例えば車速センサやGセンサなどを含む。通知デバイス13は、ユーザに対しカメラ11の取り付け状態に関する情報等を通知するデバイスである。通知デバイス13は、例えばディスプレイやスピーカ等によって実現される。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の記憶デバイスによって実現される。記憶部14は、図6の例では、画像情報14aと、判定条件情報14bと、取り付け関連情報14cとを記憶する。
画像情報14aは、カメラ11によって撮像されたカメラ画像が格納される。判定条件情報14bは、カメラ11の取り付け状態の判定条件に関する情報である。判定条件情報14bに含まれる判定条件については、図8および図9を用いた説明で後述する。
取り付け関連情報14cは、カメラ11の取り付け状態に関する情報である。取り付け関連情報14cは、カメラ11の取り付け位置および姿勢に関する設計値や、キャリブレーション値を含む。また、取り付け関連情報14cは、後述する姿勢推定部15aが実行する姿勢推定処理において用いられるカメラパラメータや閾値等の各種のパラメータを含む。
コントローラ(controller)15は、いわゆるプロセッサや制御部に相当する。コントローラ15は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、記憶部14に記憶されている図示略の実施形態に係るプログラムがRAMを作業領域として実行されることにより実現される。また、コントローラ15は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
コントローラ15は、姿勢推定部15aと、キャリブレーション実行部15bとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
姿勢推定部15aは、ROI30内における路面上の特徴点に基づくオプティカルフローを使用した姿勢推定処理を実行する。当該姿勢推定処理において、姿勢推定部15aは、データ蓄積数、標準偏差、キャリブレーション値からのズレ量のうちの少なくともいずれか一つが許容外である場合に、カメラ11の取り付け状態が異常であると判定する。
姿勢推定部15aの構成例についてより具体的に図7を用いて説明する。図7に示すように、姿勢推定部15aは、取得部15aaと、設定部15abと、特徴点抽出部15acと、特徴点追従部15adと、線分抽出部15aeと、算出部15afと、ノイズ除去部15agと、判定部15ahと、決定部15aiとを有する。
取得部15aaは、カメラ11の撮像画像を取得し、画像情報14aへ格納する。設定部15abは、画像情報14aへ格納されたカメラ画像に対し、カメラ11の姿勢推定において処理対象となるROI30を設定する。
特徴点抽出部15acは、設定部15abによって設定されたROI30内の特徴点を抽出する。
特徴点追従部15adは、特徴点抽出部15acによって抽出された各特徴点をフレーム間にわたって追従し、特徴点ごとのオプティカルフローを抽出する。線分抽出部15aeは、特徴点追従部15adによって抽出されたオプティカルフローからノイズ成分を除去し、各オプティカルフローに基づく線分のペア群を抽出する。
算出部15afは、線分抽出部15aeによって抽出された線分のペアのそれぞれについて、非特許文献1のアルゴリズムを用いてPAN,TILT,ROLLの各軸の回転角を算出する。
ノイズ除去部15agは、センサ部12のセンサ値に基づいて、算出部15afによって算出された各角度推定値のうちから低速および舵角によるノイズ分を除去する。
判定部15ahは、ノイズ分が除去された各角度推定値をヒストグラム化するとともに、前述のデータ蓄積数、標準偏差、キャリブレーション値からのズレ量のうちの少なくともいずれか一つが許容外である場合に、カメラ11の取り付け状態が異常であるか否かを判定する判定処理を実行する。
このとき、判定部15ahは、判定条件情報14bに含まれる正常判定条件/異常判定条件を参照する。図8は、判定条件情報14bに含まれる正常判定条件の説明図である。図9は、判定条件情報14bに含まれる異常判定条件の説明図である。なお、以下では、「キャリブレーション値」のことを適宜「キャリブ値」と言う。
判定部15ahは、図8に示す正常判定条件を満たす場合、カメラ11の取り付け状態が正常であると判定する。図8の(1)に示すように、IG(イグニッション)オン直後と呼ばれるIGオンの時点から所定期間の間は、判定部15ahは走行時間10分ごとに図8に示す正常判定条件を参照した判定処理を実行する。
判定部15ahは、(1)IGオン直後は、データ蓄積数が100以上であり、標準偏差が10以下であれば、カメラ11の取り付け状態が正常であると判定する。
また、判定部15ahは、図8の(2)に示すように、IGオン直後より後(すなわち(1)より後)は、判定部15ahは走行時間30分ごとに図8に示す正常判定条件を参照した判定処理を実行する。
判定部15ahは、(2)IGオン直後より後は、データ蓄積数が100以上であり、標準偏差が5以下であれば、カメラ11の取り付け状態が正常であると判定する。なお、図8に挙げたデータ蓄積数の「100以上」、標準偏差の「10以下」および「5以下」は、「基準値」の一例に相当する。
また、判定部15ahは、図8に示す正常判定条件を満たさない場合、カメラ11の取り付け状態が異常であると判定する。また、判定部15ahは、当該異常である場合に、図9に示す異常判定条件を満たすか否かによって、推定される状態を判定する。
具体的には、図9に示すように、判定部15ahは、(1)IGオン直後については走行時間10分ごとに図9に示す異常判定条件を参照した判定処理を実行する。そして、判定部15ahは、データ蓄積数が10以下である場合、路面が映らない(TILT下向きのズレ)状態であると推定する(図中の(1-1)の*1参照)。
また、判定部15ahは、データ蓄積数が100以上であり、標準偏差が20以上であれば、路面が映らない状態であると推定する(図中の(1-2)の*2参照)。なお、*1は、例えば図3を用いて説明した状態に相当する。また、*2は、例えば図4を用いて説明した状態に相当する。
また、判定部15ahは、(2)IGオン直後より後の(2-1)については走行時間10分ごとに図9に示す異常判定条件を参照した判定処理を実行する。そして、判定部15ahは、データ蓄積数が10以下である場合、路面が映らない(TILT下向きのズレ)状態であると推定する(図中の(2-1)の*1参照)。
また、判定部15ahは、(2-2)および(2-3)については走行時間30分ごとに図9に示す異常判定条件を参照した判定処理を実行する。そして、判定部15ahは、データ蓄積数が100以上であり、標準偏差が20以上であれば、路面が映らない状態であると推定する(図中の(2-2)の*2参照)。
また、判定部15ahは、データ蓄積数が100以上であり、標準偏差が5以下であり、キャリブ値からのズレ量が10deg以上であれば、路面は映っているが既知のキャリブレーション値からのズレ量が大きい状態であると推定する(図中の(2-3)の*3参照)。
図7の説明に戻る。判定部15ahは、カメラ11の取り付け状態が異常であると判定した場合、当該異常であることおよび推定される状態を通知デバイス13へ通知する。ユーザは、その通知内容に基づいて、カメラ11の取り付け状態の再調整を例えばディーラー等で行ってもらうこととなる。また、判定部15ahは、カメラ11の取り付け状態が異常である場合、例えば姿勢推定処理を異常終了させる。
一方、判定部15ahは、カメラ11の取り付け状態が正常であると判定した場合、決定部15aiに角度推定値を決定させる。決定部15aiは、判定部15ahによってヒストグラム化された角度推定値の中央値に基づいてPAN,TILT,ROLLの各角度推定値を決定する。また、決定部15aiは、決定した角度推定値を取り付け関連情報14cへ格納する。
図6の説明に戻る。キャリブレーション実行部15bは、姿勢推定部15aによる推定結果に基づいてキャリブレーションを実行する。具体的には、キャリブレーション実行部15bは、姿勢推定部15aによって推定された角度推定値と取り付け関連情報14cに含まれる設計値との誤差を算出し、キャリブレーション値として外部装置50へ通知する。
外部装置50は、例えば駐車枠検知機能や自動駐車機能といった運転支援機能を実現する各装置である。また、キャリブレーション実行部15bは、通知デバイス13へキャリブレーションの実行結果を通知する。なお、この場合のキャリブレーションの実行結果は、カメラ11の取り付け状態が正常な状態で行われた実行結果となる。
次に、車載装置10が実行する処理手順について図10を用いて説明する。図10は、実施形態に係る車載装置10が実行する処理手順を示すフローチャートである。
図10に示すように、車載装置10のコントローラ15は、カメラ11からカメラ画像を取得してROI30を設定する(ステップS101)。
そして、コントローラ15は、設定したROI30内のオプティカルフローを使用した姿勢推定処理を実行する(ステップS102)。
そして、コントローラ15は、その姿勢推定処理において、データ蓄積数、標準偏差およびキャリブ値からのズレ量のいずれかが許容外であるか否かを判定する(ステップS103)。
許容外である場合(ステップS103,Yes)、コントローラ15は、カメラ11の取り付け状態が異常であると判定し(ステップS104)、通知デバイス13へ異常を通知する(ステップS105)。そして、処理を終了する。
また、コントローラ15は、データ蓄積数、標準偏差およびキャリブ値からのズレ量のいずれも許容内である場合(ステップS103,No)、姿勢推定処理の結果に基づいてキャリブレーションを実行する(ステップS106)。
そして、コントローラ15は、処理終了イベントがあるか否かを判定する(ステップS107)。処理終了イベントは、たとえば姿勢推定処理の非実行時間帯の到来や、エンジンの停止や、電源のオフ等である。
処理終了イベントが生じていなければ(ステップS107,No)、コントローラ15は、ステップS101からの処理を繰り返す。処理終了イベントが生じていれば(ステップS107,Yes)、コントローラ15は処理を終了する。
上述してきたように、実施形態に係る車載装置10(「情報処理装置」の一例に相当)は、コントローラ15を備える。コントローラ15は、カメラ11(「車載カメラ」の一例に相当)のカメラ画像に設定されたROI30(「処理対象領域」の一例に相当)から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定されるカメラ11取り付けの角度推定値に基づいてカメラ11の姿勢を推定する姿勢推定処理を実行する。また、コントローラは、上記姿勢推定処理における上記ペアデータのデータ蓄積数、上記角度推定値の標準偏差、および、上記姿勢に関する既知のキャリブレーション値からのズレ量のうちの少なくともいずれかが許容外である場合に、カメラ11の取り付け状態が異常であると判定する。
したがって、実施形態に係る車載装置10によれば、カメラ11の取り付け状態の異常を精度よく簡便に検知することができる。
また、コントローラ15は、上記データ蓄積数、上記標準偏差および上記ズレ量のうちのいずれかが予め設定された基準値から所定値以上逸脱した場合に、上記異常であると判定する。
したがって、実施形態に係る車載装置10によれば、上記データ蓄積数、上記標準偏差および上記ズレ量のうちのいずれかが上記基準値から大きく外れた場合をカメラ11の取り付け状態が異常であるとして検知することができる。
また、コントローラ15は、上記データ蓄積数が上記基準値の10分の1以下である場合に、上記異常であると判定する。
したがって、実施形態に係る車載装置10によれば、路面上の特徴点の少なさに基づいてカメラ11の取り付け状態の異常を検知することができる。
また、コントローラ15は、上記基準値が100以上であることに対して、上記データ蓄積数が10以下である場合に、上記異常であると判定する。
したがって、実施形態に係る車載装置10によれば、上記基準値が100以上であることに対して上記データ蓄積数が10以下であることによって、例えばカメラ11の上下方向における許容外のズレを検知することができる。
また、コントローラ15は、上記標準偏差が上記基準値の2倍以上である場合に、上記異常であると判定する。
したがって、実施形態に係る車載装置10によれば、角度推定値のバラつきの大きさに基づいてカメラ11の取り付け状態の異常を検知することができる。
また、コントローラ15は、上記基準値が10以下であることに対して、上記標準偏差が20以上である場合に、上記異常であると判定する。
したがって、実施形態に係る車載装置10によれば、上記基準値が10以下であることに対して上記標準偏差が20以上であることによって、例えばカメラ11の左右方向における許容外のズレを検知することができる。
また、コントローラ15は、上記ズレ量が10deg以上である場合に、上記異常であると判定する。
したがって、実施形態に係る車載装置10によれば、カメラ11の取り付け状態の再調整なしには再キャリブレーションが不可能なカメラ11の取り付け状態の異常を検知することができる。
また、コントローラ15は、上記姿勢推定処理において、上記角度推定値の中央値に基づいてカメラ11の姿勢を推定する。
したがって、実施形態に係る車載装置10によれば、角度推定値の中央値に基づくことで処理コスト的に有利にカメラ11の姿勢を推定することができる。
また、コントローラ15は、上記姿勢推定処理において、上記角度推定値の最頻値に基づいてカメラ11の姿勢を推定する。
したがって、実施形態に係る車載装置10によれば、角度推定値の最頻値に基づくことで精度よくカメラ11の姿勢を推定することができる。
また、実施形態に係るカメラ取り付け状態の異常判定方法は、車載装置10が実行する情報処理方法であって、カメラ11のカメラ画像に設定されたROI30から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定されるカメラ11取り付けの角度推定値に基づいてカメラ11の姿勢を推定する姿勢推定処理を実行することと、上記姿勢推定処理における上記ペアデータのデータ蓄積数、上記角度推定値の標準偏差、および、上記姿勢に関する既知のキャリブレーション値からのズレ量のうちの少なくともいずれかが許容外である場合に、カメラ11の取り付け状態が異常であると判定することと、を含む。
したがって、実施形態に係るカメラ取り付け状態の異常判定方法によれば、カメラ11の取り付け状態の異常を精度よく簡便に検知することができる。
また、実施形態に係るプログラムは、カメラ11のカメラ画像に設定されたROI30から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定されるカメラ11取り付けの角度推定値に基づいてカメラ11の姿勢を推定する姿勢推定処理を実行すること、上記姿勢推定処理における上記ペアデータのデータ蓄積数、上記角度推定値の標準偏差、および、上記姿勢に関する既知のキャリブレーション値からのズレ量のうちの少なくともいずれかが許容外である場合に、カメラ11の取り付け状態が異常であると判定すること、をコンピュータに実行させる。
したがって、実施形態に係るプログラムによれば、カメラ11の取り付け状態の異常を精度よく簡便に検知することができる。
なお、実施形態に係るプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。当該記録媒体も、本開示の一態様である。
また、上述した実施形態において挙げた正常判定条件および異常判定条件における各種パラメータの値はあくまで一例であって、当該値を限定するものではない。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
10 車載装置
11 カメラ
12 センサ部
13 通知デバイス
14 記憶部
14a 画像情報
14b 判定条件情報
14c 取り付け関連情報
15 制御部
15a 姿勢推定部
15aa 取得部
15ab 設定部
15ac 特徴点抽出部
15ad 特徴点追従部
15ae 線分抽出部
15af 算出部
15ag ノイズ除去部
15ah 判定部
15ai 決定部
15b キャリブレーション実行部
30 ROI
50 外部装置

Claims (8)

  1. 車載カメラのカメラ画像に設定された処理対象領域から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定される前記車載カメラ取り付けの角度推定値に基づいて前記車載カメラの姿勢を推定する姿勢推定処理を実行するコントローラを備え、
    前記コントローラは、
    前記姿勢推定処理における前記ペアデータのデータ蓄積数が予め設定された基準値の10分の1以下である場合に、前記車載カメラの取り付け状態が異常であると判定する、
    情報処理装置。
  2. 前記コントローラは、
    前記基準値が100以上であることに対して、前記データ蓄積数が10以下である場合に、前記異常であると判定する、
    請求項に記載の情報処理装置。
  3. 前記コントローラは、
    前記姿勢推定処理において、前記角度推定値の中央値に基づいて前記車載カメラの姿勢を推定する、
    請求項1または2に記載の情報処理装置。
  4. 前記コントローラは、
    前記姿勢推定処理において、前記角度推定値の最頻値に基づいて前記車載カメラの姿勢を推定する、
    請求項1または2に記載の情報処理装置。
  5. 情報処理装置が実行する情報処理方法であって、
    車載カメラのカメラ画像に設定された処理対象領域から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定される前記車載カメラ取り付けの角度推定値に基づいて前記車載カメラの姿勢を推定する姿勢推定処理を実行することと、
    前記姿勢推定処理における前記ペアデータのデータ蓄積数が予め設定された基準値の10分の1以下である場合に、前記車載カメラの取り付け状態が異常であると判定することと、
    を含む、情報処理方法。
  6. 車載カメラのカメラ画像に設定された処理対象領域から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定される前記車載カメラ取り付けの角度推定値に基づいて前記車載カメラの姿勢を推定する姿勢推定処理を実行すること、
    前記姿勢推定処理における前記ペアデータのデータ蓄積数が予め設定された基準値の10分の1以下である場合に、前記車載カメラの取り付け状態が異常であると判定すること、
    をコンピュータに実行させる、プログラム。
  7. 車載カメラのカメラ画像に設定された処理対象領域から路面上の特徴点のオプティカルフローに基づく線分のペア群を抽出し、当該ペア群のペアデータそれぞれから推定される前記車載カメラ取り付けの角度推定値に基づいて前記車載カメラの姿勢を推定する姿勢推定処理を実行するコントローラを備え、
    前記コントローラは、
    前記角度推定値の推定に用いる前記ペアデータのデータ蓄積数が統計的に処理できる数より少ない場合に、前記車載カメラの取り付け状態が異常であると判定する、
    情報処理装置。
  8. 前記統計的に処理できる数は、前記角度推定値の正規分布が求められる数である、
    請求項7に記載の情報処理装置。
JP2022152998A 2022-09-26 2022-09-26 情報処理装置、情報処理方法およびプログラム Active JP7359922B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022152998A JP7359922B1 (ja) 2022-09-26 2022-09-26 情報処理装置、情報処理方法およびプログラム
US18/186,575 US20240104759A1 (en) 2022-09-26 2023-03-20 Information processing device, information processing method, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022152998A JP7359922B1 (ja) 2022-09-26 2022-09-26 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP7359922B1 true JP7359922B1 (ja) 2023-10-11
JP2024047398A JP2024047398A (ja) 2024-04-05

Family

ID=88242194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022152998A Active JP7359922B1 (ja) 2022-09-26 2022-09-26 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US20240104759A1 (ja)
JP (1) JP7359922B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172713A1 (ja) 2011-06-13 2012-12-20 日産自動車株式会社 道路形状判定装置、車載用画像認識装置、撮像軸調整装置およびレーン認識方法
WO2017038160A1 (ja) 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
WO2017093036A1 (en) 2015-11-30 2017-06-08 Delphi Technologies, Inc. Method for calibrating the orientation of a camera mounted to a vehicle
JP2020060550A (ja) 2018-10-10 2020-04-16 株式会社デンソーテン 異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172713A1 (ja) 2011-06-13 2012-12-20 日産自動車株式会社 道路形状判定装置、車載用画像認識装置、撮像軸調整装置およびレーン認識方法
WO2017038160A1 (ja) 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
WO2017093036A1 (en) 2015-11-30 2017-06-08 Delphi Technologies, Inc. Method for calibrating the orientation of a camera mounted to a vehicle
JP2020060550A (ja) 2018-10-10 2020-04-16 株式会社デンソーテン 異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システム

Also Published As

Publication number Publication date
JP2024047398A (ja) 2024-04-05
US20240104759A1 (en) 2024-03-28

Similar Documents

Publication Publication Date Title
JP6601352B2 (ja) 車両姿勢推定装置
US20150248594A1 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
KR101808092B1 (ko) 어라운드뷰 모니터링 영상 자동 보정 및 생성 장치 및 방법
JP2019191806A (ja) 異常検出装置および異常検出方法
JP2019191807A (ja) 異常検出装置および異常検出方法
WO2019068699A1 (en) METHOD FOR CLASSIFYING AN OBJECT POINT AS STATIC OR DYNAMIC, DRIVER ASSISTANCE SYSTEM, AND MOTOR VEHICLE
EP2913998A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP7359922B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6841331B2 (ja) 車両駐車支援装置、車両駐車支援プログラム
JP7359901B1 (ja) 情報処理装置、情報処理方法およびプログラム
US10668858B2 (en) Around view monitoring system and operating method thereof
JP7512330B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7394934B1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7401614B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2009181310A (ja) 道路パラメータ推定装置
JP4151631B2 (ja) 物体検出装置
US11285946B2 (en) Moving object detector, vehicle control system, method for detecting moving object, and method for controlling vehicle
JP4144464B2 (ja) 車載用距離算出装置
JP2024027849A (ja) 情報処理装置、情報処理方法およびプログラム
JP7167431B2 (ja) 勾配変化検出装置、方法及びプログラム、並びに、車両
US20240144752A1 (en) Vehicle inspection system and vehicle inspection method
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method
TWI723657B (zh) 車輛控制方法與車用控制系統
JP2020042715A (ja) 移動情報推定装置、異常検出装置、および、移動情報推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230928

R150 Certificate of patent or registration of utility model

Ref document number: 7359922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150