JP7359901B1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7359901B1
JP7359901B1 JP2022075096A JP2022075096A JP7359901B1 JP 7359901 B1 JP7359901 B1 JP 7359901B1 JP 2022075096 A JP2022075096 A JP 2022075096A JP 2022075096 A JP2022075096 A JP 2022075096A JP 7359901 B1 JP7359901 B1 JP 7359901B1
Authority
JP
Japan
Prior art keywords
processing target
target area
calibration value
camera
vehicle camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022075096A
Other languages
English (en)
Other versions
JP2023163887A (ja
Inventor
直士 垣田
康司 大西
隆幸 小笹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2022075096A priority Critical patent/JP7359901B1/ja
Priority to US17/942,305 priority patent/US20230351631A1/en
Priority to CN202211261482.7A priority patent/CN117011374A/zh
Priority to JP2023130670A priority patent/JP2023164431A/ja
Application granted granted Critical
Publication of JP7359901B1 publication Critical patent/JP7359901B1/ja
Publication of JP2023163887A publication Critical patent/JP2023163887A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】車載カメラの姿勢推定の精度を向上させること。【解決手段】実施形態に係る情報処理装置は、制御部を備える。制御部は、車載カメラの撮像画像に設定された処理対象領域における特徴点のオプティカルフローに基づいて車載カメラの姿勢を推定する姿勢推定処理を実行する。また、制御部は、車載カメラの取り付け状態が第1の状態である場合に、矩形状に設定された第1の処理対象領域を用いた第1の姿勢推定処理を実行し、車載カメラの取り付け状態が第2の状態である場合に、路面の形状に応じて設定された第2の処理対象領域を用いた第2の姿勢推定処理を実行する。【選択図】図2

Description

開示の実施形態は、情報処理装置、情報処理方法およびプログラムに関する。
車載カメラの取り付け位置および姿勢は、不意の接触や経年変化などにより変化し、取り付け当初のキャリブレーションから誤差を生じてしまうことがある。これを検知するため、従来から、車載カメラの撮像画像に基づいて車載カメラの姿勢を推定する技術が知られている。
たとえば特許文献1に開示の技術は、撮像画像中に設定された矩形状のROI(Region Of Interest;処理対象領域)から路面上の特徴点を抽出し、かかる特徴点のフレーム間での動きを示すオプティカルフローに基づいて車載カメラの姿勢を推定するものである。
かかるオプティカルフローに基づいて実空間における平行な線分のペアを抽出し、たとえば非特許文献1のアルゴリズムを用いることで、車載カメラの姿勢(PAN,TILT,ROLLの各軸の回転角)を推定することができる。
特開2021-086258号公報
[online],慶應義塾大学,[令和4年3月31日検索],インターネット<URL:http://im-lab.net/artoolkit-overview/>
しかしながら、上述した従来技術には、車載カメラの姿勢推定の精度を向上させるうえで、さらなる改善の余地がある。
実施形態の一態様は、上記に鑑みてなされたものであって、車載カメラの姿勢推定の精度を向上させることができる情報処理装置、情報処理方法およびプログラムを提供することを目的とする。
実施形態の一態様に係る情報処理装置は、制御部を備える。前記制御部は、車載カメラの撮像画像にづいて前記車載カメラの姿勢を推定する。また、前記制御部は、第1の姿勢推定処理と、第2の姿勢推定処理と、を実行可能である。前記第1の姿勢推定処理は、前記車載カメラの取り付け状態が既知のキャリブレーション値を持たない第1の状態である場合に、前記撮像画像の中に矩形状の第1処理対象領域を設定し、前記第1処理対象領域内における特徴点のオプティカルフローに基づいて第1のキャリブレーション値を算出し前記車載カメラの姿勢を推定する。前記第2の姿勢推定処理は、前記車載カメラの取り付け状態が既知のキャリブレーション値を持つ第2の状態である場合に、既知のキャリブレーション値を用いて、前記撮像画像の中に路面の形状に応じた第2処理対象領域を設定し、前記第2処理対象領域内における特徴点のオプティカルフローに基づいて第2のキャリブレーション値を算出し前記車載カメラの姿勢を推定する。
実施形態の一態様によれば、車載カメラの姿勢推定の精度を向上させることができる。
図1は、実施形態に係る姿勢推定方法の概要説明図(その1)である。 図2は、実施形態に係る姿勢推定方法の概要説明図(その2)である。 図3は、実施形態に係る姿勢推定方法の概要説明図(その3)である。 図4は、実施形態に係る車載装置の構成例を示すブロック図である。 図5は、路面ROIおよび重畳ROIの説明図(その1)である。 図6は、路面ROIおよび重畳ROIの説明図(その2)である。 図7は、姿勢推定部の構成例を示すブロック図である。 図8は、実施形態に係る車載装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する情報処理装置、情報処理方法およびプログラムの実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
また、以下では、実施形態に係る情報処理装置が、車両に搭載される車載装置10であるものとする。車載装置10は、たとえばドライブレコーダである。また、以下では、実施形態に係る情報処理方法が、車載装置10の備えるカメラ11(図3参照)の姿勢推定方法であるものとする。
図1~図3は、実施形態に係る姿勢推定方法の概要説明図(その1)~(その3)である。まず、実施形態に係る姿勢推定方法の説明に先立って、既存技術の課題についてより具体的に説明する。図1は、その内容を示すものである。
路面上の特徴点のオプティカルフローに基づいてカメラ11の姿勢を推定する場合、抽出される路面上の特徴点としては、車線等の路面標示のコーナー部分などが挙げられる。
しかし、図1に示すように、たとえば撮像画像中の車線は、遠近法に言う消失点へ向けて収束するように写り込む。このため、矩形状のROI(以下、「矩形ROI30-1」と言う)を用いた場合、矩形ROI30-1の左上や右上には路面以外の立体物等の特徴点が抽出されやすくなる。
図1は、路面上の特徴点に基づいてオプティカルフローOp1,Op2が、路面以外の立体物の特徴点に基づいてオプティカルフローOp3がそれぞれ抽出された例を示している。
非特許文献1のアルゴリズムは、実空間における平行な線分のペアを前提とするので、オプティカルフローOp1,Op2のペアは姿勢推定における正しい組み合わせ(以下、「正フロー」と言う)となる。一方、たとえばオプティカルフローOp1,Op3のペアは誤った組み合わせ(以下、「誤フロー」と言う)となる。
かかる誤フローに基づいては、カメラ11の姿勢を正しく推定することができない。なお、カメラ11の姿勢は、抽出したオプティカルフローのペアのそれぞれについてPAN,TILT,ROLLの各軸の回転角を推定し、ヒストグラム化した中央値に基づいて軸ズレが判定される。したがって、カメラ11の姿勢推定は、誤フローが多ければそれだけ精度が低下するおそれがある。
これに対処するため、矩形ROI30-1ではなく、撮像画像中に写り込む路面の形状に応じたROI30を設定することが考えられる。しかしこの場合、そもそもカメラ11のキャリブレーション値(取り付け位置およびPAN,TILT,ROLL)が既知でなければ、かかる路面の形状に応じたROI30(以下、「路面ROI30-2」と言う)を設定することはできない。
そこで、実施形態に係る姿勢推定方法では、車載装置10が備える制御部15(図3参照)が、カメラ11の取り付け初期である場合に、矩形状に設定された矩形ROI30-1を用いた第1の姿勢推定処理を実行し、カメラ11の取り付け初期でない場合に、路面の形状に応じて設定された重畳ROI30-Sを用いた第2の姿勢推定処理を実行することとした。
ここで、「取り付け初期である場合」とは、カメラ11の取り付け状態が「第1の状態である場合」を指す。「第1の状態」は、カメラ11の取り付け初期であることを推定させる状態である。たとえば第1の状態は、カメラ11の取り付け時からの経過時間が予め決められた経過時間未満である状態である。また、たとえば第1の状態は、カメラ11の取り付け時からのキャリブレーションの回数が予め決められた回数未満である状態である。また、たとえば第1の状態は、取り付け時からのカメラ11のズレ量が予め決められたズレ量未満である状態である。一方、「取り付け初期でない場合」とは、カメラ11の取り付け状態が第1の状態とは異なる「第2の状態である場合」を指す。
具体的には、図2に示すように、実施形態に係る姿勢推定方法では、制御部15が、カメラ11の取り付け初期においては、矩形ROI30-1のオプティカルフローを使用した姿勢推定処理を実行する(ステップS1)。また、制御部15は、カメラ11の取り付け初期でない場合においては、矩形ROI30-1中の路面ROI30-2のオプティカルフローを使用した姿勢推定処理を実行する(ステップS2)。矩形ROI30-1中の路面ROI30-2とは、矩形ROI30-1と路面ROI30-2とが重なる重畳部分である重畳ROI30-Sを指す。
図2に示すように、重畳ROI30-Sのオプティカルフローを用いた場合、誤フローの発生は少なくなる。たとえば、ステップS1では処理対象に含まれるオプティカルフローOp4,Op5,Op6は、ステップS2では含まれなくなる。
図3に矩形ROI30-1を用いた場合と、重畳ROI30-Sを用いた場合との比較を示す。重畳ROI30-Sを用いた場合は、矩形ROI30-1を用いた場合に比べて、誤フローは少なく、推定回数も少なく、推定精度も高い。ただし、推定時間は遅く、キャリブレーション値が必要である。
しかし、かかる推定時間およびキャリブレーション値に関するデメリットは、ステップS1でカメラ11の取り付け初期に矩形ROI30-1を用いた姿勢推定処理が行われることによって補われる。
すなわち、実施形態に係る姿勢推定方法によれば、矩形ROI30-1を用いた場合、重畳ROI30-Sを用いた場合、それぞれのデメリットを互いの長所によって補いつつカメラ11の姿勢推定の精度を向上させることができる。
このように、実施形態に係る姿勢推定方法では、制御部15が、カメラ11の取り付け初期である場合に、矩形状に設定された矩形ROI30-1を用いた第1の姿勢推定処理を実行し、取り付け初期でない場合に、路面の形状に応じて設定された重畳ROI30-Sを用いた第2の姿勢推定処理を実行することとした。
したがって、実施形態に係る姿勢推定方法によれば、カメラ11の姿勢推定の精度を向上させることができる。
以下、上述した実施形態に係る姿勢推定方法を適用した車載装置10の構成例について、より具体的に説明する。
図4は、実施形態に係る車載装置10の構成例を示すブロック図である。なお、図4および後に示す図7では、本実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。
換言すれば、図4および図7に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
また、図4および図7を用いた説明では、既に説明済みの構成要素については、説明を簡略するか、説明を省略する場合がある。
図4に示すように、実施形態に係る車載装置10は、カメラ11と、センサ部12と、通知デバイス13と、記憶部14と、制御部15とを有する。
カメラ11は、たとえばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、かかる撮像素子を用いて予め決められた撮像範囲を撮像する。カメラ11は、たとえばフロントガラスやダッシュボード等の車両の各所に、車両の前方の予め決められた撮像範囲を撮像するように取り付けられる。
センサ部12は、車両に搭載される各種のセンサであり、たとえば車速センサやGセンサなどを含む。通知デバイス13は、キャリブレーションに関する情報を通知するデバイスである。通知デバイス13は、たとえばディスプレイやスピーカ等によって実現される。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の記憶デバイスによって実現される。記憶部14は、図4の例では、画像情報14aと、取り付け情報14bとを記憶する。
画像情報14aは、カメラ11によって撮像された撮像画像が格納される。取り付け情報14bは、カメラ11の取り付けに関する情報である。取り付け情報14bは、カメラ11の取り付け位置および姿勢に関する設計値や、前述のキャリブレーション値を含む。取り付け情報14bはさらに、取り付け時の日時、取り付け時から経過時間、取り付け時からのキャリブレーションの回数等、カメラ11の取り付け初期であるかの判断材料となる各種の情報を含んでもよい。
制御部15は、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、記憶部14に記憶されている図示略の実施形態に係るプログラムがRAMを作業領域として実行されることにより実現される。また、制御部15は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
制御部15は、モード設定部15aと、姿勢推定部15bと、キャリブレーション実行部15cとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
モード設定部15aは、カメラ11の取り付け初期である場合に、姿勢推定部15bの実行モードである姿勢推定モードを第1のモードへ設定する。また、モード設定部15aは、カメラ11の取り付け初期でない場合に、姿勢推定部15bの姿勢推定モードを第2のモードへ設定する。
姿勢推定部15bは、実行モードが第1のモードへ設定された場合、矩形ROI30-1のオプティカルフローを使用した第1の姿勢推定処理を実行する。また、姿勢推定部15bは、実行モードが第2のモードへ設定された場合、矩形ROI30-1中の路面ROI30-2(すなわち、重畳ROI30-S)のオプティカルフローを使用した第2の姿勢推定処理を実行する。
ここで、路面ROI30-2および重畳ROI30-Sについて具体的に説明する。図5は、路面ROI30-2および重畳ROI30-Sの説明図(その1)である。また、図6は、路面ROI30-2および重畳ROI30-Sの説明図(その2)である。
図5に示すように、路面ROI30-2は、撮像画像中に写り込む路面の形状に応じたROI30として設定される。路面ROI30-2は、既知のキャリブレーション値に基づいて、自車走行レーンから左右に半車線~1車線分程度、奥行き20m程度の領域となるように設定される。
また、図5に示すように、重畳ROI30-Sは、矩形ROI30-1と路面ROI30-2とが重なる重畳部分である。重畳ROI30-Sは、より抽象的に表現すると、図6に示すように矩形ROI30-1から左上領域C-1と右上領域C-2とを除去した台形状の領域であると言うことができる。かかる左上領域C-1と右上領域C-2とを除去した領域を姿勢推定の処理対象領域とすることによって、誤フローの発生を減らし、姿勢推定の精度向上を図ることができる。
姿勢推定部15bの構成例についてより具体的に説明する。図7は、姿勢推定部15bの構成例を示すブロック図である。図7に示すように、姿勢推定部15bは、取得部15baと、特徴点抽出部15bbと、特徴点追従部15bcと、線分抽出部15bdと、算出部15beと、ノイズ除去部15bfと、決定部15bgとを有する。
取得部15baは、カメラ11の撮像画像を取得し、画像情報14aへ格納する。特徴点抽出部15bbは、画像情報14aへ格納された撮像画像に対し、姿勢推定部15bの実行モードに応じた各ROI30を設定する。また、特徴点抽出部15bbは、設定したROI30に含まれる特徴点を抽出する。
特徴点追従部15bcは、特徴点抽出部15bbによって抽出された各特徴点をフレーム間にわたって追従し、特徴点ごとのオプティカルフローを抽出する。線分抽出部15bdは、特徴点追従部15bcによって抽出されたオプティカルフローからノイズ成分を除去し、各オプティカルフローに基づく線分のペア群を抽出する。
算出部15beは、線分抽出部15bdによって抽出された線分のペアのそれぞれについて、非特許文献1のアルゴリズムを用いてPAN,TILT,ROLLの各軸の回転角を算出する。
ノイズ除去部15bfは、センサ部12のセンサ値に基づいて、算出部15beによって算出された各角度のうちから低速および舵角によるノイズ分を除去する。決定部15bgは、ノイズ分が除去された各角度をヒストグラム化し、中央値に基づいてPAN,TILT,ROLLの各角度推定値を決定する。また、決定部15bgは、決定した角度推定値を取り付け情報14bへ格納する。
図4の説明に戻る。キャリブレーション実行部15cは、姿勢推定部15bによる推定結果に基づいてキャリブレーションを実行する。具体的には、キャリブレーション実行部15cは、姿勢推定部15bによって推定された角度推定値と取り付け情報14bに含まれる設計値とを比較し、誤差を算出する。
キャリブレーション実行部15cは、算出した誤差が許容内であれば、外部装置50へキャリブレーション値を通知する。外部装置50は、たとえば駐車枠検知機能や自動駐車機能を実現する各装置である。「誤差が許容内」とは、カメラ11の軸ズレがないことを指す。
また、キャリブレーション実行部15cは、算出した誤差が許容外であれば、外部装置50へキャリブレーション値を通知するとともに、外部装置50に駐車枠検知機能や自動駐車機能を停止させる。「誤差が許容外」とは、カメラ11の軸ズレがあることを指す。
また、キャリブレーション実行部15cは、通知デバイス13へキャリブレーションの実行結果を通知する。ユーザは、その通知内容に基づいて、必要であればディーラー等でカメラ11の取り付け角度を調整してもらうこととなる。
次に、車載装置10が実行する処理手順について、図8を用いて説明する。図8は、実施形態に係る車載装置10が実行する処理手順を示すフローチャートである。
図8に示すように、車載装置10の制御部15は、カメラ11の取り付け初期であるか否かを判定する(ステップS101)。取り付け初期である場合(ステップS101,Yes)、制御部15は、姿勢推定モードを第1のモードへ設定する(ステップS102)。
そして、制御部15は、矩形ROI30-1のオプティカルフローを使用した姿勢推定処理を実行する(ステップS103)。一方、取り付け初期でない場合(ステップS101,No)、制御部15は、姿勢推定モードを第2のモードへ設定する(ステップS104)。
そして、制御部15は、矩形ROI30-1中の路面ROI30-2のオプティカルフローを使用した姿勢推定処理を実行する(ステップS105)。そして、制御部15は、ステップS103またはステップS105における姿勢推定処理の結果に基づいてキャリブレーションを実行する(ステップS106)。
そして、制御部15は、処理終了イベントがあるか否かを判定する(ステップS107)。処理終了イベントは、たとえば姿勢推定処理の非実行時間帯の到来や、エンジンの停止や、電源のオフ等である。処理終了イベントが生じていなければ(ステップS107,No)、制御部15は、ステップS101からの処理を繰り返す。処理終了イベントが生じていれば(ステップS107,Yes)、制御部15は、処理を終了する。
上述してきたように、実施形態に係る車載装置10(「情報処理装置」の一例に相当)は、制御部15を備える。制御部15は、カメラ11(「車載カメラ」の一例に相当)の撮像画像に設定されたROI30(「処理対象領域」の一例に相当)における特徴点のオプティカルフローに基づいてカメラ11の姿勢を推定する姿勢推定処理を実行する。また、制御部15は、カメラ11の取り付け状態が第1の状態である場合に、矩形状に設定された矩形ROI30-1(「第1の処理対象領域」の一例に相当)を用いた第1の姿勢推定処理を実行し、カメラ11の取り付け状態が第2の状態である場合に、路面の形状に応じて設定された重畳ROI30-S(「第2の処理対象領域」の一例に相当)を用いた第2の姿勢推定処理を実行する。
したがって、実施形態に係る車載装置10によれば、カメラ11の姿勢推定の精度を向上させることができる。
また、制御部15は、台形状に設定された重畳ROI30-Sを用いた上記第2の姿勢推定処理を実行する。
したがって、実施形態に係る車載装置10によれば、誤フローの発生を抑えることが可能となり、これに基づいてカメラ11の姿勢推定の精度を向上させることができる。
また、制御部15は、矩形ROI30-1から、上記撮像画像中において消失点へ向けて収束するように写り込む上記路面の形状に応じた範囲以外の領域を除去した上記台形状の領域として重畳ROI30-Sを設定する。
したがって、実施形態に係る車載装置10によれば、消失点へ向けて収束するように写り込む上記路面の形状に応じた処理対象領域として重畳ROI30-Sを設定することができる。
また、制御部15は、上記第1の姿勢推定処理が実行されることによって既知となるカメラ11の取り付けに関するキャリブレーション値に基づいて上記撮像画像中に上記路面の形状に応じた路面ROI30-2(「第3の処理対象領域」の一例に相当)を設定し、当該路面ROI30-2と矩形ROI30-1とが重なる重畳部分を重畳ROI30-Sとして設定する。
したがって、実施形態に係る車載装置10によれば、矩形ROI30-1を用いた場合、重畳ROI30-Sを用いた場合、それぞれのデメリットを互いの長所によって補いつつカメラ11の姿勢推定の精度を向上させることができる。
また、制御部15は、ROI30から上記オプティカルフローに基づく線分のペア群を抽出し、上記線分のペアのそれぞれに基づいてカメラ11のPAN、TILTおよびROLLの各軸の回転角を推定する。
したがって、実施形態に係る車載装置10によれば、誤フローの少ない線分のペアのそれぞれに基づいて、高精度にカメラ11のPAN、TILTおよびROLLの各軸の回転角を推定することが可能となる。
また、制御部15は、推定した上記回転角をヒストグラム化した後の中央値に基づいて上記PAN、TILTおよびROLLの各軸の角度推定値を決定する。
したがって、実施形態に係る車載装置10によれば、高精度に推定された上記回転角の中央値に基づいて、上記PAN、TILTおよびROLLの各軸の角度推定値を高精度に決定することができる。
また、制御部15は、決定した上記角度推定値に基づいてカメラ11の軸ズレを判定する。
したがって、実施形態に係る車載装置10によれば、高精度な角度推定値に基づいて高精度にカメラ11の軸ズレを判定することができる。
また、制御部15は、上記軸ズレが判定された場合に、少なくとも駐車枠検知機能または自動駐車機能を停止させる。
したがって、実施形態に係る車載装置10によれば、高精度に判定された軸ズレに基づいて、少なくとも駐車枠検知機能または自動駐車機能において動作異常が発生するのを防ぐことができる。
また、実施形態に係る姿勢推定方法は、車載装置10が実行する情報処理方法であって、カメラ11の撮像画像に設定されたROI30における特徴点のオプティカルフローに基づいてカメラ11の姿勢を推定する姿勢推定処理を実行すること、を含む。また、実施形態に係る姿勢推定方法は、カメラ11の取り付け状態が第1の状態である場合に、矩形状に設定された矩形ROI30-1を用いた第1の姿勢推定処理を実行することと、カメラ11の取り付け状態が第2の状態である場合に、路面の形状に応じて設定された重畳ROI30-Sを用いた第2の姿勢推定処理を実行することと、をさらに含む。
したがって、実施形態に係る姿勢推定方法によれば、カメラ11の姿勢推定の精度を向上させることができる。
また、実施形態に係るプログラムは、カメラ11の撮像画像に設定されたROI30における特徴点のオプティカルフローに基づいてカメラ11の姿勢を推定する姿勢推定処理を実行すること、をコンピュータに実行させる。また、実施形態に係るプログラムは、カメラ11の取り付け状態が第1の状態である場合に、矩形状に設定された矩形ROI30-1を用いた第1の姿勢推定処理を実行すること、カメラ11の取り付け状態が第2の状態である場合に、路面の形状に応じて設定された重畳ROI30-Sを用いた第2の姿勢推定処理を実行すること、をさらに上記コンピュータに実行させる。
したがって、実施形態に係るプログラムによれば、カメラ11の姿勢推定の精度を向上させることができる。なお、実施形態に係るプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
10 車載装置
11 カメラ
12 センサ部
13 通知デバイス
14 記憶部
14a 画像情報
14b 取り付け情報
15 制御部
15a モード設定部
15b 姿勢推定部
15ba 取得部
15bb 特徴点抽出部
15bc 特徴点追従部
15bd 線分抽出部
15be 算出部
15bf ノイズ除去部
15bg 決定部
15c キャリブレーション実行部
30 ROI
30-1 矩形ROI
30-2 路面ROI
30-S 重畳ROI
50 外部装置

Claims (10)

  1. 車載カメラの撮像画像に基づいて前記車載カメラの姿勢を推定する制御部を備え、
    前記制御部は、
    前記車載カメラの取り付け状態が既知のキャリブレーション値を持たない第1の状態である場合に、前記撮像画像の中に矩形状の第1処理対象領域を設定し、前記第1処理対象領域内における特徴点のオプティカルフローに基づいて第1のキャリブレーション値を算出し前記車載カメラの姿勢を推定する第1の姿勢推定処理と、
    前記車載カメラの取り付け状態が既知のキャリブレーション値を持つ第2の状態である場合に、既知のキャリブレーション値を用いて、前記撮像画像の中に路面の形状に応じた第2処理対象領域を設定し、前記第2処理対象領域内における特徴点のオプティカルフローに基づいて第2のキャリブレーション値を算出し前記車載カメラの姿勢を推定する第2の姿勢推定処理と、
    を実行可能な情報処理装置。
  2. 前記第2処理対象領域は台形状である、
    請求項1に記載の情報処理装置。
  3. 前記第2処理対象領域は、前記撮像画像中において消失点へ向けて収束するように写り込む前記路面の形状に応じた形状である、
    請求項2に記載の情報処理装置。
  4. 前記第2の姿勢推定処理は、
    前記第1処理対象領域と前記第2処理対象領域とが重なる重畳部分における特徴点のオプティカルフローに基づいて前記第2のキャリブレーション値を算出し前記車載カメラの姿勢を推定する、
    請求項2に記載の情報処理装置。
  5. 前記制御部は、
    前記第1処理対象領域および前記第2処理対象領域のそれぞれから前記オプティカルフローに基づく線分のペア群を抽出し、前記線分のペア群に基づいて、前記第1のキャリブレーション値および前記第2のキャリブレーション値としてそれぞれ前記車載カメラのPAN、TILTおよびROLLの各軸の回転角を算出する、
    請求項1~4のいずれか一つに記載の情報処理装置。
  6. 前記制御部は、
    算出した前記回転角をヒストグラム化した後の中央値に基づいて前記PAN、TILTおよびROLLの各軸の角度推定値を決定する、
    請求項5に記載の情報処理装置。
  7. 前記制御部は、
    決定した前記角度推定値に基づいて前記車載カメラの軸ズレを判定する、
    請求項6に記載の情報処理装置。
  8. 前記制御部は、
    前記軸ズレが判定された場合に、少なくとも駐車枠検知機能または自動駐車機能を停止させる、
    請求項7に記載の情報処理装置。
  9. 情報処理装置が実行する情報処理方法であって、
    車載カメラの撮像画像を取得し、
    前記車載カメラの取り付け状態が既知のキャリブレーション値を持たない第1の状態である場合に、前記撮像画像の中に矩形状の第1処理対象領域を設定し、前記第1処理対象領域内における特徴点のオプティカルフローに基づいて第1のキャリブレーション値を算出し前記車載カメラの姿勢を推定し、
    前記車載カメラの取り付け状態が既知のキャリブレーション値を持つ第2の状態である場合に、既知のキャリブレーション値を用いて、前記撮像画像の中に路面の形状に応じた第2処理対象領域を設定し、前記第2処理対象領域内における特徴点のオプティカルフローに基づいて第2のキャリブレーション値を算出し前記車載カメラの姿勢を推定する、
    情報処理方法。
  10. 車載カメラの撮像画像を取得する処理と、
    前記車載カメラの取り付け状態が既知のキャリブレーション値を持たない第1の状態である場合に、前記撮像画像の中に矩形状の第1処理対象領域を設定し、前記第1処理対象領域内における特徴点のオプティカルフローに基づいて第1のキャリブレーション値を算出し前記車載カメラの姿勢を推定する処理と、
    前記車載カメラの取り付け状態が既知のキャリブレーション値を持つ第2の状態である場合に、既知のキャリブレーション値を用いて、前記撮像画像の中に路面の形状に応じた第2処理対象領域を設定し、前記第2処理対象領域内における特徴点のオプティカルフローに基づいて第2のキャリブレーション値を算出し前記車載カメラの姿勢を推定する処理と、
    をコンピュータに実行させる、プログラム。
JP2022075096A 2022-04-28 2022-04-28 情報処理装置、情報処理方法およびプログラム Active JP7359901B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022075096A JP7359901B1 (ja) 2022-04-28 2022-04-28 情報処理装置、情報処理方法およびプログラム
US17/942,305 US20230351631A1 (en) 2022-04-28 2022-09-12 Information processing apparatus, information processing method, and computer-readable recording medium
CN202211261482.7A CN117011374A (zh) 2022-04-28 2022-10-14 信息处理装置、信息处理方法和计算机可读记录介质
JP2023130670A JP2023164431A (ja) 2022-04-28 2023-08-10 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022075096A JP7359901B1 (ja) 2022-04-28 2022-04-28 情報処理装置、情報処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023130670A Division JP2023164431A (ja) 2022-04-28 2023-08-10 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP7359901B1 true JP7359901B1 (ja) 2023-10-11
JP2023163887A JP2023163887A (ja) 2023-11-10

Family

ID=88242192

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022075096A Active JP7359901B1 (ja) 2022-04-28 2022-04-28 情報処理装置、情報処理方法およびプログラム
JP2023130670A Pending JP2023164431A (ja) 2022-04-28 2023-08-10 情報処理装置、情報処理方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023130670A Pending JP2023164431A (ja) 2022-04-28 2023-08-10 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20230351631A1 (ja)
JP (2) JP7359901B1 (ja)
CN (1) CN117011374A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020060899A (ja) 2018-10-09 2020-04-16 株式会社デンソー 車載カメラのキャリブレーション装置
JP2021033605A (ja) 2019-08-23 2021-03-01 株式会社デンソーテン 画像処理装置、および、画像処理方法
JP2021093670A (ja) 2019-12-12 2021-06-17 株式会社デンソーテン 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
JP2021174288A (ja) 2020-04-27 2021-11-01 富士通株式会社 カメラ高さ算出方法および画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020060899A (ja) 2018-10-09 2020-04-16 株式会社デンソー 車載カメラのキャリブレーション装置
JP2021033605A (ja) 2019-08-23 2021-03-01 株式会社デンソーテン 画像処理装置、および、画像処理方法
JP2021093670A (ja) 2019-12-12 2021-06-17 株式会社デンソーテン 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
JP2021174288A (ja) 2020-04-27 2021-11-01 富士通株式会社 カメラ高さ算出方法および画像処理装置

Also Published As

Publication number Publication date
JP2023163887A (ja) 2023-11-10
CN117011374A (zh) 2023-11-07
JP2023164431A (ja) 2023-11-10
US20230351631A1 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
US10242576B2 (en) Obstacle detection device
JP7355505B2 (ja) 車両のカメラを較正する方法およびシステム
JP6924251B2 (ja) 画像センサの外因性パラメータを較正するための方法及び装置
JP6776202B2 (ja) 車載カメラのキャリブレーション装置及び方法
JP7096053B2 (ja) 車両の車両カメラを較正するための方法および装置
JP2021154969A (ja) 障害物検知装置、障害物検知方法、および、プログラム
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP6841331B2 (ja) 車両駐車支援装置、車両駐車支援プログラム
JP7359901B1 (ja) 情報処理装置、情報処理方法およびプログラム
CN109478336B (zh) 图像处理装置及图像处理方法
JP6314655B2 (ja) 標示線検出装置、標示線検出方法
WO2001039018A1 (en) System and method for detecting obstacles to vehicle motion
JP7394934B1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7401614B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7359922B1 (ja) 情報処理装置、情報処理方法およびプログラム
US11654961B2 (en) Steering assistance control apparatus
CN110570680A (zh) 利用地图信息确定对象位置的方法和系统
JP2024027849A (ja) 情報処理装置、情報処理方法およびプログラム
JP7340667B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6955464B2 (ja) 車両位置判定装置
JP7122211B2 (ja) 駐車支援装置および駐車支援方法
JP2018120303A (ja) 物体検出装置
JP7169075B2 (ja) 撮像制御装置および撮像制御方法
JP7058128B2 (ja) 情報処理装置およびプログラム
CN111326012A (zh) 图像处理设备和图像处理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230928

R150 Certificate of patent or registration of utility model

Ref document number: 7359901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150