JP7394934B1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7394934B1
JP7394934B1 JP2022129577A JP2022129577A JP7394934B1 JP 7394934 B1 JP7394934 B1 JP 7394934B1 JP 2022129577 A JP2022129577 A JP 2022129577A JP 2022129577 A JP2022129577 A JP 2022129577A JP 7394934 B1 JP7394934 B1 JP 7394934B1
Authority
JP
Japan
Prior art keywords
image recognition
calibration process
information processing
calibration
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022129577A
Other languages
English (en)
Other versions
JP2024026968A (ja
Inventor
康司 大西
直士 垣田
隆幸 小笹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2022129577A priority Critical patent/JP7394934B1/ja
Priority to US18/122,929 priority patent/US20240062551A1/en
Priority to JP2023199983A priority patent/JP2024027123A/ja
Application granted granted Critical
Publication of JP7394934B1 publication Critical patent/JP7394934B1/ja
Publication of JP2024026968A publication Critical patent/JP2024026968A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より早期に運転支援を開始させることができる情報処理装置、情報処理方法及びプログラムを提供する。【解決手段】情報処理装置である車載装置10は、制御部15を備える。制御部15は、車載カメラ11の姿勢を推定する姿勢推定部15bと、キャリブレーション処理を段階的に実行するキャリブレーション実行部15cと、を備え、キャリブレーション処理の段階に応じて、外部装置50において実行される車載カメラ11による撮像画像の画像認識処理の内容を段階的に変更させる。【選択図】図4

Description

開示の実施形態は、情報処理装置、情報処理方法、およびプログラムに関する。
車載カメラによる撮像画像を画像認識処理することによって検知対象を検知し、検知結果を車両の運転支援に利用する車両制御システムがある。かかる車両制御システムは、車両に取り付けられる車載カメラの姿勢が検知対象の検知精度に大きく影響するため、車載カメラの取り付け時から所定期間の間、車載カメラの姿勢を調整するキャリブレーション処理を行う。
ただし、車両制御システムは、キャリブレーション処理が完了するまでの間、画像認識処理による検知対象の検知精度を十分に向上できない。このため、キャリブレーション処理が開始されてから完了するまでの間、運転支援を抑制する車両制御システムがある(例えば、特許文献1参照)。
特開2019-6275号公報
しかしながら、キャリブレーション処理が完了するまでの間、運転支援が抑制されると、運転支援の開始時期が遅くなるという問題が生じる。
実施形態の一態様は、上記に鑑みてなされたものであって、より早期に運転支援を開始させることができる情報処理装置、情報処理方法、およびプログラムを提供することを目的とする。
実施形態の一態様に係る情報処理装置は、制御部を備える。制御部は、車載カメラの取り付けに応じて実行する第1のキャリブレーション処理を終了した後に第1の画像認識処理を実行し、前記第1のキャリブレーション処理を終了した後に第2のキャリブレーション処理を実行し、前記第2のキャリブレーション処理を終了した後に前記第1の画像認識処理とは異なる範囲で第2の画像認識処理を実行する。
実施形態の一態様に係る情報処理装置、情報処理方法、およびプログラムは、より早期に運転支援を開始させることができるという効果を奏する。
図1は、実施形態に係る姿勢推定方法の概要説明図(その1)である。 図2は、実施形態に係る姿勢推定方法の概要説明図(その2)である。 図3は、実施形態に係る姿勢推定方法の概要説明図(その3)である。 図4は、実施形態に係る車載装置の構成例を示すブロック図である。 図5は、路面ROIおよび重畳ROIの説明図(その1)である。 図6は、路面ROIおよび重畳ROIの説明図(その2)である。 図7は、姿勢推定部の構成例を示すブロック図である。 図8は、実施形態に係る車載装置から外部装置への指示の一例を示す説明図である。 図9は、実施形態に係る車載装置から外部装置への指示の一例を示す説明図である。 図10は、実施形態に係る車載装置が実行する処理手順を示すフローチャートである。 図11は、実施形態に係る車載装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する情報処理装置、情報処理方法およびプログラムの実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。また、以下では、実施形態に係る情報処理装置が、車両に搭載される車載装置10であるものとする。車載装置10は、たとえばドライブレコーダである。
実施形態に係る車載装置10は、車載カメラ(以下、「カメラ11」と記載する(図4参照))によって撮像される車両周辺の画像を記録する装置である。また、車載装置10は、所定のプログラムを実行することによって、車両に取付けられたカメラ11の取り付け姿勢を推定し、推定したカメラ11の姿勢によるキャリブレーション処理を段階的に実行する。さらに、車載装置10は、所定のプログラムを実行することによって、キャリブレーション処理の段階に応じて、カメラ11による撮像画像の画像認識の内容を段階的に変更させる処理を実行する。
まず、図1~図3を参照して、車載装置10がカメラ11の取り付け姿勢の推定を行う方法について説明する。図1~図3は、実施形態に係る姿勢推定方法の概要説明図(その1)~(その3)である。ここでは、実施形態に係る姿勢推定方法の説明に先立って、対比例に係る姿勢推定方法、および、課題についてより具体的に説明する。図1は、その内容を示すものである。
対比例に係る姿勢推定方法では、撮像画像中に設定された矩形状のROI(Region Of Interest;処理対象領域)から路面上の特徴点を抽出し、かかる特徴点のフレーム間での動きを示すオプティカルフローに基づいて車載カメラの姿勢を推定する。
路面上の特徴点のオプティカルフローに基づいてカメラ11の姿勢を推定する場合、抽出される路面上の特徴点としては、車線等の路面標示のコーナー部分などが挙げられる。
しかし、図1に示すように、たとえば撮像画像中の車線は、遠近法に言う消失点へ向けて収束するように写り込む。このため、矩形状のROI(以下、「矩形ROI30-1」と言う)を用いた場合、矩形ROI30-1の左上や右上には路面以外の立体物等の特徴点が抽出されやすくなる。
図1は、路面上の特徴点に基づいてオプティカルフローOp1,Op2が、路面以外の立体物の特徴点に基づいてオプティカルフローOp3がそれぞれ抽出された例を示している。
ここで、例えば、実空間における平行な線分のペアを抽出し、線分のペアに基づいてカメラ11の姿勢を推定するアルゴリズムの場合、オプティカルフローOp1,Op2のペアは姿勢推定における正しい組み合わせ(以下、「正フロー」と言う)となる。一方、たとえばオプティカルフローOp1,Op3のペアは誤った組み合わせ(以下、「誤フロー」と言う)となる。
かかる誤フローに基づいては、カメラ11の姿勢を正しく推定することができない。なお、カメラ11の姿勢は、抽出したオプティカルフローのペアのそれぞれについてPAN,TILT,ROLLの各軸の回転角を推定し、ヒストグラム化した中央値に基づいて軸ズレが判定される。したがって、カメラ11の姿勢推定は、誤フローが多ければそれだけ精度が低下するおそれがある。
これに対処するため、矩形ROI30-1ではなく、撮像画像中に写り込む路面の形状に応じたROI30を設定することが考えられる。しかしこの場合、そもそもカメラ11のキャリブレーション値(取り付け位置およびPAN,TILT,ROLL)が既知でなければ、かかる路面の形状に応じたROI30(以下、「路面ROI30-2」と言う)を設定することはできない。
そこで、実施形態に係る姿勢推定方法では、車載装置10が備える制御部15(図4参照)は、カメラ11の取り付け初期である場合に、矩形状に設定された矩形ROI30-1を用いた第1の姿勢推定処理を実行し、カメラ11の取り付け初期でない場合に、路面の形状に応じて設定された重畳ROI30-Sを用いた第2の姿勢推定処理を実行する。
ここで、「取り付け初期である場合」とは、カメラ11の取り付け状態が「第1の状態である場合」を指す。「第1の状態」は、カメラ11の取り付け初期であることを推定させる状態である。たとえば第1の状態は、カメラ11の取り付け時からの経過時間が予め決められた経過時間未満である状態である。また、たとえば第1の状態は、カメラ11の取り付け時からのキャリブレーションの回数が予め決められた回数未満である状態である。一方、「取り付け初期でない場合」とは、カメラ11の取り付け状態が第1の状態とは異なる「第2の状態である場合」を指す。
具体的には、図2に示すように、実施形態に係る姿勢推定方法では、制御部15が、カメラ11の取り付け初期においては、矩形ROI30-1のオプティカルフローを使用した姿勢推定処理を実行する(ステップS1)。また、制御部15は、カメラ11の取り付け初期でない場合においては、矩形ROI30-1中の路面ROI30-2のオプティカルフローを使用した姿勢推定処理を実行する(ステップS2)。矩形ROI30-1中の路面ROI30-2とは、矩形ROI30-1と路面ROI30-2とが重なる重畳部分である重畳ROI30-Sを指す。
図2に示すように、重畳ROI30-Sのオプティカルフローを用いた場合、誤フローの発生は少なくなる。たとえば、ステップS1では処理対象に含まれるオプティカルフローOp4,Op5,Op6は、ステップS2では含まれなくなる。
図3に矩形ROI30-1を用いた場合と、重畳ROI30-Sを用いた場合との比較を示す。重畳ROI30-Sを用いた場合は、矩形ROI30-1を用いた場合に比べて、誤フローは少なく、推定回数も少なく、推定精度も高い。ただし、推定時間は遅く、キャリブレーション値が必要である。
しかし、かかる推定時間およびキャリブレーション値に関するデメリットは、ステップS1でカメラ11の取り付け初期に矩形ROI30-1を用いた姿勢推定処理が行われることによって補われる。
すなわち、実施形態に係る姿勢推定方法によれば、矩形ROI30-1を用いた場合、重畳ROI30-Sを用いた場合、それぞれのデメリットを互いの長所によって補いつつカメラ11の姿勢推定の精度を向上させることができる。
このように、実施形態に係る姿勢推定方法では、制御部15が、カメラ11の取り付け初期である場合に、矩形状に設定された矩形ROI30-1を用いた第1の姿勢推定処理を実行し、取り付け初期でない場合に、路面の形状に応じて設定された重畳ROI30-Sを用いた第2の姿勢推定処理を実行することとした。
したがって、実施形態に係る姿勢推定方法によれば、カメラ11の姿勢推定の精度を向上させることができる。
以下、上述した実施形態に係る姿勢推定方法を適用した車載装置10の構成例について、より具体的に説明する。
図4は、実施形態に係る車載装置10の構成例を示すブロック図である。なお、図4および後に示す図7では、本実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。
換言すれば、図4および図7に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
また、図4および図7を用いた説明では、既に説明済みの構成要素については、説明を簡略するか、説明を省略する場合がある。
図4に示すように、実施形態に係る車載装置10は、カメラ11と、センサ部12と、通知デバイス13と、記憶部14と、制御部15とを有する。
カメラ11は、たとえばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、かかる撮像素子を用いて予め決められた撮像範囲を撮像する。カメラ11は、たとえばフロントガラスやダッシュボード等の車両の各所に、車両の前方の予め決められた撮像範囲を撮像するように取り付けられる。
センサ部12は、車両に搭載される各種のセンサであり、たとえば車速センサやGセンサなどを含む。通知デバイス13は、キャリブレーションに関する情報を通知するデバイスである。通知デバイス13は、たとえばディスプレイやスピーカ等によって実現される。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の記憶デバイスによって実現される。記憶部14は、図4の例では、画像情報14aと、取り付け情報14bとを記憶する。
画像情報14aは、カメラ11によって撮像された撮像画像が格納される。これにより、車載装置10は、搭載される車両が事故に遭遇した場合に、画像情報14aを出力することによって、画像情報14aを事故状況の再現、および、事故原因の解明に役立てることができる。
取り付け情報14bは、カメラ11の取り付けに関する情報である。取り付け情報14bは、カメラ11の取り付け位置および姿勢に関する設計値や、前述のキャリブレーション値を含む。取り付け情報14bはさらに、取り付け時の日時、取り付け時から経過時間、取り付け時からのキャリブレーションの回数等、カメラ11の取り付け初期であるかの判断材料となる各種の情報を含んでもよい。
制御部15は、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、記憶部14に記憶されている図示略の実施形態に係るプログラムがRAMを作業領域として実行されることにより実現される。また、制御部15は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
制御部15は、モード設定部15aと、姿勢推定部15bと、キャリブレーション実行部15cとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
モード設定部15aは、カメラ11の取り付け初期である場合に、姿勢推定部15bの実行モードである姿勢推定モードを第1のモードへ設定する。また、モード設定部15aは、カメラ11の取り付け初期でない場合に、姿勢推定部15bの姿勢推定モードを第2のモードへ設定する。
姿勢推定部15bは、実行モードが第1のモードへ設定された場合、矩形ROI30-1のオプティカルフローを使用した第1の姿勢推定処理を実行する。また、姿勢推定部15bは、実行モードが第2のモードへ設定された場合、矩形ROI30-1中の路面ROI30-2(すなわち、重畳ROI30-S)のオプティカルフローを使用した第2の姿勢推定処理を実行する。
ここで、路面ROI30-2および重畳ROI30-Sについて具体的に説明する。図5は、路面ROI30-2および重畳ROI30-Sの説明図(その1)である。また、図6は、路面ROI30-2および重畳ROI30-Sの説明図(その2)である。
図5に示すように、路面ROI30-2は、撮像画像中に写り込む路面の形状に応じたROI30として設定される。路面ROI30-2は、既知のキャリブレーション値に基づいて、自車走行レーンから左右に半車線~1車線分程度、奥行き20m程度の領域となるように設定される。
また、図5に示すように、重畳ROI30-Sは、矩形ROI30-1と路面ROI30-2とが重なる重畳部分である。重畳ROI30-Sは、より抽象的に表現すると、図6に示すように矩形ROI30-1から左上領域C-1と右上領域C-2とを除去した台形状の領域であると言うことができる。かかる左上領域C-1と右上領域C-2とを除去した領域を姿勢推定の処理対象領域とすることによって、誤フローの発生を減らし、姿勢推定の精度向上を図ることができる。
姿勢推定部15bの構成例についてより具体的に説明する。図7は、姿勢推定部15bの構成例を示すブロック図である。図7に示すように、姿勢推定部15bは、取得部15baと、特徴点抽出部15bbと、特徴点追従部15bcと、線分抽出部15bdと、算出部15beと、ノイズ除去部15bfと、決定部15bgとを有する。
取得部15baは、カメラ11の撮像画像を取得し、画像情報14aへ格納する。特徴点抽出部15bbは、画像情報14aへ格納された撮像画像に対し、姿勢推定部15bの実行モードに応じた各ROI30を設定する。また、特徴点抽出部15bbは、設定したROI30に含まれる特徴点を抽出する。
特徴点追従部15bcは、特徴点抽出部15bbによって抽出された各特徴点をフレーム間にわたって追従し、特徴点ごとのオプティカルフローを抽出する。線分抽出部15bdは、特徴点追従部15bcによって抽出されたオプティカルフローからノイズ成分を除去し、各オプティカルフローに基づく線分のペア群を抽出する。
算出部15beは、線分抽出部15bdによって抽出された線分のペアのそれぞれについて、非特許文献1のアルゴリズムを用いてPAN,TILT,ROLLの各軸の回転角を算出する。
ノイズ除去部15bfは、センサ部12のセンサ値に基づいて、算出部15beによって算出された各角度のうちから低速および舵角によるノイズ分を除去する。決定部15bgは、ノイズ分が除去された各角度をヒストグラム化し、中央値に基づいてPAN,TILT,ROLLの各角度推定値を決定する。また、決定部15bgは、決定した角度推定値を取り付け情報14bへ格納する。
図4の説明に戻る。キャリブレーション実行部15cは、姿勢推定部15bによる推定結果に基づいてキャリブレーションを実行する。具体的には、キャリブレーション実行部15cは、姿勢推定部15bによって推定された角度推定値と取り付け情報14bに含まれる設計値とを比較し、誤差を補正することによって、キャリブレーション処理を実行する。
キャリブレーション実行部15cは、カメラ11の取り付け状態が第1の状態である第1の所定期間、つまり、カメラ11の取り付け時から第1の所定期間に、推定されたカメラ11の姿勢に基づいて、第1のキャリブレーション処理を実行する。
その後、キャリブレーション実行部15cは、カメラ11の取り付け状態が第2の状態である第2の所定期間に推定されたカメラ11の姿勢に基づいて、第2のキャリブレーション処理を実行する。
つまり、キャリブレーション実行部15cは、第1のキャリブレーション処理が完了してから第2の所定期間に、第1のキャリブレーション処理よりも詳細な第2のキャリブレーション処理を実行する。このように、制御部15は、キャリブレーション処理を段階的に実行する。
そして、キャリブレーション実行部15cは、補正したキャリブレーション値を外部装置50へ通知して、キャリブレーション処理の段階に応じて外部装置50による画像認識処理の内容を段階的に変更させる。
ここでの外部装置50は、たとえば、カメラ11による撮像画像を画像認識処理することによって、障害物を検知する機能、駐車枠を検知する機能、車両を自動運転走行させる機能、および車両を自動駐車させる機能などを備え、車両の運転支援を行う装置である。外部装置50は、例えば、インターネットなどの通信ネットワーク100を介して情報管理サーバ51と無線通信可能に接続される。
車載装置10によれば、カメラ11のキャリブレーション処理が完全に終了していなくても、キャリブレーション処理の段階に応じた画像認識処理を外部装置50に実行させることによって、外部装置50による運転支援をより早期に開始させることができる。
ここで、図8および図9を参照して、車載装置10がキャリブレーション処理の段階に応じて外部装置50へ行う画像認識処理に関する指示の一例について説明する。図8および図9は、実施形態に係る車載装置10から外部装置50への指示の一例を示す説明図である。
図8に示すように、キャリブレーション実行部15cは、カメラ11の取り付けから第1の所定期間の間、第1のキャリブレーション処理を実行する。そして、キャリブレーション実行部15cは、第1のキャリブレーション処理が完了するまでの間、外部装置50に対して、画像認識処理の実行を禁止する指示を行う。
これに従い、外部装置50は、画像認識処理による検知対象の検知を行わないので、ユーザへの検知対象(例えば、障害物など)のユーザへの通知および警告を行わない。つまり、外部装置50は、カメラ11の取り付けから第1の所定期間が経過するまでの間は、第1のキャリブレーション処理すら完了しておらず、画像認識処理による対象物の検知精度が比較的低いため、運転支援を行わない。
これにより、車載装置10は、検知精度が低い状態の外部装置50によって、実際には存在しない検知対象の存在が、誤ってユーザへ通知されたり、誤って警告されたりすることを防止することができる。
その後、キャリブレーション実行部15cは、第1のキャリブレーション処理が完了すると、第1のキャリブレーション処理の完了から第2の所定期間の間、第1のキャリブレーション処理よりも詳細な第2のキャリブレーション処理を実行する。
そして、キャリブレーション実行部15cは、第2のキャリブレーション処理が完了するまでの間、外部装置50に対して、第1の画像認識処理を実行させる指示を行う。このとき、キャリブレーション実行部15cは、カメラ11から第1の所定距離(たとえば、5m)までの範囲に存在する検知対象を外部装置50によって検知させ、検知結果をユーザへ通知(警告部含む)させる第1の画像認識処理を外部装置50に実行させる。
これにより、車載装置10は、第1のキャリブレーションが未完了の場合よりは対象物の検知精度が高くなった状態の外部装置50によって検知される比較的近距離の検知対象の存在をユーザへ通知させることができる。
つまり、車載装置10は、キャリブレーション処理が完全には終了していない状態であっても、外部装置50によって、そのときの検知対象の検知精度に応じた検知結果の通知を行わせることによって、早期に運転支援を開始させることができる。
しかも、車載装置10は、キャリブレーション処理が完全には終了しておらず、遠方の検知対象に対しては検知精度が十分な状態ではない外部装置50によって、第1の所定距離よりも遠いところに存在する検知対象を検知させない。これにより、車載装置10は、実際には存在しない遠方の検知対象の存在が、誤ってユーザへ通知されたり、誤って警告されたりすることを防止することができる。
その後、キャリブレーション実行部15cは、第2のキャリブレーション処理が完了して以降は、外部装置50に対して、第1の画像認識よりも高感度な第2の画像認識処理を実行させる指示を行う。
このとき、キャリブレーション実行部15cは、カメラ11から第1の所定距離(たとえば、5m)よりも長い第2の所定距離(例えば、10m)までの範囲に存在する検知対象を外部装置50によって検知させ、検知結果をユーザへ通知(警告部含む)させる第2の画像認識処理を外部装置50に実行させる。
これにより、車載装置10は、キャリブレーション処理が完全に終了した状態の外部装置50によって検知される比較的遠距離の検知対象の存在までを適切にユーザへ通知させることができる。
なお、図8示す外部装置50への画像認識処理に関する指示は、一例である。キャリブレーション実行部15cは、例えば、図9に示す指示を外部装置50に対して行うように構成されてもよい。
たとえば、図9に示すように、キャリブレーション実行部15cは、カメラ11の取り付けから第1の所定期間が経過するまでは、図8に示す指示と同様の指示を外部装置50に行い、その後、第2の所定期間には、図8に示す指示とは異なる指示を行ってもよい。
具体的には、キャリブレーション実行部15cは、第1のキャリブレーション処理が完了してから第2のキャリブレーション処理が完了するまでの第2の所定期間の間、外部装置50に対して、第1の画像認識処理を実行させる指示を行う。ただし、キャリブレーション実行部15cは、外部装置50によるユーザへの検知結果の通知を禁止させ、検知結果を情報管理サーバ51に送信するように外部装置50に指示する。
これにより、車載装置10は、検知精度が低い状態の外部装置50による不確かな検知結果がユーザへ通知されることを防止しつつ、そのときの検知結果を、情報管理サーバ51に送信しておくことで、事故が発生したときの原因の究明に役立てることができる。なお、この場合、キャリブレーション実行部15cは、第2のキャリブレーション処理を完了して以降は、図8に示す指示と同様の指示を外部装置50に行う。
次に、車載装置10が実行する処理手順について、図10および図11を用いて説明する。図10および図11は、実施形態に係る車載装置10が実行する処理手順を示すフローチャートである。
図10に示すように、車載装置10の制御部15は、カメラ11の取り付け初期であるか否かを判定する(ステップS101)。取り付け初期である場合(ステップS101,Yes)、制御部15は、姿勢推定モードを第1のモードへ設定する(ステップS102)。
そして、制御部15は、矩形ROI30-1のオプティカルフローを使用した姿勢推定処理を実行する(ステップS103)。一方、取り付け初期でない場合(ステップS101,No)、制御部15は、姿勢推定モードを第2のモードへ設定する(ステップS104)。
そして、制御部15は、矩形ROI30-1中の路面ROI30-2のオプティカルフローを使用した姿勢推定処理を実行する(ステップS105)。そして、制御部15は、処理終了イベントがあるか否かを判定する(ステップS106)。
処理終了イベントは、たとえば姿勢推定処理の非実行時間帯の到来や、エンジンの停止や、電源のオフ等である。処理終了イベントが生じていなければ(ステップS106,No)、制御部15は、ステップS101からの処理を繰り返す。処理終了イベントが生じていれば(ステップS106,Yes)、制御部15は、処理を終了する。
また、制御部15は、図10に示す処理と並行して、図11に示す処理を実行する。図11に示すように、制御部15は、カメラ11の取り付けから第1の所定期間内か否かを判定する(ステップS201)。制御部15は、カメラ11の取り付けから第1の所定期間内でないと判定した場合(ステップS201,No)、処理をステップS205へ移す。
制御部15は、カメラ11の取り付けから第1の所定期間内であると判定した場合(ステップS201,Yes)、第1のキャリブレーション処理を実行する(ステップS202)。そして、制御部15は、画像認識処理の実行を禁止する指示を外部装置50に対して行う(ステップS203)。
続いて、制御部15は、第1のキャリブレーション処理が完了したか否かを判定する(ステップS204)。制御部15は、第1のキャリブレーション処理が完了していないと判定した場合(ステップS204,No)、処理をステップS202へ移す。
制御部15は、第1のキャリブレーション処理が完了したと判定した場合(ステップS204,Yes)、その後、第2の所定期間内か否かを判定する(ステップS205)。制御部15は、第2の所定期間内でないと判定した場合(ステップS205,No)、処理をステップS209へ移す。
制御部15は、第2の所定期間内であると判定した場合(ステップS205,Yes)、第2のキャリブレーション処理を実行する(ステップS206)。そして、制御部15は、第1の画像認識処理を実施させる指示を外部装置50に対して行う(ステップS207)。
続いて、制御部15は、第2のキャリブレーション処理が完了したか否かを判定する(ステップS208)。制御部15は、第2のキャリブレーション処理が完了していないと判定した場合(ステップS208,No)、処理をステップS206へ移す。
制御部15は、第2のキャリブレーション処理が完了したと判定した場合(ステップS208,Yes)、第2の画像認識処理を実施させる指示を外部装置50に対して行い(ステップS209)、処理を終了する。
なお、実施形態に係るプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
付記として、本発明の特徴を以下の通り示す。
(1)
車載カメラの取り付けに応じて実行する第1のキャリブレーション処理を終了した後に第1の画像認識処理を実行し、
前記第1のキャリブレーション処理を終了した後に第2のキャリブレーション処理を実行し、
前記第2のキャリブレーション処理を終了した後に前記第1の画像認識処理とは異なる範囲で第2の画像認識処理を実行する制御部を備える、
情報処理装置。
(2)
前記第2のキャリブレーション処理は、前記第1のキャリブレーション処理よりも詳細である、
前記(1)に記載の情報処理装置。
(3)
前記制御部は、
前記第1のキャリブレーション処理を、矩形形状の範囲で実行し、前記第2のキャリブレーション処理を、路面形状に応じた範囲で実行する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記第2のキャリブレーション処理は、前記第1の画像認識処理よりも高感度な処理である、
請求項1に記載の情報処理装置。
(5)
前記制御部は、
前記第1のキャリブレーション処理が終了するまで、前記第1の画像認識処理の実行を禁止する、
前記(1)~(4)のいずれか一つに記載の情報処理装置。
(6)
前記制御部は、
前記第2のキャリブレーション処理を実行中に、前記第1の画像認識処理を実行する、
前記(1)~(5)のいずれか一つに記載の情報処理装置。
(7)
前記制御部は、
前記第1の画像認識処理または前記第2の画像認識処理の結果をユーザへ通知する、
前記(1)~(6)のいずれか一つに記載の情報処理装置。
(8)
前記制御部は、
前記第1の画像認識処理および前記第2の画像認識処理の結果をサーバへ送信する、
前記(1)~(7)のいずれか一つに記載の情報処理装置。
(9)
情報処理装置が
載カメラの取り付けに応じて実行する第1のキャリブレーション処理を終了した後に第1の画像認識処理を実行し、
前記第1のキャリブレーション処理を終了した後に第2のキャリブレーション処理を実行し、
前記第2のキャリブレーション処理を終了した後に前記第1の画像認識処理とは異なる範囲で第2の画像認識処理を実行すること、
を含む、情報処理方法。
(10)
前記第2のキャリブレーション処理は、前記第1のキャリブレーション処理よりも詳細である、
前記(9)に記載の情報処理方法。
(11)
前記情報処理装置は、
前記第1のキャリブレーション処理を、矩形形状の範囲で実行し、前記第2のキャリブレーション処理を、路面形状に応じた範囲で実行する、
前記(9)または請求項(10)に記載の情報処理方法。
(12)
前記第2のキャリブレーション処理は、前記第1の画像認識処理よりも高感度な処理である、
前記(9)~(11)のいずれか一つに記載の情報処理方法。
(13)
車載カメラの取り付けに応じて実行する第1のキャリブレーション処理を終了した後に第1の画像認識処理を実行する手順と、
前記第1のキャリブレーション処理を終了した後に第2のキャリブレーション処理を実行する手順と、
前記第2のキャリブレーション処理を終了した後に前記第1の画像認識処理とは異なる範囲で第2の画像認識処理を実行する手順とをコンピュータに実行させる、
プログラム。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
10 車載装置
11 カメラ
12 センサ部
13 通知デバイス
14 記憶部
14a 画像情報
14b 取り付け情報
15 制御部
15a モード設定部
15b 姿勢推定部
15ba 取得部
15bb 特徴点抽出部
15bc 特徴点追従部
15bd 線分抽出部
15be 算出部
15bf ノイズ除去部
15bg 決定部
15c キャリブレーション実行部
30 ROI
30-1 矩形ROI
30-2 路面ROI
30-S 重畳ROI
50 外部装置
51 情報管理サーバ

Claims (13)

  1. 車載カメラの取り付けに応じて実行する第1のキャリブレーション処理を終了した後に第1の画像認識処理を実行し、
    前記第1のキャリブレーション処理を終了した後に第2のキャリブレーション処理を実行し、
    前記第2のキャリブレーション処理を終了した後に前記第1の画像認識処理とは異なる範囲で第2の画像認識処理を実行する制御部を備える、
    情報処理装置。
  2. 前記第2のキャリブレーション処理は、前記第1のキャリブレーション処理よりも詳細である、
    請求項1に記載の情報処理装置。
  3. 前記制御部は、
    前記第1のキャリブレーション処理を、矩形形状の範囲で実行し、前記第2のキャリブレーション処理を、路面形状に応じた範囲で実行する、
    請求項1に記載の情報処理装置。
  4. 前記第2の画像認識処理は、前記第1の画像認識処理よりも高感度な処理である、
    請求項1に記載の情報処理装置。
  5. 前記制御部は、
    前記第1のキャリブレーション処理が終了するまで、前記第1の画像認識処理の実行を禁止する、
    請求項1に記載の情報処理装置。
  6. 前記制御部は、
    前記第2のキャリブレーション処理を実行中に、前記第1の画像認識処理を実行する、
    請求項1に記載の情報処理装置。
  7. 前記制御部は、
    前記第1の画像認識処理または前記第2の画像認識処理の結果をユーザへ通知する、
    請求項1に記載の情報処理装置。
  8. 前記制御部は、
    前記第1の画像認識処理および前記第2の画像認識処理の結果をサーバへ送信する、
    請求項1に記載の情報処理装置。
  9. 情報処理装置が
    載カメラの取り付けに応じて実行する第1のキャリブレーション処理を終了した後に第1の画像認識処理を実行し、
    前記第1のキャリブレーション処理を終了した後に第2のキャリブレーション処理を実行し、
    前記第2のキャリブレーション処理を終了した後に前記第1の画像認識処理とは異なる範囲で第2の画像認識処理を実行すること、
    を含む、情報処理方法。
  10. 前記第2のキャリブレーション処理は、前記第1のキャリブレーション処理よりも詳細である、
    請求項9に記載の情報処理方法。
  11. 前記情報処理装置は、
    前記第1のキャリブレーション処理を、矩形形状の範囲で実行し、前記第2のキャリブレーション処理を、路面形状に応じた範囲で実行する、
    請求項9に記載の情報処理方法。
  12. 前記第2の画像認識処理は、前記第1の画像認識処理よりも高感度な処理である、
    請求項9に記載の情報処理方法。
  13. 車載カメラの取り付けに応じて実行する第1のキャリブレーション処理を終了した後に第1の画像認識処理を実行する手順と、
    前記第1のキャリブレーション処理を終了した後に第2のキャリブレーション処理を実行する手順と、
    前記第2のキャリブレーション処理を終了した後に前記第1の画像認識処理とは異なる範囲で第2の画像認識処理を実行する手順とをコンピュータに実行させる、
    プログラム。
JP2022129577A 2022-08-16 2022-08-16 情報処理装置、情報処理方法、およびプログラム Active JP7394934B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022129577A JP7394934B1 (ja) 2022-08-16 2022-08-16 情報処理装置、情報処理方法、およびプログラム
US18/122,929 US20240062551A1 (en) 2022-08-16 2023-03-17 Information processing apparatus
JP2023199983A JP2024027123A (ja) 2022-08-16 2023-11-27 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022129577A JP7394934B1 (ja) 2022-08-16 2022-08-16 情報処理装置、情報処理方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023199983A Division JP2024027123A (ja) 2022-08-16 2023-11-27 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP7394934B1 true JP7394934B1 (ja) 2023-12-08
JP2024026968A JP2024026968A (ja) 2024-02-29

Family

ID=89030172

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022129577A Active JP7394934B1 (ja) 2022-08-16 2022-08-16 情報処理装置、情報処理方法、およびプログラム
JP2023199983A Pending JP2024027123A (ja) 2022-08-16 2023-11-27 情報処理装置、情報処理方法、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023199983A Pending JP2024027123A (ja) 2022-08-16 2023-11-27 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US20240062551A1 (ja)
JP (2) JP7394934B1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018177004A (ja) 2017-04-13 2018-11-15 クラリオン株式会社 車載カメラのキャリブレーション装置
WO2019082797A1 (ja) 2017-10-23 2019-05-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再構成方法および再構成装置
WO2019225681A1 (ja) 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法
JP2020532800A (ja) 2017-09-26 2020-11-12 日立オートモティブシステムズ株式会社 交通標識認識を用いたカメラキャリブレーションシステム、方法、および、コンピュータ可読媒体
JP2021033605A (ja) 2019-08-23 2021-03-01 株式会社デンソーテン 画像処理装置、および、画像処理方法
JP2021513247A (ja) 2018-06-05 2021-05-20 上▲海▼商▲湯▼智能科技有限公司Shanghai Sensetime Intelligent Technology Co., Ltd. 車載カメラ自己校正方法、車載カメラ自己校正装置、電子機器および記憶媒体
JP2021131750A (ja) 2020-02-20 2021-09-09 株式会社Subaru 画像処理装置および画像処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018177004A (ja) 2017-04-13 2018-11-15 クラリオン株式会社 車載カメラのキャリブレーション装置
JP2020532800A (ja) 2017-09-26 2020-11-12 日立オートモティブシステムズ株式会社 交通標識認識を用いたカメラキャリブレーションシステム、方法、および、コンピュータ可読媒体
WO2019082797A1 (ja) 2017-10-23 2019-05-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再構成方法および再構成装置
WO2019225681A1 (ja) 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法
JP2021513247A (ja) 2018-06-05 2021-05-20 上▲海▼商▲湯▼智能科技有限公司Shanghai Sensetime Intelligent Technology Co., Ltd. 車載カメラ自己校正方法、車載カメラ自己校正装置、電子機器および記憶媒体
JP2021033605A (ja) 2019-08-23 2021-03-01 株式会社デンソーテン 画像処理装置、および、画像処理方法
JP2021131750A (ja) 2020-02-20 2021-09-09 株式会社Subaru 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20240062551A1 (en) 2024-02-22
JP2024027123A (ja) 2024-02-29
JP2024026968A (ja) 2024-02-29

Similar Documents

Publication Publication Date Title
US10242576B2 (en) Obstacle detection device
JP5089545B2 (ja) 道路境界検出判断装置
JP4052650B2 (ja) 障害物検出装置、方法及びプログラム
JP5727356B2 (ja) 物体検知装置
JP7096053B2 (ja) 車両の車両カメラを較正するための方法および装置
JP2019028665A (ja) 車載カメラのキャリブレーション装置及び方法
JP6175018B2 (ja) レーン検出装置、車線維持支援システム、およびレーン検出方法
JP6838365B2 (ja) 自己位置推定方法及び自己位置推定装置
EP1236126B1 (en) System for detecting obstacles to vehicle motion
JP7261588B2 (ja) 信号機認識方法及び信号機認識装置
JP6314655B2 (ja) 標示線検出装置、標示線検出方法
JP6841331B2 (ja) 車両駐車支援装置、車両駐車支援プログラム
JP7394934B1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7169075B2 (ja) 撮像制御装置および撮像制御方法
US20230169775A1 (en) Autonomous driving system
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
JP7359901B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP5995808B2 (ja) レール消失点検出装置、鉄道用前方監視カメラ装置、鉄道車両、およびレール消失点検出方法ならびに制御方法
JP6955464B2 (ja) 車両位置判定装置
JP2009181310A (ja) 道路パラメータ推定装置
JP7512330B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7359922B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7401614B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7340667B1 (ja) 情報処理装置、情報処理方法およびプログラム
US20240062420A1 (en) Information processing device, information processing method, and computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231128

R150 Certificate of patent or registration of utility model

Ref document number: 7394934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150