JP2019207541A - 画像処理装置及びその方法 - Google Patents

画像処理装置及びその方法 Download PDF

Info

Publication number
JP2019207541A
JP2019207541A JP2018102383A JP2018102383A JP2019207541A JP 2019207541 A JP2019207541 A JP 2019207541A JP 2018102383 A JP2018102383 A JP 2018102383A JP 2018102383 A JP2018102383 A JP 2018102383A JP 2019207541 A JP2019207541 A JP 2019207541A
Authority
JP
Japan
Prior art keywords
image
size
unit
recognition result
cutout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018102383A
Other languages
English (en)
Inventor
能毅 黒川
Yoshiki Kurokawa
能毅 黒川
雄樹 近藤
Takeki Kondo
雄樹 近藤
雄一郎 青木
Yuichiro Aoki
雄一郎 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018102383A priority Critical patent/JP2019207541A/ja
Publication of JP2019207541A publication Critical patent/JP2019207541A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラで撮影された画像を認識するときの処理量を低減すること。【解決手段】車両に搭載されたカメラで撮影された画像のうち被写体全体を含む全体画像からその一部を切り出す画像切り出し部と、カメラで撮影された画像のうち全体画像を縮小して縮小画像を生成する画像縮小部と、画像切り出し部により切り出された一部の画像を認識する第1の画像認識部と、画像縮小部により縮小された縮小画像を認識する第2の画像認識部と、第1の画像認識部により認識された第1の認識結果と第2の画像認識部により認識された第2の認識結果とを統合し、統合された認識結果の情報を生成する画像認識結果統合部と、を有する。【選択図】図1

Description

本発明は、車両に搭載された画像処理装置及びその方法に関する。
車両に搭載された画像処理装置として、例えば、特許文献1に記載されているように、複数の車載カメラ4a、4bと、撮像した画像を補正する画像補正部31と、左右の画素のずれ量である視差を算出する視差算出部32と、撮像した画像と算出した視差の両方あるいはいずれかを用いて画像認識処理を行う画像認識部33とに加えて、処理領域決定部を備えるステレオカメラ装置が提案されている。
特開2009−146217号公報
上記先行例では、ハンドルの切れ角が一定以上の場合、画像の処理範囲がハンドルを切った方向のみに限定されるので、画像の処理量を低減することができる。
車両に搭載されたカメラで撮影された画像を認識して処理する場合、ハンドルの操作方向によらず、常に、認識すべき画像の処理量を低減することが求められる。
本発明の目的は、カメラで撮影された画像を認識するときの処理量を低減することにある。
前記課題を解決するために、本発明は、車両に搭載されたカメラで撮影された画像に関する情報を取り込み、前記画像のうち前記カメラの被写体全体を含む全体画像からその一部を切り出す画像切り出し部と、前記カメラで撮影された前記画像に関する情報を取り込み、前記画像のうち前記全体画像を縮小して、前記被写体全体の縮小画像を生成する画像縮小部と、前記画像切り出し部により切り出された前記一部の画像を認識する第1の画像認識部と、前記画像縮小部により縮小された前記縮小画像を認識する第2の画像認識部と、前記第1の画像認識部により認識された第1の認識結果と前記第2の画像認識部により認識された第2の認識結果とを統合し、統合された認識結果の情報を生成する画像認識結果統合部と、を有することを特徴とする。
本発明によれば、カメラで撮影された画像を認識するときの処理量を低減することができる。
本発明の第1実施例における車載画像処理装置の全体構成を示す構成図。 本発明の第1実施例における車両状態認識部の構成を示す構成図。 本発明の第1実施例における車両状態テーブルの構成図。 本発明の第1実施例における操作決定部の構成を示す構成図。 本発明の第1実施例における操作決定テーブルの構成を示す構成図。 本発明の第1実施例における車両制御部の構成を示す構成図。 本発明の第1実施例における切り出し位置サイズ制御部の構成を示す構成図。 本発明の第1実施例におけるフロントカメラ切り出し調整テーブルの構成図。 本発明の第1実施例における画像切り出し部の構成を示す構成図。 本発明の第1実施例における画像縮小部の構成を示す構成図。 本発明の第1実施例における画像認識部の構成を示す構成図。 本発明の第1実施例における画像認識部の入出力関係を示す構成図。 本発明の第1実施例における他の画像認識部の入出力関係を示す構成図。 本発明の第1実施例における画像認識結果統合部の構成を示す構成図。 本発明の第1実施例における説明図であって、車両が上り坂を上りきったときの動作を説明するための説明図。 本発明の第1実施例における説明図であって、車両が下りを下りきったときの動作を説明するための説明図。 本発明の第1実施例における説明図であって、車両が右カーブの道路を走行するときの動作を説明するための説明図。 本発明の第2実施例における車両状態認識部の構成を示す構成図。 本発明の第2実施例の動作を説明するための説明図。 本発明の第3実施例における車載画像処理装置の全体構成を示す構成図。 本発明の第3実施例における切り出し位置サイズ制御部の構成を示す構成図。 本発明の第3実施例におけるリアカメラ切り出し調整テーブルの構成を示す構成図。 本発明の第3実施例における説明図であって、車両が上り坂を上り終えたときの動作を説明するための説明図。 本発明の第3実施例における説明図であって、車両が下りを下り終えたときの動作を説明するための説明図。 本発明の第4実施例における車載画像処理装置の全体構成を示す構成図。 本発明の第4実施例における切り出し位置サイズ制御部の構成を示す構成図。 本発明の第4実施例における右カメラ切り出し調整テーブルの構成を示す構成図。 本発明の第4実施例における左カメラ切り出し調整テーブルの構成を示す構成図。 本発明の第4実施例における説明図であって、車両がカーブを通過するときの動作を説明するための説明図。
以下、実施例を図面に基づいて説明する。
(第1実施例)
本実施例は、カメラで撮影された画像を、被写体全体を含む全体画像と、全体画像の一部の画像に分けて管理するものである。すなわち、遠景と近景を含む全体画像は、縮小しても認識が容易であるので縮小画像として処理し、画面中央部の遠景を含む一部の画像は、詳細に認識する必要があるので縮小することなく、そのままの画像として処理し、全体として、画像認識の処理量を低減するものである。
図1は、本発明の第1実施例に係る車載画像処理装置の全体構成を示す構成図である。図1において、車載画像処理装置100は、自動運転を行う車両101の本体に搭載されている。車載画像処理装置100は、フロントカメラ102、加速度センサー103、角速度センサー104、車両状態認識部105、画像認識部106、操作決定部107、車両制御部108を備えている。
フロントカメラ102は、車両101の前方側に配置されて、自動運転の際の外界、特に、車両101の前方を認識するために用いられ、車両101の前方画像を生成し、生成した前方画像を一定のフレームレートで画像認識部106に送信する。
加速度センサー103は、車両101に搭載されて、走行時に車両101にかかる加速度を計測し、計測値を車両状態認識部105に送信する。
角速度センサー104は、車両101に搭載されて、走行時に車両101の角速度を計測し、計測値を車両状態認識部105に送信する。
車両状態認識部105は、加速度センサー103と角速度センサー104からそれぞれ計測値を取り込み、各計測値を基に、現在(現時点)の車両101の状態を割り出して、車両状態データを生成し、生成した車両状態データを画像認識部106へ出力する。
画像認識部106は、フロントカメラ102から前方画像に関する情報(画像データ)を入力画像データとして一定のフレームレートで取り込むと共に、車両状態認識部105から、車両101の状態に関する情報として車両状態データを取り込み、車両状態データを基に、フロントカメラ102で撮影された前方画像を処理し、前方画像に、何がどこに撮影されているかの判定(認識)を行い、判定結果である認識結果の情報を操作決定部107に送信する。認識結果の情報としては、例えば、車や人などを認識した場合、車や人を特定する情報と、車や人の位置を、例えば、画像を構成する各画素の座標に対応づけた位置情報が挙げられる。
操作決定部107は、画像認識部106から送信された情報を受信した場合、受信した情報(認識結果の情報)を基に、車両101の操作を決定し、決定した操作に関する情報を車両制御部108に送信する。
車両制御部108は、操作決定部107からの情報として、操作に関する情報を受信した場合、受信した情報を、ハンドル、ブレーキ、アクセル等実際の制御機器に対する制御コマンドの情報に変換し、変換された制御コマンドの情報を制御出力(制御出力データ)として、各制御機器に送信する。これにより、車両101は、各制御機器により自動制御される。
また、画像認識部106は、具体的には、切り出し位置サイズ制御部110、画像切り出し部112、画像縮小部113、画像認識部114、115、画像認識結果統合部116を備えている。切り出し位置サイズ制御部110には、車両状態認識部105の出力による車両状態データ109が入力され、画像切り出し部112と画像縮小部113には、フロントカメラ102から、前方画像に関する画像データが入力画像データ111として入力される。
車両状態データ109は、車両状態認識部105で生成されるデータであって、車両101が、現在置かれている状況を示すデータである。例えば、車両状態認識部105において、車両101が、上り坂の終了近辺にある場合、「上り坂終了」を示すデータが生成され、車両101が、下り坂の終了近辺にある場合、「下り坂終了」を示すデータが生成され、車両101が、左カーブの途中にある場合、「左カーブ」を示すデータが生成され、車両101が、右カーブの途中にある場合、「右カーブ」を示すデータが生成される。
切り出し位置サイズ制御部110は、車両状態データ109を基に、フロントカメラ102で撮影された前方画像のうち詳細に認識する部分の画像を一部の画像として切り出すための、切り出し位置及びそのサイズ(画像サイズ)を決定する制御を段階的に実行し、決定した切り出し位置(切り出し座標)とそのサイズ(画素の数)に関する情報を画像切り出し部112と画像認識結果統合部116に順次出力する。
画像切り出し部112は、切り出し位置とそのサイズに関する情報を基に、入力画像データ111で構成される前方画像(フロントカメラ102の被写体全体を示す全体画像)から、その一部の画像(遠景を含む画像)として詳細認識用画像を切り出し、切り出した詳細認識用画像に関する情報(画像データ)を画像認識部114に出力する。
画像縮小部113は、入力画像データ111で構成される前方画像(遠景と近景を含む全体画像)を、予め設定された倍率(設定倍率)で縮小し、縮小された前方画像(縮小画像)に関する情報(画像データ)を画像認識部115に出力する。
画像認識部114は、画像切り出し部112で切り出された詳細認識用画像を認識(判定)し、画像切り出し部112で切り出された詳細認識用画像に、何がどこに写っているかを示す情報(第1の認識結果の情報)を生成し、生成した情報を、詳細部分認識結果を示す情報として画像認識結果統合部116に出力する第1の画像認識部である。画像認識部115は、画像縮小部113で縮小された前方画像を認識(判定)し、画像縮小部113で縮小された前方画像に、何がどこに写っているかを示す情報(第2の認識結果の情報)を生成し、生成した情報を、全体認識結果を示す情報として画像認識結果統合部116に出力する第2の画像認識部である。この際、画像認識部114、115は、同一種類のブロックでの処理を想定している。例えば、写っているものと場所を検知する物体認識、または画像の領域が何に属しているかを示すセマンティックセグメンテーション双方の使用を想定している。
画像認識結果統合部116は、画像認識部114の出力による詳細部分認識結果と画像認識部115の出力による全体認識結果を、切り出し位置サイズ制御部110からの切り出し位置(座標)とそのサイズに関する情報を使用して、1つに統合する処理を行い、処理結果を認識結果データ117として、操作決定部107に送信する。
図2は、本実施例における車両状態認識部の構成を示す構成図である。図2において、車両状態認識部105は、加速度センサー値201、角速度センサー値202、加速度回転角算出部203、車両状態判定部204、車両状態テーブル205、車両状態データ109を含む。
加速度センサー値201は、加速度センサー103の出力値であり、角速度センサー値202は、角速度センサー104の出力値である。
加速度回転角算出部203は、加速度センサー値201と角速度センサー値202を基に、車両101に作用する加速度と車両101における角速度をそれぞれ3次元の値として算出し、算出した各3次元の値をそれぞれ3次元の計測値として車両状態判定部204に出力する。
車両状態判定部204は、加速度回転角算出部203からの3次元の計測値を基に車両状態テーブル205の情報を参照し、車両状態テーブル205に記録された、加速度センサー閾値又は角加速度センサー閾値と各計測値とを比較し、比較結果から、車両101が、現在置かれている状態を判定し、判定結果を車両状態データ109として出力する。例えば、少なくとも、車両101が、上り坂終了、下り坂終了、左カーブ、右カーブの状態であるかを示す車両状態データ109を出力する。
図3は、本実施例における車両状態テーブルの構成図である。図3において、車両状態テーブル205は、管理項目としての入力206と出力207を含み、入力206は、加速度センサー閾値208と、角速度センサー閾値209を備え、出力207は、推定車両状態値210を備えている。加速度センサー閾値208は、1次元をX、2次元をY、3次元をZとした場合、各次元X、Y、Zに対応して、3つの列301、302、303に分かれており、各列301、302、303には、各次元X、Y、Zに対応した加速度センサー閾値が記録されている。例えば、車両101の状態が、定常状態にある場合であって、カーブ無しの直線道路(平地)の地点にある場合の加速度センサー閾値208として、各列301、302、303には、「a」の値が記録される。角速度センサー閾値209は、各次元X、Y、Zに対応して、3つの列304、305、306に分かれており、各列304、305、306には、各次元X、Y、Zに対応した角速度センサー閾値が記録される。例えば、車両101の状態が、定常状態にある場合であって、カーブ無しの直線道路の地点にある場合の角速度センサー閾値209として、各列304、305、306には、「c」の値が記録される。なお、加速度センサー閾値208と角速度センサー閾値209としては、ある範囲を有する値に設定することもできる。
推定車両状態値210は、「上り坂終了フラグ」のデータを記録する列307と、「下り坂終了フラグ」のデータを記録する列308と、「左カーブフラグ」のデータを記録する列309と、「右カーブフラグ」のデータを記録する列310に分かれて構成される。推定車両状態値210の各列307〜310には、車両状態判定部204が、3次元の計測値と、加速度センサー閾値208又は角速度センサー閾値209に記録された閾値(各次元の閾値)とを比較したときの比較結果を示すデータが記録される。例えば、3次元の計測値のうちいずれかの次元の計測値が、少なくとも加速度センサー閾値208又は角速度センサー閾値209に記録された閾値(各次元の閾値)を超えた場合、「1」のデータが、推定車両状態値210のいずれかの列に記録される。
ここで、例えば、列307〜310に記録されるデータが、それぞれ「0」、「1」、「0」、「0」である場合、車両状態判定部204は、車両101が、現在、下り坂を終了する近辺にあると判断し、車両状態データ109として、「0」、「1」、「0」、「0」をデータ列とするデータを生成する。また、列307〜310に記録されるデータが、それぞれ「1」、「0」、「0」、「0」である場合、車両状態判定部204は、車両101が、現在、上り坂を終了する近辺にあると判断し、車両状態データ109として、「1」、「0」、「0」、「0」をデータ列とするデータを生成する。なお、車両101が、現在、左カーブの途中にある場合、列309に「1」のデータが記録され、それ以外の列には「0」のデータが記録され、車両101が、現在、右カーブの途中にある場合、列310に「1」のデータが記録され、それ以外の列には「0」のデータが記録される。
図4は、本実施例における操作決定部の構成を示す構成図である。図4において、操作決定部107は、認識結果判断部401、操作選択部402、操作決定テーブル403、操作データ404を含み、認識結果判断部401に認識結果データ117が入力される。
認識結果判定部410は、画像認識部106の出力である認識結果データ117を基に、車両101前方の路上状態と道路の方向を判断し、判断結果を示す情報を操作選択部402に送信する。ここで、路上状態としては、例えば、車両101の前方に何も無い(クリーン)、車両101の前方に先行車あり、車両101の前方に物体あり等の状態が挙げられ、道路の方向としては、例えば、直線、左カーブ、右カーブ等の方向が挙げられる。
操作選択部402は、認識結果判断部401の判断結果を示す情報を基に、操作決定テーブル403に記録された情報を参照し、参照結果から、車両101の操作を決定するための操作データ404を生成して出力する。
図5は、本実施例における操作決定テーブルの構成を示す構成図である。図5において、操作決定テーブル403は、管理項目として、入力405、出力406を含む。入力405は、「路面認識」を示す列501と、「道路認識」を示す列502に分かれている。列501には、例えば、「クリーン」、「先行車あり」の情報が記録され、列502には、「直線」、「左カーブ」の情報が記録される。
出力406は、「ハンドル」を示す列503と、「ブレーキ」を示す列504と、「アクセル」を示す列506に分かれている。列503には、「ハンドル」の操作量に関するデータが記録される。列504には、「ブレーキ」の操作量に関するデータが記録される。列505には、「アクセル」の操作量に関するデータが記録される。
ここで、例えば、認識結果判断部401が、車両101前方の路上状態(路面認識)として、「クリーン」と判断し、車両101前方の道路の方向(道路認識)として、「直線」と判断した場合、操作選択部402は、認識結果判断部401の判断結果を基に操作決定テーブル403を参照し、「クリーン」と「直線」の組み合わせから、「ハンドル」の操作量を「0」とし、「ブレーキ」の操作量を「0」とし、「アクセル」の操作量を「3」とするデータをそれぞれ操作決定テーブル403から選択し、選択したデータから操作データ404を生成し、生成した操作データ404を車両制御部108に送信する。
図6は、本実施例における車両制御部の構成を示す構成図である。図6において、車両制御部108は、制御シーケンス決定部601、複数の制御シーケンサー602、603、制御出力データ604、605を含む。
制御シーケンス決定部601は、操作決定部107からの操作データ404を基に、各制御シーケンサー602、603に対する具体的な操作シーケンスを決定し、決定した操作シーケンスに関する情報をトリガーとして、各制御シーケンサー602、603に出力し、車両101の操作を実現させる。
各制御シーケンサー602、603は、操作シーケンスに関する情報を基に、ハンドル、ブレーキ、アクセル等の制御機器をシーケンス制御するためのデータを生成し、生成したデータを制御出力データ604、605として、各制御機器に出力する。各制御機器が、制御出力データ604、605を基にシーケンス制御を実行することにより、車両101が自動で操作される。
図7は、本実施例における切り出し位置サイズ制御部の構成を示す構成図である。図7において、切り出し位置サイズ制御部110は、切り出し調整値生成部701、フロントカメラ切り出し調整テーブル702、切り出し位置決定部703、現在切り出し位置保持部704、切り出しサイズ決定部705、現在切り出しサイズ保持部706、現在切り出し位置・サイズデータ707を含む。
切り出し調整値生成部701は、車両状態認識部105からの車両状態データ109を基に、フロントカメラ切り出し調整テーブル702を参照し、フロントカメラ切り出し調整テーブル702に記録された情報(位置・サイズ)の中から、車両状態データ109に応じて、切り出し位置に関する情報とサイズに関する情報を選択し、選択した情報のうち切り出し位置に関する情報(例えば、画素の座標を示す情報)を切り出し位置決定部703に出力し、選択した情報のうちサイズに関する情報(例えば、画素の個数を示す情報)を切り出しサイズ決定部705に出力する。
切り出し位置決定部703は、現在切り出し位置保持部704に保持されている切り出し位置であって、現在使用されている切り出し位置に対して、切り出し調整値生成部701で生成された切り出し位置に関する情報を基に、次の切り出し位置を決定し、決定した次の切り出し位置に関する情報を現在切り出し位置保持部704に保存する。
現在切り出し位置保持部704は、切り出し位置決定部703で決定した、次の切り出し位置に関する情報を保持し、その値を現在切り出し位置・サイズデータ707として出力すると共に、現在切り出し位置・サイズデータ707と同一のデータを切り出し位置決定部703にフィードバックする。この際、切り出し位置決定部703は、切り出し位置を段階的に変化させるために、フィードバックされたデータを、次の切り出し位置を決定する際に使用する。
切り出しサイズ決定部705は、現在切り出しサイズ保持部706に保持されている切り出しサイズであって、現在使用されている切り出しサイズに対して、切り出し調整値生成部701で生成された切り出しサイズに関する情報を基に、次の切り出しサイズを決定し、決定した次の切り出しサイズに関する情報を現在切り出しサイズ保持部706に保存する。
現在切り出しサイズ保持部706は、切り出しサイズ決定部705で決定した切り出しサイズの情報を保持し、その値を現在切り出し位置・サイズデータ707として出力すると共に現在切り出し位置・サイズデータ707と同一のデータを切り出しサイズ決定部705にフィードバックする。この際、切り出しサイズ決定部705は、切り出しサイズを段階的に変化させるために、フィードバックされたデータを、次の切り出しサイズを決定する際に使用する。
図8は、本実施例におけるフロントカメラ切り出し調整テーブルの構成図である。図8において、フロントカメラ切り出し調整テーブル702は、管理項目として、入力708と、出力709を含み、入力708には、推定車両状態値710が設定され、出力709には、切り出し調整711が設定されている。
推定車両状態値710は、「上り坂終了フラグ」のデータが記録される列801と、「下り坂終了フラグ」のデータが記録される列802と、「左カーブフラグ」のデータが記録される列803と、「右カーブフラグ」のデータが記録される列804に分かれて管理される。各列には、例えば、「0」又は「1」が記録される。
切り出し調整711は、「位置」の情報が記録される列805と、「サイズ」の情報が記録される列806に分かれて管理される。
ここで、車両状態データ109が、「0、0、0、0」である場合、行807の情報が選択され、「位置」の情報として、「中央」が選択され、「サイズ」の情報として「通常」が選択される。なお、「中央」は、詳細認識用画像が、画面全体の中央部に位置することを意味する。また、「通常」は、詳細認識用画像を構成する画素の数が、通常と設定された数であることを意味する。以下同様に、車両状態データ109が、「0、0、1、0」である場合、行808の情報が選択され、「位置」の情報として、「左寄り」が選択され、「サイズ」の情報として「通常」が選択される。車両状態データ109が、「0、0、0、1」である場合、行809の情報が選択され、「位置」の情報として、「右寄り」が選択され、「サイズ」の情報として「通常」が選択される。なお、「左寄り」は、詳細認識用画像が、画面全体の中央部より左寄りにあることを意味し、「右寄り」は、詳細認識用画像が、画面全体の中央部より右寄りにあることを意味する。以下、「寄り」は、詳細認識用画像が、画面全体の中央部からどの方向に移動するかを意味する。
行807〜809の条件では、「上り坂終了フラグ」の列801と、「下り坂終了フラグ」の列802には、「0」のデータが記録されて、フラグが立っていない条件となっているので、車両101の状態は、平地または、大きな坂の中間と考えられ、サイズとして、「通常」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、カーブ無しの場合、「中央」が、左カーブの場合、「左寄り」が、右カーブの場合、「右寄り」が、それぞれ位置の情報となる。
車両状態データ109が、「1、0、0、0」である場合、行810の情報が選択され、「位置」の情報として、「下寄り」が選択され、「サイズ」の情報として、通常サイズの画像を縮小することを示す、「縮小」が選択される。車両状態データ109が、「1、0、1、0」である場合、行811の情報が選択され、「位置」の情報として、「左下寄り」が選択され、「サイズ」の情報として「縮小」が選択される。車両状態データ109が、「1、0、0、1」である場合、行812の情報が選択され、「位置」の情報として、「右下寄り」が選択され、「サイズ」の情報として「縮小」が選択される。
行810〜812の条件では、「上り坂終了フラグ」の列801にのみ「1」のデータが記録され、「下り坂終了フラグ」の列802には、「0」のデータが記録されているので、車両101の状態は、上り坂の終了地点と考えられ、「サイズ」の情報として、「縮小」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、カーブ無しの場合、「下寄り」が、左カーブの場合、「左下寄り」が、右カーブの場合、「右下寄り」が、それぞれ位置の情報となる。
車両状態データ109が、「0、1、0、0」である場合、行813の情報が選択され、「位置」の情報として、「上寄り」が選択され、「サイズ」の情報として、通常サイズの画像を拡大することを示す、「拡大」が選択される。車両状態データ109が、「0、1、1、0」である場合、行814の情報が選択され、「位置」の情報として、「左上寄り」が選択され、「サイズ」の情報として「拡大」が選択される。車両状態データ109が、「0、1、0、1」である場合、行815の情報が選択され、「位置」の情報として、「右上寄り」が選択され、「サイズ」の情報として「拡大」が選択される。
行813〜815の条件では、「下り坂終了フラグ」の列802にのみ「1」のデータが記録され「上り坂終了フラグ」の列801には、「0」のデータが記録されているので、車両101の状態は、下り坂の終了地点と考えられ、「サイズ」の情報として、「拡大」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、カーブ無しの場合、「上寄り」が、左カーブの場合、「左上寄り」が、右カーブの場合、「右上寄り」が、それぞれ位置の情報となる。
なお、上り坂と下り坂は排他的な条件のため、列801と列802の同一の行に、双方が「1」となるデータは存在しない。また、左カーブと右カーブは排他的な条件のため、列803と列804の同一の行に、双方が「1」となるデータは存在しない。
図9は、本実施例における画像切り出し部の構成を示す構成図である。図9において、画像切り出し部112は、部分画像読み出し部901、部分画像書き出し部902、詳細認識用画像データ903を含み、入力画像データ111と現在切り出し位置・サイズデータ707が、部分画像読み出し部901に入力される。
部分画像読み出し部901は、切り出し位置サイズ制御部110からの現在切り出し位置・サイズデータ707を基に、フロントカメラ102からの入力画像データ111で構成される前方画像から、その一部の画像である部分画像(切り出し位置・サイズが指定された部分画像)を読み出し、読み出した部分画像のデータ(部分画像データ)を部分画像書き出し部902に送信する。
部分画像書き出し部902は、部分画像読み出し部901から送信された部分画像データを受信した場合、受信した部分画像データを詳細認識用画像データとして書き出し、書き出した詳細認識用画像データ903を保存すると共に、画像認識部114に送信する。
図10は、本実施例における画像縮小部の構成を示す構成図である。図10において、画像縮小部113は、画像平均部1001、縮小率データ1002、全体認識用画像データ1003を含む。
画像平均部1001は、フロントカメラ102から入力画像データ111を取り込み、入力画像データ111で構成される前方画像に対して、縮小率データ1002を基に、隣接画素の輝度の平均値を算出する処理を実行し、前方画像から、その縮小画像を生成し、生成した縮小画像のデータを全体認識用画像データ1003として、画像認識部115に送信する。この際、例えば、縮小率データ1002が、縮小率=25%を示すデータであれば、隣接する田型の4画素の輝度の平均をとって、1画素とすることで、前方画像から、その縮小画像を生成する。
図11は、本実施例における画像認識部の構成を示す構成図である。画像認識部114、115は、認識用画像データ1101、第1〜第NのCNNレイヤー1102、1103、・・・、1104、認識結果データ1105を含む。
画像認識部114、115は、認識用画像データ1101で構成される画像に、どこに何が写っているかを認識し、認識結果を認識結果データ1105として出力する。この際、本実施例では、ディープラーニングの畳み込み方式(以降CNN処理と略する)を使用している。また、画像認識部114、115は、全体のブロック図では、2つに分かれているが、双方とも同一の処理ブロックで動作可能である。
認識用画像データ1101は、詳細認識用画像データ903又は全体認識用画像データ1003であって、画像認識部114の場合、詳細認識用画像データ903が用いられ、画像認識部115の場合、全体認識用画像データ1003が用いられる。
第1〜第NのCNNレイヤー1102、1103、・・・、1104におけるCNN処理は、複数の処理層によって構成されており、ある処理層の出力結果を次の処理層の入力結果として使用し、多数の処理層で画像データを処理することで、最終的な認識結果データ1105を生成する。認識結果データ1105は、画像のどこに何が写っているかを示すデータである。
図12は、本実施例における画像認識部の入出力関係を示す構成図である。図12において、画像認識部114は、詳細認識用画像データ903を取り込み、詳細認識用画像データ903から、詳細認識用画像データ903で構成される詳細認識用画像のどこに何が写っているかを示す詳細・部分認識結果データ1201を生成し、生成した詳細・部分認識結果データ1201を画像認識結果統合部116に送信する。
図13は、本実施例における他の画像認識部の入出力関係を示す構成図である。図13において、画像認識部115は、全体認識用画像データ1003を取り込み、全体認識用画像データ1003から、全体認識用画像データ1003で構成される全体認識用画像のどこに何が写っているかを示す全体認識結果データ1301を生成し、生成した全体認識結果データ1301を画像認識結果統合部116に送信する。
図14は、本実施例における画像認識結果統合部の構成を示す構成図である。図14において、画像認識結果統合部116は、全体認識結果分離部1401、枠内結果データ1402、外枠結果データ1403、詳細・枠内結果合成部1404、詳細・外枠合成部1405を含む。
全体認識結果分離部1401は、画像認識部115から全体認識結果データ1301を取り込み、切り出し位置サイズ制御部110から現在切り出し位置・サイズデータ707を取り込み、全体認識結果データ1301で構成される全体認識結果を、現在切り出し位置・サイズデータ707で特定される枠内結果と、枠内の結果を除く認識結果であって、外枠結果(全体の認識結果)とに分離し、枠内結果を示す枠内結果データ1402と外枠結果を示す外枠結果データ1403を生成し、生成した枠内結果データ1402を詳細・枠内結果合成部1404に出力し、生成した外枠結果データ1403を詳細・外枠合成部1405に出力する。
詳細・枠内結果合成部1404は、画像認識部114から詳細・部分認識結果データ1201を取り込み、全体認識結果分離部1401から枠内結果データ1402を取り込み、詳細・部分認識結果データ1201による認識結果と枠内結果データ1402による認識結果を合成し、合成した認識結果のデータを詳細・外枠合成部1405に出力する。合成した認識結果のデータを生成するに際して、簡単な例としては、枠内結果データ1402を捨てて、詳細・部分認識結果データ1201を使用する方法がある。また別の例としては、2つのデータ(詳細・部分認識結果データ1201、枠内結果データ1402)を合成した認識結果は、場所が1対1で対応するので、その差を比較し、例えば、路上の落下物を片方だけ認識している場合などは、より安全な選択として、落下物有りの方を選択するようにする。
詳細・外枠合成部1405は、詳細・枠内結果合成部1404から、詳細・部分認識結果データ1201と枠内結果データ1402とを合成した認識結果のデータを取り込むと共に、全体認識結果分離部1401から、外枠結果データ1403を取り込み、さらに、切り出し位置サイズ制御部110から、現在切り出し位置・サイズデータ707を取り込み、合成した認識結果と、外枠結果データ1403及び現在切り出し位置・サイズデータ707を基に1つの認識結果を示す認識結果データ117を生成し、生成した認識結果データ117を認識結果に関する情報として操作決定部107に送信する。この際、外枠結果データ1403による外枠結果に、詳細・枠内結果合成部1404で合成した認識結果をはめ込む処理が実行される。この場合、現在切り出し位置・サイズデータ707を使用して、はめ込み位置が特定される。
この際、詳細・外枠合成部1405は、画像認識部114により認識された認識結果(第1の認識結果である詳細・部分認識結果)と画像認識部115により認識された認識結果(第2の認識結果である全体認識結果)とを比較し、詳細・部分認識結果と全体認識結果との間に、重複する部分の画像についての認識結果が存在する場合、詳細・部分認識結果と全体認識結果のうち、重要度の高い画像(例えば、人や他の車両の画像)についての認識結果を含む方を優先して選択することができる。この場合、重要度の高い画像についての認識結果を確実に得ることができる。
図15は、本実施例における説明図であって、車両が上り坂を上りきったときの動作を説明するための説明図である。図15(a)は、車両101が、上り坂を上りきった地点にある場合を示す。車両101が、上り坂を上りきった地点にある場合、フロントカメラ102で撮像された前方画像には、大部分が空の画像であって、認識処理をする必要がない画像が写り込むことになる。
そこで、図15(b)に示すように、フロントカメラ102で撮像された画像(前方画像)の入力範囲1501に対して、入力範囲1501の中央部に、詳細画像切り取り可能範囲を示すウィンドウ1502を設定すると共に、ウィンドウ1502内に、ウィンドウ1502内を移動可能であって、詳細画像切り取り範囲を示すウィンドウ1503を設定し、ウィンドウ1503内に、詳細認識用画像データ903に対応した画像をはめ込む。この際、ウィンドウ1503の切り出し位置をウィンドウ1502内の上方から下方にずらし、ウィンドウ1503内に、認識に必要な、車両101前方の道路の画像が写り込むようにする。さらに、図15(c)に示すように、ウィンドウ1503の切り出しサイズを縮小し、ウィンドウ1503内の画像を縮小画像にする。これにより、画像処理における処理量を更に少なくすることができる。
図16は、本実施例における説明図であって、車両が下りを下りきったときの動作を説明するための説明図である。図16(a)は、車両101が、下り坂を下りきった地点にある場合を示す。車両101が、下り坂を下りきった地点にある場合、フロントカメラ102で撮像された前方画像には、大部分が、上方に遠方が伸びる道路の画像であって、認識処理をする必要がない画像が写り込むことになる。
そこで、図16(b)に示すように、フロントカメラ102で撮像された画像(前方画像)の入力範囲1501に対して、入力範囲1501の中央部に、詳細画像切り取り可能範囲を示すウィンドウ1502を設定すると共に、ウィンドウ1502内に、ウィンドウ1502内を移動可能であって、詳細画像切り取り範囲を示すウィンドウ1503を設定し、ウィンドウ1503内に、詳細認識用画像データ903に対応した画像をはめ込む。この際、ウィンドウ1503の切り出し位置をウィンドウ1502内の下方から上方にずらし、ウィンドウ1503内に、認識に必要な、車両101前方の道路の画像が写り込むようにする。さらに、図16(c)に示すように、ウィンドウ1503の切り出しサイズを拡大し、ウィンドウ1503内の画像を拡大画像にする。これにより、遠方認識精度を高めることができる。
図17は、本実施例における説明図であって、車両が右カーブの道路を走行するときの動作を説明するための説明図である。図17(a)は、車両101が、右カーブの道路の途中にある場合を示す。車両101が、右カーブの道路の途中にある場合、フロントカメラ102で撮像された前方画像には、車両101の進行方向Aに対して、遠方が、車両101に作用する遠心力の方向Bにずれた画像であって、認識する必要がない画像が写り込むことになる。
そこで、図17(b)に示すように、フロントカメラ102で撮像された画像(前方画像)の入力範囲1501に対して、入力範囲1501の中央部に、詳細画像切り取り可能範囲を示すウィンドウ1502を設定すると共に、ウィンドウ1502内に、ウィンドウ1502内を移動可能であって、詳細画像切り取り範囲を示すウィンドウ1503を設定し、ウィンドウ1503内に、詳細認識用画像データ903に対応した画像をはめ込む。この際、ウィンドウ1503内の左側にずれた、ウィンドウ1503の切り出し位置を、ウィンドウ1502内の左側から、遠心力の方向Bとは反対の方向(右側)にずらし、ウィンドウ1503内に、認識に必要な、車両101前方の道路の画像が写り込むようにする。なお、車両101が、左カーブの道路の途中にある場合、ウィンドウ1503の切り出し位置をウィンドウ1502内の右側から、カーブする方向(左側)にずらし、ウィンドウ1503内に、認識に必要な、車両101前方の道路の画像が写り込むようにする。
本実施例によれば、被写体全体の全体画像(全体認識用画像)を縮小画像と、一部の画像(詳細認識用画像)とに分け、各画像を認識の対象としたので、認識すべき画像の処理量を低減することができる。この際、詳細認識用画像の領域を全体の1/4とし、全体認識用画像を全体の1/4に縮小すると、全体で1/2の処理量とすることができる。また、本実施例によれば、車両の状態に応じて、ウィンドウ1503の切り出し位置とサイズを変更するようにしたので、車両の状態に応じて、認識すべき画像を詳細認識用画像として取り込むことができる。
(第2実施例)
本実施例は、車両状態認識部105にメジアンフィルタ1801を設け、車両101が、路面の穴などを通過するときの小さな挙動に対して、認識画像を安定化させるものであり、他の構成は、第1実施例と同じである。
図18は、本発明の第2実施例を示す車両状態認識部の構成を示す構成図である。図18において、車両状態認識部105は、加速度センサー値201、角速度センサー値202、加速度回転角算出部203、メジアンフィルタ1801、車両状態判定部204、車両状態テーブル205、車両状態データ109を含む。
加速度回転角算出部203は、加速度センサー値201と角速度センサー値202を基に、車両101に作用する加速度と車両101における角速度をそれぞれ3次元の値として算出し、算出した各3次元の値をそれぞれ3次元の計測値として、メジアンフィルタ1801を介して車両状態判定部204に出力する。
メジアンフィルタ1801は、加速度回転角算出部203から、加速度と角速度に関する3次元の計測値を取り込み、3次元の計測値のうち過去複数回の計測値(入力値)を内部に保持し、新しく入力された計測値も含め、入力された複数回分の計測値に対して順位を付与し、計測値の大きさの順位が中央の順位の計測値(平均値)を車両状態判定部204に出力する。この際、メジアンフィルタ1801は、次に内部に保持する計測値(入力値)のうち最も時間の古い計測値(入力値)を削除する。
車両状態判定部204は、加速度回転角算出部203からの3次元の計測値であって、中央の順位(平均値)の計測値を基に車両状態テーブル205の情報を参照し、車両状態テーブル205に記録された、加速度センサー閾値又は角加速度センサー閾値と、各計測値とを比較し、比較結果から、車両101が、現在置かれている状態を判定し、判定結果を車両状態データ109として出力する。
図19は、第2実施例の動作を説明するための説明図である。図19(a)に示すように、車両101が、道路を走行する際に、路面上の穴1901を通過すると、車両101が振動し、図19(b)に示すように、加速度センサー103又は角速度センサー104からパルス1902を含む信号が出力される。パルス1902を含む信号が加速度センサー値201又は角速度センサー値202となって、加速度回転角算出部203で3次元の計測値に変換されると、車両状態判定部204が、車両101の状態を誤判定し、画像を正確な切り出し位置で切り出したり、画像を正確なサイズで切り出したりできなくことが危惧される。
一方、パルス1902を含む信号がメジアンフィルタ1801に入力されると、メジアンフィルタ1801からは、図19(c)に示すように、加速度回転角算出部203で3次元に変換された計測値であって、パルス1902(ノイズ)が除去された計測値を示す信号1903が出力される。このため、図19(d)に示すように、フロントカメラ102によって撮像される画像に設定される入力範囲1501に対して、入力範囲1501の中央部に、詳細画像切り取り可能範囲を示すウィンドウ1502が正確に設定され、ウィンドウ1502内の中央部に、ウィンドウ1503が正確に設定される。このため、ウィンドウ1503の位置がぶれたり、ウィンドウ1503の切り出し位置や切り出しサイズが変化したりするのを防止することができる。
本実施例によれば、加速度センサー103又は角速度センサー104の検出値にノイズが重畳しても、このノイズがメジアンフィルタ1801で除去されるので、車両101が振動し、加速度センサー103又は角速度センサー104からパルス1902を含む信号が出力されても、正確な詳細認識用画像を認識すべき画像として取り込みことができる。
(第3実施例)
本実施例は、フロントカメラ102の代わりに、リアカメラ2001を用い、切り出し位置サイズ制御部110の代わりに、切り出し位置サイズ制御部2002を用いたものであり、他の構成は、第1実施例と同じである。
図20は、本発明の第3実施例に係る車載画像処理装置の全体構成を示す構成図である。図20において、車載画像処理装置100は、リアカメラ2001、加速度センサー103、角速度センサー104、車両状態認識部105、画像認識部106、操作決定部107、車両制御部108を備えている。
リアカメラ2001は、車両101に配置され、車両101のリアから後方を撮影するカメラであり、機能は、フロントカメラ102と同じである。
画像認識部106は、切り出し位置サイズ制御部2002、画像切り出し部112、画像縮小部113、画像認識部114、115、画像認識結果統合部116を備えている。切り出し位置サイズ制御部2002には、車両状態認識部105の出力による車両状態データ109が入力される。
リアカメラ2001の場合、フロントカメラ102と比較して、条件による切り出し位置に違いがあるため、本実施例では、切り出し位置サイズ制御部110の代わりに、切り出し位置サイズ制御部2002を使用し、同様の機能を実現している。
図21は、本実施例における切り出し位置サイズ制御部の構成を示す構成図である。図21において、切り出し位置サイズ制御部2002は、切り出し調整値生成部701、リアカメラ切り出し調整テーブル2101、切り出し位置決定部703、現在切り出し位置保持部704、切り出しサイズ決定部705、現在切り出しサイズ保持部706、現在切り出し位置・サイズデータ707を含む。
本実施例における切り出し位置サイズ制御部2002は、フロントカメラ切り出し調整テーブル702の代わりに、リアカメラ切り出し調整テーブル2101を用いたものであり、他の構成は、第1実施例の切り出し位置サイズ制御部110と同じであり、詳細な説明は、省略する。なお、リアカメラ2001は、フロントカメラ102とは逆方向に向けて車両101に取り付けられるので、車両101の挙動に対して、フロントカメラ102を用いたときとは、反対の挙動で切り出し位置を管理する必要がある。このため、リアカメラ切り出し調整テーブル2101には、切り出し位置に関する情報として、フロントカメラ切り出し調整テーブル702とは異なる情報が設定されている。また、切り出し調整値生成部701は、車両状態認識部105からの車両状態データ109を基に、リアカメラ切り出し調整テーブル2101を参照し、リアカメラ切り出し調整テーブル2101に記録された情報(位置・サイズ)の中から、車両状態データ109に応じて、切り出し位置に関する情報とサイズに関する情報を選択し、選択した情報のうち切り出し位置に関する情報を切り出し位置決定部703に出力し、選択した情報のうちサイズに関する情報を切り出しサイズ決定部705に出力する。
図22は、本実施例におけるリアカメラ切り出し調整テーブルの構成を示す構成図である。図22において、リアカメラ切り出し調整テーブル2101は、管理項目として、入力2102と、出力2103を含み、入力2102には、推定車両状態値2104が設定され、出力2103には、切り出し調整2105が設定されている。
推定車両状態値2104は、「上り坂終了フラグ」のデータが記録される列801と、「下り坂終了フラグ」のデータが記録される列802と、「左カーブフラグ」のデータが記録される列803と、「右カーブフラグ」のデータが記録される列804に分かれて管理される。各列には、例えば、「0」又は「1」が記録される。
切り出し調整2105は、「位置」の情報が記録される列805と、「サイズ」の情報が記録される列806に分かれて管理される。
ここで、車両状態データ109が、「0、0、0、0」である場合、行2201の情報が選択され、「位置」の情報として、「中央」が選択され、「サイズ」の情報として「通常」が選択される。以下同様に、車両状態データ109が、「0、0、1、0」である場合、行2202の情報が選択され、「位置」の情報として、「右寄り」が選択され、「サイズ」の情報として「通常」が選択される。車両状態データ109が、「0、0、0、1」である場合、行2203の情報が選択され、「位置」の情報として、「左寄り」が選択され、「サイズ」の情報として「通常」が選択される。
行2201〜2203の条件では、「上り坂終了フラグ」の列801と、「下り坂終了フラグ」の列802には、「0」のデータが記録されて、フラグが立っていない条件となっているので、車両101の状態は、平地または、大きな坂の中間と考えられ、サイズとして、「通常」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、カーブ無しの場合、「中央」が、左カーブの場合、「右寄り」が、右カーブの場合、「左寄り」が、それぞれ位置の情報となる。
車両状態データ109が、「1、0、0、0」である場合、行2204の情報が選択され、「位置」の情報として、「下寄り」が選択され、「サイズ」の情報として「縮小」が選択される。車両状態データ109が、「1、0、1、0」である場合、行2205の情報が選択され、「位置」の情報として、「右下寄り」が選択され、「サイズ」の情報として「縮小」が選択される。車両状態データ109が、「1、0、0、1」である場合、行2206の情報が選択され、「位置」の情報として、「左下寄り」が選択され、「サイズ」の情報として「縮小」が選択される。
行2204〜2206の条件では、「上り坂終了フラグ」の列801にのみ「1」のデータが記録され、「下り坂終了フラグ」の列802には、「0」のデータが記録されているので、車両101の状態は、上り坂の終了地点と考えられ、「サイズ」の情報として、「縮小」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、カーブ無しの場合、「下寄り」が、左カーブの場合、「右下寄り」が、右カーブの場合、「左下寄り」が、それぞれ位置の情報となる。
車両状態データ109が、「0、1、0、0」である場合、行2207の情報が選択され、「位置」の情報として、「上寄り」が選択され、「サイズ」の情報として「拡大」が選択される。車両状態データ109が、「0、1、1、0」である場合、行2208の情報が選択され、「位置」の情報として、「右上寄り」が選択され、「サイズ」の情報として「拡大」が選択される。車両状態データ109が、「0、1、0、1」である場合、行2209の情報が選択され、「位置」の情報として、「左上寄り」が選択され、「サイズ」の情報として「拡大」が選択される。
行2207〜2209の条件では、「下り坂終了フラグ」の列802にのみ「1」のデータが記録され「上り坂終了フラグ」の列801には、「0」のデータが記録されているので、車両101の状態は、下り坂の終了地点と考えられ、「サイズ」の情報として、「拡大」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、カーブ無しの場合、「上寄り」が、左カーブの場合、「右上寄り」が、右カーブの場合、「左上寄り」が、それぞれ位置の情報となる。
なお、上り坂と下り坂は排他的な条件のため、列801と列802の同一の行に、双方が「1」となるデータは存在しない。また、左カーブと右カーブは排他的な条件のため、列803と列804の同一の行に、双方が「1」となるデータは存在しない。
図23は、本実施例における説明図であって、車両が上り坂を上り終えたときの動作を説明するための説明図である。図23(a)は、車両101が、上り坂を上り終えた地点にある場合を示す。車両101が、上り坂を上り終えた地点にある場合、リアカメラ2001で撮像された後方画像には、大部分が空の画像であって、認識処理をする必要がない画像が写り込むことになる。
そこで、図23(b)に示すように、リアカメラ2001で撮像された画像(後方画像)の入力範囲1501に対して、入力範囲1501の中央部に、詳細画像切り取り可能範囲を示すウィンドウ1502を設定すると共に、ウィンドウ1502内に、ウィンドウ1502内を移動可能であって、詳細画像切り取り範囲を示すウィンドウ1503を設定し、ウィンドウ1503内に、詳細認識用画像データ903に対応した画像をはめ込む。この際、ウィンドウ1503の切り出し位置をウィンドウ1502内の上方から下方にずらし、ウィンドウ1503内に、認識に必要な、車両101後方の道路の画像が写り込むようにする。さらに、ウィンドウ1503の切り出しサイズを縮小し、ウィンドウ1503内の画像を縮小画像として、画像認識処理における処理量を更に少なくする。
一方、車両101が、上り坂を上りきった後、坂から離れて行く場合、図23(c)に示すように、ウィンドウ1503の切り出しサイズを徐々に拡大し、ウィンドウ1503内の画像を拡大画像として、後方画像として、認識に必要な画像の範囲を拡大させる。
図24は、本実施例における説明図であって、車両が下りを下り終えたときの動作を説明するための説明図である。図24(a)は、車両101が、下り坂を下り終えた地点にある場合を示す。車両101が、下り坂を下り終えた地点にある場合、リアカメラ2001で撮像された後方画像には、大部分が、車両101後方近傍の路面の画像であって、認識処理をする必要がない画像が写り込むことになる。
そこで、図24(b)に示すように、リアカメラ2001で撮像された画像(後方画像)の入力範囲1501に対して、入力範囲1501の中央部に、詳細画像切り取り可能範囲を示すウィンドウ1502を設定すると共に、ウィンドウ1502内に、ウィンドウ1502内を移動可能であって、詳細画像切り取り範囲を示すウィンドウ1503を設定し、ウィンドウ1503内に、詳細認識用画像データ903に対応した画像をはめ込む。この際、ウィンドウ1503の切り出し位置をウィンドウ1502内の中央から上方にずらし、ウィンドウ1503内に、認識に必要な、車両101後方の道路の画像が写り込むようにする。さらに、ウィンドウ1503の切り出しサイズを徐々に拡大し、ウィンドウ1503内の画像を拡大画像として、認識精度が落ちないようにする。
一方、車両101が、下り坂を下り終えた後、坂から離れて行く場合、図24(c)に示すように、ウィンドウ1503の切り出しサイズを徐々に縮小し、ウィンドウ1503内の画像を縮小画像として、画像認識処理における処理量を更に少なくする。
本実施例によれば、リアカメラを用いても、第1実施例と同様の効果を奏することができる。
(第4実施例)
本実施例は、フロントカメラ102の代わりに、サイドカメラ2501を用い、切り出し位置サイズ制御部110の代わりに、切り出し位置サイズ制御部2502を用いたものであり、他の構成は、第1実施例と同じである。
図25は、本発明の第4実施例に係る車載画像処理装置の全体構成を示す構成図である。図25において、車載画像処理装置100は、複数のサイドカメラ2501、加速度センサー103、角速度センサー104、車両状態認識部105、画像認識部106、操作決定部107、車両制御部108を備えている。
各サイドカメラ2501は、車両101の両サイドに分かれて配置され、車両101の左横から、車両101の横の近景や遠景を又は車両101の右横から、車両101の横の近景や遠景をそれぞれ撮影するカメラであり、機能は、フロントカメラ102と同じである。
画像認識部106は、切り出し位置サイズ制御部2502、画像切り出し部112、画像縮小部113、画像認識部114、115、画像認識結果統合部116を備えている。切り出し位置サイズ制御部2502には、車両状態認識部105の出力による車両状態データ109が入力される。
サイドカメラ2501の場合、フロントカメラ102と比較して、条件による切り出し位置に違いがあるため、本実施例では、切り出し位置サイズ制御部110の代わりに、切り出し位置サイズ制御部2502を使用し、同様の機能を実現している。
図26は、本実施例における切り出し位置サイズ制御部の構成を示す構成図である。図26において、切り出し位置サイズ制御部2502は、切り出し調整値生成部701、右(左)カメラ切り出し調整テーブル2601、切り出し位置決定部703、現在切り出し位置保持部704、切り出しサイズ決定部705、現在切り出しサイズ保持部706、現在切り出し位置・サイズデータ707を含む。
本実施例における切り出し位置サイズ制御部2502は、フロントカメラ切り出し調整テーブル702の代わりに、右(左)カメラ切り出し調整テーブル2601を用いたものであり、他の構成は、第1実施例の切り出し位置サイズ制御部110と同じであり、詳細な説明は、省略する。なお、切り出し調整値生成部701は、車両状態認識部105からの車両状態データ109を基に、右(左)カメラ切り出し調整テーブル2601を参照し、右(左)カメラ切り出し調整テーブル2601に記録された情報(位置・サイズ)の中から、車両状態データ109に応じて、切り出し位置に関する情報とサイズに関する情報を選択し、選択した情報のうち切り出し位置に関する情報を切り出し位置決定部703に出力し、選択した情報のうちサイズに関する情報を切り出しサイズ決定部705に出力する。なお、右(左)カメラ切り出し調整テーブル2601は、右カメラ切り出し調整テーブルと、左カメラ切り出し調整テーブルに分けて構成することができる。
図27は、本実施例における右カメラ切り出し調整テーブルの構成を示す構成図である。図27において、右カメラ切り出し調整テーブル2701は、管理項目として、入力2702と、出力2703を含み、入力2702には、推定車両状態値2704が設定され、出力2703には、切り出し調整2705が設定されている。
推定車両状態値2704は、「左カーブフラグ」のデータが記録される列803と、「右カーブフラグ」のデータが記録される列804に分かれて管理される。各列には、例えば、「0」又は「1」が記録される。
切り出し調整2705は、「位置」の情報が記録される列805と、「サイズ」の情報が記録される列806に分かれて管理される。
ここで、車両状態データ109が、「0、0」である場合、行2711の情報が選択され、「位置」の情報として、「中央」が選択され、「サイズ」の情報として「通常」が選択される。以下同様に、車両状態データ109が、「1、0」である場合、行2712の情報が選択され、「位置」の情報として、「上寄り」が選択され、「サイズ」の情報として「拡大」が選択される。車両状態データ109が、「0、1」である場合、行2713の情報が選択され、「位置」の情報として、「下寄り」が選択され、「サイズ」の情報として「縮小」が選択される。なお、右のサイドカメラ2501で撮影された画像の「中央」は、入力範囲1501の左右両側の中央位置である。
行2711の条件では、「左カーブフラグ」の列803と、「右カーブフラグ」の列804には、「0」のデータが記録され、フラグが立っていない条件となっているので、車両101の状態は、平地または、大きな坂の中間と考えられ、サイズとして、「通常」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、カーブ無しの場合、「中央」が、位置の情報となる。
行2712の条件では、「左カーブフラグ」の列803に「1」のデータが記録され「右カーブフラグ」の列804には、「0」のデータが記録されているので、車両101の状態は、左カーブの途中の地点と考えられ、「サイズ」の情報として、「拡大」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、左カーブの場合、「上寄り」が、位置の情報となる。
行2713の条件では、「左カーブフラグ」の列803に「0」のデータが記録され「右カーブフラグ」の列804には、「1」のデータが記録されているので、車両101の状態は、右カーブの途中の地点と考えられ、「サイズ」の情報として、「拡大」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、右カーブの場合、「下寄り」が、位置の情報となる。
図28は、本実施例における左カメラ切り出し調整テーブルの構成を示す構成図である。図28において、左カメラ切り出し調整テーブル2801は、管理項目として、入力2802と、出力2803を含み、入力2802には、推定車両状態値2804が設定され、出力2803には、切り出し調整2805が設定されている。
推定車両状態値2804は、「左カーブフラグ」のデータが記録される列803と、「右カーブフラグ」のデータが記録される列804に分かれて管理される。各列には、例えば、「0」又は「1」が記録される。
切り出し調整2805は、「位置」の情報が記録される列805と、「サイズ」の情報が記録される列806に分かれて管理される。
ここで、車両状態データ109が、「0、0」である場合、行2811の情報が選択され、「位置」の情報として、「中央」が選択され、「サイズ」の情報として「通常」が選択される。以下同様に、車両状態データ109が、「1、0」である場合、行2812の情報が選択され、「位置」の情報として、「下寄り」が選択され、「サイズ」の情報として「縮小」が選択される。車両状態データ109が、「0、1」である場合、行2813の情報が選択され、「位置」の情報として、「上寄り」が選択され、「サイズ」の情報として「拡大」が選択される。なお、左のサイドカメラ2501で撮影された画像の「中央」は、入力範囲1501の左右両側の中央位置である。
行2811の条件では、「左カーブフラグ」の列803と、「右カーブフラグ」の列804には、「0」のデータが記録され、フラグが立っていない条件となっているので、車両101の状態は、平地または、大きな坂の中間と考えられ、サイズとして、「通常」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、カーブ無しの場合、「中央」が、位置の情報となる。
行2812の条件では、「左カーブフラグ」の列803に「1」のデータが記録され「右カーブフラグ」の列804には、「0」のデータが記録されているので、車両101の状態は、左カーブの途中の地点と考えられ、「サイズ」の情報として、「縮小」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、左カーブの場合、「下寄り」が、位置の情報となる。
行2813の条件では、「左カーブフラグ」の列803に「0」のデータが記録され「右カーブフラグ」の列804には、「1」のデータが記録されているので、車両101の状態は、右カーブの途中の地点と考えられ、「サイズ」の情報として、「拡大」が選択される。この際、位置に関する情報は、「左カーブフラグ」の列803のデータと「右カーブフラグ」の列804のデータの値によって調整している。例えば、右カーブの場合、「上寄り」が、位置の情報となる。
なお、左カーブと右カーブは排他的な条件のため、列803と列804の同一の行に、双方が「1」となるデータは存在しない。
図29は、本実施例における説明図であって、車両がカーブを通過するときの動作を説明するための説明図である。図29(a)は、車両101が、カーブを通過するときの状態を示している。この際、車両101の進行方向Aに対して、右側に位置するサイドカメラ2501は、カーブ内側カメラとして機能し、左側に位置するサイドカメラ2501は、カーブ外側カメラとして機能する。各サイドカメラ2501で解像度が必要となるのは、車両101のフロント側の画像と、リア側の画像となる。そこで、図29(b)に示すように、入力範囲1501には、各サイドカメラ2501で撮影された画像のうち、左右の遠景部分の画像を切り出すために、2つのウィンドウ1503が、一部の画像の切り出し位置に対応して設定される。車両101の進行方向Aに対して、フロント側となる一方のウィンドウ1503には、フロント遠景の画像がはめ込まれ、リア側となる他方のウィンドウ1503には、リア遠景の画像がはめ込まれる。
また、車両101がカーブを通過する際には、車両101がカーブ外側に傾くので、カーブ外側サイドカメラ2501で撮影された画像は、近景の画像が多くなる。このため、図29(c)に示すように、カーブ外側サイドカメラ2501で撮影された画像のうち、ウィンドウ1503の画像をそれぞれ縮小して縮小画像とする。さらに、カーブ外側サイドカメラ2501が下向きに傾くので、各ウィンドウ1503を中央位置から入力範囲1501の上側に移す。
一方、カーブ内側カメラとなるサイドカメラ2501で撮影された画像は、車両101前方の視界が開け、車両101後方の画像を巻き込んだ画像となることが危惧されるので、図29(d)に示すように、カーブ内側カメラとなるサイドカメラ2501で撮影された画像のうち各ウィンドウ1503の画像をそれぞれ拡大して拡大画像とする。さらに、カーブ内側カメラとなるサイドカメラ2501が上向きに傾くので、各ウィンドウ1503を中央位置から入力範囲1501の下側に移す。
本実施例によれば、車両の状態に応じて、ウィンドウ1503の切り出し位置とサイズを変更するようにしたので、サイドカメラ2501を用いても、車両の状態に応じて、認識すべき画像を詳細認識用画像として取り込むことができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、IC(Integrated Circuit)カード、SD(Secure Digital)メモリカード、DVD(Digital Versatile Disc)等の記録媒体に記録して置くことができる。
100 車載画像処理装置、101 車両、102 フロントカメラ、103 加速度センサー、104 角速度センサー、105 車両状態認識部、106 画像処理部、107 操作決定部、108 車両制御部、110 切り出し位置サイズ制御部、112 画像切り出し部、113 画像縮小部、114、115 画像認識部、116 画像認識結果統合部、1501 入力範囲、1502、1503 ウィンドウ、1801 メジアンフィルタ、2001 リアカメラ、2002 切り出し位置サイズ制御部、2501 サイドカメラ、2502 切り出し位置サイズ制御部

Claims (15)

  1. 車両に搭載されたカメラで撮影された画像に関する情報を取り込み、前記画像のうち前記カメラの被写体全体を含む全体画像からその一部を切り出す画像切り出し部と、
    前記カメラで撮影された前記画像に関する情報を取り込み、前記画像のうち前記全体画像を縮小して、前記被写体全体の縮小画像を生成する画像縮小部と、
    前記画像切り出し部により切り出された前記一部の画像を認識する第1の画像認識部と、
    前記画像縮小部により縮小された前記縮小画像を認識する第2の画像認識部と、
    前記第1の画像認識部により認識された第1の認識結果と前記第2の画像認識部により認識された第2の認識結果とを統合し、統合された認識結果の情報を生成する画像認識結果統合部と、を有することを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記画像切り出し部は、
    前記全体画像に属する近景の画像と遠景の画像のうち前記遠景の画像を前記全体画像から切り出し、
    前記画像縮小部は、
    前記全体画像に属する前記近景の画像と前記遠景の画像をそれぞれ縮小することを特徴とする画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記車両の状態を検出する複数のセンサーと、
    前記複数のセンサーの検出値を基に前記車両の少なくとも走行時の状態を認識する車両状態認識部と、
    前記車両状態認識部の認識結果を基に前記全体画像における前記一部の画像の切り出し位置とサイズを決定する制御を行う切り出し位置サイズ制御部と、を更に備え、
    前記画像切り出し部は、
    前記切り出し位置サイズ制御部で決定された前記切り出し位置と前記サイズを基に前記全体画像から前記一部の画像を切り出すことを特徴とする画像処理装置。
  4. 請求項1に記載の画像処理装置であって、
    前記画像認識結果統合部は、
    前記第1の画像認識部により認識された第1の認識結果と前記第2の画像認識部により認識された第2の認識結果とを比較し、前記第1の認識結果と前記第2の認識結果との間に、重複する部分の画像についての認識結果が存在する場合、前記第1の認識結果と前記第2の認識結果のうち、重要度の高い画像についての認識結果を含む方を優先して選択することを特徴とする画像処理装置。
  5. 請求項3に記載の画像処理装置であって、
    前記カメラは、前記車両の前方を撮影するフロントカメラであり、
    前記切り出し位置サイズ制御部は、
    前記車両状態認識部の認識結果が、カーブ無しの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記全体画像の中央部となる中央位置に決定し、前記一部の画像のサイズを通常サイズに決定し、
    前記車両状態認識部の認識結果が、左カーブの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも左寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズに決定し、
    前記車両状態認識部の認識結果が、右カーブの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも右寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズに決定することを特徴とする画像処理装置。
  6. 請求項3に記載の画像処理装置であって、
    前記カメラは、前記車両の前方を撮影するフロントカメラであり、
    前記切り出し位置サイズ制御部は、
    前記車両状態認識部の認識結果が、カーブ無しの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記全体画像の中央部となる中央位置に決定し、前記一部の画像のサイズを通常サイズに決定し、
    前記車両状態認識部の認識結果が、前記カーブ無しの坂道を上がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも下寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズよりも小さい縮小サイズに決定し、
    前記車両状態認識部の認識結果が、左カーブの坂道を上がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも左下寄りの位置に決定し、前記一部の画像のサイズを前記縮小サイズに決定し、
    前記車両状態認識部の認識結果が、右カーブの坂道を上がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも右下寄りの位置に決定し、前記一部の画像のサイズを前記縮小サイズに決定することを特徴とする画像処理装置。
  7. 請求項3に記載の画像処理装置であって、
    前記カメラは、前記車両の前方を撮影するフロントカメラであり、
    前記切り出し位置サイズ制御部は、
    前記車両状態認識部の認識結果が、カーブ無しの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記全体画像の中央部となる中央位置に決定し、前記一部の画像のサイズを通常サイズに決定し、
    前記車両状態認識部の認識結果が、前記カーブ無しの坂道を下がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも上寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズよりも大きい拡大サイズに決定し、
    前記車両状態認識部の認識結果が、左カーブの坂道を下がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも左上寄りの位置に決定し、前記一部の画像のサイズを前記拡大サイズに決定し、
    前記車両状態認識部の認識結果が、右カーブの坂道を下がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも右上寄りの位置に決定し、前記一部の画像のサイズを前記拡大サイズに決定することを特徴とする画像処理装置。
  8. 請求項3に記載の画像処理装置であって、
    前記カメラは、前記車両の後方を撮影するリアカメラであり、
    前記切り出し位置サイズ制御部は、
    前記車両状態認識部の認識結果が、カーブ無しの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記全体画像の中央部となる中央位置に決定し、前記一部の画像のサイズを通常サイズに決定し、
    前記車両状態認識部の認識結果が、左カーブの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも右寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズに決定し、
    前記車両状態認識部の認識結果が、右カーブの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも左寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズに決定することを特徴とする画像処理装置。
  9. 請求項3に記載の画像処理装置であって、
    前記カメラは、前記車両の後方を撮影するリアカメラであり、
    前記切り出し位置サイズ制御部は、
    前記車両状態認識部の認識結果が、カーブ無しの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記全体画像の中央部となる中央位置に決定し、前記一部の画像のサイズを通常サイズに決定し、
    前記車両状態認識部の認識結果が、前記カーブ無しの坂道を上がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも下寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズよりも小さい縮小サイズに決定し、
    前記車両状態認識部の認識結果が、左カーブの坂道を上がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも右下寄りの位置に決定し、前記一部の画像のサイズを前記縮小サイズに決定し、
    前記車両状態認識部の認識結果が、右カーブの坂道を上がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも左下寄りの位置に決定し、前記一部の画像のサイズを前記縮小サイズに決定することを特徴とする画像処理装置。
  10. 請求項3に記載の画像処理装置であって、
    前記カメラは、前記車両の後方を撮影するリアカメラであり、
    前記切り出し位置サイズ制御部は、
    前記車両状態認識部の認識結果が、カーブ無しの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記全体画像の中央部となる中央位置に決定し、前記一部の画像のサイズを通常サイズに決定し、
    前記車両状態認識部の認識結果が、前記カーブ無しの坂道を下がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも上寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズよりも大きい拡大サイズに決定し、
    前記車両状態認識部の認識結果が、左カーブの坂道を下がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも右上寄りの位置に決定し、前記一部の画像のサイズを前記拡大サイズに決定し、
    前記車両状態認識部の認識結果が、右カーブの坂道を下がりきった地点である場合、前記一部の画像の切り出し位置を、前記中央位置よりも左上寄りの位置に決定し、前記一部の画像のサイズを前記拡大サイズに決定することを特徴とする画像処理装置。
  11. 請求項3に記載の画像処理装置であって、
    前記カメラは、前記車両の右横を撮影する右のサイドカメラ又は前記車両の左横を撮影する左のサイドカメラであり、
    前記切り出し位置サイズ制御部は、
    前記カメラが、前記右のサイドカメラであることを条件に、
    前記車両状態認識部の認識結果が、カーブ無しの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記全体画像の左右両側の中央位置に決定し、前記一部の画像のサイズを通常サイズに決定し、
    前記車両状態認識部の認識結果が、左カーブの地点である場合、前記一部の画像の切り出し位置を、前記左右両側の中央位置よりも上寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズよりも大きい拡大サイズに決定し、
    前記車両状態認識部の認識結果が、右カーブの地点である場合、前記一部の画像の切り出し位置を、前記左右両側の中央位置よりも下寄りの位置に決定し、前記一部の画像のサイズを前記通常サイズよりも小さい縮小サイズに決定し、
    さらに前記切り出し位置サイズ制御部は、
    前記カメラが、前記左のサイドカメラであることを条件に、
    前記車両状態認識部の認識結果が、前記カーブ無しの直線道路の地点である場合、前記一部の画像の切り出し位置を、前記左右両側の中央位置に決定し、前記一部の画像のサイズを前記通常サイズに決定し、
    前記車両状態認識部の認識結果が、前記左カーブの地点である場合、前記一部の画像の切り出し位置を、前記左右両側の中央位置よりも下寄りの位置に決定し、前記一部の画像のサイズを前記縮小サイズに決定し、
    前記車両状態認識部の認識結果が、前記右カーブの地点である場合、前記一部の画像の切り出し位置を、前記左右両側の中央位置よりも上寄りの位置に決定し、前記一部の画像のサイズを前記縮小サイズに決定することを特徴とする画像処理装置。
  12. 請求項3に記載の画像処理装置であって、
    前記複数のセンサーは、
    前記車両に作用する3次元方向の加速度を検出する加速度センサーと、
    前記車両の角速度を3次元で検出する角速度センサーを含むことを特徴とする画像処理装置。
  13. 請求項12に記載の画像処理装置であって、
    前記複数のセンサーの出力には、前記複数のセンサーの出力に重畳するノイズを除去するメジアンフィルタが接続されることを特徴とする画像処理装置。
  14. 車両に搭載されたカメラで撮影された画像に関する情報を取り込み、前記画像のうち前記カメラの被写体全体を含む全体画像からその一部を切り出す画像切り出しステップと、
    前記カメラで撮影された前記画像に関する情報を取り込み、前記画像のうち前記全体画像を縮小して、前記被写体全体の縮小画像を生成する画像縮小ステップと、
    前記画像切り出しステップにより切り出された前記一部の画像を認識する第1の画像認識ステップと、
    前記画像縮小ステップにより縮小された前記縮小画像を認識する第2の画像認識ステップと、
    前記第1の画像認識ステップにより認識された第1の認識結果と前記第2の画像認識ステップにより認識された第2の認識結果とを統合し、統合された認識結果の情報を生成する画像認識結果統合ステップと、を有することを特徴とする画像処理方法。
  15. 請求項14に記載の画像処理方法であって、
    前記画像切り出しステップでは、
    前記全体画像に属する近景の画像と遠景の画像のうち前記遠景の画像を前記全体画像から切り出し、
    前記画像縮小ステップでは、
    前記全体画像に属する前記近景の画像と前記遠景の画像をそれぞれ縮小することを特徴とする画像処理方法。
JP2018102383A 2018-05-29 2018-05-29 画像処理装置及びその方法 Pending JP2019207541A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018102383A JP2019207541A (ja) 2018-05-29 2018-05-29 画像処理装置及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018102383A JP2019207541A (ja) 2018-05-29 2018-05-29 画像処理装置及びその方法

Publications (1)

Publication Number Publication Date
JP2019207541A true JP2019207541A (ja) 2019-12-05

Family

ID=68767625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018102383A Pending JP2019207541A (ja) 2018-05-29 2018-05-29 画像処理装置及びその方法

Country Status (1)

Country Link
JP (1) JP2019207541A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117988A (ja) * 2020-01-21 2021-08-10 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 位置決め要素検出方法、位置決め要素検出装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
US11477371B2 (en) * 2020-06-22 2022-10-18 Toyota Jidosha Kabushiki Kaisha Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117988A (ja) * 2020-01-21 2021-08-10 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 位置決め要素検出方法、位置決め要素検出装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
JP7228559B2 (ja) 2020-01-21 2023-02-24 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド 位置決め要素検出方法、位置決め要素検出装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
US11477371B2 (en) * 2020-06-22 2022-10-18 Toyota Jidosha Kabushiki Kaisha Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method

Similar Documents

Publication Publication Date Title
US8050459B2 (en) System and method for detecting pedestrians
CN109997148B (zh) 信息处理装置、成像装置、设备控制系统、移动对象、信息处理方法和计算机可读记录介质
US20180197324A1 (en) Virtual viewpoint setting apparatus, setting method, and storage medium
US11839721B2 (en) Information processing apparatus, information processing method, and storage medium
JP2018081545A (ja) 画像データ抽出装置及び画像データ抽出方法
US11443151B2 (en) Driving assistant system, electronic device, and operation method thereof
JP6665925B2 (ja) 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法
JP2020052647A (ja) 物体検出装置、物体検出方法、物体検出用コンピュータプログラム及び車両制御システム
JP2019207541A (ja) 画像処理装置及びその方法
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
KR102521656B1 (ko) 객체를 인식하는 방법 및 장치
WO2016151976A1 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
JP6384803B2 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2024026447A (ja) 物体追跡装置、物体追跡方法、およびプログラム
US20230135043A1 (en) Rearward Image Displaying Device and Rearward Image Displaying Method
US10810800B2 (en) Apparatus and method for providing virtual reality content of moving means
JP2018028805A (ja) 画像処理システム
JP7099091B2 (ja) ナンバープレート認識装置、ナンバープレート認識方法およびプログラム
EP3396620B1 (en) Display control device and display control method
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
US20220413295A1 (en) Electronic device and method for controlling electronic device
JP2020155792A (ja) 画像表示装置
WO2023188793A1 (ja) 表示システム、および表示方法
JP2006107314A (ja) 画像処理装置、および画像処理方法