JP2011164982A - 車載画像処理装置 - Google Patents

車載画像処理装置 Download PDF

Info

Publication number
JP2011164982A
JP2011164982A JP2010027747A JP2010027747A JP2011164982A JP 2011164982 A JP2011164982 A JP 2011164982A JP 2010027747 A JP2010027747 A JP 2010027747A JP 2010027747 A JP2010027747 A JP 2010027747A JP 2011164982 A JP2011164982 A JP 2011164982A
Authority
JP
Japan
Prior art keywords
processing
image processing
image
tag information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010027747A
Other languages
English (en)
Other versions
JP5147874B2 (ja
Inventor
Eiko Naya
英光 納谷
Tatsuhiko Moji
竜彦 門司
Kazuma Ishigaki
和真 石垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2010027747A priority Critical patent/JP5147874B2/ja
Priority to PCT/JP2010/063757 priority patent/WO2011099189A1/ja
Priority to US13/577,773 priority patent/US20120307062A1/en
Priority to EP10845781.3A priority patent/EP2535861A4/en
Publication of JP2011164982A publication Critical patent/JP2011164982A/ja
Application granted granted Critical
Publication of JP5147874B2 publication Critical patent/JP5147874B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人や車両など種類が多く且つそれらを組み合わせたシーンに対応する処理を複数の処理ユニットに適切に行わせることができる車載画像処理装置を提供すること。
【解決手段】車載画像処理装置は、複数の処理ユニット40によって画像処理された処理結果に基づいて、各処理ユニット40の次回に実行する画像処理の種類と優先度を示すタグ情報を生成し、前回の画像処理時に生成されたタグ情報を用いて各処理ユニット40で画像処理を行わせるか否かを判定する。
【選択図】図1

Description

本発明は、車両に搭載される画像処理装置に関するものである。
車載画像処理装置では、イメージセンサによって撮像された画像から物体を認識し、その認識結果をもとに、車体の制御をしたり、各種の警報を発生することで、アクティブ・セーフティ機能を実現している。
しかし、イメージセンサで撮像された画像には、車両のアクティブ・セーフティの観察対象となる人や車両といった物体のみが存在するわけでないので、物体と思われる全ての領域についてイメージデータを抽出する処理を実行し、抽出したイメージデータが人なのか車両なのかなどの分類するための認識処理を実行する必要がある。
そして、認識した結果、人や車両がどのような状態なのかを判断し、衝突しそうであればブレーキを動作させるもしくはステアリング操作で回避するなどの制御を実行するのか、それとも衝突の可能性は低いが警報を発したほうが良いのか、といった判断を行っており、このような判断の必要なシーン(場面)が無限に存在している。そのため、全てのシーンに対応しようとすると、画像処理装置における抽出処理、認識処理、判断処理の処理負荷が膨大になってしまう。
画像処理装置の処理負荷を軽減する方法として、判断の必要なシーンを限定する方法がある。例えば、自車の近傍に物体が存在するシーンに限定し、一番自車に近い物体に限定して認識や判断を実行する方法である。
一方、複数のCPUを用いて処理負荷に対応する方法もある。マルチプロセッサ方式の画像処理装置の多くは、画面を分割し、それぞれの分割領域にプロセッサに割り当てて処理負荷の均一化を実現している。また、マルチコア方式の画像処理装置の多くは、フィルタリング処理のような任意のピクセルや領域に対して同一の処理を並列に実行するデータ並列処理を実現している(例えば特許文献1、2を参照)。
特開2005−85164 特開平6−215138
しかしながら、判断の必要なシーンを限定する方法では、危険な状況を許容してしまうおそれがある。例えば、自車の近傍に物体が存在するシーンに限定し、一番自車に近い物体に限定して認識や判断を実行する方法において、自車が歩道のない車道を走り、近傍に人が存在し、且つ猛スピードで逆走する車両が存在するシーンでは、一番自車に近い物体である人に限定して認識や判断が行われるが、このようなシーンでは、猛スピードで逆送する車両を優先して認識することが好ましい。
このように、検知したい物体が、人や車両など種類が多く且つそれらを組み合わせたシーンが無限に存在するために、例えば自車から一番近い物体等に限定して処理してしまうと、現実世界で本来回避すべきシーンを網羅できていないという問題があった。
また、画面の各分割領域にCPUやコアを割り当てたマルチプロセッサ方式の場合には、状況に応じて処理負荷の低い領域が発生し、かかる領域に割り当てられたプロセッサの処理能力を有効に活用することができず、無駄が生じていた。そして、任意のピクセルや領域に対して同一の処理を並列に実行するデータ並列処理では、効率が悪く、処理を高速化することができなかった。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、人や車両など種類が多く且つそれらを組み合わせたシーンに対応する処理を、複数の処理ユニットに適切に行わせることができる車載画像処理装置を提供することである。
上記課題を解決する本発明の車載画像処理装置は、複数の処理ユニットによって画像処理された処理結果に基づいて、各処理ユニットの次回に実行する画像処理の種類と優先度を示すタグ情報を生成し、前回の画像処理時に生成されたタグ情報を用いて各処理ユニットで画像処理を行わせるか否かを判定することを特徴としている。
本発明の画像処理装置は、複数の処理ユニットによって画像処理された処理結果に基づいて、各処理ユニットの次回に実行する画像処理の種類と優先度を示すタグ情報を生成し、前回の画像処理時に生成されたタグ情報を用いて各処理ユニットで画像処理を行わせるか否かを判定するので、複数の処理ユニットに優先度の高いものから適切に処理を行わせることができる。したがって、現実世界で回避すべきシーンを漏れなく網羅することができ、車両走行時の安全性を飛躍的に向上させることができる。
本実施の形態における画像処理装置の構成を説明する図。 画像処理装置の機能ブロック図。 処理ユニットとコントローラの処理内容を説明するフローチャート。 処理ユニットから出力されるパケットの一実施例を示す図。 コントローラで検索されるテーブルの一実施例を示す図。 車載カメラで撮像した画像を模式的に示す図。 イメージデータをピクセル抽出する方法を説明するフローチャート。 イメージデータをライン抽出する方法を説明するフローチャート。 イメージデータをストライプ抽出する方法を説明するフローチャート。 イメージデータをブロック抽出する方法を説明するフローチャート。 処理の種類とプログラムを管理する方法を説明する図。 コントローラが管理するテーブルの構成を説明する図。 画像処理の結果に対する次回の処理の種類と優先度を管理するテーブルの構成を説明する図。 優先度設定の一実施例を示す図。 処理領域の設定方法の一実施例を示す図。 処理領域の設定方法の一実施例を示す図。 処理領域と優先度の設定方法の一実施例を示す図。 処理ユニットの構成の一実施例を示す図。 優先度に応じた処理の方法を説明するフローチャート。 処理ユニットにより優先度を決定する一実施例を示す図。 処理ユニットにより緊急度を決定する一実施例を示す図。 パケットの一実施例を示す図。 パケットの一実施例を示す図。 画像IDによるプログラムの先読み処理を説明するフローチャート。 消費電力の低減方法の一実施例を示すフローチャート。
次に、本発明の実施の形態について図を用いて説明する。
図1は、本実施の形態における画像処理装置の構成を説明する図、図2は、画像処理装置の機能ブロック図である。
画像処理装置1は、図1及び図2に示すように、ラインバッファ10、領域抽出手段20、イメージバッファ30、複数の処理ユニット40、コントローラ70、命令バッファ80を有しており、データの送受信、ブロードキャスト及びデータの共有が可能な通信路100で接続されている。このような通信路100は、マルチコアシステムでは、リングバスやクロスバーで実現されることが多いが、本発明はこれらのバス形式に限定されるものではない。
車載カメラとして用いられる一般的なイメージセンサは、1ライン毎にイメージデータを出力する構造になっているため、本実施例ではラインバッファ10を有する。ラインバッファ10には、車載カメラからの信号が入力されるビデオ入力(Vin)が接続されている。ラインバッファ10は、一ラインずつ垂直方向に走査することで、一画面分のイメージデータを生成することができる。この垂直走査時間をフレーム周期と呼ぶ。
領域抽出手段20は、一画面分のイメージデータを生成するまでのフレーム周期の間で、所望の処理領域、少なくともピクセル、ライン、ストライプ、ブロックの単位でイメージデータを分割して、その処理領域のイメージデータを抽出する。領域抽出手段20は、車載カメラの垂直同期信号等と同期して、ラインバッファ10から一ライン分のイメージデータを読み出し、必要なピクセルデータを取得する処理を繰り返すことで処理領域のイメージデータを抽出する。
イメージバッファ30は、領域抽出手段20で抽出されたイメージデータを格納する。イメージバッファ30は、処理領域が一つ以上の場合にも対応できるように、複数のイメージデータを格納することが可能である。
複数の処理ユニット40は、それぞれがCPUやコアなどのプロセッサによって構成されている。各処理ユニット40は、領域抽出手段20により抽出されたイメージデータに基づいて画像処理を行う。各処理ユニット40は、画像処理を実行するか否かの判定手段50と、記憶装置60を有する。
判定手段50は、前回の画像処理時にコントローラ70によって生成されたタグ情報を用いて各処理ユニット40で画像処理を行わせるか否かを判定する。記憶装置60は、プログラム90やイメージデータを格納するのに利用される。ただし、本発明は、この構成に限定されるものではない。
コントローラ70は、各処理ユニット40の処理結果の情報と、処理領域のイメージデータと、処理の種類と、処理の優先度を示す情報、との関係を管理する手段を持つ。コントローラ70は、処理ユニット40が出力する画像処理の処理結果に基づいて、各処理ユニット40の次に実行する画像処理の種類と優先度を示すタグ情報を生成する(タグ情報生成手段)。
命令バッファ80は、処理ユニット40で実行される処理の種類と、その処理の種類に対応したプログラム90を管理するものであり、コントローラ70によって前回の画像処理時に生成されたタグ情報に基づいて、プログラム90を処理ユニット40に送信できるようになっている。
図3は、処理ユニットとコントローラの処理内容を説明するフローチャート、図4は、処理ユニットから出力されるパケットの一実施例を示す図、図5は、コントローラで検索されるテーブルの一実施例を示す図である。
処理ユニット40は、画像処理を実行し、その処理結果および該処理結果112に対応する処理領域の領域情報114を生成し、パケット110としてコントローラ70に送信する(S10)。
コントローラ70は、パケット110を取得すると、そのパケット110に含まれる処理結果112と領域情報114を用いて図5のテーブル130を検索し(S30)、対応する処理の種類と該処理の優先度を抽出してパケットを生成し、処理ユニット40に送信する。
例えば、処理ユニット40が画像処理として画面全体に対して立体物検知処理を実行し、立体物を検知できなかった場合に、処理ユニット40は、処理結果として「立体物不検知」情報と、画面全体を示す「領域情報」をパケットとしてまとめてコントローラ70に送信する。
コントローラ70は該パケットを通信路100経由で受信する。コントローラ70は、処理結果に対して次に実行すべき処理の種類と該処理の優先度とを規定するテーブル130を管理しており、そのテーブル130を検索する。テーブル130は、状態遷移表に相当する。
本実施例では、「立体物不検知」に対する処理の種類として、「遠方検知処理」と「近傍検知処理」が記憶され、「遠方検知処理」の優先度が高く「近傍検知処理」の優先度が低く設定されている。このテーブル130に従い、コントローラ70は、優先度の高い遠方検知処理を実行させる情報と、優先度の低い近傍検知処理を実行させる情報の二つを生成する。これらの情報はそれぞれパケットとしてまとめて送信する。
図6は、車載カメラで撮像した画像を模式的に示す図である。画像121は、車載カメラから車両前方を撮像したものであり、車両前方の路面121aと、車両の左右に沿って路面にペイントされた一対の白線121bがフレーム120内に映し出されている。図6に示すように、ピクセル123は、画面の中の任意の一点の領域情報であり、ライン124は、水平方向のピクセルデータの集合である。そして、ストライプ125は、連続するライン124の集合であり、ブロック126は、画面の中の任意の矩形領域の領域情報である。
図7〜図9は、領域抽出手段により画像から処理領域のイメージデータを抽出する方法を説明する図である。図7は、イメージデータをピクセル抽出する方法を説明するフローチャートである。ここでは、一ライン分のデータから領域情報で指示された処理領域のイメージデータが抽出される。領域情報は、ピクセルの場合は画面上の「X座標,Y座標」で示されるものとする。
領域抽出手段20は、Y座標とラインバッファ10の同期信号の順番を比較して(S100)、同一であった場合には、ラインバッファ10のイメージデータを取り込む(S110)。そして、X座標と一致しているドットのイメージデータを抽出し(S120)、その抽出したイメージデータと領域情報とを合わせてイメージバッファ30に転送する(S130)。
図8は、イメージデータをライン抽出する方法を説明するフローチャートである。ここでは、一ライン分のデータから領域情報で指示された処理領域のイメージデータが抽出される。領域情報は、ラインの場合は「Y座標」のみで示される。
領域抽出手段20は、Y座標とラインバッファ10の同期信号の順番を比較する(S200)。そして、同一であった場合には、ラインバッファ10のイメージデータをそのままコピーする(S210)。そして、コピーしたイメージデータと、領域情報とを合わせてイメージバッファ30に転送する(S220)。
図9は、イメージデータをストライプ抽出する方法を説明するフローチャートである。領域情報は、ストライプの場合にはY座標の始点及び終点で示される。領域抽出手段20は、Y座標とラインバッファ10の同期信号の順番を比較する(S300)。そして、Y座標の始点と終点の間であれば、ラインバッファ10のイメージデータを取り込む(S310)。そして、取り込んだイメージデータを追記する(S320)。そして、Y座標が終点であれば(S330でYES)、追記したイメージデータと、領域情報とを合わせてイメージバッファ30に転送する。
図10は、イメージデータをブロック抽出する方法を説明するフローチャートである。
領域情報は、ブロックの場合には、X座標の始点及び終点、Y座標の始点及び終点の組合せで示される。領域抽出手段20は、Y座標とラインバッファ10の同期信号の順番を比較して、ラインバッファ10の同期信号の順番がY座標の始点を超えていることを判定する(S340)。そして、Y座標の始点と終点の間であれば、ラインバッファ10のイメージデータを取り込む(S350)。そして、X座標の始点から終点までのイメージデータを切り出して(S360)、追記する(S370)。そして、Y座標の終点と同一であった場合には(S380でYES)、コピー及び追記したイメージデータと領域情報とを合わせてイメージバッファ30に転送する。
図11は、処理の種類とプログラムを管理する方法を説明するフローチャート、図12は、コントローラが管理するテーブルの構成を説明する図である。命令バッファ80は、処理の種類と、それに対応するプログラム90を、合わせて管理する。本実施例では、命令バッファ80における処理の種類と対応するプログラム90を簡単にテーブル140として表現しているが、この限りではない。
処理ユニット40は、図11に示すように、画像処理の実行後にその処理の種類の情報をパケットにして命令バッファに送信する(S400)。命令バッファ80は、処理ユニット40からパケットを受信すると(S410)、そのパケットに含まれている処理の種類の情報に基づいて、図12に示すテーブル140より検索し(S420)、処理の種類に対応するプログラム90を抽出し、処理ユニット40に送信する(S430)。
図13は、画像処理の結果に対する次回の処理の種類と優先度を管理するためのテーブルの構成を説明する図である。コントローラ70は、処理結果の情報と、処理の種類と、処理の優先度を示す情報との関係を、状態遷移表に相当するテーブル150を用いて管理している。
テーブル150は、画像処理の結果に対して次に実行すべき処理の種類と、該処理の優先度とを管理している。例えば、処理結果が「立体物検知済」であれば、次に実行すべき処理は、「人認識処理」と「車両認識処理」の二種類が定義されている。「人認識処理」と「車両認識処理」は同一の優先度となっている。
また、処理結果が「車両認識」であれば、次に実行すべき処理は「回避制御処理」と「衝突警報処理」の二種類が定義されている。ただし、回避と警報では、前者の方が重要度が高いために「回避制御処理」の方が「衝突警報処理」よりも優先度が高くなっている。本例では数値の小さい方が優先度が高いと定義している。なお、本実施例では、状態遷移表に相当するテーブル150として表現しているがこの限りではない。
図14は、優先度を設定する方法を示す図である。例えば、画像処理の結果として、認識物160までの距離を計測できる場合には、画面の領域や、認識物160までの距離に応じて優先度を割り付けることで、従来システムのような最近傍の物体を選択するのと同等の機能を提供することが可能となる。
本実施例では、図14(a)に示すように、遠方の低優先度領域161と、少し先の中優先度領域162と、近傍の高優先度領域163の三つの領域を定義している。また、図14(b)に示すように、認識物に個別に優先度を割り当てることも可能である。図14(b)は、自車からの距離に応じて各認識物に優先度10〜15を割り当てた実施例を示す。ただし、従来システムとの違いは、最近傍の物体のみを処理するのではなく、最近傍以外の複数の認識物160についても優先度に従って処理を継続することが可能となり、危険物をもれなく監視することが可能となる。
図15は、処理領域の設定方法の一実施例を示す図である。例えば、画像処理の結果として、遠方に物体を検出すると、時間の経過とともに該物体が自車に接近する場合には、画面上における物体のサイズが大きくなり、処理領域のイメージデータも大きくなる。認識すべきイメージデータが大きくなると処理ユニット40の処理負荷も増加する。
この場合に、処理ユニット40の総数と優先度より、処理領域を分割して複数の処理ユニット40に処理を自律的に分散することで、一つの処理ユニット40だけに処理負荷が集中することを回避できる。
例えば、図15(a)に示すように、物体を未検出の場合172には、広い領域を監視する必要があり、処理領域170もそれに対応するように広くする。そして、図15(b)に示すように、認識物160(物体)を検知した場合174には、認識物160が自車から遠ざかるのか、それとも近づくのか不明なため、そのどちらにも対応できるように監視する範囲を分割し、認識物160の近傍に狭域の三つの処理領域170を設定する。したがって、三つの処理領域170にそれぞれ処理ユニット40を割り当てることによって、より高精度な画像処理を行うことができる。
そして、認識物160が自車に接近すれば、図15(c)に示すように、画像121上でも大きな領域を占めることとなるので、それに対応するように認識物160の近傍に狭域の五つの処理領域170を設定する。したがって、五つの処理領域170にそれぞれ処理ユニット40を割り当てることによって、より高精度な画像処理を行う。このように、物体の挙動に応じて、監視領域に相当する処理領域を設定し、必要な箇所に適切な数の処理ユニット40を割り当てることによって、高精度の検出を行うことができ、様々な物体の様々な状況に対応することが可能となる。
図16は、処理領域の設定方法の一実施例を示す図である。例えば、自車の速度情報が得られた場合には、速度域に応じて処理領域の大きさを設定することができる。例えば、自車の車速が高い場合には、遠方の物体を認識できなければならない。このような高速域では、遠方の物体検知の精度を高める必要がある。したがって、高速域182では、図16(a)に示すように、遠方を4つの処理領域180に分割して、複数の処理ユニット40に優先的に処理を分散させて、遠方の物体検知の精度を高めている。
一方、自車の車速が低い場合には、近傍の物体を認識できなければならない。このような低速域では、近傍の物体検知の精度を高める必要がある。したがって、低速域184では、図16(b)に示すように、自車近傍を5つの処理領域190に分割して、複数の処理ユニット40に優先的に処理を分散させて、近傍の物体検知の精度を高めている。
このように自車の挙動に相当する速度域に応じて処理領域を設定することで、物体の様々な状況に対応することが可能である。本実施例では、速度を自車の挙動を示す情報として取り扱ったが、例えばハンドルの操舵角や操舵スピードに応じて処理領域を柔軟に設定することで、カーブや交差点での様々な状況に対応することが可能となる。
図17は、処理領域と優先度の設定方法の一実施例を示す図である。ここでは、物体検知の状況に応じて、優先度の入れ替えが行われる。例えば、画像処理の結果として、図17(a)に示すように、前方の物体を未検出の場合172には、安全機能面では危険度が低いと考えられる。したがって、「車線逸脱警報処理」の優先度を上げて、左右の認識精度を上げるために左右を監視する処理領域200を左右それぞれについて四つに分割して、複数の処理ユニット40に優先的に処理を分散させる。そして、緊急性が高い「衝突回避制御処理」の優先度を下げて、前方を監視する処理領域210に、予備的に一つの処理ユニット40を割り当ててその処理を担わせる。
一方、画像処理の結果として、図17(b)に示すように、前方に認識物160として物体を検知した場合には、安全機能面では危険度が高くなると考えられるので、緊急性が高い「衝突回避制御処理」の優先度を上げて、前方の認識精度を上げるために前方を監視する処理領域210を分割して、複数の処理ユニット40に優先的に処理を分散させる。そして、「車線逸脱警報処理」の優先度を下げて、左右の処理領域200をそれぞれ2つに分割し、予備的にそれぞれ二つの処理ユニット40を割り当ててその処理を担わせる。このように状態に応じて警報および制御のそれぞれの処理の優先度を変更し、処理の自律的分散を実現できる。
図18は、処理ユニットの構成の一実施例を示す図、図19は、図18の処理ユニットによる優先度に応じた処理の方法を説明するフローチャートである。本実施例において、処理ユニット40は、図18に示すように、処理を実行したときに、該処理の優先度を保持するかもしくはリセットした現状優先度62をメモリ60上に保持する。
処理ユニット40は、コントローラ70から前回の画像処理時に生成されたタグ情報を含むパケットを受信し、処理の種類と優先度の情報を取得する(S500)。そして、判定手段50により、現状優先度と受信した優先度とを比較して判定を行う(S510)。本実施例では、判定手段50は、単純に受信した優先度が現状優先度より高いか低いかを判定し、高い場合には、該優先度で現状優先度を更新する(S520)。
処理ユニット40は、処理の種類を命令バッファ80に送信し(S530)、処理の種類に応じたプログラム90を命令バッファ80から受信する(S540)。そして、受信した優先度が低い場合には、現状優先度をリセット(S522)する。
図20は、処理ユニットにより優先度を決定する一実施例を示す図である。ここでは、処理ユニット40がプログラム90の処理結果により、自ら現状優先度を更新する。処理ユニット40は、コントローラ70から前回の画像処理時に生成されたタグ情報を含むパケットを受信し、処理の種類と優先度の情報を取得する(S600)。処理ユニット40は、処理の種類を命令バッファ80に送信し(S610)、処理の種類に応じたプログラム90を命令バッファ80から受信し(S620)、そのプログラム90を実行する(S630)。
処理ユニット40は、プログラム90によって優先度を生成し、現状優先度を更新する(S640)。設計段階から一意に優先度が決定できる場合は、本実施例のようにプログラム上で明確に優先度を生成させることで確実な優先度制御を行える。
図21は、処理ユニットにより緊急度を決定する一実施例を示す図である。ここでは、処理ユニット40において、緊急でリアルタイムなレスポンスを必要とする処理起動が実現される。上述の図12のテーブルでは、処理結果を「立体物検知」のような状態だけを定義していたが、本実施例では、このような処理結果状態と、処理結果に応じた緊急度を生成する実施例である。
処理ユニット40は、コントローラ70から前回の画像処理時に生成されたタグ情報を含むパケットを受信し、タグ情報から処理の種類と優先度の情報を取得する(S700)。処理ユニット40は、処理の種類を命令バッファ80に送信する(S710)。処理の種類に応じたプログラム90を命令バッファ80から取得する(S720)。処理ユニット40はプログラム90を実行し(S730)、緊急度が発生したか否かを確認する(S740)。
緊急度が生成された場合には、緊急度を命令バッファに送信し、該緊急度に対応するプログラム90を命令バッファ80から取得する(S750)。処理ユニット40は、取得した緊急プログラム90を実行する(S760)。このようなフローにすることで、コントローラ70を経由することなく、緊急性の高い処理を早く実行することで、リアルタイム性を向上することができる。
図22と図23は、パケットの一実施例を示す図である。
パケット220は、図22に示すように、処理の種類222と、優先度224と、画像ID226を有する。画像ID226は、処理領域の領域情報114を有している。処理ユニット40は画像ID226を指定することで、イメージバッファ30から処理領域に対応するイメージデータを取得する。
パケット230は、図23に示すように、処理の種類222と、優先度224と、イメージデータ228を有している。イメージデータ228は、処理領域の形状を特定するための領域タイプ242、処理領域の大きさを特定するための領域サイズ244、ピクセルデータ群246を組みとする。領域タイプ242は、図6に示したピクセル123、ライン124、ストライプ125、ブロック126に相当する領域情報を示す識別子である。また、領域サイズは、ピクセル123の場合は無効で、ライン124の場合にはY座標の位置、ストライプの場合にはY座標の幅、ブロック126の場合には角のXY座標と縦横それぞれの幅である。ピクセルデータは、上記領域に存在するピクセルそれぞれの値である。ピクセルデータは、例えば白黒画像の場合には8ビットつまり0〜255の値をとり、カラー画像の場合にはRGBの3つデータが、それぞれ0〜255の値を取る。尚、本発明は、白黒及びカラー、8ビットに限定されるものではない。
図24は、画像IDによるプログラムの先読み処理を説明するフローチャートである。図1の実施例の構成において、コントローラ70は、処理の種類などを、ラインバッファ10のイメージデータの取り込みが始まる前に決定することができる。したがって、領域情報に対応した処理領域のイメージデータを全て取り込む前に、プログラムを命令バッファ80から処理ユニット40に送信させて、先読み(プリフェッチ)させることが可能である。
各処理ユニット40は、イメージデータ228を受け取るよりも前に、命令バッファ80からプログラムを受け取り、プログラムの先読みを行い、次いでイメージデータを受け取ることにより画像処理を開始する。
例えば、ラインバッファ10からイメージデータの取り込みを開始する時点で、処理の種類に応じたプログラム90を命令バッファ80からダウンロードすることができ、処理ユニット40は、イメージデータの取り込みが済んでからダウンロードするよりも早く実行を開始することができる。
コントローラ70は、上述の図22に示すパケット220を実装例とする場合、図24に示すように、パケット220によって、処理の種類と優先度と画像IDを処理ユニット40に送信する(S800)。現時点で全画面を撮像できていないので、該画像IDは無効な値を設定する。
処理ユニット40は、コントローラ70から前回の画像処理時に生成されたタグ情報を含むパケットを受信し、タグ情報から処理の種類と優先度と画像IDの情報を取得する(S805)。そして、画像IDが有効か否かを判定し(S810)、画像IDが無効の場合には、処理の種類を命令バッファ80に送信する(S820)。
命令バッファ80は、処理の種類を受信すると(S830)、その処理の種類に対応するプログラム90を探索し、プログラム90を処理ユニット40に送信する(S840)。処理ユニット40は、プログラム90を受信し(S850)、画像IDが有効の場合には、画像IDをイメージバッファ30に送信する(S860)。
イメージバッファ30は、画像IDを受信すると(S870)、画像IDに対応するイメージデータを処理ユニット40に送信する(S880)。処理ユニット40は、イメージデータを受信すると(S890)、そのイメージデータを画像処理すべく、プログラム90を実行する(S900)。尚、領域抽出手段20は、画像領域情報のイメージデータの生成が終了した時に、処理の種類と優先度と有効な画像IDを送信する。
図25は、消費電力の低減方法の一実施例を示すフローチャートである。この実施例では、処理ユニット40の総数より、実行すべき処理数が少ない場合において、動作しない処理ユニット40をスリープモードにすることで消費電力の低減を実現する例である。
本実施例においてコントローラ70は、処理ユニット40の総数と、処理実行中の処理ユニット40の数を管理している。コントローラ70は、処理ユニット40から処理結果を受信する(S900)。そして、上述の図22もしくは図23の実施例のように、該処理結果に対応するパケットを生成する(S910)。
コントローラ70は、処理ユニット40の総数と、処理実行中の処理ユニット40の数と、待機中の処理ユニット40の数から、処理待ち状態となる処理ユニット40の数を算出する(S920)。処理待ち状態となる処理ユニット40数分のパケットを送信する(S930)。このパケットは、処理の種類に、例えばスリーププログラムを指定する。 処理ユニット40は、コントローラ70からスリーププログラムのパケットを受け取ると、処理ユニット40の動作モードを通常モードから消費電力の少ないスリープモードに変更する。したがって、処理待ち状態の処理ユニット40によって消費される電力を低減することができる。
上述の画像処理装置によれば、各処理ユニット40の処理結果に基づいて各処理ユニット40が次回に実行する処理の種類と優先度を示すタグ情報を生成し、各処理ユニット40が画像処理を行うか否かについて、前回の画像処理時に生成されたタグ情報を用いて判断するので、複数の処理ユニットに優先度の高いものから適切に処理を行わせることができる。したがって、現実世界で回避すべきシーンを漏れなく網羅でき、車両走行時の安全性を飛躍的に向上させることができる。
また、より精度の高い画像処理を行う必要がある処理領域に対しては、かかる処理領域を分割して、それぞれに処理ユニットを割り当てることができる。したがって、複数の処理ユニット40に優先的に処理を分散させることができ、一つの処理ユニット40に処理負荷が集中するのを防ぐことができる。したがって、画像処理を高速化することができ、画像処理の処理結果に基づく警告や自動ブレーキ制御等を迅速に行うことができ、車両走行時の安全性を飛躍的に向上させることができる。
10 ラインバッファ
20 領域抽出手段
30 イメージバッファ
40 処理ユニット
50 判定手段
60 記憶装置
62 現状優先度
70 コントローラ(タグ情報生成手段)
80 命令バッファ
90 プログラム
100 通信路
110 パケット
112 処理結果
114 領域情報
130 状態管理テーブル
140 プログラム管理テーブル
150 優先度管理テーブル

Claims (8)

  1. 車載カメラで間欠的に撮像される画像の画像処理を行う車載画像処理装置であって、
    前記画像から前記画像処理が行われる処理領域のイメージデータを抽出する領域抽出手段と、
    該領域抽出手段により抽出されたイメージデータに基づいて画像処理を行う複数の処理ユニットと、
    該各処理ユニットにより画像処理された処理結果に基づいて、前記各処理ユニットの次回に実行する画像処理の種類と優先度を示すタグ情報を生成するタグ情報生成手段と、
    該タグ情報生成手段によって前回の画像処理時に生成されたタグ情報を用いて前記各処理ユニットで画像処理を行わせるか否かを判定する判定手段と、
    を有することを特徴とする車載画像処理装置。
  2. 前記領域抽出手段は、前記タグ情報生成手段によって前回の画像処理時に生成されたタグ情報を用いて前記処理領域を決定することを特徴とする請求項1に記載の車載画像処理装置。
  3. 前記領域抽出手段は、前記画像からピクセル単位、ライン単位、ストライプ単位、ブロック単位の少なくともいずれか一つの単位で前記イメージデータを抽出することを特徴とする請求項1又は2に記載の車載画像処理装置。
  4. 画像処理の種類に対応するプログラムを記憶し、前記タグ情報生成手段によって前回の画像処理時に生成されたタグ情報に基づいて、前記プログラムを前記各処理ユニットに送信する命令バッファを有し、
    前記各処理ユニットは、前記命令バッファから受け取ったプログラムに基づいて前記画像処理を行うことを特徴とする請求項1から請求項3のいずれか一項に記載の車載画像処理装置。
  5. 前記各処理ユニットは、前記イメージデータを受け取るよりも前に、前記命令バッファから前記プログラムを受け取り、該プログラムの先読みを行い、次いで、前記イメージデータを受け取ることにより前記画像処理を開始することを特徴とする請求項4に記載の車載画像処理装置。
  6. 前記タグ情報には、画像処理の緊急度が含まれることを特徴とする請求項1から請求項5のいずれか一項に記載の車載画像処理装置。
  7. 前記タグ情報生成手段は、前記タグ情報をパケットとしてまとめて前記処理ユニットに送信することを特徴とする請求項1から請求項6のいずれか一項に記載の車載画像処理装置。
  8. 前記各処理ユニットは、前記タグ情報生成手段によって前回の画像処理時に生成されたタグ情報に基づいて処理の必要性を判断し、必要性がないと判断した場合に、動作モードを通常モードから消費電力の少ないスリープモードに変更して、処理ユニットの消費電力の低減を図ることを特徴とする請求項1から請求項7のいずれか一項に記載の車載画像処理装置。
JP2010027747A 2010-02-10 2010-02-10 車載画像処理装置 Active JP5147874B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010027747A JP5147874B2 (ja) 2010-02-10 2010-02-10 車載画像処理装置
PCT/JP2010/063757 WO2011099189A1 (ja) 2010-02-10 2010-08-13 車載画像処理装置
US13/577,773 US20120307062A1 (en) 2010-02-10 2010-08-13 Vehicle-mounted image processing apparatus
EP10845781.3A EP2535861A4 (en) 2010-02-10 2010-08-13 IMAGE PROCESSING APPARATUS MOUNTED ON A VEHICLE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010027747A JP5147874B2 (ja) 2010-02-10 2010-02-10 車載画像処理装置

Publications (2)

Publication Number Publication Date
JP2011164982A true JP2011164982A (ja) 2011-08-25
JP5147874B2 JP5147874B2 (ja) 2013-02-20

Family

ID=44367484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010027747A Active JP5147874B2 (ja) 2010-02-10 2010-02-10 車載画像処理装置

Country Status (4)

Country Link
US (1) US20120307062A1 (ja)
EP (1) EP2535861A4 (ja)
JP (1) JP5147874B2 (ja)
WO (1) WO2011099189A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177333A (ja) * 2014-03-14 2015-10-05 株式会社デンソー カメラ制御装置
JP2015219647A (ja) * 2014-05-15 2015-12-07 株式会社シーマイクロ 車両検出装置および車両検出方法。
WO2017081986A1 (ja) * 2015-11-11 2017-05-18 日立オートモティブシステムズ株式会社 物体検出装置
WO2017145543A1 (ja) * 2016-02-22 2017-08-31 日立オートモティブシステムズ株式会社 情報処理装置
JP6703236B1 (ja) * 2019-11-18 2020-06-03 ポジティブワン株式会社 割当制御装置、割当制御システム、及び割当制御方法
WO2021100502A1 (ja) * 2019-11-18 2021-05-27 ポジティブワン株式会社 割当制御装置、割当制御システム、及び割当制御方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3072931B1 (fr) * 2017-10-30 2021-07-23 Valeo Comfort & Driving Assistance Procede de traitement de donnees pour systeme d'aide a la conduite d'un vehicule et systeme d'aide a la conduite associe
EP3506153A1 (en) * 2017-12-28 2019-07-03 Canon Kabushiki Kaisha Information processing apparatus, system, method, and non-transitory computer-readable storage medium
US10915105B1 (en) * 2018-06-25 2021-02-09 Allstate Insurance Company Preemptive logical configuration of vehicle control systems
US11042159B2 (en) 2018-12-20 2021-06-22 Toyota Motor North America, Inc. Systems and methods for prioritizing data processing
KR20210045106A (ko) * 2019-10-16 2021-04-26 현대자동차주식회사 차량 및 차량의 제어방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002188931A (ja) * 2000-09-28 2002-07-05 Denso Corp 車載用処理装置
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2009009209A (ja) * 2007-06-26 2009-01-15 Nippon Soken Inc 画像認識装置および画像認識処理方法
JP2009020577A (ja) * 2007-07-10 2009-01-29 Omron Corp 検出装置および方法、並びに、プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3225416B2 (ja) 1993-01-20 2001-11-05 アイシン精機株式会社 画像処理装置
US7131136B2 (en) * 2002-07-10 2006-10-31 E-Watch, Inc. Comprehensive multi-media surveillance and response system for aircraft, operations centers, airports and other commercial transports, centers and terminals
US7346186B2 (en) * 2001-01-30 2008-03-18 Nice Systems Ltd Video and audio content analysis system
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP2005085164A (ja) 2003-09-10 2005-03-31 Sharp Corp マルチプロセッサシステムの制御方法およびマルチプロセッサシステム
GB2437137A (en) * 2006-04-03 2007-10-17 Autoliv Development Ab Drivers aid that sensors the surrounding of the vehicle, and with a positioning system compares the detected objects to predict the driving conditions
JP4364266B2 (ja) * 2007-08-01 2009-11-11 株式会社東芝 画像処理装置およびプログラム
KR101141874B1 (ko) * 2008-06-04 2012-05-08 주식회사 만도 위험 지역의 검출 장치, 방법 및 그를 이용한 보행자 검출장치
JP5147062B2 (ja) 2008-07-17 2013-02-20 Necトーキン株式会社 巻線部品
JP2010181989A (ja) * 2009-02-04 2010-08-19 Renesas Electronics Corp データ処理装置
JP5390322B2 (ja) * 2009-09-28 2014-01-15 株式会社東芝 画像処理装置、及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002188931A (ja) * 2000-09-28 2002-07-05 Denso Corp 車載用処理装置
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2009009209A (ja) * 2007-06-26 2009-01-15 Nippon Soken Inc 画像認識装置および画像認識処理方法
JP2009020577A (ja) * 2007-07-10 2009-01-29 Omron Corp 検出装置および方法、並びに、プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177333A (ja) * 2014-03-14 2015-10-05 株式会社デンソー カメラ制御装置
JP2015219647A (ja) * 2014-05-15 2015-12-07 株式会社シーマイクロ 車両検出装置および車両検出方法。
WO2017081986A1 (ja) * 2015-11-11 2017-05-18 日立オートモティブシステムズ株式会社 物体検出装置
JP2017091232A (ja) * 2015-11-11 2017-05-25 日立オートモティブシステムズ株式会社 物体検出装置
WO2017145543A1 (ja) * 2016-02-22 2017-08-31 日立オートモティブシステムズ株式会社 情報処理装置
JP2017151541A (ja) * 2016-02-22 2017-08-31 日立オートモティブシステムズ株式会社 情報処理装置
US10657670B2 (en) 2016-02-22 2020-05-19 Hitachi Automotive Systems, Ltd. Information processing apparatus
JP6703236B1 (ja) * 2019-11-18 2020-06-03 ポジティブワン株式会社 割当制御装置、割当制御システム、及び割当制御方法
WO2021100502A1 (ja) * 2019-11-18 2021-05-27 ポジティブワン株式会社 割当制御装置、割当制御システム、及び割当制御方法
JP2021082905A (ja) * 2019-11-18 2021-05-27 ポジティブワン株式会社 割当制御装置、割当制御システム、及び割当制御方法
US11842557B2 (en) 2019-11-18 2023-12-12 Positive One Corporation Assignment control apparatus, assignment control system, and assignment control method

Also Published As

Publication number Publication date
WO2011099189A1 (ja) 2011-08-18
JP5147874B2 (ja) 2013-02-20
US20120307062A1 (en) 2012-12-06
EP2535861A4 (en) 2013-10-30
EP2535861A1 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
JP5147874B2 (ja) 車載画像処理装置
JP7016943B2 (ja) 物体検出のための方法、装置および機器
JP6313646B2 (ja) 外界認識装置
US9679196B2 (en) Object sensing device
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
JP2007072665A (ja) 物体判別装置、物体判別方法および物体判別プログラム
JP6584123B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5898001B2 (ja) 車両周辺監視装置
CN111052201B (zh) 碰撞预测装置、碰撞预测方法以及存储介质
JP2007188417A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP7161981B2 (ja) 対象追跡手段の切り替えが可能な対象追跡プログラム、装置及び方法
JP2008310440A (ja) 歩行者検出装置
JP2010040015A (ja) 車両用道路形状検出装置
JP2007064894A (ja) 物体検出装置、物体検出方法および物体検出プログラム
WO2021199584A1 (en) Detecting debris in a vehicle path
JP2006027481A (ja) 物体警告装置及び物体警告方法
JP2020035439A (ja) 画像処理装置、警告システム、画像処理方法及びプログラム
US11314968B2 (en) Information processing apparatus, control method, and program
JP2006064653A (ja) 物体検出装置、および方法
JP5493705B2 (ja) 車両位置検出装置、車両位置検出方法、及び車両位置検出プログラム
JP2014178836A (ja) 車両の外部環境認識装置
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
JP2016099997A (ja) 動画像監視システム、装置及び方法
JP2015210729A (ja) 走行路認識装置
JP2007060511A (ja) 物体判別装置、物体判別方法および物体判別プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Ref document number: 5147874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350