JP6429452B2 - 車載用画像処理装置及び半導体装置 - Google Patents

車載用画像処理装置及び半導体装置 Download PDF

Info

Publication number
JP6429452B2
JP6429452B2 JP2013241614A JP2013241614A JP6429452B2 JP 6429452 B2 JP6429452 B2 JP 6429452B2 JP 2013241614 A JP2013241614 A JP 2013241614A JP 2013241614 A JP2013241614 A JP 2013241614A JP 6429452 B2 JP6429452 B2 JP 6429452B2
Authority
JP
Japan
Prior art keywords
vehicle
image
image processing
video data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013241614A
Other languages
English (en)
Other versions
JP2015103894A (ja
Inventor
和昭 寺島
和昭 寺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2013241614A priority Critical patent/JP6429452B2/ja
Priority to US14/523,871 priority patent/US9946938B2/en
Priority to CN201410674242.9A priority patent/CN104660980B/zh
Publication of JP2015103894A publication Critical patent/JP2015103894A/ja
Application granted granted Critical
Publication of JP6429452B2 publication Critical patent/JP6429452B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Description

本発明は、車載用画像処理装置及びそれに搭載可能な半導体装置に関し、特に前方監視と周辺監視の両立が可能な車載カメラを備える車載用画像処理装置に好適に利用できるものである。
車載用の安全機構の一つとして、カメラを用いて車両の前方や周辺或いは後方を監視する監視システムが実用レベルにある。レーダやソナーなどカメラ以外のセンサと併用してシステムを実現する場合が多い。車載用の監視システムは、画像の入力部であるイメージセンサを備えたカメラと、画像処理を行う画像処理部と、判断処理を行う判断部から構成され、一般的に一つのセンサに対して一つの画像処理部が設けられる。
車両前方のみならず、周辺や後方までも監視するためには、カメラ(イメージセンサ)だけではなく画像処理部も、多数設置する必要が生じることとなり、コストの上昇を招く。
特許文献1には、ある領域を大きく鮮明に映し出すことと、異なる複数領域を同時に映し出すこととが、それぞれ可能な車載カメラが開示されている。撮像素子の前方に配置されるミラーの姿勢を変えることにより、上記2通りの撮像を可能としている。同文献に記載される車載カメラによれば、ミラーの姿勢を調整することにより、異なる複数領域を同時に映し出すことができる。より具体的には、同文献の第0041段落に記載されるように、撮像範囲の上側部分に車両の前方領域が映し出され、下側部分には車内状況や車両の後方領域が映し出される。
特許文献2には、複数の撮像対象を撮影可能な車載カメラが開示されている。同文献の図4と第0037段落〜第0039段落には、1つの画面内の上半分に前方が映し出され、下半分に社内と後方が映し出された、カメラユニットの画像が示されている。
特開2012−131390号公報 特開2011−20669号公報
特許文献1及び2について本発明者が検討した結果、以下のような新たな課題があることがわかった。
特許文献1と2に記載される技術によれば、1個のカメラ(イメージセンサ)によって、複数の領域、例えば車両の前方と車内を同時に撮像して利用することができる。しかしながら、同時に映し出された異なる複数領域ごとに施すべき画像処理の方法や内容については、開示されていない。
特許文献1の第0037段落には、画像処理LSI(Large Scale Integrated circuit)によって、画像に対してアダプティブイメージエンハンサ処理を施すことにより、白とびや黒つぶれを抑制しても良いとされる。アダプティブイメージエンハンサ処理は、画像を複数の区画に分割し、各区画ごとにレベル補正を行う処理であるとされる。特許文献1と2に開示されるシステムには、判断部が備えられておらず、このシステムにおける画像処理の出力画像は、ドライブレコーダに記録する画像や運転者が運転中に見る画像であるため、画像処理は上述のような比較的簡易な処理で足りるものと考えられる。
しかしながら、画像処理部の後段に判断部を設けて、車間距離の算出や障害物の検知などの高度な判断処理を実行させるような車載用画像処理装置においては、上述のような比較的簡易な画像処理では十分ではないことがわかった。即ち、1個のカメラ(イメージセンサ)によって、複数の領域、例えば車両の前方と車内を同時に撮像した映像データが得られても、複数の領域それぞれに適切な画像処理部を設ける必要があり、コストの上昇を十分に抑えることはできない。車載用の画像処理は、リアルタイム性が重要であるため、複数領域の画像処理を同時に並列して実行することとなるためである。
このような課題を解決するための手段を以下に説明するが、その他の課題と新規な特徴は、本明細書の記述及び添付図面から明らかになるであろう。
一実施の形態によれば、下記の通りである。
すなわち、カメラと、画像処理部と、判断部とを備え、車両に搭載されるための車載用画像処理装置であって、カメラの前方に反射板が取り付けられることによって、1フレーム内に車両前方の映像と周辺映像などの他の映像が同時に撮像される。カメラからそのような映像データが供給された画像処理部は、判断部から供給される制御指示情報に基づいて、車両前方の映像と周辺映像などの他の映像のうちの一方についてのみ適切な画像処理を行い、他方についての画像処理を省略することができる。判断部は、供給される車両の速度情報に基づいて、画像処理部に対してそのときの車両の走行速度に基づいた適切な制御指示情報を供給する。また、画像処理部は、前記制御指示情報に基づいて、車両前方の映像と周辺映像などの他の映像とを含む映像データ全体について適切な画像処理を行うこともできるように構成されても良い。
前記一実施の形態によって得られる効果を簡単に説明すれば下記のとおりである。
すなわち、車載用画像処理装置は、車両の速度に応じた判断処理に必要な情報を得るために、適宜最適な画像処理を行うことができ、複数の映像領域に対して1個の画像処理部を設ければ足り、コストを抑えることができる。
図1は、実施形態1に係る車載用画像処理装置の構成例を示すブロック図である。 図2は、実施形態1に係る車載用画像処理装置の映像データを示す説明図である。 図3は、画像処理の内容の一例を示すフローチャートである。 図4は、カメラモジュールの構成例を示す外観図である。 図5は、カメラモジュールの構成例を示す側面断面図である。 図6は、車載用画像処理装置の詳細な構成例を示すブロック図である。 図7は、車載用画像処理装置の詳細な別の構成例を示すブロック図である。 図8は、車載用画像処理装置に搭載される半導体装置の構成例を示すブロック図である。 図9は、実施形態2に係る車載用画像処理装置の構成例を示すブロック図である。 図10は、実施形態2に係る車載用画像処理装置の映像データを示す説明図である。 図11は、画像処理の内容の一例を示すフローチャートである。 図12は、実施形態3に係る車載用画像処理装置の構成例を示すブロック図である。 図13は、実施形態3に係る車載用画像処理装置の映像データを示す説明図である。 図14は、実施形態4に係る車載用画像処理装置によって合成される画像データを示す説明図である。
1.実施の形態の概要
先ず、本願において開示される代表的な実施の形態について概要を説明する。代表的な実施の形態についての概要説明で括弧を付して参照する図面中の参照符号はそれが付された構成要素の概念に含まれるものを例示するに過ぎない。
〔1〕<速度情報に基づき領域毎に最適な画像処理>
本願において開示される代表的な実施の形態は、カメラ(1)と、画像認識部(3)と、判断部(4)とを備え、車両に搭載されるための車載用画像処理装置(10)であって、以下のように構成される。
前記判断部は、前記車両の速度情報(8)が供給され、前記速度情報に基づいて、前記画像認識部に対して制御指示情報(9)を供給可能に構成される。
前記画像認識部は、前記車両前方の映像である第1領域(52)と他の方向の映像である第2領域(53)とを、1フレーム内に同時に含む映像データ(50)が、前記カメラから供給される。前記第1領域と前記第2領域の映像データに対して、前記制御指示情報に基づく画像処理(S1〜S7)を行い、その結果を前記判断部に供給可能に構成される。
これにより、車載用画像処理装置は、車両の速度に応じた判断処理に必要な情報を得るために、適宜最適な画像処理を行うことができ、複数の映像領域に対して1個の画像認識部を設ければ足り、コストを抑えることができる。
〔2〕<高速走行時は前方映像、低速走行時は周辺映像の画像処理>
項1において、前記第2領域は、前記車両の周辺の映像である。
前記判断部は、前記速度情報が前記車両が高速走行中であることを示す情報であるときは、前記第1領域について遠景に適する画像処理(S2,S5)を行わせ、前記第2領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される。また、前記判断部は、前記速度情報が前記車両が低速走行中であることを示す情報であるときは、前記第2領域について近景に適する画像処理(S3,S6)を行わせ、前記第1領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される。
これにより、高速走行時は前方の映像のみを判断処理の対象とし(前方監視)、低速走行時は周辺映像のみを判断処理の対象とする(周辺監視)ことで、複数の映像領域に対しても1個の画像認識部を設ければ足り、コストを抑えることができる。
〔3〕<前方映像と周辺映像を含む全面についての画像処理>
項2において、前記判断部は、さらに、前記第1領域と前記第2領域の両方について、遠景に適する画像処理と近景に適する画像処理との間の中間的な画像処理(S4,S7)を行わせる制御指示情報を、前記画像認識部に供給可能に構成される。
これにより、高速走行と低速走行に分類されない特殊な場合にも、適切な画像処理を実行させることができる。
〔4〕<映像データからの速度情報の抽出>
項1から項3のうちのいずれか1項において、前記画像認識部は、前記映像データから前記車両の速度情報を算出し、前記判断部に供給する機能(19)をさらに有する。
これにより、外部から速度センサの信号を入力する必要がなくなり、より低コストの車載用画像処理装置を提供することができる。或いは、外部から入力される速度センサの信号と画像認識部が算出する速度情報とを互いに補完的に利用することによって、車両の走行速度をより正確に求めることが可能な、車載用画像処理装置を提供することができる。
〔5〕<ステレオカメラ>
項1から項4のうちのいずれか1項において、前記カメラを第1カメラ(1R)とし、前記映像データを第1映像データ(50R)とし、前記車載用画像処理装置は、前記第1カメラと左右1対の第2カメラ(1L)をさらに備える。前記第2カメラは、前記車両前方の映像を1フレーム内に含む第2映像データ(50L)を前記画像認識部に供給可能に構成される。前記画像認識部は、前記第1映像データのうちの前記第1領域の映像データ(52R)と、前記第2映像データ(52L)との視差に基づく画像認識処理(33)を実行可能に構成される。
これにより、ステレオカメラにおいて、車両前方の映像に基づく視差検出やベクトル検出などの画像処理と、車両周辺の画像処理を、車両の速度に応じて適宜切替えて判断処理に供給することができる。
〔6〕<左右両側のステレオカメラに反射板>
項5において、前記第2映像データは、前記車両前方の映像である第3領域(52L)と車両の周辺の映像である第4領域(53L)とを、1フレーム内に同時に含む。
前記画像認識部は、前記第1映像データのうちの前記第1領域の映像データ(52R)と、前記第2映像データのうちの前記第3領域の映像データ(52L)との視差に基づく画像認識処理(33)を実行可能に構成される。
前記判断部は、前記速度情報が前記車両が高速走行中であることを示す情報であるときは、前記第1領域(52R)と前記第3領域(52L)について遠景に適する画像処理(S2,S5)を行わせ、前記第2領域(53R)と前記第4領域(53L)についての画像処理を省略させる、制御指示情報を前記画像認識部に供給可能である。また、前記判断部は、前記速度情報が前記車両が低速走行中であることを示す情報であるときは、前記第2領域(53R)と前記第4領域(53L)について近景に適する画像処理(S4,S7)を行わせ、前記第1領域(52R)と前記第3領域(52L)についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される。
これにより、ステレオカメラの左右両側において、車両前方の映像についての画像処理と、車両周辺の画像処理を、車両の速度に応じて適宜切替えて判断処理に供給することができる。
〔7〕<視点の変更と合成>
項1から項6のうちのいずれか1項において、前記画像認識部は、前記映像データに含まれる各領域の映像データについて、それぞれの映像データを所定の視点からの画像に変換し、各領域の映像データから変換された画像を合成する機能をさらに有する。
これにより、従来より少ないカメラと画像認識部を使って、視点を変換された画像を求めることが可能な、車載用画像処理装置を提供することができる。
〔8〕<視点の変更に伴う合成のための死角画像の推定>
項7において、前記画像認識部は、複数の領域の映像データに含まれる部分の画像(56)については、前記複数の領域の映像データの視差を利用して互いに補完して合成する。前記画像認識部は、前記複数の領域の映像データのいずれにも含まれない部分の画像(57)については、過去のフレームの映像データに基づいて推定し、又は、前記複数の領域の端部の映像データに基づいて推定し、又は、当該部分の画像データとして推定不能であることを示すための所定の画像データを出力する機能をさらに有する。
これにより、カメラの死角部分においても欠落を生じさせることなく、視点が変換された画像データ求めることが可能な、車載用画像処理装置を提供することができる。
〔9〕<速度情報に基づき領域毎に最適な画像処理を行う半導体装置>
本願において開示される代表的な実施の形態は、画像認識部(3)と、判断部(4)とを備え、車両に搭載されるカメラ(1)が接続されることによって車載用画像処理装置(10)を構成可能な半導体装置(20)であって、以下のように構成される。
前記判断部は、前記車両の速度情報(8)が供給され、前記速度情報に基づいて、前記画像認識部に対して制御指示情報(9)を供給可能に構成される。
前記画像認識部は、前記車両前方の映像である第1領域(52)と他の方向の映像である第2領域(53)とを、1フレーム内に同時に含む映像データ(50)が、前記カメラから供給され、前記第1領域と前記第2領域の映像データに対して、前記制御指示情報に基づく画像処理(S1〜S7)を行い、その結果を前記判断部に供給可能に構成される。
これにより、半導体装置の画像認識部は、車両の速度に応じた判断処理に必要な情報を得るために、適宜最適な画像処理を行うことができ、複数の映像領域に対して1個の画像認識部を設ければ足り、車載用画像処理装置のコストを抑えることができる。
〔10〕<高速走行時は前方映像、低速走行時は周辺映像の画像処理>
項9において、前記第2領域は、前記車両の周辺の映像であり、
前記判断部は、前記速度情報が前記車両が高速走行中であることを示す情報であるときは、前記第1領域(52)について遠景に適する画像処理(S2,S5)を行わせ、前記第2領域(53)についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される。また、前記判断部は、前記速度情報が前記車両が低速走行中であることを示す情報であるときは、前記第2領域について近景に適する画像処理(S3,S6)を行わせ、前記第1領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される。
これにより、高速走行時は前方の映像のみを判断処理の対象とし(前方監視)、低速走行時は周辺映像のみを判断処理の対象とする(周辺監視)ことで、複数の映像領域に対しても1個の画像認識部を設ければ足り、車載用画像処理装置のコストを抑えることができる。
〔11〕<前方映像と周辺映像を含む全面についての画像処理>
項10において、前記判断部は、さらに、前記第1領域と前記第2領域の両方について、遠景に適する画像処理と近景に適する画像処理との間の中間的な画像処理(S4,S7)を行わせる制御指示情報を、前記画像認識部に供給可能に構成される。
これにより、高速走行と低速走行に分類されない特殊な場合にも、適切な画像処理を実行させることができる。
〔12〕<映像データからの速度情報の抽出>
項9から項11のうちのいずれか1項において、前記画像認識部は、前記映像データから前記車両の速度情報を算出し、前記判断部に供給する機能(19)をさらに有する。
これにより、半導体装置には外部から速度センサの信号を入力する必要がなくなり、より低コストの車載用画像処理装置を提供することができる。或いは、外部から入力される速度センサの信号と画像認識部が算出する速度情報とを互いに補完的に利用することによって、車両の走行速度をより正確に求めることが可能な、車載用画像処理装置を提供することができる。
〔13〕<ステレオカメラ>
項9から項12のうちのいずれか1項において、前記カメラを第1カメラ(1R)とし、前記映像データを第1映像データ(50R)とし、前記車載用画像処理装置は、前記第1カメラと左右1対の第2カメラ(1L)をさらに備える。前記第2カメラは、前記車両前方の映像を1フレーム内に含む第2映像データ(50L)を前記半導体装置の前記画像認識部に供給可能に構成される。前記画像認識部は、前記第1映像データのうちの前記第1領域の映像データ(52R)と、前記第2映像データ(52L)との視差に基づく画像認識処理(33)を実行可能に構成される。
これにより、ステレオカメラにおいて、車両前方の映像に基づく視差検出やベクトル検出などの画像処理と、車両周辺の画像処理を、車両の速度に応じて適宜切替えて判断処理に供給することができる。
〔14〕<左右両側のステレオカメラに反射板>
項13において、前記第2映像データは、前記車両前方の映像である第3領域(52L)と車両の周辺の映像である第4領域(53L)とを、1フレーム内に同時に含む。
前記画像認識部は、前記第1映像データのうちの前記第1領域の映像データ(52R)と、前記第2映像データのうちの前記第3領域の映像データ(52L)との視差に基づく画像認識処理(33)を実行可能に構成される。
前記判断部は、前記速度情報が前記車両が高速走行中であることを示す情報であるときは、前記第1領域(52R)と前記第3領域(52L)について遠景に適する画像処理(S2,S5)を行わせ、前記第2領域(53R)と前記第4領域(53R)についての画像処理を省略させる、制御指示情報を前記画像認識部に供給可能である。前記判断部は、前記速度情報が前記車両が低速走行中であることを示す情報であるときは、前記第2領域(53R)と前記第4領域(53R)について近景に適する画像処理(S4,S7)を行わせ、前記第1領域(52R)と前記第3領域(52L)についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される。
これにより、ステレオカメラの左右両側において、車両前方の映像についての画像処理と、車両周辺の画像処理を、車両の速度に応じて適宜切替えて判断処理に供給することができる。
〔15〕<視点の変更と合成>
項9から項14のうちのいずれか1項において、
前記画像認識部は、前記映像データに含まれる各領域の映像データについて、それぞれの映像データを所定の視点からの画像に変換し、各領域の映像データから変換された画像を合成する機能をさらに有する。
これにより、従来より少ないカメラと画像認識部を使って、視点を変換された画像を求めることが可能な、半導体装置を提供することができる。
〔16〕<視点の変更に伴う合成のための死角画像の推定>
項15において、前記画像認識部は、複数の領域の映像データに含まれる部分の画像(56)については、前記複数の領域の映像データの視差を利用して互いに補完して合成する。前記画像認識部は、前記複数の領域の映像データのいずれにも含まれない部分の画像(57)については、過去のフレームの映像データに基づいて推定し、又は、前記複数の領域の端部の映像データに基づいて推定し、又は、当該部分の画像データとして推定不能であることを示すための所定の画像データを出力する機能をさらに有する。
これにより、カメラの死角部分においても欠落を生じさせることなく、視点が変換された画像データ求めることが可能な、半導体装置を提供することができる。
〔17〕<シングルチップ>
項9から項16のうちのいずれか1項において、単一半導体基板上に形成される。
これにより、車載用画像処理装置における半導体装置の実装面積を低減し、車載用画像処理装置のコストをより低く抑えることができる。
2.実施の形態の詳細
実施の形態について更に詳述する。
〔実施形態1〕<速度情報に基づき領域毎に最適な画像処理>
図1は、実施形態1に係る車載用画像処理装置10の構成例を示すブロック図である。
車載用画像処理装置10は、レンズとイメージセンサを含むカメラモジュール1(以降、単に「カメラ1」と呼ぶ)と、画像認識部3と、判断部4とを備える。カメラ1は、図4と図5を引用して後段で詳述されるように、反射板2を備えることにより、車両の前方の映像と車両の周囲等の映像とを、1フレームの画面内に同時に撮像することができる。カメラ1は、例えば、車内のバックミラーの裏側に、運転者の視界の前方方向に向けて設置される、所謂フロントカメラである。
図2は、実施形態1に係る車載用画像処理装置10の映像データ50を示す説明図である。カメラ1によって撮像された1フレームの映像データ50には、境界線51を挟んで下側の領域52と上側の領域とが含まれている。境界線51の下側の領域52が、反射板2を通さず直接、車両の前方を撮像した映像領域であり、境界線51の上側の領域53が、反射板2によって反射されることによって、車両の周辺等を撮像した映像領域である。
判断部4には、自車両の速度情報8が供給される。車載用画像処理装置10は、図1に例示されるように、独立の速度検出部7を備え、速度情報8を検出して、判断部4に供給するように構成しても良い。車載用画像処理装置10は、また、後述のように画像認識部3の一部の機能として実現される速度検出部19によって速度情報8を検出して、判断部4に供給するように構成しても良い。判断部4は、供給された速度情報8に基づいて、画像認識部3に対して制御指示情報9を供給する。
画像認識部3には、前記車両前方の映像である境界線51の下側の領域52と、他の方向の映像である境界線51の上側の領域53とを、1フレーム内に同時に含む映像データ50が、カメラ1から供給される。境界線51の下側の領域52と上側の領域53の映像データに対して、制御指示情報9に基づく画像処理を行い、その結果を判断部4に供給する。
これにより、車載用画像処理装置10は、車両の速度に応じた判断処理に必要な情報を得るために、適宜最適な画像処理を行うことができ、複数の映像領域に対して1個の画像認識部を設ければ足り、コストを抑えることができる。
<高速走行時は前方映像、低速走行時は周辺映像の画像処理>
図3は、画像処理の内容の一例を示すフローチャートである。境界線51の上側の領域53は、車両の周辺の映像であるとする。
判断部4は、入力される速度情報8に基づいて、画像認識部3において実行させるべき処理を指定する、制御指示情報9を、画像認識部3に対して供給する。図3において、制御指示情報9は、「高速走行」、「低速走行」、及び「特殊」の3通りであるものとして説明する。まず、画像認識部3は、制御指示情報9に基づいて、画像処理と画像認識の対象とすべき映像領域を判断する(S1)。車両が高速走行中の場合には、前方監視が主となるので、画像認識部3は境界線51の下側の領域52を対象として、遠景に適する鮮鋭化処理S2と色変換処理S5を順次行う。車両が低速走行中の場合には、周辺監視が主となるので、画像認識部3は境界線51の上側の領域53を対象として、近景に適する鮮鋭化処理S3と色変換処理S6を順次行う。
ここで、鮮鋭化処理は、例えば先行車両との間の車間距離や、路面や路肩の対象物まで距離を画像認識によって求めるための前処理の1つである。鮮鋭化処理は、例えば、エッジ強調処理であり、対象画像の輝度のヒストグラムから中間値を求め、その中間値を横切る部分を、対象物のエッジの候補として認識する。上記のように距離を正確に求めるためには、エッジが鮮明であることが求められるので、エッジを強調する、即ち鮮鋭化する画像処理が施される。
高速走行時で前方監視が主となる場合は、判断部4では、先行車両との車間距離や、前方の障害物の有無が、主な判断処理S8となり、低速走行時で周辺監視が主となる場合は、判断部4では、周辺の障害物までの距離などが、主な判断処理S9となる。このとき、高速走行時には境界線51の上側の領域53を対象とする画像処理を、低速走行時には境界線51の下側の領域52を対象とする画像処理を、それぞれ省略することにより、画像認識部3の回路規模を抑え、或いは演算処理の負荷を抑えることによって消費電力を抑えることができる。一方、高速走行時にも境界線51の上側の領域53を対象とする画像処理を、低速走行時には境界線51の下側の領域52を対象とする画像処理を、それぞれ主たる映像領域に対する画像処理と並列に実行することにより、判断処理S8とS9の信頼性を向上させることができる。
さらに、高速走行時には前方監視に注力し、前方監視で見つかった結果を元に周辺監視にも情報をフィードバックして画像認識の精度を向上することができる。また、低速走行時には逆に周辺監視に注力し、その結果を元に前方監視にも情報をフィードバックして画像認識の精度を向上することができる。
判断部4は、上述の「高速走行」と「低速走行」に加えて、さらに「特殊」な処理を、画像認識部3に対して指示することができる。「特殊」の場合には、例えば、境界線51の下側の領域52と上側の領域53の両方について、遠景に適する画像処理と近景に適する画像処理との間の中間的な鮮鋭化処理S4と色変換処理S7を行わせる制御指示情報8を、画像認識部3に供給する。これにより、高速走行と低速走行に分類されない特殊な場合にも、適切な画像処理を実行させることができる。
<カメラモジュールの構造>
図4は、カメラモジュール1の構成例を示す外観図であり、図5は側面断面図である。カメラモジュール1は、基板43上に実装され配線44が接続されたイメージセンサ5と、レンズ41などで構成される光学系が、収納カバー42内に収納されて構成される。反射板2は、光学系であるレンズ41等を通してイメージセンサ5に入射する入射光の光路内に設置される。図4では、収納カバー42を透視したものとした内側が、破線で描かれている。反射板2が設置されない場合には、前方の映像をそのままイメージセンサ5の全体に撮り込むことができる。反射板2が設置されることにより、反射板2によって遮られない部分の前方の映像がそのままイメージセンサ5に撮り込まれ、同時に、周囲などからの映像が反射板2によって反射されて、イメージセンサ5に撮り込まれる。
光学系であるレンズ41等は、上述の高速走行、低速走行、または、特殊の場合によらず、常に固定されて構成されることが好適である。光学系が固定されることにより、映像50における境界線51の位置が固定され、画像認識部3の構成を簡略化し、或いは画像認識部3による画像処理の演算負荷が大きくなることを防止することができる。また、カメラモジュール1のコストを低く抑えることができる。さらに、可動部分をなくすことにより、車両の振動に対する耐久性と信頼性を向上することができる。
一方、光学系であるレンズ41等を、高速走行、低速走行、または、特殊、などの制御指示情報に連動させてもよい。例えば、高速走行時には前方監視が主となるので、レンズ41を比較的遠景に合焦する位置に移動させ、低速走行時には周辺監視が主となるので、レンズ41を比較的近景に合焦する位置に移動させ、両方を同時に監視する特殊な場合には中間的な距離に合焦する位置に移動させることができる。これにより、より正確な画像認識を行うことができる。
<車載用画像処理装置の詳細な構成例>
図6は、車載用画像処理装置10の詳細な構成例を示すブロック図である。車載用画像処理装置10は、カメラモジュール1に搭載されているイメージセンサ5と、画像認識部3と判断部4を含んで構成されるLSI20と、フレームメモリ11とによって構成される。LSI20は、画像認識部3と、判断部4と、メモリインターフェース部12と、カメラ入力部13と、カメラ制御部14とを含んで構成される。
カメラ入力部13は、イメージセンサ5から入力される映像データを取り込んで、メモリインターフェースを介してフレームメモリ11に書き込む。イメージセンサ5からの入力がアナログ信号である場合には、A/D変換器を備え、入力されるアナログ信号を順次ディジタルデータに変換して、フレームメモリ11に書き込む。また、映像信号に対する種々の前処理を含んで構成されても良い。
画像認識部3は、鮮鋭化を行う画像処理部16と、色変換を行う画像処理部17と、その他の各種処理を行なう画像処理部18とを含んで構成される。画像認識部3は、さらに、速度検出を行う画像処理部19を含んで構成される。画像認識部3には、メモリインターフェース部12を介してフレームメモリ11から、映像データが入力される。速度検出を行う画像処理部19では、映像データに基づいて、自己の車両の走行速度を検出する。複数フレームの映像データを利用し、路面や路側帯の目標物と自己の車両との距離の時間的な変化を求めることにより、走行速度などの速度情報8を得ることができる。求められた速度情報8は、判断部4に供給される。判断部4は、速度情報8に基づいて、画像認識部3に制御指示情報9を供給する。画像認識部3は、与えられた制御指示情報9に基づいて、各画像処理部16、17、18において、鮮鋭化、色変換、及び、その他の各種画像処理、画像認識処理を行い、その結果を判断部4に供給する。判断部4は、それに基づいて、先行車両との車間距離、周囲の目標物、障害物などとの距離などに基づき、例えば自動運転、安全の確保、その他の制御のための種々の判断処理を行うことができる。また、判断部4は、カメラ制御部14を介してイメージセンサ5を制御する。
図7は、車載用画像処理装置10の詳細な別の構成例を示すブロック図である。車載用画像処理装置10は、カメラモジュール1に搭載されているイメージセンサ5と、速度センサ6と、画像認識部3と判断部4を含んで構成されるLSI20と、フレームメモリ11とによって構成される。図6に示される車載用画像処理装置10との違いは、図7の車載用画像処理装置10が速度センサ6を備え、LSI20が速度検出部7を備えている点と、図7の画像認識部3が速度検出を行う画像処理部19を備えていない点である。図7に示される車載用画像処理装置10では、速度センサ6で検知される速度に依存する信号が、速度検出部7を介して速度情報8として取り込まれ、判断部4に入力される。他の構成と動作は、図6に示される車載用画像処理装置10と同様であるので、説明を省略する。
図6に示される車載用画像処理装置10と図7に示される車載用画像処理装置10とを比較すると、図6の車載用画像処理装置10では、外部から速度センサの信号を入力する必要がなくなり、より低コストの車載用画像処理装置を提供することができる。一方、図7に示される車載用画像処理装置10では、専用の速度センサ6から速度情報8が入力される点で、速度についての判断を正確に行うことができる。
速度検出部7と速度検出を行う画像処理部19とを共に備え、それぞれで抽出される速度情報8を、並行して判断部4に供給することもできる。これにより、外部から入力される速度センサ6の信号と画像認識部3が算出する速度情報8とを互いに補完的に利用することによって、車両の走行速度をより正確に求めることが可能な、車載用画像処理装置10を提供することができる。
図8は、車載用画像処理装置10に搭載されるLSI(半導体装置)20の構成例を示すブロック図である。LSI20は、CPU(Central Processing Unit)21と、外部メモリインターフェース12と、アクセラレータ22と、内蔵メモリ23と、周辺回路を含んで構成される。周辺回路には、カメラ入力部13とカメラ制御部14からなるカメラインターフェース部25と、タイマ26などが含まれる。例えばタイマ26は、速度センサ6から入力される、タイヤの回転数に比例するパルスを、所定の期間ごとにカウントすることによって速度情報8を求める、速度検出部7を構成することができる。画像認識部3に含まれる各種の画像処理16、17、18、19等は、例えば、アクセラレータ22によって実装され、判断部4の機能は、内蔵メモリ23に格納されるプログラムをCPU21によって実行することによって実装される。
LSI20は、特に制限されないが、例えば、公知のCMOS(Complementary Metal-Oxide-Semiconductor field effect transistor)LSIの製造技術を用いて、シリコンなどの単一半導体基板上に形成される。複数のチップによって構成されてもよいし、フレームメモリ11をさらに含んで単一チップに形成されてもよい。単一チップに集積されることにより、車載用画像処理装置10における実装面積を低減し、車載用画像処理装置10のコストをより低く抑えることができる。
〔実施形態2〕<ステレオカメラ>
図9は、実施形態2に係る車載用画像処理装置10の構成例を示すブロック図である。図1に示される、実施形態1に係る車載用画像処理装置10の構成例との違いは、左右1対のカメラ1Lと1Rとを備えており、所謂ステレオカメラを構成する点である。ステレオカメラは視覚内の物体までの距離を測定する手法の一つで2つのカメラで構成され視差映像を用いた物体までの距離測定が可能である。車載用画像処理装置10は、実施形態1に係る車載用画像処理装置10と同様に、他に画像認識部3と、判断部4と速度検出部7または19を含んで構成される。右側のカメラ1Rの前方には、実施形態1で示したカメラ1と同様に、反射板2が設置されている。左側のカメラ1Lには、反射板は設置されていない。右側のカメラ1Rからの映像と左側のカメラ1Lからの映像は、共に、画像認識部3に供給される。左右1対のカメラは、例えば、フロントグラス上部に互いに所定の距離を離して設置される。右側のカメラ1Rに反射板2を備える例を示したが、左側のカメラ1Lに反射板2を備えてもよい。
図10は、実施形態2に係る車載用画像処理装置10の映像データを示す説明図である。(a)に左側のカメラ1Lで撮像される映像データ50Lが示され、(b)に右側のカメラ1Rで撮像される映像データ50Rが示される。右側のカメラ1Rの映像データ50Rには、図2に示される映像データ50と同様に、境界線51Rを挟んで下側の領域52Rと上側の領域とが含まれている。境界線51Rの下側の領域52Rが、反射板2を通さず直接、車両の前方を撮像した映像領域であり、境界線51Rの上側の領域53Rが、反射板2によって反射されることによって、車両の周辺等を撮像した映像領域である。左側のカメラ1Lからの映像データ50Lには、境界線がなく、車両の前方を撮像した映像領域52Lのみで構成される。
判断部4には、自車両の速度情報8が供給される。車載用画像処理装置10は、図2に例示されるように、独立の速度検出部7を備えて速度情報8を検出して、判断部4に供給するように構成しても良い。車載用画像処理装置10は、また、前述のように画像認識部3の一部の機能として実現される速度検出部19によって速度情報8を検出して、判断部4に供給するように構成しても良い。判断部4は、供給された速度情報8に基づいて、画像認識部3に対して制御指示情報9を供給する。
画像認識部3には、左右のカメラ1Lと1Rから、映像データ50Lと50Rが供給され、判断部4から供給される制御指示情報9に基づいて、画像処理を行ない、その結果を判断部4に供給する。
図11は、画像処理の内容の一例を示すフローチャートである。画像認識部3では、判断部4から供給される制御指示情報9に基づいて、右側のカメラ1Rからの映像データ50Rに対して速度に依存する鮮鋭化と色変換の画面処理30が実行される。画面処理30の詳細は、図3のフローチャートに示した処理と同様に構成することができる。一方、左側のカメラ1Lからの映像データ50Lに対しては、速度に依存せず、1フレーム全体に対して一様な鮮鋭化と色変換の画面処理31が実行される。
次に、それぞれの処理結果から、画面切り出し32Rと32Lが実行される。画面切り出し32Rと32Lでは、左右のカメラ1Lと1Rで同時に撮像された同じ対象物を含む左右の映像データと、同じ対象物を含まない左右それぞれの映像データに切り分けられる。同じ対象物を左右のカメラ1Lと1Rで同時に撮像した映像データは、左右の視差を利用した画像処理、即ち、視差検出やベクトル検出を伴う画像認識33に利用することができる。主に車両前方の映像データがこれに該当する。一方、左右それぞれの映像データは、それぞれの目的で画像認識に利用される。例えば、左側のカメラ1Lからの映像データ50Lは、車両前方の上方の映像が含まれているので、信号機や標識等を認識する画像認識処理34Lが実行される。一方、右側のカメラ1Rからの映像データ50Rは、反射板2で反射されることによって、車両の周辺等の映像データ53Rが含まれているので、これに対して周辺の対象物、障害物等を認識する画像認識処理34Rが実行される。画像認識処理33、34R、34Lの結果は、判断部4に供給される。
これにより、ステレオカメラにおいて、車両前方の映像に基づく視差検出やベクトル検出などの画像処理と、車両周辺の画像処理を、車両の速度に応じて適宜切替えて判断処理に供給することができる。
例えば、高速走行時には前方監視に重きが置かれるので、右側カメラ1Rからの映像データ50Rに対しては、画面処理30により車両前方の映像データ52Rについて、遠景に適する鮮鋭化処理と色変換処理が行われ、画面切り出し32Rを経て画像認識部33に供給される。一方、左側カメラ1Lからの映像データ50Lに対しては、画面処理31により車両前方の映像データ52Lについて、遠景に適する鮮鋭化処理と色変換処理が行われ、画面切り出し32Lを経て画像認識部33に供給される。ここで、右側からの映像データ52Rと整合させるために、下側の領域が切り出されて、画像認識部33に供給される。一方、上側の領域には、信号機や標識の映像データが含まれている可能性があるので、画面切り出し部32Lによって切り出され、画像認識部34Lに供給される。画像認識部33では、同じ対象物を左右のカメラ1Lと1Rで撮像した1対の映像データが揃うので、その視差を検出して対象物までの距離、例えば車間距離や障害物までの距離を算出し、さらにフレーム間でのそれらの距離の変化を勘案してベクトル検出をすることにより、先行車両であるのか障害物であるのかを判断するための画像認識処理を行うことができる。右側カメラ1Rでは反射板2があるために取得できなかった、前方上方の映像データに対して、画像認識部34Lでは信号機や標識等の認識処理が実行される。視差を利用することはできないが、画像認識部33で視差検出された路面側の特徴点との相対関係から、距離を算出または推定することも可能である。高速走行時には、画面処理部30において、反射板2によって反射されて撮像された映像データ51Rの処理は省略されることができる。このとき、画面認識部34Rも動作しない。
一方、低速走行時には周辺監視に重きが置かれるので、右側カメラ1Rからの映像データ50Rに対しては、画面処理30により車両周辺の映像データ53Rについて、近景に適する鮮鋭化処理と色変換処理が行われ、画面切り出し32Rを経て画像認識部34に供給され、周辺の障害物等の認識処理が行われる。このとき、右側カメラ1Rからの車両前方の映像データ52Rについては、画面処理30が省略され、画像認識部33には、左側カメラ1Lからのみの前方の映像データ52Lが供給される。左右のうちの一方のみの映像データであるので、視差検出をすることはできないが、低速走行中であるので、車両の前方、特に遠景についての処理は、省略されても問題が大きくない。
画面処理30において、図3を引用して説明した実施形態1における、「特殊」な処理と同様の処理を、実行可能に構成しても良い。画面処理30において、右側カメラ1Rからの映像データ50Rの境界線51Rの下側の領域52Rと上側領域53Rについて、一律に遠景と近景の中間的な鮮鋭化処理と色変換処理を行なう。それぞれの領域の結果を画面切り出し32Rによって切り出して、下側の領域52Rを視差検出等を行う画像認識部33と周辺の画像認識を行う画像認識部34Rにそれぞれ供給する。この場合には、鮮鋭化処理と色変換処理とが、遠景か近景かのどちらか一方に最適化されいないため、画像認識の精度が多少犠牲になる恐れがあるが、前方と周辺を同時に監視することができる点で有効である。
〔実施形態3〕<左右両側のステレオカメラに反射板>
図12は、実施形態3に係る車載用画像処理装置10の構成例を示すブロック図である。図9に示される、実施形態2に係る車載用画像処理装置10の構成例との違いは、左右1対のカメラ1Lと1Rそれぞれの前方に反射板2Lと2Rを備えている点である。車載用画像処理装置10は、実施形態2に係る車載用画像処理装置10と同様に、他に画像認識部3と、判断部4と速度検出部7または19を含んで構成される。
図13は、実施形態3に係る車載用画像処理装置10の映像データを示す説明図である。(a)に左側のカメラ1Lからの映像データ50Lが示され、(b)に右側のカメラ1Rからの映像データ50Rが示される。左右のカメラ1Lと1Rからの映像データ50Lと50Rは、どちらも、図2に示される映像データ50と同様に、境界線51Lと51Rを挟んで、下側の領域52Lと52R、及び、上側の領域53Lと53Rが含まれている。
判断部4には、自車両の速度情報8が供給される。車載用画像処理装置10は、図2に例示されるように、独立の速度検出部7を備えて速度情報8を検出して、判断部4に供給するように構成しても良い。車載用画像処理装置10は、また、前述のように画像認識部3の一部の機能として実現される速度検出部19によって速度情報8を検出して、判断部4に供給するように構成しても良い。判断部4は、供給された速度情報8に基づいて、画像認識部3に対して制御指示情報9を供給する。
画像認識部3には、左右のカメラ1Lと1Rから、映像データ50Lと50Rが供給され、判断部4から供給される制御指示情報9に基づいて、画像処理を行ない、その結果を判断部4に供給する。
画像認識部3による画像処理の内容は、実施形態2において引用した図11と同様に構成することができるが、画面処理31は自車両の走行速度に依存する画面処理30と同じく、図3のフローチャートに示した処理と同様に構成される。左側カメラ1Lから入力される映像データ50Lには、車両前方の映像データである52Lと周辺の映像データである53Lとが含まれているので、高速走行時は、映像データ52Lに注目して前方監視に重点を置き、低速走行時には映像データ53Lに注目して周辺監視に重点を置くことができる。次に、それぞれの処理結果から、画面切り出し32Rと32Lが実行される。画面切り出し32Rと32Lでは、左右のカメラ1Lと1Rで撮像された同じ対象物を含む左右の映像データと、同じ対象物を含まない左右それぞれの映像データに切り分けられる。
上述の実施形態2においては、前方の映像データ52Lと52Rのみが、視差検出を行う画像認識部33に供給されるために切り出されたが、本実施形態3においては周辺の映像データ53Lと53Rのうちの一部にも、左右のカメラ1Lと1Rで撮像された同じ対象物が含まれている。その領域の映像データは、画面切り出し32Rと32Lで切り出されて、視差検出を行う画像認識部33に供給される。一方、周辺の映像データ53Lと53Rのうち、同じ対象物を含まない左右それぞれの映像データは、画面切り出し32Rと32Lで切り出されて、左右それぞれの画像認識部34Lと34Rに供給される。
これにより、低速走行時などの周辺監視の場合にも、ステレオカメラによる視差検出による、距離等の算出を行うことができる。
〔実施形態4〕<視点の変更と合成>
画像認識部3で切り出された、車両前方の映像52、52L、52Rなどと、車両周辺の映像53、53L、53Rなどは、カメラ1、1L、1Rを視点とする映像である。これに対して視点変換処理を施すことにより、別の視点からの映像を合成することができる。例えば、自車両を上空から俯瞰した映像に変換することができる。このとき、カメラの構成は、単眼でもステレオでも良い。本実施形態では、説明の簡略化のために、単眼の場合を例に採って説明する。
図14は、実施形態4に係る車載用画像処理装置によって合成される画像データを示す説明図である。
合成される画像データは、4通りの6領域に分けて合成される。4通りの領域とは、通常映像領域54と、反射板映像領域55と、通常映像と反射板映像とが重複する領域56と、どちらの映像にも含まれない領域57である。通常映像と反射板映像のどちらの映像にも含まれない領域57は、カメラの死角によって生じる。反射板映像領域55とどちらの映像にも含まれない領域57は、図示されるように、左右に存在する。通常映像領域54は、車両前方の映像52を元に視点を変更する画像処理が実行された結果であり、反射板映像領域55は、車両周辺の映像53を元に視点を変更する画像処理が実行された結果である。車両前方の映像52と周辺の映像53には、重複部分があるので、その部分については、それぞれの映像を元に視点を変更する画像処理を実行した上で、相互補完して領域56の画像データを合成する。ステレオカメラの場合には、視差を利用してさらに高精度に画像を合成してもよい。通常映像と反射板映像のどちらの映像にも含まれない領域57については、過去のフレームの映像データに基づいて推定し、又は、他の領域の端部の映像データに基づいて推定し、又は、当該部分の画像データとして推定不能であることを示すための所定の画像データを出力する。
これにより、従来より少ないカメラと画像認識部を使って、視点を変換された画像を求めることが可能な、車載用画像処理装置10を提供することができる。また、死角となった領域の画像を推定によって求めることにより、カメラの死角部分においても欠落を生じさせることなく、視点が変換された画像データ求めることが可能な、車載用画像処理装置を提供することができる。
以上本発明者によってなされた発明を実施形態に基づいて具体的に説明したが、本発明はそれに限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは言うまでもない。
例えば、反射板が設置されたカメラによって撮影される領域を、主に、車両の前方と周辺として説明したが、これを車両の後方と車内などに変更してもよい。また、撮像方向を変更するためには、反射板に代えてプリズムやレンズを用いても良い。
1 カメラモジュール(簡略に「カメラ」と呼ぶ)
2 反射板
3 画像認識部
4 判断部
5 イメージセンサ
6 速度センサ
7 速度検出部
8 速度情報
9 制御指示情報
10 車載用画像処理装置
11 フレームメモリ
12 メモリインターフェース部
13 カメラ入力部
14 カメラ制御部
15 速度検出部
16 画像処理(鮮鋭化)
17 画像処理(色変換)
18 画像処理(各種)
19 画像処理(速度検出)
20 半導体装置(LSI)
21 CPU
22 アクセラレータ
23 内蔵メモリ
24 周辺回路
25 カメラインターフェース
26 タイマ
30 速度依存の画像処理(鮮鋭化・色変換)
31 速度に依存しない画像処理(鮮鋭化・色変換)
32 画面切り出し
33 視差検出/ベクトル検出/画像認識
34 画像認識(信号機・標識等の認識)
41 レンズ
42 収納カバー
43 基板
44 配線
50 映像データ
51 境界
52 車両前方の映像領域
53 車両周辺の映像領域
54 通常映像領域
55 反射板映像領域
56 通常映像と反射板映像とが重複する領域
57 予測映像領域(死角)

Claims (21)

  1. カメラと、画像認識部と、判断部とを備え、車両に搭載されるための車載用画像処理装置であって、
    前記判断部は、前記車両の速度情報が供給され、前記速度情報に基づいて、前記画像認識部に対して制御指示情報を供給可能に構成され、
    前記画像認識部は、前記車両前方の映像である第1領域と前記車両前方よりも下側方向の前記車両周辺の映像である第2領域とを1フレーム内に同時に含む映像データが、前記カメラから供給され、前記第1領域と前記第2領域の映像データに対して、前記制御指示情報に基づく画像処理を行い、その画像処理結果を前記判断部に供給可能に構成され、
    前記判断部は、前記画像処理結果に基づいて、前記車両を制御するための判断処理を行うことが可能に構成される、
    車載用画像処理装置。
  2. 請求項1において、前記第2領域は、前記車両の周辺の映像であり、
    前記判断部は、前記速度情報が前記車両が高速走行中であることを示す情報であるときは、前記第1領域について遠景に適する画像処理を行わせ、前記第2領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能であり、前記速度情報が前記車両が低速走行中であることを示す情報であるときは、前記第2領域について近景に適する画像処理を行わせ、前記第1領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される、車載用画像処理装置。
  3. 請求項2において、
    前記判断部は、さらに、前記速度情報が高速走行または低速走行のいずれにも分類されない場合に、前記第1領域と前記第2領域の両方について、遠景に適する画像処理と近景に適する画像処理との間の中間的な画像処理を行わせる制御指示情報を、前記画像認識部に供給可能に構成される、車載用画像処理装置。
  4. 請求項1において、
    前記画像認識部は、前記映像データから前記車両の速度情報を算出し、前記判断部に供給する機能をさらに有する、車載用画像処理装置。
  5. 請求項1において、前記カメラを第1カメラとし、前記映像データを第1映像データとし、前記車載用画像処理装置は、前記第1カメラと左右1対の第2カメラをさらに備え、
    前記第2カメラは、前記車両前方の映像を1フレーム内に含む第2映像データを前記画像認識部に供給可能に構成され、
    前記画像認識部は、前記第1映像データのうちの前記第1領域の映像データと、前記第2映像データとの視差に基づく画像認識処理を実行可能に構成される、車載用画像処理装置。
  6. 請求項5において、前記第2映像データは、前記車両前方の映像である第3領域と車両の周辺の映像である第4領域とを、1フレーム内に同時に含み、
    前記画像認識部は、前記第1映像データのうちの前記第1領域の映像データと、前記第2映像データのうちの前記第3領域の映像データとの視差に基づく画像認識処理を実行可能に構成され、
    前記判断部は、前記速度情報が前記車両が高速走行中であることを示す情報であるときは、前記第1領域と前記第3領域について遠景に適する画像処理を行い、前記第2領域と前記第4領域についての画像処理を省略させる、制御指示情報を前記画像認識部に供給可能であり、前記速度情報が前記車両が低速走行中であることを示す情報であるときは、前記第2領域と前記第4領域について近景に適する画像処理を行い、前記第1領域と前記第3領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される、車載用画像処理装置。
  7. 請求項1において、
    前記画像認識部は、前記映像データに含まれる各領域の映像データについて、それぞれの映像データを所定の視点からの画像に変換し、各領域の映像データから変換された画像を合成する機能をさらに有する、車載用画像処理装置。
  8. 請求項7において、
    前記画像認識部は、複数の領域の映像データに含まれる部分の画像については、前記複数の領域の映像データの視差を利用して互いに補完して合成し、前記複数の領域の映像データのいずれにも含まれない部分の画像については、過去のフレームの映像データに基づいて推定し、又は、前記複数の領域の端部の映像データに基づいて推定し、又は、当該部分の画像データとして推定不能であることを示すための所定の画像データを出力する機能をさらに有する、車載用画像処理装置。
  9. 画像認識部と、判断部とを備え、車両に搭載されるカメラが接続されることによって車載用画像処理装置を構成可能な半導体装置であって、
    前記判断部は、前記車両の速度情報が供給され、前記速度情報に基づいて、前記画像認識部に対して制御指示情報を供給可能に構成され、
    前記画像認識部は、前記車両前方の映像である第1領域と前記車両前方よりも下側方向の前記車両周辺の映像である第2領域とを1フレーム内に同時に含む映像データが、前記カメラから供給され、前記第1領域と前記第2領域の映像データに対して、前記制御指示情報に基づく画像処理を行い、その画像処理結果を前記判断部に供給可能に構成され、
    前記判断部は、前記画像処理結果に基づいて、前記車両を制御するための判断処理を行うことが可能に構成される、
    半導体装置。
  10. 請求項9において、前記第2領域は、前記車両の周辺の映像であり、
    前記判断部は、前記速度情報が前記車両が高速走行中であることを示す情報であるときは、前記第1領域について遠景に適する画像処理を行わせ、前記第2領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能であり、前記速度情報が前記車両が低速走行中であることを示す情報であるときは、前記第2領域について近景に適する画像処理を行わせ、前記第1領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される、半導体装置。
  11. 請求項10において、
    前記判断部は、さらに、前記速度情報が高速走行または低速走行のいずれにも分類されない場合に、前記第1領域と前記第2領域の両方について、遠景に適する画像処理と近景に適する画像処理との間の中間的な画像処理を行わせる制御指示情報を、前記画像認識部に供給可能に構成される、半導体装置。
  12. 請求項9において、
    前記画像認識部は、前記映像データから前記車両の速度情報を算出し、前記判断部に供給する機能をさらに有する、半導体装置。
  13. 請求項9において、前記カメラを第1カメラとし、前記映像データを第1映像データとし、前記車載用画像処理装置は、前記第1カメラと左右1対の第2カメラをさらに備え、
    前記第2カメラは、前記車両前方の映像を1フレーム内に含む第2映像データを前記半導体装置の前記画像認識部に供給可能に構成され、
    前記画像認識部は、前記第1映像データのうちの前記第1領域の映像データと、前記第2映像データとの視差に基づく画像認識処理を実行可能に構成される、半導体装置。
  14. 請求項13において、前記第2映像データは、前記車両前方の映像である第3領域と車両の周辺の映像である第4領域とを、1フレーム内に同時に含み、
    前記画像認識部は、前記第1映像データのうちの前記第1領域の映像データと、前記第2映像データのうちの前記第3領域の映像データとの視差に基づく画像認識処理を実行可能に構成され、
    前記判断部は、前記速度情報が前記車両が高速走行中であることを示す情報であるときは、前記第1領域と前記第3領域について遠景に適する画像処理を行わせ、前記第2領域と前記第4領域についての画像処理を省略させる、制御指示情報を前記画像認識部に供給可能であり、前記速度情報が前記車両が低速走行中であることを示す情報であるときは、前記第2領域と前記第4領域について近景に適する画像処理を行わせ、前記第1領域と前記第3領域についての画像処理を省略させる制御指示情報を、前記画像認識部に供給可能に構成される、半導体装置。
  15. 請求項9において、
    前記画像認識部は、前記映像データに含まれる各領域の映像データについて、それぞれの映像データを所定の視点からの画像に変換し、各領域の映像データから変換された画像を合成する機能をさらに有する、半導体装置。
  16. 請求項15において、
    前記画像認識部は、複数の領域の映像データに含まれる部分の画像については、前記複数の領域の映像データの視差を利用して互いに補完して合成し、前記複数の領域の映像データのいずれにも含まれない部分の画像については、過去のフレームの映像データに基づいて推定し、又は、前記複数の領域の端部の映像データに基づいて推定し、又は、当該部分の画像データとして推定不能であることを示すための所定の画像データを出力する機能をさらに有する、半導体装置。
  17. 請求項9において、単一半導体基板上に形成される、半導体装置。
  18. 請求項1において、前記判断部は、前記車両が高速に走行している場合に、前記車両と先行車両との車間距離、前記車両前方の障害物の有無の少なくとも一つを含む前方監視結果に基づいて前記判断処理を行う
    車載用画像処理装置。
  19. 請求項1において、前記判断部は、前記車両が低速に走行している場合に、前記車両と前記車両周辺の障害物との距離を含む周辺監視結果に基づいて前記判断処理を行う
    車載用画像処理装置。
  20. 請求項9において、前記判断部は、前記車両が高速に走行している場合に、前記車両と先行車両との車間距離、前記車両前方の障害物の有無の少なくとも一つを含む前方監視結果に基づいて前記判断処理を行う
    半導体装置。
  21. 請求項9において、前記判断部は、前記車両が低速に走行している場合に、前記車両と前記車両周辺の障害物との距離を含む周辺監視結果に基づいて前記判断処理を行う
    半導体装置。
JP2013241614A 2013-11-22 2013-11-22 車載用画像処理装置及び半導体装置 Active JP6429452B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013241614A JP6429452B2 (ja) 2013-11-22 2013-11-22 車載用画像処理装置及び半導体装置
US14/523,871 US9946938B2 (en) 2013-11-22 2014-10-25 In-vehicle image processing device and semiconductor device
CN201410674242.9A CN104660980B (zh) 2013-11-22 2014-11-21 车载图像处理装置和半导体装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013241614A JP6429452B2 (ja) 2013-11-22 2013-11-22 車載用画像処理装置及び半導体装置

Publications (2)

Publication Number Publication Date
JP2015103894A JP2015103894A (ja) 2015-06-04
JP6429452B2 true JP6429452B2 (ja) 2018-11-28

Family

ID=53182332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013241614A Active JP6429452B2 (ja) 2013-11-22 2013-11-22 車載用画像処理装置及び半導体装置

Country Status (3)

Country Link
US (1) US9946938B2 (ja)
JP (1) JP6429452B2 (ja)
CN (1) CN104660980B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101603609B1 (ko) * 2014-07-15 2016-03-28 현대모비스 주식회사 차량용 어라운드 뷰 모니터링 시스템 및 이의 방법
JP6444835B2 (ja) * 2015-09-07 2018-12-26 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム
US9953432B2 (en) 2016-08-17 2018-04-24 David M. Smith Systems and methods of detecting motion
CN107776487B (zh) * 2016-08-24 2021-01-15 京东方科技集团股份有限公司 汽车用辅助显示系统及显示方法、汽车
WO2019022910A2 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated SYSTEM AND METHOD FOR DYNAMICALLY CONTROLLING PARAMETERS FOR PROCESSING SENSOR OUTPUT DATA
WO2019026348A1 (ja) * 2017-07-31 2019-02-07 株式会社Jvcケンウッド 表示制御装置、表示制御システム、表示制御方法およびプログラム
CN108765258B (zh) * 2018-04-26 2022-05-24 深圳市商汤科技有限公司 车载图像处理方法和装置、电子设备、介质、程序产品
JP7203512B2 (ja) 2018-05-17 2023-01-13 株式会社小糸製作所 センサデータ生成装置
US20190362159A1 (en) * 2018-05-23 2019-11-28 GM Global Technology Operations LLC Crowd sourced construction zone detection for autonomous vehicle map maintenance
JP7051263B2 (ja) * 2018-11-27 2022-04-11 三菱電機株式会社 運転計画変更指示装置および運転計画変更指示方法
CN112367502B (zh) * 2020-10-19 2023-12-26 合肥晟泰克汽车电子股份有限公司 路况画面拼接方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2906894B2 (ja) * 1993-01-08 1999-06-21 トヨタ自動車株式会社 車間距離検出装置
JP3300337B2 (ja) * 2000-04-28 2002-07-08 松下電器産業株式会社 画像処理装置および監視システム
EP1150252B1 (en) 2000-04-28 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Synthesis of image from a plurality of camera views
JP2003125397A (ja) * 2001-10-18 2003-04-25 Auto Network Gijutsu Kenkyusho:Kk 車載用周辺監視装置
DE10253378B4 (de) 2001-11-16 2010-07-01 AutoNetworks Technologies, Ltd., Nagoya Visuelles Fahrzeugumgebungs-Erkennungssystem, Kamera und Fahrzeugumgebungs-Überwachungsvorrichtung sowie Fahrzeugumgebungs-Überwachungssystem
JP2003153251A (ja) * 2001-11-16 2003-05-23 Auto Network Gijutsu Kenkyusho:Kk 車両用周辺視認システム
JP3747866B2 (ja) * 2002-03-05 2006-02-22 日産自動車株式会社 車両用画像処理装置
JP4016796B2 (ja) * 2002-10-22 2007-12-05 オムロン株式会社 車載用撮像装置及びそれを用いた車両運転支援装置
JP3931891B2 (ja) * 2004-07-05 2007-06-20 日産自動車株式会社 車載用画像処理装置
JP2010263272A (ja) * 2009-04-30 2010-11-18 Koito Mfg Co Ltd 車両用監視カメラ及び車両用監視カメラシステム
JP5278819B2 (ja) * 2009-05-11 2013-09-04 株式会社リコー ステレオカメラ装置及びそれを用いた車外監視装置
JP2010268343A (ja) * 2009-05-18 2010-11-25 Olympus Imaging Corp 撮影装置および撮影方法
JP2011109634A (ja) 2009-06-17 2011-06-02 Rohm Co Ltd 車載カメラ
JP5574839B2 (ja) 2009-06-17 2014-08-20 ローム株式会社 車載カメラ
GB2472793B (en) * 2009-08-17 2012-05-09 Pips Technology Ltd A method and system for measuring the speed of a vehicle
JP2012131390A (ja) 2010-12-22 2012-07-12 Rohm Co Ltd 車載カメラ
JP2012221303A (ja) * 2011-04-11 2012-11-12 Mitsubishi Electric Corp 運転支援用車載点灯装置、車載運転支援装置及び運転支援システム
JP5925579B2 (ja) * 2012-04-25 2016-05-25 ルネサスエレクトロニクス株式会社 半導体装置、電子装置、及び画像処理方法
CN102658798B (zh) * 2012-05-07 2014-11-05 奇瑞汽车股份有限公司 一种车载夜视系统及其控制方法
US9674490B2 (en) * 2013-04-18 2017-06-06 Magna Electronics Inc. Vision system for vehicle with adjustable cameras

Also Published As

Publication number Publication date
CN104660980A (zh) 2015-05-27
CN104660980B (zh) 2019-04-02
JP2015103894A (ja) 2015-06-04
US9946938B2 (en) 2018-04-17
US20150145997A1 (en) 2015-05-28

Similar Documents

Publication Publication Date Title
JP6429452B2 (ja) 車載用画像処理装置及び半導体装置
US11657604B2 (en) Systems and methods for estimating future paths
JP6633216B2 (ja) 撮像装置、及び、電子機器
US20170337435A1 (en) System and method for detecting objects in an automotive environment
EP1895766B1 (en) Camera with two or more angles of view
JP2020501423A (ja) 車両の周辺領域を状況に依存した捕捉を実施するためのカメラ手段及び方法
WO2016147584A1 (ja) 車両監視装置、車両監視方法、及び、車両監視プログラム
EP3150961B1 (en) Stereo camera device and vehicle provided with stereo camera device
JP2017163539A (ja) 撮像素子、撮像装置及び移動体
JP7144926B2 (ja) 撮像制御装置、撮像装置、および、撮像制御装置の制御方法
JP6327115B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
US20180338095A1 (en) Imaging system and moving body control system
KR20200052694A (ko) 이동체에 포함된 카메라 시스템 및 그 제어방법.
WO2017149964A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
WO2015182148A1 (ja) 物体検出装置および物体検出装置を設置した車両
US11813986B2 (en) Driver assistance apparatus, a vehicle, and a method of controlling a vehicle
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
WO2017122688A1 (ja) 車載カメラのレンズ異常検出装置
KR20190083162A (ko) 차량용 영상 처리 장치 및 방법
US11265497B2 (en) Signal processing apparatus and method, imaging element, and electronic apparatus
CN115088248A (zh) 摄像装置、摄像系统和摄像方法
JP2020009386A (ja) 周辺認識装置及び車載カメラシステム
US11818470B2 (en) Image generation device, image generation method, and vehicle control system
US11410288B2 (en) Image processing apparatus
JP2022157399A (ja) 画像処理装置および画像処理方法、車両用制御装置、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161007

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R150 Certificate of patent or registration of utility model

Ref document number: 6429452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150