JP2023046965A - 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム - Google Patents

画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP2023046965A
JP2023046965A JP2021155833A JP2021155833A JP2023046965A JP 2023046965 A JP2023046965 A JP 2023046965A JP 2021155833 A JP2021155833 A JP 2021155833A JP 2021155833 A JP2021155833 A JP 2021155833A JP 2023046965 A JP2023046965 A JP 2023046965A
Authority
JP
Japan
Prior art keywords
image
image recognition
recognition result
area
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021155833A
Other languages
English (en)
Other versions
JP7500527B2 (ja
Inventor
真起子 森
Makiko Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021155833A priority Critical patent/JP7500527B2/ja
Priority to US17/901,886 priority patent/US20230098424A1/en
Priority to EP22194539.7A priority patent/EP4156127A1/en
Priority to CN202211168070.9A priority patent/CN115883985A/zh
Publication of JP2023046965A publication Critical patent/JP2023046965A/ja
Application granted granted Critical
Publication of JP7500527B2 publication Critical patent/JP7500527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】画像認識の精度と処理速度の両立を可能にする。【解決手段】画像処理システムは、低歪曲領域と高歪曲領域とを有する光学像をそれぞれ撮像する複数の撮像手段と、前記複数の撮像手段のそれぞれから得られた画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識手段と、前記複数の撮像手段のそれぞれから得られた前記画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識手段と、前記第1の画像認識結果と前記第2の画像認識結果とに基づき統合された画像認識結果を出力する統合処理手段とを有する。【選択図】 図3

Description

本発明は、画像認識が可能な画像処理システム、移動装置、画像処理方法、およびコンピュータプログラムに関する。
近年、車両に搭載されるルームミラー(後写鏡)を電子ルームミラーで置き換えるという要望がある。特許文献1には、車両外の後方を撮像範囲とする撮像部と車両内の表示部とを有し、撮像部で撮像した画像を車両内のディスプレイで表示することにより、ドライバーが車両外の後方の様子を確認できる電子ルームミラーシステムが開示されている。
他方、車両の後退時などに車両後方の死角をドライバーが確認できるようにする後方確認システムがある。特許文献2には、車両後方を撮像するようにカメラを設置し、撮像画像を車室内に表示することにより、後退時などに車両後方の死角をドライバーが確認できるようにするための後方確認システムが開示されている。
特開2010-95202号公報 特開2004-345554号公報
上述の電子ルームミラー用画像を撮像する撮像部は、ドライバーが後方の比較的遠方の様子をより精細に確認するため高解像度を有することが求められる。一方で、後方確認システム用カメラは、後退時などの衝突を回避するために、車両後方の死角や後側方を含んだより広い範囲での安全を確認するため、より広い範囲を撮像することが求められる。
従って、電子ルームミラーシステムと後方確認システムを車両に同時に搭載する場合、電子ルームミラーシステム用のカメラと、後方確認システム用のカメラを個別に搭載すると車載画像処理システムが複雑になってしまう。このような問題は、車両の周囲の状況を撮影するために複数のカメラを配置して自動運転などを行う自動運転システムにおいても同様に発生する。
これに対して、魚眼レンズなどの超広角レンズを用いたカメラを採用することによって、車両に設置するカメラの数を減らすことができるが、広い画角は得られるものの高解像度の画像を得ることは困難である。魚眼レンズを用いたシステムにおいて画像認識をする場合、歪曲補正せずに画像認識をすると、画像の周辺部の認識精度が低下する可能性がある。一方、歪曲補正をしてから画像認識をすると、画像のサイズまたは解像度によっては処理負荷が大きくなり時間がかかってしまう可能性がある。さらに、複数のカメラで撮像された複数の画像に対して歪曲補正をする場合には、より処理負荷が大きくなってしまう問題がある。
そこで、本発明は、画像認識の精度と処理速度の両立を可能にすることを目的とする。
本発明に係る画像処理システムは、
低歪曲領域と高歪曲領域とを有する光学像をそれぞれ撮像する複数の撮像手段と、
前記複数の撮像手段のそれぞれから得られた画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識手段と、
前記複数の撮像手段のそれぞれから得られた前記画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識手段と、
前記第1の画像認識結果と前記第2の画像認識結果とに基づき統合された画像認識結果を出力する統合処理手段と
を有する。
本発明によれば、画像認識の精度と処理速度の両立を可能にすることができる。
実施形態1における車両1とカメラユニット11~14の位置関係を説明する図である。 図2(A)および図2(B)はカメラユニット11~14の光学特性を説明するための図である。 実施形態1における画像処理システム100の構成を説明するためのブロック図である。 カメラ処理部31~34の処理フローを説明するためのフローチャートである。 統合処理部40における処理フローを説明するためのフローチャートである。 統合処理部40における統合処理フローを説明するためのフローチャートである。 実施形態1の画像表示方法の例について説明するためのフローチャートである。 実施形態1の高解像度領域と低解像度領域と複数種類の表示領域の関係を説明するための図である。 図9(A)は基準画角の画像の表示例を説明するための図であり、図9(B)は狭画角の画像の表示例を説明するための図であり、図9(C)は広画角の画像の表示例を説明するための図である。 図10(A)は第1表示部50の表示画面501の表示例を説明するための図であり、図10(B)は第2表示部51の表示画面511の表示例を説明するための図である。 図11(A)は後退時の狭画角の画像85Bの例を説明するための図であり、図11(B)は後進用の広画角の画像86Bの例を示した図である。
以下、図面を参照して本発明の実施形態を説明する。ただし、本発明は以下の実施形態に限定されるものではない。なお、図面において、同一の部材または要素については同一の参照番号を付し、それらの重複する説明については省略または簡略化する。
[実施形態1]
実施形態1では、高精細な電子ルームミラー用の表示や広範囲な後方などの車両周辺確認用の表示を少ない数のカメラで両立する改善された方法について説明する。
図1は、実施形態1における車両1(例えば自動車)とカメラユニット11~14の位置関係を説明する図である。車両1は移動装置として動作し、カメラユニット11~14はいずれも撮像装置として動作する。
実施形態1では、図1に示すように、移動装置としての車両1の前方、右側方、後方、左側方にそれぞれカメラユニット11、12、13、14が設置されている。なお、実施形態1では、画像処理システムが4つのカメラユニットを有するが、画像処理システムが有するカメラユニットの数は4に限定されるものではない。画像処理システムは、1つ以上のカメラユニットを有する画像処理システムであればよい。
カメラユニット11~14は、移動装置としての車両1のそれぞれ前方、右側方、左側方、後方を撮像範囲とするように設置されている。カメラユニット11~14は、カメラユニット11~14は、それぞれ、略同様の構成要素を有する。例えば、カメラユニット11~14は、それぞれ、光学像を撮像する撮像素子と、撮像素子の受光面に光学像を生成する光学系とを有する。例えば、カメラユニット11~14が有する光学系の光軸は、それぞれ、略水平となるように設置されている。
カメラユニット11~14が有する光学系は、それぞれ、光軸周辺の狭い画角において高精細な画像を得ることができ、広い画角において低解像度の撮像画像を得ることができるように構成されている。なお、図1において、11a~14aは高解像度の像を撮像可能な撮像画角であり、11b~14bは低解像度の像を撮像可能な撮像画角を示している。
次に、図2(A)および図2(B)を参照して、カメラユニット11~14が有する光学系の光学特性を説明する。カメラユニット11~14が有する光学系の光学特性は同じでなくてもよいが、実施形態1においては、カメラユニット11~14が有する光学系の光学特性が略同じであるものとする。従って、図2(A)および図2(B)では、カメラユニット11が有する光学系の光学特性を例示的に説明する。
図2(A)は、カメラユニット11が有する光学系の、撮像素子の受光面上での各半画角における像高yを等高線状に示した図である。図2(B)は、カメラユニット11が有する光学系の像高yと半画角θとの関係を表す射影特性を表した図である。図2(B)では、半画角(光軸と入射光線とがなす角度)θを横軸とし、カメラユニット11のセンサ面上(像面上)での結像高さ(像高)yを縦軸として示している。
カメラユニット11が有する光学系は、図2(B)に示すように、所定の半画角θa未満の領域と半画角θa以上の領域でその射影特性y(θ)が異なるように構成されている。従って、単位あたりの半画角θに対する像高yの増加量を解像度というとき解像度が領域によって異なる。この局所的な解像度は、射影特性y(θ)の半画角θでの微分値dy(θ)/dθで表されるともいえる。即ち、図2(B)の射影特性y(θ)の傾きが大きいほど解像度が高いといえる。また、図2(A)の等高線状の各半画角における像高yの間隔が大きいほど解像度が高いともいえる。
実施形態1においては、半画角θが所定の半画角θa未満のときにセンサ面上に生成される中心寄りの領域を高解像度領域10a、半画角θが所定の半画角θa以上の外寄りの領域を低解像度領域10bと呼ぶ。なお、高解像度領域10aの画角は撮像画角11aに対応しており、低解像度領域10bの画角は撮像画角11bに対応している。なお、実施形態1において、高解像度領域10aは歪曲が相対的に少ない低歪曲領域であり、低解像度領域10bは歪曲が相対的に多い高歪曲領域となっている。従って、実施形態1においては、高解像度領域、低解像度領域をそれぞれ低歪曲領域、高歪曲領域と呼ぶことがある。
カメラユニット11が有する光学系は、高解像度領域(低歪曲領域)10aにおいてその射影特性y(θ)がf×θよりも大きくなるように構成されている(fはカメラユニット11が有する光学系の焦点距離)。また、高解像度領域(低歪曲領域)における射影特性y(θ)は低解像度領域(高歪曲領域)における射影特性とは異なるように設定されている。
θmaxをカメラユニット11が有する光学系が有する最大の半画角とするとき、θaとθmaxの比θa/θmaxは所定の下限値以上であることが望ましく、例えば所定の下限値として0.15~0.16が望ましい。また、θaとθmaxの比θa/θmaxは所定の上限値以下であることが望ましく、例えば0.25~0.35とすることが望ましい。例えば、θaを90°とし、所定の下限値を0.15、所定の上限値0.35とする場合、θaは13.5~31.5°の範囲で決定することが望ましい。
さらに、カメラユニット11が有する光学系は、その射影特性y(θ)が、以下の数式1も満足するように構成されている。
Figure 2023046965000002
ここで、fは前述のようにカメラユニット11が有する光学系の焦点距離であり、Aは所定の定数である。下限値を1とすることで、同じ最大結像高さを有する正射影方式(y=f×sinθ)の魚眼レンズよりも中心解像度を高くすることができ、上限値をAとすることで、魚眼レンズ同等の画角を得つつ良好な光学性能を維持することができる。所定の定数Aは、高解像度領域と、低解像度領域の解像度のバランスを考慮して決めればよく、1.4~1.9となるようにするのが望ましい。
以上のように光学系を構成することで、高解像度領域10aにおいては、高解像度が得られる一方、低解像度領域10bでは、単位あたりの半画角θに対する像高yの増加量を小さくし、より広い画角を撮像することが可能になる。従って、魚眼レンズと同等の広画角を撮像範囲としつつ、高解像度領域10aにおいては、高い解像度を得ることができる。
実施形態1では、高解像度領域(低歪曲領域)においては、通常の撮像用の光学系の射影特性である中心射影方式(y=f×tanθ)や等距離射影方式(y=f×θ)に近い特性としているため、光学歪曲が小さく、精細に表示することが可能となる。従って、先行車や後続車両といった周囲の車両などを目視する際における自然な遠近感が得られると共に、画質の劣化を抑えて良好な視認性を得ることができる。
なお、上述の数式1の条件を満たす射影特性y(θ)であれば、同様の効果を得ることができるため、実施形態1は図2に示した射影特性に限定されない。なお、実施形態1では、上述の数式1の条件を満たす射影特性y(θ)を有する光学系を異画角レンズと呼ぶ場合がある。なお、カメラユニット11~14が有する光学系の高解像度領域10aの画角はそれぞれ撮像画角11a~14aに対応しており、カメラユニット11~14が有する光学系の低解像度領域10bの画角はそれぞれ撮像画角11b~14bに対応している。
次に、図3を参照して、実施形態1における画像処理システム100の構成を説明する。図3は、実施形態1における画像処理システム100の構成を説明するためのブロック図である。
図3において、画像処理システム100は、車両1に搭載されている。カメラユニット11~14は、それぞれ、撮像部21~24のいずれかとカメラ処理部31~34のいずれかとを有する。撮像部21~24は、それぞれ、異画角レンズ21c~24cのいずれかと撮像素子21d~24dのいずれかとを有する。撮像素子21d~24dは、例えば、CMOSイメージセンサまたはCCDイメージセンサを有する。ここで、撮像部21~24は、それぞれ、画像取得部として機能しており、低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像素子21d~24dのいずれかから画像データを取得している。
光学系としての異画角レンズ21c~24cは、それぞれ、1枚以上の光学レンズから構成されており、上述の数式1の条件を満たす射影特性y(θ)を有し、低歪曲領域と高歪曲領域とを有する光学像を撮像素子21d~24dのいずれかの受光面に生成する。撮像素子21d~24dは、それぞれ、光学像を光電変換して撮像データを出力する。撮像素子21d~24dの受光面には、それぞれ、例えばRGBの色フィルタが画素毎に配列されている。RGBの配列は例えばベイヤー配列となっている。従って、撮像素子21d~24dのそれぞれからは、ベイヤー配列に従って例えば所定の行からはR,G,R、Gの画素データが順次出力され、隣の行からはG,B,G,Bの画素データが順次出力されるように構成されている。
カメラ処理部31~34は、それぞれ、撮像部21~24のいずれかと共にカメラユニット11~14のいずれかの筐体に収納されている。カメラ処理部31~34は、それぞれ、撮像部21~24のいずれかから出力された撮像データを処理する。
カメラ処理部31~34は、それぞれ、画像処理部31a~34aのいずれかと、認識部31b~34bのいずれかと、カメラ情報部31c~34cのいずれかとを有する。画像処理部31a~34aは、撮像部21~24から出力された撮像データをそれぞれ画像処理する。なお、カメラ処理部31の一部または全部を撮像素子21d~24d内の積層された信号処理部で行ってもよい。
例えば、画像処理部31a~34aは、それぞれ、撮像部21~24のいずれかからベイヤー配列に従って入力された画像データをデベイヤ処理し、RGBのラスタ形式の画像データへ変換する。さらに、画像処理部31a~34aは、それぞれ、ホワイトバランスの調整、ゲイン・オフセット調整、ガンマ処理、カラーマトリックス処理、可逆圧縮処理などを行ってもよい。
認識部31b~34bは、それぞれ、画像処理部31a~34aのいずれかで画像処理された歪曲補正前の画像データからそれぞれ所定の対象物(例えば自動車、人物、障害物など)を画像認識する。例えば、認識部31b~34bは、それぞれ、低歪曲領域に対応する画像データを歪曲補正せずに歪曲補正前の画像データの状態で画像認識して第1の画像認識結果を出力する。
なお、認識部31b~34bは、それぞれ、少なくとも高解像度領域10aから得られた歪曲補正前の画像データに対して画像認識処理を行い、所定の対象物を認識する。そのために、高解像度領域10aだけを切り出してから画像認識処理してもよい。このような場合、認識部31b~34bは、それぞれ、低解像度領域10bから得られた歪曲補正前の画像データについても画像認識処理をしてもよい。但し、歪曲補正前の画像データは歪曲補正されていないので、異画角レンズの周辺部の画像は歪が大きく認識の信頼性は落ちることになる。
なお、認識部31b~34bは、それぞれ、高解像度領域10aから得られた歪曲補正前の画像データを切り出して、その高解像度領域10aから得られた歪曲補正前の画像データに対してだけ画像認識処理を行ってもよい。その場合、切り出す領域は、画像認識処理のために矩形にすることが望ましい。切り出す領域が矩形である場合、切り出す領域は、高解像度領域10a内の一部だけ(例えば高解像度領域10aに内接する矩形)でもよいし、高解像度領域10aと低解像度領域10bの両方を含んだ矩形でもよい。ここで、認識部31b~34bは、画像取得部により取得された画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識部として機能している。なお、実施形態1において、前記一部領域は、低歪曲領域に対応する領域である。
認識部31b~34bは、それぞれ、対象物の種類と座標のセットを認識結果として統合処理部40に送信する。一方、認識部31b~34bは、それぞれ、統合処理部40の統合制御部41cから、対象物の種類と、その対象物の移動方向に関する情報または優先認識領域情報のセットである予測情報を受信する。この予測情報については後述する。
実施形態1では、前方に対して設置されたカメラユニット11の認識部31bの出力は、走行制御部(ECU)60にも直接供給されている。これは、認識部31bの障害物などの認識結果に基づいて直ちに走行を停止したり、障害物を回避するように走行を制御する必要が生じる場合があるからである。
カメラ情報部31c~34cは、それぞれ、カメラユニット11~14のいずれかのカメラ情報を予めメモリ(ROMなど)に保持している。各カメラ情報は、異画角レンズ21c~24cのいずれかの光学特性と、撮像素子21d~24dのいずれかの画素数、ガンマ特性、感度特性、フレームレート、カメラユニットの車両座標における取り付け座標および姿勢情報とを含む。さらに、各カメラ情報は、画像処理部31a~34aのいずれかにおいて歪曲補正前の画像データを生成する際の画像処理方法や画像フォーマットに関する情報を含んでもよい。なお、取り付け座標や姿勢座標は車両1に対する相対的な座標である。また、各カメラ情報は、撮像部21~24のいずれかの固有の情報であり、互いに異なり 、それらの情報は統合処理部40に送信され、統合処理部40における画像処理をする際に参照される。
なお、カメラ処理部31~34の内部には、それぞれ、コンピュータとしてのCPUや記憶媒体としてのコンピュータプログラムを記憶したメモリが内蔵されている。また、各CPUはメモリ内のコンピュータプログラムを実行することにより、各カメラ処理部31~34に含まれる各構成要素を制御するように構成されている。
なお、実施形態1では、画像処理部31a~34aや認識部31b~34bは、例えば専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP、GPU(Graphics Processing Unit))などのハードウェアを用いる。それによって、高解像度領域の画像認識の高速化が実現でき、事故を回避できる可能性を高めることができる。
統合処理部40は、SOC(Sytem On Chip)/FPGA(Field Programable Gate Array)41、コンピュータとしてのCPU42、記憶媒体としてのメモリ43を有する。CPU42はメモリ43に記憶されたコンピュータプログラムを実行することによって、画像処理システム100全体の各種制御を行う。なお、実施形態1では、統合処理部40はカメラユニットとは別の筐体で収納されている。
SOC/FPGA41は、画像処理部41a、認識部41b、統合制御部41cを有する。画像処理部41aは、カメラ処理部31~34からそれぞれの歪曲補正前の画像データを取得すると共に、各カメラ情報部31c~34cより各カメラユニット11~14のカメラ情報を取得する。各カメラ情報は、前述のように、異画角レンズ21c~24cの光学特性と、撮像素子21d~24dの画素数、光電変換特性、γ特性、感度特性、歪曲補正前の画像データのフォーマット情報を含む。また、カメラユニットの車両座標における取り付け座標および姿勢情報を含む。
画像処理部41aは、撮像部21~24のそれぞれの低解像度領域10bから得られた画像データに対して歪曲補正を行う。実施形態1では、画像処理部41aは、高解像度領域10aから得られた画像データは歪曲が殆どないので歪曲補正は行わない。但し、画像処理部41aは、高解像度領域10aから得られた画像データに対しても簡略的な歪曲補正を行ってもよい。画像処理部41aは、歪曲補正を行った撮像部21~24のそれぞれの低解像度領域10bの画像データと、高解像度領域10aの画像データをスムーズにつなぎ合わせるように合成して撮像部21~24毎の全体画像を生成する。なお、低解像度領域10bの画像データと高解像度領域10aから得られた画像データの両方に対して歪曲補正を行う場合には、画像処理部31a~34aのそれぞれから得られた歪曲補正前の画像データをそのまま歪曲補正してもよい。
認識部41bは、少なくとも低解像度領域を歪曲補正した後の、撮像部21~24毎の全体画像(画像の周辺部を含む)に対して画像認識処理を行い、撮像部21~24毎の全体画像における所定の対象物(例えば自動車、人物、障害物など)を画像認識する。例えば、認識部41bは、少なくとも低解像度領域(高歪曲領域)に対応する画像データを歪曲補正した後で画像認識して第2の画像認識結果を出力する。なお、認識部41bは、全体画像(画像の周辺部を含む)に対して画像認識処理を行う場合に、認識部31b~34bによる認識結果(対象物の種類や座標)を参照してもよい。ここで、認識部41bは、画像取得部により取得された画像データの内、第1の画像認識部で画像認識を行った一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識部として機能している。第2の画像認識部は、低歪曲領域としての高解像度領域10aと高歪曲領域としての低解像度領域10bに対応した画像データの両方を画像認識して第2の画像認識結果を出力している。
画像処理部41aは、複数の撮像部の画像をつなぎ合わせるように合成して、パノラマ的な合成画像を生成してもよい。その場合、つなぎ合わされる複数の撮像部の画像は、それぞれの撮影画角の少なくとも一部が互いに所定量以上のオーバーラップ領域を有するように設定されていることが望ましい。
認識部41bは、そのパノラマ的な合成画像に対して画像認識を行ってもよい。そうすることによって、例えば複数の撮像部の画角にまたがるように撮影された対象物の画像認識が可能となる。これは、それぞれの撮像部からの個別の全体画像では対象物の全体像が分からない場合があるが、パノラマ的な合成画像においてはその対象物のほぼ全体が映り画像処理により画像認識が可能になる場合があるからである。
統合制御部41cは、例えば認識部31b~34bによる認識結果と認識部41bによる認識結果が異なる場合には、より信頼性が高い方の認識結果を採用することで統合された画像認識結果を出力する。
例えば、認識部31b~34bにより認識された画像内の対象物の占める割合と認識部41bにより認識された同じ対象物の、画面内に閉める割合を比較し、その割合が大きい方の認識結果を、より信頼性が高いと判定して採用してもよい。
或いは、高解像度領域内と低解像度領域の両方にまたがっている対象物の場合には、認識部31b~34bによる認識結果よりも認識部41bによる認識結果を、より信頼性が高いと判定して採用してもよい。或いは、認識部31b~34bにより認識された対象物の位置が画像の周辺部の場合には、信頼性が低いと判定して、認識部41bによる認識結果を、より信頼性が高いと判定して採用してもよい。
或いは、認識部41bでは、低解像度領域を歪曲補正した状態で、低解像度領域だけ画像認識をすると共に、もし低解像度領域と高解像度領域にまたがる対象物があった場合には、その対象物に対して画像認識をするようにしてもよい。例えば、高解像度領域だけに存在する対象物に対しては認識部31b~34bによる認識の信頼性の方が高いとみなして認識部41bでは画像認識処理をしないように制御してもよい。ここで、統合制御部41cは、第1の画像認識結果の信頼性と第2の画像認識結果の信頼性に基づき統合された画像認識結果を出力する統合処理部として機能している。
統合制御部41cは、撮像部21~24毎の全体画像、パノラマ的な合成画像などの内、所望の画像を第1表示部50,第2表示部51などに表示するための画像データを生成する。また、認識された対象物を強調表示するための枠や、対象物の種類、サイズ、位置、速度などに関する情報や警告などのためのCGなどを生成する。
また、これらのCGや文字を画像に重畳するための表示処理などを行う。例えば車両1が警察の車両などの場合には、他の車両のナンバープレートや運転者の顔画像を認識し、ネットワークを介して警察のサーバなどに問い合わせをして車両の所有者や運転者名を第1表示部50や第2表示部51などに表示することも可能である。ここで、第1表示部50および第2表示部51の少なくとも一つは、画像データを表示したり、統合された画像認識結果を表示したりする。
実施形態1においては、統合制御部41cは複数のカメラユニットの間で認識された対象物に関する情報を共有するように構成されている。例えば、カメラユニット14において認識された対象物がカメラユニット11の画角の方向に移動していることが認識されたものとする。その場合には、統合制御部41cはその対象物の種類と、その対象物の移動方向に関する情報または優先認識領域情報を含む予測情報をカメラユニット11の認識部31bに送信する。
カメラユニット11の認識部31bは統合制御部41cから受け取った予測情報を参照して認識動作を行う。例えば、統合制御部41cから受け取った予測情報がその対象物の移動方向に関する情報の場合には、その情報に基づきその対象物がカメラユニット11の画角どの位置に登場するかを予測する。
統合制御部41cは、予測情報として優先認識領域情報を送信してもよい。優先認識領域情報は、例えばカメラユニット11の撮影画角のどの領域にその対象物がいつ登場するかを含む。カメラユニット11の認識部31bは、予測情報として優先認識領域情報を受信した場合には、予測されたタイミングでその対象物がその優先認識領域に登場する可能性が高いと予測して画像認識を行う。
統合制御部41cは、走行制御部(ECU)60などと、CAN、FlexRay、Ethernetなどに準拠した通信プロトコルに従った通信を行う。それによって、走行制御部(ECU)60などからの車両制御信号に基づき表示する情報を適宜変更する表示処理を行う。例えば、車両制御信号により取得された車両1の移動状態に応じて表示部に表示する画像の範囲を変化させる。
なお、走行制御部(ECU)60は、車両1に搭載されており、車両1の駆動制御、方向制御などを総合的に行うためのコンピュータやメモリを内蔵したユニットである。走行制御部(ECU)60からは車両制御信号として例えば走行速度、走行方向、シフトレバー、シフトギア、ウインカーの状態、地磁気センサなどによる車両1の向きなどの車両1の走行(移動状態)に関する情報などが統合処理部40に対して入力される。
逆に、統合制御部41cは、認識部41bで認識された所定の対象物(障害物など)の種類、位置、移動方向、移動速度などの情報を走行制御部(ECU)60に送信する。それによって、走行制御部(ECU)60は、車両1の停止、駆動、走行方向の変更などの障害物の回避などに必要な制御を行う。ここで走行制御部(ECU)60は、統合された画像認識結果に基づき、車両1の移動を制御する移動制御部として機能している。
第1表示部50は、例えば、車両1の運転席の前方上部の車幅方向の中央付近に、表示画面を車両1の後方に向けて設置され電子ルームミラーとして機能する。なお、ハーフミラーなどを用いて、ディスプレイとして使用しないときは鏡として使用できる構成としてもよい。例えば第1表示部50は、タッチパネルまたは操作ボタンを有し、ユーザーからの指示を取得し、統合制御部41cへ出力可能な構成としてもよい。
第2表示部51は、例えば、車両1の運転席の前方の車幅方向の中央付近の操作パネル周辺に設置される。なお、移動装置としての車両1には、ナビゲーションシステムおよびオーディオシステムなどが搭載されている。そして、例えば第2表示部には、ナビゲーションシステムや、オーディオシステムや走行制御部(ECU)60からの各種制御信号なども表示することができる。例えば第2表示部は、タッチパネルまたは操作ボタンを有し、ユーザーからの指示を取得可能な構成としている。
実施形態1では、第1表示部50および第2表示部51は、ディスプレイパネルとして液晶ディスプレイまたは有機ELディスプレイを有する。なお、実施形態1において、表示部の数は2つに限定されない。1つで兼用してもよいし、3つ以上あってもよい。
実施形態1では、統合処理部40に含まれる構成要素の一部または全部をハードウェアで実現するようにしてもよいし、CPU42に、メモリ43に記憶されたコンピュータプログラムを実行させることによって実現してもよい。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
実施形態1では、画像処理部31a~34aで行っている画像処理の一部または全部を統合処理部40の画像処理部41aで行ってもよい。実施形態1では、例えば、画像取得部と第1の画像認識部とは同じカメラユニットの筐体に収納されており、カメラユニットと第2の画像認識部とは別の筐体に収納されている。
実施形態1では、統合処理部40は移動装置としての車両1に搭載されているが、統合処理部40の画像処理部41a、認識部41b、統合制御部41cの一部の処理を例えばネットワークを介して外部サーバなどで行ってもよい。その場合、例えば画像取得部としての撮像部21~24は車両1に搭載されるが、例えばカメラ処理部31~34および統合処理部40の機能の一部は外部サーバなどの外部装置で処理することが可能になる。
記録部61は、統合処理部40で生成された撮像部21~24毎の全体画像や、パノラマ的な合成画像を記録媒体に記録する。さらに、認識された対象物を示す所定の枠や文字や警告などのCGや、CGが重畳され第1表示部50,第2表示部51などに表示された画像を時刻などやGPS情報などと共に記録する。
統合処理部40は、記録部61に記録された過去の情報を再生し、それを第1表示部50や第2表示部51に表示することも可能である。
通信部62は、ネットワークを介して外部サーバなどと通信するためのものであり、記録部61に記録される前の情報や記録部61に記録された過去の情報を外部サーバなどに送信して外部サーバなどに保存することが可能である。逆に外部サーバなどから渋滞情報や、各種の情報を取得して、統合処理部40を介して第1表示部50や第2表示部51に表示することも可能である。
以上のように、高解像度領域10aについては歪曲補正前の画像データの状態で画像認識処理を行っている。それにより速やかに認識を可能にし、低解像度領域10bから得られた歪曲補正前の画像データは歪曲補正後に画像認識処理をすることで認識精度を上げることができる。
しかも、実施形態1では、高解像度領域10aについては撮像装置の認識部で歪曲補正前の画像データの状態でハードウェアを用いて画像認識処理を行っているので、高解像度領域10aの画像認識をより速やかに行うことができる。
なお、認識部31b~34bで行っている画像認識処理の一部または全部を統合処理部40の認識部41bで行ってもよい。但し、その場合、認識部41bは、高解像度領域10aについては歪曲補正前の画像データの状態で画像認識処理を行うことにより短時間で速やかに画像認識結果を得られるようにする。一方、低解像度領域10bから得られた歪曲補正前の画像データは歪曲補正後に画像認識処理をする。
なお、認識部31b~34bまたは認識部41bで行う画像処理は機械学習を用いてもよい。機械学習を用いた認識方法としては、オブジェクト検出アルゴリズムを利用する認識方法であればどのような認識方法であってもよい。例えば、YOLO(You Only Look Once)、R-CNN (Region-based Convolutional Neural Networks)、Fast R-CNN、Faster R-CNN、SSD(Single Shot MultiBox Detector)などを用いることができる。なお、機械学習を用いることによってある程度の歪曲画像のままであっても画像認識率を上げることが可能となる。
図4は、実施形態1のカメラ処理部の処理フローを説明するためのフローチャートである。図4の処理フローは、カメラ処理部31~34の内部のCPUがメモリ内のコンピュータプログラムを実行することによりハードウェアとCPU、GPU等が連携して例えばフレーム単位で制御される。
画像処理システム100に電源が入るとハードウェアがリセットされ、フローがスタートする。その後、垂直同期信号が入るたびに図4のフローが実行され、ステップS41(撮像ステップまたは取得ステップ)において、カメラ処理部31~34は、それぞれ撮像部21~24より撮像画像を取得する。
ステップS42において、カメラ処理部31~34内の画像処理部31a~34aによりデベイヤ処理、ホワイトバランス調整などの画像処理が行われ、歪曲補正前の画像データが生成される。
ステップS43(第1の画像認識ステップ)において、認識部31b~34bは、歪曲補正前の画像データに基づき少なくとも高解像度領域10aから所定の対象物を画像認識する。ステップS43では、ステップS41により取得された画像データの内、低歪曲領域を含む少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する。なお、前述のように、認識部31b~34bは高解像度領域10aだけから所定の対象物を画像認識してもよいし、周辺の低解像度領域10bの画像についても画像認識してもよい。
ステップS44では、画像認識された対象物の種類と座標(または対象物の領域の情報)をセットにして統合処理部40に送信する。
図5は、実施形態1の統合処理部40における処理フローを説明するためのフローチャートである。図5の処理フローは、統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより制御される。
ステップS51において、統合処理部40はカメラ処理部31~34のカメラ情報部31c~34cよりそれぞれのカメラ情報を取得する。
ステップS52において、カメラ情報の中の光学特性、撮像素子の画素数などに基づき、歪曲補正パラメータを算出する。なお、歪曲補正パラメータを算出する代わりに、予め座標変換テーブルを用意し、その座標変換テーブルを用いて歪曲補正をしてもよい。また、歪曲補正に際して補間を行ってもよい。また、ステップS52において、カメラ情報の中の各カメラユニットの車両座標における取り付け座標および姿勢情報に基づき、複数のカメラユニットからの画像を合成するための合成パラメータも算出する。
ステップS53において、ステップS52で算出された歪曲補正パラメータと合成パラメータを統合処理部40内の画像処理部41aに設定する。
ステップS54において、歪曲補正後の低解像度領域の座標と、歪曲補正していない高解像度領域の座標との位置合わせのための座標変換式を算出する。また、複数のカメラユニットからの画像を合成する際の座標の位置合わせのための座標変換式を算出して、これらの座標変換式を統合制御部41cに設定する。また、これらの座標変換式において、補間を行ってもよい。
ステップS55において、カメラ情報の中の撮像素子の感度特性やガンマ特性などに基づき画像処理パラメータを生成する。その際に、歪曲補正前の画像データを統計的に処理することによって画像認識率が向上するように画像処理パラメータを生成してもよい。
ステップS56において、ステップS55で生成された画像処理パラメータを統合処理部40内の画像処理部41aに設定する。
図6は、実施形態1の統合処理部40における統合処理フローを説明するためのフローチャートである。図6の処理フローは、統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより、ハードウェアとCPU、GPU等が連携して例えばフレーム単位で制御される。
ステップS61において、統合処理部40はカメラ処理部31~34より歪曲補正前の画像データを取得する。
ステップS62において、統合処理部40の画像処理部41aは、歪曲補正前の画像データを画像処理して歪曲補正を行うと共に、複数のカメラユニットからの画像の合成を行う。その際の歪曲補正パラメータおよび合成パラメータはステップS53で設定されたものを用いる。なお、ステップS62は、複数のカメラユニットにより撮像された複数の画像データを合成する合成ステップとして機能している。
ステップS63(第2の画像認識ステップ)において、統合処理部40の認識部41bは、歪曲補正後の低解像度領域(高歪曲領域)の画像データとそれ以外の画像データに対して画像認識を行う。この第2の画像認識ステップにおいては、取得ステップであるステップS41で取得された画像データの内、第1の画像認識ステップがステップS43で認識を行った一部領域よりも広い領域の画像データを画像認識する。また、複数のカメラユニットからの画像データを合成した合成画像についても画像認識を行うことにより、複数のカメラユニットから得られた複数の画像データにまたがる対象物を画像認識する。さらに、複数のカメラユニットにまたがるように移動する対象物も画像認識する。
ステップS64において、統合処理部40の認識部41bは、カメラ処理部31~34の認識部31b~34bにおいて歪曲補正前の画像データについてそれぞれ画像認識された結果(認識された対象物とその座標)を取得する。なお、ステップS64およびS65は、ステップS61~S63と並行して行われる。
ステップS65において、カメラ処理部31~34の認識部31b~34bで認識された対象物の座標を歪曲補正後の座標に変換する。
ステップS66(統合処理ステップ)において、カメラ処理部31~34の認識部31b~34bによる画像認識結果と、統合処理部40の認識部41bによる画像認識結果とを比較し、最終的な認識結果を生成する。このとき、前述したように、それぞれの画像認識結果の信頼性に基づき最終的な認識結果を生成する。例えば、例えば認識部31b~34bによる認識結果と認識部41bによる認識結果が異なる場合には、より信頼性が高い方の認識結果を採用する。
ステップS67において、画像認識された対象物を強調表示するための枠を生成し、それを歪曲補正後の画像に重畳する。
ステップS68において、第1表示部50または第2表示部51などに画像に枠を重畳して表示する。その際に、車両1の移動状態に応じて第1表示部50、第2表示部51などに表示する画像の表示領域と認識部31b~34bおよび41bによる認識領域を変更する。その詳細については後述する。
ステップS69において、画像認識された対象物の車両1の座標に対する座標を生成する。なお、ステップS69およびS70は、ステップS67およびS68と並行して行われる。
ステップS70において、ステップS69で生成された対象物の車両1に対する座標およびその対象物の種類を走行制御部(ECU)60に送信する。
ステップS71において、カメラユニット間で移動する対象物がある場合には、その対象物の移動方向と速度を予測する。例えば、統合制御部41cは、複数の画像データをまたがるように移動する対象物を認識し、その動きを予測する。なお、ステップS71およびS72は、ステップS69およびS70と並行して行われる。
ステップS72において、その対象物の種類と、移動方向などに関する情報または、優先認識領域に関する予測情報を該当するカメラユニットに送信する。このようにすることによって、カメラユニット側でのその対象物に対する画像認識の精度を向上させることができる。その後、図6のフローチャートは終了する。なお、図6のフローチャートは、例えばフレーム単位で実行される。また、図6における並行処理は、少なくとも並列処理の1つをハードウェアで処理することによって実現してもよい。
図7は、実施形態1の画像表示方法の例について説明するためのフローチャートである。図7は、図6のステップS68の詳細を説明しており、図7の処理フローは、統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより例えばフレーム単位で制御される。
図8は、実施形態1における高解像度領域と低解像度領域と複数種類の表示領域との関係を説明するための図である。図8(A)はカメラユニット11、12、14の基準画角の表示領域82の例を説明するための図、図8(B)はカメラユニット11、12、14の狭画角の表示領域83の例を説明するための図である。図8(C)はカメラユニット11、12、14の広画角の表示領域84の例を説明するための図、図8(D)はカメラユニット13の後方の狭画角の表示領域85の例を説明するための図である。また、図8(E)はカメラユニット13の後方の広画角の表示領域86の例を説明するための図である。
図8(A)~(E)において、81が撮像素子の受光面、10aは図2で説明した高解像度領域(低歪曲領域)、10bは低解像度領域(高歪曲領域)を示している。但し、通常表示される画像には、上記の高解像度領域(低歪曲領域)10aと低解像度領域(高歪曲領域)10bの境界線は表示されない。但し、必要に応じて上記の境界線を画像上に重畳表示してもよい。実施形態1では、認識部41bが認識する領域は、例えば表示領域全体とする。また、認識部31b~34bが認識する領域は例えば表示領域内の高解像度領域10aに内接する矩形などとする。図8(A)~(E)に示すように、複数種類の表示領域を切り替えられるようになっており、これらの表示領域は走行制御部(ECU)60からの車両制御情報に基づき切り替えられる。
図7のステップS73において、CPU42は、走行制御部(ECU)60から、車両制御情報を取得する。車両制御情報は前述のように、例えば走行速度、走行方向、シフトレバー、シフトギア、ウインカーなどの車両1の走行に関する情報などを含む。
ステップS74において、CPU42は、車両制御情報に基づき、車両1が前進状態か否かを判定する。車両1が前進状態であると判定された場合(ステップS74でYes)、CPU42はステップS75に進む。車両1が前進状態でないと判定された場合(ステップS74でNo)、CPU42はステップS80に進む。
ステップS75において、CPU42は、進路変更中か否かを判定する。進路変更中であると判定された場合(ステップS75でYes)、CPU42はステップS76に進む。進路変更中でないと判定された場合(ステップS75でNo)、CPU42はステップS79に進む。
ステップS76において、CPU42は、前進速度が所定の閾値V1よりも大きいか否かを判定する。前進速度が所定の閾値V1よりも大きいと判定された場合(ステップS76でYes)、CPU42はステップS78に進む。前進速度が所定の閾値V1よりも大きくないと判定された場合(ステップS76でNo)、CPU42はステップS77に進む。
ステップS77において、CPU42は、基準画角の画像を第1表示部50に表示させる。例えば、CPU42は、図8の基準画角の表示領域82の画像を第1表示部50に表示させる。
図9(A)、図9(B)および図9(C)は、第1表示部50の表示例を説明するための図である。図9(A)は基準画角の画像の表示例を説明するための図であり、図9(B)は狭画角の画像の表示例を説明するための図であり、図9(C)は広画角の画像の表示例を説明するための図である。図9(A)において、501は第1表示部50の表示画面を示している。82Rは左側方のカメラユニット14の基準画角の画像、82Cは正面のカメラユニット11の基準画角の画像、82Rは右側方のカメラユニット12の基準画角の画像を示している。
図8の基準画角の表示領域82の画像を例えば第1表示部50に表示する場合には、例えば図9(A)のように表示する。例えば、左側方のカメラユニット14の基準画角の画像82L、正面のカメラユニット11の基準画角の画像82C、右側方のカメラユニット12の基準画角の画像82Rを左から順に並べて第1表示部50の表示画面501に表示する。
図10は(A)は、実施形態1の第1表示部50の表示画面501の表示例を説明するための図である。図10(B)は、実施形態1の第2表示部51の表示画面511の表示例を説明するための図である。
図10(A)に示すように、ステップS76で前進速度が所定の閾値V1よりも大きくないと判定された場合には、基準画角の画像82L、82C、82Rを並べて第1表示部50の表示画面501に表示する。なお、図10(A)において、82Bは後方用のカメラユニット13の基準画角の画像であり、第1表示部50の表示画面501の中にピクチャーインピクチャーで表示される。実施形態1では、ステップS76で前進速度が所定の閾値V1よりも大きくないと判定された場合に、カメラユニット13の基準画角の画像82Bが第1表示部50に表示される。
ステップS78において、CPU42は、図8(B)に示す狭画角の表示領域83の画像を第1表示部50に表示させる。表示領域83は、表示領域82より上側に広く、左右方向の幅が狭い。そして左側方のカメラユニット14の狭画角の画像83L、正面のカメラユニット11の狭画角の画像83C、右側面のカメラユニット12の狭画角の画像83Rが図9(B)のように並べて表示される。このように、前進速度が所定の閾値V1(例えば60Km)よりも大きい場合には視覚が狭くなるので、図9(B)のように表示したほうが必要な情報を速やかに視認しやすくなる。
ステップS79において、CPU42は、図8(C)に示す広画角の表示領域84の画像を第1表示部50に表示させる。表示領域84は、表示領域82よりも左右方向の幅が広く、下方向に広がっている。例えば、図9(C)に示すように、第1表示部50の表示画面501に、左側方のカメラユニット14の広画角の画像84L、正面のカメラユニット11の広画角の画像84C、右側面のカメラユニット12の広画角の画像84Rが並べて表示される。さらに、例えば左に進路変更中の場合には、図9(C)に並べて表示される3つの画像を表示画面501の中心に対して左側にずらして表示してもよい。逆に右に進路変更中の場合には、図9(C)に並べて表示される3つの画像を表示画面501の中心に対して右側にずらして表示してもよい。そのように表示することで視認性を高めることができる。このように、実施形態1では、進路変更中は広画角の画像を表示しているので、周囲の安全をより視認しやすくなる。しかも、下方に画角を広げた画像を表示しているので、道路の障害物をより視認しやすくなる。
ステップS80において、CPU42は、後進速度が所定の速度V2(例えば10Km)よりも大きいか否かを判定する。後進速度が所定の速度V2よりも大きいと判定された場合(ステップS80でYes)、CPU42はステップS82に進む。後進速度が所定の速度V2よりも大きくないと判定された場合(ステップS80でNo)、CPU42はステップS81に進む。
ステップS81において、CPU42は、後進用の上下方向に狭画角の表示領域85の画像(図8(D)に示すような画像)を、第2表示部51の表示画面511に図10(B)のように表示させる。図10(B)は、車両1を後退する際に第2表示部51の表示画面511に表示される画面の例を示しており、例えば駐車スペースに車両1をガイドするためのガイド512が重畳表示される。
図11(A)は、後退時の上下方向に狭画角の画像85Bの例を説明するための図であり、第2表示部51の表示画面511には図11(A)のような上下方向に狭画角の画像85Bが表示される。
ステップS82において、CPU42は、後進用の上下方向に広画角の画像86B(図8(E)に示すような画像)を、第2表示部51の表示画面511に図11(B)のように表示させる。ここで、図11(B)は、実施形態1の後進用の広画角の画像86Bの例を示した図である。図8(E)に示されるように、後進用の広画角の表示領域86は後進用の狭画角の表示領域85よりも上下方向に画角が広げられている。これは、後進速度が所定の速度V2よりも大きい場合には、より後方を表示して障害物を視認しやすくするためである。なお、実施形態1では、後進用の広画角の表示領域86の左右の幅と後進用の狭画角の表示領域85の左右の幅は同じになっているが、表示領域86の左右の幅を、表示領域85の左右の幅よりも狭くしてもよい。
このように、実施形態1では、高解像度領域(低歪曲領域)10aは、上述のように通常の撮像用の光学系の中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されている。従って、第1表示部50に表示される例えば電子ルームミラー用の画像は、解像度が低解像度領域(高歪曲領域)10bと比較して高く、車両1の正面、側方、後方の遠方を、より精細に表示することができる。
また、高解像度領域10aは光学歪曲が小さいため、第1表示部50に表示される電子ルームミラー用の画像も歪みが小さい状態で表示することができ、車両1の周囲を運転者がより自然な遠近感で視認できる。さらに、高解像度領域10aについては、歪曲補正前の画像データの状態で画像認識しているので、周囲の車両のナンバープレートや人物や障害物などを画像認識する際の画像認識タイミングを早めることができると共に、画像認識の精度を高めることができる。
実施形態1における高解像度領域10aは、光学歪みが小さくなるように構成されており、歪曲補正前の画像データの状態で画像認識ができるので、画像認識のための処理負荷を低減し高速で画像認識をすることができる。従って画像認識結果に基づき障害物を早期に発見でき、障害物を回避するための動作をタイムリーに行える。このように、実施形態1の構成を用いた場合には、例えば高速道路などでの高速走行時において大きな効果を得ることができる。なお、実施形態1では、複数のカメラユニットを用いる例を説明したが、カメラユニットが1つだけのシステムにおいても有効である。
以上のように、実施形態1では、高精細な電子ルームミラー用の表示や後方など車両周辺確認用の広範囲な表示を少ない数のカメラで同時に取得すると共に、車両制御状態に応じて出力する画像の切り出し領域を変化させている。また、車両1の走行速度情報(車両1の移動状態を含む)に基づいて、表示画角を変更している。従って、ドライバーは車両制御状態に応じてより重要な範囲を容易に確認することができる。
さらに、車両1の移動状態に応じて切り出し領域を変更することで、画像認識領域が変更されるようにしている。例えば、車両1の移動状態に応じて切り出し領域を変更することで、表示部に表示する画像の表示領域と第1の画像認識部と第2の画像認識部による認識領域とを変更しているので、無駄の少ない効率的な画像認識ができる。なお、表示領域と認識領域とは同一でなくても良い。
なお、実施形態1では、切り出し領域を変化させるだけでなく解像度を変更してもよい。例えば、高速走行時には、表示画角を狭くすると共に、周辺画角の解像度を下げるようにしてもよい。実施形態1では、車両制御状態として、速度情報を用いる場合を例にとって説明したが、例えば、撮像部21~24または他のセンサから車両周囲の障害物情報を取得し、その障害物情報に基づいて表示領域を変更してもよい。
なお、実施形態1においては、車両1などの移動装置に画像処理システムを搭載した例について説明した。しかし、実施形態1の移動装置は、自動車などの車両に限らず、列車、船舶、飛行機、ロボット、ドローンなどの移動をする移動装置であればどのようなものであってもよい。また、実施形態1の画像処理システムはそれらの移動装置に搭載されるものを含む。
また、移動装置をリモートでコントロールする場合にも実施形態1を適用することができる。
なお、実施形態1では、撮像部21~24を画像取得部とした例を説明した。しかし、画像取得部は、低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像素子により生成した画像データを取得するものであればよく、例えばネットワークなどを介して上記のような画像データを取得するものなどであってもよい。或いは、記録媒体に記録された上記のような画像データを再生することによって取得するものであってもよい。
[実施形態2]
上述した実施形態1において説明された様々な機能、処理および方法の少なくとも一つは、プログラムを用いて実現することができる。以下、実施形態2では、上述した実施形態1おいて説明された様々な機能、処理および方法の少なくとも一つを実現するためのプログラムを「プログラムX」と呼ぶ。さらに、実施形態2では、プログラムXを実行するためのコンピュータを「コンピュータY」と呼ぶ。パーソナルコンピュータ、マイクロコンピュータ、CPU(Central Processing Unit)などは、コンピュータYの一例である。上述した実施形態における画像処理システムなどのコンピュータも、コンピュータYの一例である。
上述した実施形態1において説明された様々な機能、処理および方法の少なくとも一つは、コンピュータYがプログラムXを実行することによって実現することができる。この場合において、プログラムXは、コンピュータ読み取り可能な記憶媒体を介してコンピュータYに供給される。実施形態2におけるコンピュータ読み取り可能な記憶媒体は、ハードディスク装置、磁気記憶装置、光記憶装置、光磁気記憶装置、メモリカード、ROM、RAMなどの少なくとも一つを含む。さらに、実施形態2におけるコンピュータ読み取り可能な記憶媒体は、non-transitoryな記憶媒体である。
1:車両
10a:高解像度領域
10b:低解像度領域
11~14:カメラユニット
21~24:撮像部
31~34:カメラ処理部
31b~34b:認識部
40:統合処理部
41b:認識部
50:第1表示部
51:第2表示部
60:走行制御部ECU

Claims (20)

  1. 低歪曲領域と高歪曲領域とを有する光学像をそれぞれ撮像する複数の撮像手段と、
    前記複数の撮像手段のそれぞれから得られた画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識手段と、
    前記複数の撮像手段のそれぞれから得られた前記画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識手段と、
    前記第1の画像認識結果と前記第2の画像認識結果とに基づき統合された画像認識結果を出力する統合処理手段と
    を有することを特徴とする画像処理システム。
  2. 前記撮像手段により撮像された複数の前記画像データを合成する合成手段を有し、
    前記第2の画像認識手段は、前記合成手段によって合成された画像データに基づき、複数の前記画像データをまたがる対象物を認識することを特徴とする請求項1に記載の画像処理システム。
  3. 前記統合処理手段は、移動する対象物の動きを予測することを特徴とする請求項1または2に記載の画像処理システム。
  4. 前記一部領域は前記低歪曲領域に対応する領域であることを特徴とする請求項1~3のいずれか1項に記載の画像処理システム。
  5. 前記第2の画像認識手段は、前記低歪曲領域と前記高歪曲領域に対応した前記画像データを画像認識して前記第2の画像認識結果を出力することを特徴とする請求項1~4のいずれか1項に記載の画像処理システム。
  6. 前記撮像手段は、前記光学像を生成する光学系と、
    前記光学系により生成された前記光学像を撮像する撮像素子と、を含むことを特徴とする請求項1~5のいずれか1項に記載の画像処理システム。
  7. 前記撮像手段と前記第1の画像認識手段とは同じカメラユニットの筐体に収納されていることを特徴とする請求項6に記載の画像処理システム。
  8. 前記カメラユニットと前記第2の画像認識手段とは別の筐体に収納されていることを特徴とする請求項7に記載の画像処理システム。
  9. 前記第1の画像認識手段は前記低歪曲領域に対応する前記画像データを歪曲補正せずに画像認識して前記第1の画像認識結果を出力することを特徴とする請求項1~8のいずれか1項に記載の画像処理システム。
  10. 前記第1の画像認識手段は前記低歪曲領域に対応する前記画像データを歪曲補正前の状態で画像認識して前記第1の画像認識結果を出力することを特徴とする請求項1~9のいずれか1項に記載の画像処理システム。
  11. 前記第2の画像認識手段は前記高歪曲領域に対応する前記画像データを歪曲補正した後で画像認識して前記第2の画像認識結果を出力することを特徴とする請求項1~10のいずれか1項に記載の画像処理システム。
  12. 前記統合処理手段は、前記第1の画像認識結果の信頼性と前記第2の画像認識結果の信頼性に基づき前記統合された画像認識結果を出力することを特徴とする請求項1~11のいずれか1項に記載の画像処理システム。
  13. 前記撮像手段により撮像された前記画像データと、前記統合された画像認識結果を表示するための表示手段を有することを特徴とする請求項1~12のいずれか1項に記載の画像処理システム。
  14. 前記撮像手段は移動装置に搭載されており、
    前記統合処理手段は、前記移動装置の移動状態に応じて前記表示手段に表示する画像の表示領域および前記第1の画像認識手段と前記第2の画像認識手段による認識領域を変更することを特徴とする請求項13に記載の画像処理システム。
  15. 前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、
    前記低歪曲領域におけるy(θ)はf×θよりも大きく、前記高歪曲領域における前記射影特性とは異なることを特徴とする請求項6に記載の画像処理システム。
  16. 前記低歪曲領域は、中心射影方式(y=f×tanθ)または等距離射影方式(y=f×θ)に近似した射影特性となるように構成されていることを特徴とする請求項15に記載の画像処理システム。
  17. θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、
    Figure 2023046965000003
    を満足するように構成されていることを特徴とする請求項15または16に記載の画像処理システム。
  18. 請求項1~17のいずれか1項に記載の画像処理システムの前記撮像手段を搭載し、
    前記統合された画像認識結果に基づき移動を制御する移動制御手段を有することを特徴とする移動装置。
  19. 低歪曲領域と高歪曲領域とを有する光学像を複数の撮像手段によりそれぞれ撮像する撮像ステップと、
    前記撮像ステップにより得られた画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識ステップと、
    前記撮像ステップにより得られた前記画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識ステップと、
    前記第1の画像認識結果と前記第2の画像認識結果とに基づき統合された画像認識結果を出力する統合処理ステップと
    を有することを特徴とする画像処理方法。
  20. 画像処理システムのコンピュータに、
    低歪曲領域と高歪曲領域とを有する光学像を複数の撮像手段によりそれぞれ撮像する撮像ステップと、
    前記撮像ステップにより得られた画像データの内、少なくとも一部領域の画像データを画像認識して第1の画像認識結果を出力する第1の画像認識ステップと、
    前記撮像ステップにより得られた前記画像データの内、前記一部領域よりも広い領域の画像データを画像認識して第2の画像認識結果を出力する第2の画像認識ステップと、
    前記第1の画像認識結果と前記第2の画像認識結果とに基づき統合された画像認識結果を出力する統合処理ステップと
    を実行させるためのプログラム。


JP2021155833A 2021-09-24 2021-09-24 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム Active JP7500527B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021155833A JP7500527B2 (ja) 2021-09-24 2021-09-24 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
US17/901,886 US20230098424A1 (en) 2021-09-24 2022-09-02 Image processing system, mobile object, image processing method, and storage medium
EP22194539.7A EP4156127A1 (en) 2021-09-24 2022-09-08 Image processing system, mobile object, image processing method, and storage medium
CN202211168070.9A CN115883985A (zh) 2021-09-24 2022-09-23 图像处理系统、移动体、图像处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021155833A JP7500527B2 (ja) 2021-09-24 2021-09-24 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2023046965A true JP2023046965A (ja) 2023-04-05
JP7500527B2 JP7500527B2 (ja) 2024-06-17

Family

ID=83271205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021155833A Active JP7500527B2 (ja) 2021-09-24 2021-09-24 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム

Country Status (4)

Country Link
US (1) US20230098424A1 (ja)
EP (1) EP4156127A1 (ja)
JP (1) JP7500527B2 (ja)
CN (1) CN115883985A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023178051A (ja) * 2022-06-03 2023-12-14 キヤノン株式会社 移動体、移動体の制御方法、及びコンピュータプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004345554A (ja) 2003-05-23 2004-12-09 Clarion Co Ltd 車両後方モニタ装置及び車両後方モニタシステム
JP4816431B2 (ja) 2006-12-04 2011-11-16 株式会社ニコン モニタリングシステム、ドライビングアシストシステム
JP2010095202A (ja) 2008-10-19 2010-04-30 Alpine Electronics Inc ルームミラー位置後視カメラ画像表示装置
JP4970516B2 (ja) 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 周囲確認支援装置
JP2012178639A (ja) 2011-02-25 2012-09-13 Fujitsu Ten Ltd 画像処理装置、駐車制御システム、及び、画像処理方法
JP2013012849A (ja) 2011-06-28 2013-01-17 Kyocera Corp 撮像システム
CN103843326A (zh) * 2011-09-29 2014-06-04 丰田自动车株式会社 图像显示装置及图像显示方法
JP6630999B2 (ja) 2014-10-15 2020-01-15 日本電気株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
WO2017122552A1 (ja) * 2016-01-15 2017-07-20 ソニー株式会社 画像処理装置および方法、プログラム、並びに画像処理システム
JP6819514B2 (ja) * 2017-08-28 2021-01-27 トヨタ自動車株式会社 画像処理装置及び撮像装置
EP3547678B1 (en) 2017-12-19 2022-07-20 Panasonic Intellectual Property Management Co., Ltd. Imaging device, imaging system, and display system
JP2020187409A (ja) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 画像認識装置、固体撮像装置、および画像認識方法
JP7231888B2 (ja) 2020-03-30 2023-03-02 Jfeスチール株式会社 方向性電磁鋼板の製造方法

Also Published As

Publication number Publication date
US20230098424A1 (en) 2023-03-30
JP7500527B2 (ja) 2024-06-17
CN115883985A (zh) 2023-03-31
EP4156127A1 (en) 2023-03-29

Similar Documents

Publication Publication Date Title
US10462372B2 (en) Imaging device, imaging system, and imaging method
JP7467402B2 (ja) 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
DE112017005807T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
JP2024063155A (ja) 移動体、画像処理方法、およびコンピュータプログラム
EP4156127A1 (en) Image processing system, mobile object, image processing method, and storage medium
US20230100099A1 (en) Image processing system, image processing method, and storage medium
US20230096414A1 (en) Camera unit installing method, moving device, image processing system, image processing method, and storage medium
JP2024050331A (ja) 移動体及び撮像装置の設置方法
JP4747670B2 (ja) 画像処理装置
JP7434476B2 (ja) 画像処理システム、画像処理方法、撮像装置、光学系、およびコンピュータプログラム
US12028603B2 (en) Image processing system, image processing method, storage medium, image pickup apparatus, and optical unit
US20230394845A1 (en) Movable apparatus, control method for movable apparatus, and storage medium
JP7566709B2 (ja) カメラシステム、移動体、制御方法、及びコンピュータプログラム
EP4408006A1 (en) Image processing system, movable apparatus, image processing method, and storage medium
US20240177492A1 (en) Image processing system, image processing method, and storage medium
US20240357247A1 (en) Image processing system, moving object, imaging system, image processing method, and storage medium
JP2023077492A (ja) カメラシステム、移動体、制御方法、及びコンピュータプログラム
JP2024094584A (ja) 撮像設定装置、撮像装置および撮像設定方法
JP2024007203A (ja) カメラシステムおよびその制御方法、プログラム
JP2024131942A (ja) 移動体、画像処理装置、コンピュータプログラム、及び撮像装置の設置方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240605

R150 Certificate of patent or registration of utility model

Ref document number: 7500527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150