JP2024106871A - 画像処理システム、移動体、画像処理方法、およびコンピュータプログラム - Google Patents
画像処理システム、移動体、画像処理方法、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2024106871A JP2024106871A JP2023011341A JP2023011341A JP2024106871A JP 2024106871 A JP2024106871 A JP 2024106871A JP 2023011341 A JP2023011341 A JP 2023011341A JP 2023011341 A JP2023011341 A JP 2023011341A JP 2024106871 A JP2024106871 A JP 2024106871A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- processing system
- angle
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 142
- 238000004590 computer program Methods 0.000 title claims description 14
- 238000003672 processing method Methods 0.000 title claims description 7
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 title 1
- 230000003287 optical effect Effects 0.000 claims abstract description 80
- 238000003384 imaging method Methods 0.000 claims abstract description 64
- 238000012937 correction Methods 0.000 claims description 30
- 239000002131 composite material Substances 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000009825 accumulation Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/02—Rear-view mirror arrangements
- B60R1/04—Rear-view mirror arrangements mounted inside vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/26—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/28—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/0005—Optical objectives specially designed for the purposes specified below having F-Theta characteristic
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/06—Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/665—Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/815—Camera processing pipelines; Components thereof for controlling the resolution by using a single image
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/303—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/40—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
- B60R2300/402—Image calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8046—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for replacing a rear-view mirror system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/92—Driver displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】高画質な画像を取得可能な画像処理システムを提供する。【解決手段】画像処理システムにおいて、光学像を撮像する撮像手段により生成した画像信号を取得する画像取得手段と、前記画像信号の一部の画角範囲を選択する選択手段と、前記選択手段によって選択された前記画角範囲の画質に応じて、前記画像信号による画像について露光制御および画質調整の少なくとも一方を行う制御手段と、を有することを特徴とする。【選択図】 図5
Description
本発明は、画像処理システム、移動体、画像処理方法、およびコンピュータプログラムに関する。
近年、車両に搭載されるルームミラー(後写鏡)を電子ルームミラーで置き換えるという要望がある。例えば特許文献1には、車両外の後方を撮像範囲とする撮像手段と車両内の表示手段で構成され、撮像手段で撮像した画像を車両内のディスプレイで表示することにより、ドライバーが車両外の後方の様子を確認できる電子ルームミラーシステムが開示されている。
他方、車両の後退時などに車両後方の死角をドライバーが確認できるようにする後方確認システムがある。特許文献2には、車両後方を撮像するようにカメラを設置し、撮像画像を車室内に表示することにより、後退時などに車両後方の死角をドライバーが確認できるようにするための後方確認システムが開示されている。
上述の電子ルームミラー用画像を撮像する撮像手段としてのカメラは、ドライバーが後方の比較的遠方の様子をより精細に確認するため高解像度を有することが求められる。一方で、後方確認用カメラシステムは、後退時などの衝突を回避するために、車両後方の死角や後側方を含んだより広い範囲での安全を確認するため、より広い範囲を撮像することが求められる。
又、電子ルームミラーシステムと後方確認システムを車両に同時に搭載する場合、電子ルームミラーシステム用のカメラと、後方確認システム用のカメラを個別に搭載すると車載画像処理システムが複雑になってしまう。このような課題は、例えば、車両の周囲の状況を撮影するために複数のカメラを配置して自動運転などを行う自動運転システムにおいても同様に発生している。
したがって本発明では、上記の課題に鑑みて、高画質な画像を取得可能な画像処理システムを提供することを目的の1つとする。
上記目的を達成するために、本発明の1つの側面の画像処理システムは、
光学像を撮像する撮像手段により生成した画像信号を取得する画像取得手段と、
前記画像信号の一部の画角範囲を選択する選択手段と、
前記選択手段によって選択された前記画角範囲の画質に応じて、前記画像信号による画像について露光制御および画質調整の少なくとも一方を行う制御手段と、
を有することを特徴とする。
光学像を撮像する撮像手段により生成した画像信号を取得する画像取得手段と、
前記画像信号の一部の画角範囲を選択する選択手段と、
前記選択手段によって選択された前記画角範囲の画質に応じて、前記画像信号による画像について露光制御および画質調整の少なくとも一方を行う制御手段と、
を有することを特徴とする。
本発明によれば、高画質な画像を取得可能な画像処理システムを実現することができる。
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。尚、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
[実施形態1]
実施形態1では、高精細な電子ルームミラー用の表示や広範囲な後方などの車両周辺確認用の表示を少ない数のカメラで両立する改善された方法について説明する。図1は、実施形態1の画像処理システムにおける車両と撮像部の位置関係を説明する図である。
実施形態1では、高精細な電子ルームミラー用の表示や広範囲な後方などの車両周辺確認用の表示を少ない数のカメラで両立する改善された方法について説明する。図1は、実施形態1の画像処理システムにおける車両と撮像部の位置関係を説明する図である。
本実施形態では、図1に示すように、移動体としての例えば自動車の車両1の前方、右側方、後方、左側方にそれぞれカメラユニット11、12、13、14が設置されている。尚、本実施形態では4つのカメラユニットを有するが、カメラユニットの数は4に限定されず、少なくとも1つ以上のカメラユニットがあればよい。
尚、図1に示すように、カメラユニット11~14の夫々の撮影画角は、移動体としての車両1のそれぞれ前方、右側方、左側方、後方を撮像範囲とするように設置されている。カメラユニット11~14は略同様の構成を有し、それぞれ光学像を撮像する撮像素子と、撮像素子の受光面に光学像を形成する光学系とを有する。
尚、例えばカメラユニット11、13が有する光学系の光軸は略水平となるように設置し、カメラユニット12、14が有する光学系の光軸は水平よりも若干下方を向くように設置されている。
又、本実施形態で使用するカメラユニット11、13が有する光学系はそれぞれ光軸周辺の画角において高精細な画像を得ることができ、かつ光軸から離れた周辺の画角において低解像度の撮像画像を得ることができるように構成されている。
一方、カメラユニット12、14が有する光学系はそれぞれ光軸周辺の画角において低解像度の画像を得ることができ、かつ光軸から離れた周辺の画角において高解像度の撮像画像を得ることができるように構成されている。尚、11a~14aは高解像度で低歪曲な像を撮像可能な撮像画角であり、11b~14bはカメラユニット11~14の夫々の最大の撮影可能な範囲を示している。
本実施形態におけるカメラユニット11、13が有する光学系について図2を用いて説明する。尚、それぞれのカメラユニット11、13の光学系の特性は同じでなくてもよいが、本実施形態においては、カメラユニット11、13が有する光学系は略同じ特性を有するものとし、カメラユニット11が有する光学系について例示的に説明する。
図2(A)、(B)は、本発明の本実施形態におけるカメラユニット11の撮像部の光学特性を説明するための図である。図2(A)は、本実施形態におけるカメラユニット11が有する光学系の、撮像素子の受光面上での各半画角における像高yを等高線状に示した図である。
図2(B)は、本実施形態におけるカメラユニット11が有する光学系の像高yと半画角θとの関係を表す射影特性を表した図である。図2(B)では、半画角(光軸と入射光線とがなす角度)θを横軸とし、カメラユニット11のセンサ面上(像面上)での結像高さ(像高)yを縦軸として示している。
本実施形態におけるカメラユニット11が有する光学系は、図2(B)に示すように、所定の半画角θa未満の領域と半画角θa以上の領域でその射影特性y(θ)が異なるように構成されている。したがって、単位あたりの半画角θに対する像高yの増加量を解像度というとき解像度が領域によって異なる。
この局所的な解像度は、射影特性y(θ)の半画角θでの微分値dy(θ)/dθで表されるともいえる。即ち、図2(B)の射影特性y(θ)の傾きが大きいほど解像度が高いといえる。又、図2(A)の等高線状の各半画角における像高yの間隔が大きいほど解像度が高いともいえる。
本実施形態においては、半画角θが所定の半画角θa未満のときにセンサ面上に形成される中心寄りの領域を高解像度領域10a、半画角θが所定の半画角θa以上の外寄りの領域を低解像度領域10bと呼ぶ。尚、高解像度領域10aは撮像画角11aに対応しており、高解像度領域10aと低解像度領域10bを合わせたものが撮像画角11bに対応している。
尚、本実施形態では、高解像度領域10aと低解像度領域10bの境界の円を解像度境界と呼び、解像度境界に対応する表示画面上の境界画像を表示解像度境界又は単に境界画像と呼ぶ。尚、表示画面に表示される境界画像(表示解像度境界)は円状でなくてもよい。楕円やその他の形状であってもよい。
尚、本実施形態において、高解像度領域10aは歪曲が相対的に少ない低歪曲領域であり、低解像度領域10bは歪曲が相対的に多い高歪曲領域となっている。したがって、本実施形態においては、高解像度領域、低解像度領域はそれぞれ低歪曲領域、高歪曲領域に対応しており、高解像度領域、低解像度領域をそれぞれ低歪曲領域、高歪曲領域と呼ぶことがある。又、逆に低歪曲領域、高歪曲領域をそれぞれ高解像度領域、低解像度領域と呼ぶこともある。
本実施形態におけるカメラユニット11が有する光学系は、高解像度領域(低歪曲領域)10aにおいてその射影特性y(θ)がf×θより大きくなるように構成されている(fはカメラユニット11が有する光学系の焦点距離)。又、高解像度領域(低歪曲領域)における射影特性y(θ)は低解像度領域(高歪曲領域)における射影特性とは異なるように設定されている。
又、θmaxをカメラユニット11が有する光学系が有する最大の半画角とするとき、θaとθmaxの比θa/θmaxは所定の下限値以上であることが望ましく、例えば所定の下限値として0.15~0.16が望ましい。
又、θaとθmaxの比θa/θmaxは所定の上限値以下であることが望ましく、例えば0.25~0.35とすることが望ましい。例えば、θmaxを90°とし、所定の下限値を0.15、所定の上限値0.35とする場合、θaは13.5~31.5°の範囲で決定することが望ましい。
更に、カメラユニット11が有する光学系は、その射影特性y(θ)が、以下の式1を満足するように構成されている。
1<f×sinθmax/y(θmax)≦A・・・(式1)
1<f×sinθmax/y(θmax)≦A・・・(式1)
fは、前述のようにカメラユニット11が有する光学系の焦点距離であり、Aは所定の定数である。下限値を1とすることで、同じ最大結像高さを有する正射影方式(y=f×sinθ)の魚眼レンズよりも中心解像度を高くすることができ、上限値をAとすることで、魚眼レンズ同等の画角を得つつ良好な光学性能を維持することができる。所定の定数Aは、高解像度領域と、低解像度領域の解像度のバランスを考慮して決めればよく、1.4~1.9となるようにするのが望ましい。
以上のように光学系を構成することで、高解像度領域10aにおいては、高解像度が得られる一方、低解像度領域10bでは、単位あたりの半画角θに対する像高yの増加量を小さくし、より広い画角を撮像することが可能になる。したがって、魚眼レンズと同等の広画角を撮像範囲としつつ、高解像度領域10aにおいては、高い解像度を得ることができる。
更に、本実施形態では、高解像度領域(低歪曲領域)においては、通常の撮像用の光学系の射影特性である中心射影方式(y=f×tanθ)や等距離射影方式(y=f×θ)に近似した特性としている。従って、光学歪曲が小さく、精細に表示することが可能となる。又、先行車や後続車両といった周囲の車両などを目視する際における自然な遠近感が得られると共に、画質の劣化を抑えて良好な視認性を得ることができる。
尚、上述の式1の条件を満たす射影特性y(θ)であれば、同様の効果を得ることができるため、本実施形態は図2に示した射影特性に限定されない。尚、本実施形態では上述の式1の条件を満たす射影特性y(θ)を有する光学系を中心高解像度レンズと呼ぶ場合がある。
尚、本実施形態においては、カメラユニット12,14には、図2や式1で示したような中心高解像度レンズではなく、以下の式2の条件を満たす射影特性y(θ)を有する光学系を用いる。この光学系は、上記の中心高解像度レンズと比べて、高解像度領域と低解像度領域が凡そ反対になる。
即ち、前述の中心高解像度レンズは中心寄りの領域が高解像度領域10aであり、半画角θが所定の半画角θa以上の外寄りの領域が低解像度領域10bである。しかし式2の条件を満たす光学系では、中心寄りの領域が低解像度領域10bとなり、半画角θが所定の半画角θa以上の外寄りの領域が高解像度領域10aとなる。このような光学系を周辺高解像度レンズと呼ぶ場合がある。
0.2<2×f×tan(θmax/2)/y(θmax) <B・・・(式2)
0.2<2×f×tan(θmax/2)/y(θmax) <B・・・(式2)
このように、カメラユニットの少なくとも1つは、その光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)、θmaxを前記光学系が有する最大の半画角とするとき、上記の式2を満足する。尚、Bは所定の定数であり、高解像度領域と、低解像度領域の解像度のバランスを考慮して決めれば良いが、0.92程度となるようにするのが望ましく、更に好ましくは0.8程度とするのが望ましい。
尚、本実施形態では、移動体の前方と後方を撮影するために前述の中心高解像度レンズを有するカメラユニットを用いるのに対して、側方を撮影するためには周辺高解像度レンズを有するカメラユニットを用いる。これは、移動体の側方の前方と後方に、移動体の走行時に注意すべき被写体が映る可能性が高く、電子サイドミラーで表示する領域を高解像度かつ低歪曲で撮影したいからである。
次に本実施形態における画像処理システムの構成について図3を用いて説明する。図3は実施形態1における画像処理システムの構成を説明するための機能ブロック図である。
尚、図3に示される機能ブロックの一部は、画像処理システムに含まれるコンピュータとしてのCPU等に、記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
又、図3に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。尚、図3に関する上記の説明は、図6についても同様に当てはまる。
図3において画像処理システム100は、移動体としての車両1に搭載されており、カメラユニット11~14の筐体内にはそれぞれ撮像部21~24とカメラ処理部31~34が配置されている。
撮像部21、23はそれぞれ中心高解像度レンズ21c、23cと例えばCMOSイメージセンサやCCDイメージセンサなどの撮像手段としての撮像素子21d、23dを有する。撮像部22、24はそれぞれ周辺高解像度レンズ22c、24cと例えばCMOSイメージセンサやCCDイメージセンサなどの撮像素子22d、24dを有する。
ここで、撮像部21~24はそれぞれ画像取得手段として機能しており、各画像取得手段は、低歪曲領域と高歪曲領域とを有する光学像を撮像する撮像部により生成した画像信号を取得する画像取得ステップを実行する。又、本実施形態においては異なる位置に配置された複数の画像取得手段を有している。
光学系としての中心高解像度レンズ21c、23cは、1枚以上の光学レンズから構成されており、式1の条件を満たす射影特性y(θ)を有し、低歪曲領域と高歪曲領域とを有する光学像をそれぞれ撮像素子21d、23dの受光面に形成する。光学系としての周辺高解像度レンズ22c、24cは、1枚以上の光学レンズから構成されており、式2の条件を満たす射影特性y(θ)を有し、低歪曲領域と高歪曲領域とを有する光学像をそれぞれ撮像素子22d、24dの受光面に形成する。
撮像素子21d~24dは光学像を光電変換して撮像信号を出力する。撮像素子21d~24dの受光面には例えばRGBの色フィルタが画素毎に配列されている。RGBの配列は例えばベイヤー配列となっている。
したがって、撮像素子からは、ベイヤー配列にしたがって例えば所定の行からはR,G,R、Gの信号が順次出力され、隣の行からはG,B,G,B、の信号が順次出力されるように構成されている。
31~34はカメラ処理部であり、撮像部21~24と共にそれぞれ同じカメラユニット11~14の筐体に収納されており、撮像部21~24から出力された撮像信号をそれぞれ処理する。尚、図3では撮像部24、カメラ処理部34の詳細およびその配線は便宜上省略されている。
31~34はカメラ処理部であり、撮像部21~24と共にそれぞれ同じカメラユニット11~14の筐体に収納されており、撮像部21~24から出力された撮像信号をそれぞれ処理する。尚、図3では撮像部24、カメラ処理部34の詳細およびその配線は便宜上省略されている。
カメラ処理部31~34はそれぞれ画像処理部31a~34a、認識部31b~34b、カメラ情報部31c~34cを有する。画像処理部31a~34aは撮像部21~24から出力された撮像信号をそれぞれ画像処理する。尚、カメラ処理部31の一部又は全部を撮像素子21d~24d内の積層された信号処理部で行ってもよい。
具体的には、画像処理部31a~34aは、撮像部21~24からベイヤー配列にしたがって入力された画像データをそれぞれホワイトバランス調整し、デベイヤ処理してRGBのラスタ形式の画像データへ変換する。更に、ゲイン調整、ローカル・トーン・マッピング、ガンマ処理、カラーマトリックス処理や可逆圧縮処理など種々の補正処理を行う。
カメラ情報部31c~34c(特性情報保持手段)はそれぞれカメラユニット11~14のカメラ情報を予めメモリに保持している。カメラ情報部はカメラユニット11~14内に設けた各種センサ等からの情報を一時的に保持することもできる。
カメラ情報は、例えば中心高解像度レンズ21c、23cや周辺高解像度レンズ22c、24cが形成する光学像の特性情報(解像度境界情報など)を含む。又、撮像素子21d~24dの画素数、カメラユニットの車両座標における取り付け位置座標および姿勢(ピッチ、ロール、ヨーなど)の情報、撮像方向などを含む。カメラ情報は、ガンマ特性、感度特性、フレームレートなどの情報を含んでも良い。
更に、カメラ情報は、画像処理部31a~34aにおいて画像信号を生成する際の画像処理方法や画像フォーマットに関する情報を含んでもよい。尚、取り付け位置座標は、カメラユニット毎に車両に対する取り付け位置が決まっている場合が多いので、事前にカメラ情報部内のメモリに記憶しておいてもよい。又、カメラユニットの姿勢座標は車両1に対する相対的な座標であり、カメラユニットに設けられた不図示のエンコーダなどから取得してもよい。あるいは3次元加速度センサなどを用いて取得してもよい。
又、撮像方向に関する情報は例えば地磁気センサを用いて取得してもよい。カメラの解像度境界情報はレンズ設計によって決まるので予めカメラ情報部内のメモリに記憶しておくものとする。
尚、カメラ情報は撮像部21~24の夫々固有の情報であり、互いに異なり、それらの情報は統合処理部40に送信され、統合処理部40において画像処理などをする際に参照される。ここで、カメラ情報部31c~34cは、光学像の特性に関する特性情報を保持する特性情報保持部として機能している。
尚、カメラ処理部31~34の内部にはコンピュータとしてのCPUや記憶媒体としてのコンピュータプログラムを記憶したメモリが内蔵されている。又、CPUはメモリ内のコンピュータプログラムを実行することにより、カメラ処理部31~34内の各部を制御するように構成されている。
尚、本実施形態では、画像処理部31a~34aや認識部31b~34bは例えば専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などのハードウェアを用いる。
又、カメラ処理部31~34の内部の機能ブロックの一部又は全部を、CPUに、メモリに記憶されたコンピュータプログラムを実行させることによって実現してもよいが、その場合には、CPUの処理速度を高めることが望ましい。
40は統合処理部であり、SOC(Sytem On Chip)/FPGA(Field Programable Gate Array)41、コンピュータとしてのCPU42、記憶媒体としてのメモリ43を有する。CPU42はメモリ43に記憶されたコンピュータプログラムを実行することによって、画像処理システム100全体の各種制御を行う制御手段として機能している。尚、本実施形態では統合処理部40はカメラユニットとは別の筐体に収納されている。
SOC/FPGA41は画像処理部41a、統合制御部41cを有する。画像処理部41aはカメラ処理部31~34からそれぞれの画像信号を取得すると共に、カメラ情報部31c~34cより各カメラユニット11~14のカメラ情報を取得する。
カメラ情報は、前述のように、中心高解像度レンズ21c、23c、周辺高解像度レンズ22c、24cの光学特性や撮像素子21d~24dの画素数、光電変換特性、ガンマ特性、感度特性、画像信号のフォーマット情報を含む。又、カメラ情報は、カメラユニットの車両座標における取り付け座標や姿勢情報などを含む。
画像処理部41aはそれらのカメラ情報に基づきカメラ処理部31~34からのそれぞれの画像信号に対して解像度変換を行うと共に、撮像部21~24のそれぞれの低解像度領域10bから得られた画像信号に対して歪曲補正を行う。
すなわち、光学像の特性に基づき歪曲補正領域の画像信号に対して歪曲補正すると共に、歪曲補正された画像信号と、歪曲補正しない非歪曲補正領域の画像信号とを合成して合成画像を生成する。すなわち、画像処理部41aは表示信号生成部としても機能しており、歪曲補正などを行って、合成画像を生成する表示信号生成ステップを行う。尚、本実施形態において歪曲補正領域はユーザにより、又は自動で設定可能である。
尚、本実施形態では画像処理部41aは、高解像度領域10aから得られた画像信号は歪曲が殆どないので歪曲補正は行わない。但し、画像処理部41aは、高解像度領域10aから得られた画像信号に対しても簡略的な歪曲補正を行ってもよい。又、画像処理部41aはカメラ処理部31~34から送られるそれぞれの画像信号に対して適宜非可逆圧縮処理などを行う。
又、画像処理部41aは歪曲補正を行った撮像部21~24のそれぞれの低解像度領域10bの画像信号と、高解像度領域10aの画像信号をスムーズにつなぎ合わせるように合成して撮像部21~24毎の夫々の全体画像を形成する。
尚、低解像度領域10bの画像信号と高解像度領域10aから得られた画像信号の両方に対して歪曲補正を行う場合には、画像処理部31a~34aでそれぞれ得られた画像信号をそのまま歪曲補正してもよい。
本実施形態では、画像処理部41aは、複数の撮像部としてのカメラユニット12~14からの画像をつなぎ合わせるように合成して、パノラマ的な合成画像を形成することができる。
その場合、つなぎ合わされる複数の撮像部の画像は、それぞれの撮影画角の少なくとも一部が互いに所定量以上のオーバーラップ領域を有するように設定されている。即ち、カメラユニット12と13の撮影範囲が互いに重複するようにそれぞれ配置されている。又、カメラユニット13と14の撮影範囲が互いに重複するようにそれぞれ配置されている。
又、統合制御部41cは、撮像部21~24毎の全体画像や、パノラマ的な合成画像などの内、所望の画像を第1表示部50,第2表示部51、第3表示部52などに表示するための表示信号を形成する。その際、認識された対象物を強調表示するための枠や、対象物の種類、サイズ、位置、速度などに関する情報や警告などのためのCGなどを生成する。更に、カメラ情報部31c~34cから取得した表示解像度境界情報などの光学系の特性情報に基づき境界を表示するための境界画像のCGを生成する。
又、これらのCGや文字を画像に重畳するための表示処理などを行う。尚、統合制御部41cは、複数の画像取得手段から取得した画像信号を合成して合成画像を生成する表示信号生成手段として機能している。又、第1表示部50,第2表示部51、第3表示部52などは表示部として機能しており、画像信号や統合された画像認識結果を表示する。
第1表示部50は例えば車両1の運転席の前方上部の車幅方向の中央付近に、表示画面を車両後方に向けて設置され、電子ルームミラーとして機能する。尚、ハーフミラーなどを用いて、ディスプレイとして使用しないときは鏡として使用できる構成としてもよい。又、タッチパネルや操作ボタンを備え、ユーザからの指示を取得し、統合制御部41cへ出力可能な構成になっている。
第2表示部51は、例えば車両1の運転席の前方の車幅方向の中央付近の操作パネル周辺に設置される。尚、移動体としての車両1には、不図示のナビゲーションシステムや、オーディオシステムなどが搭載されている。
そして、例えば第2表示部には、ナビゲーションシステムや、オーディオシステムや走行制御部(ECU)60からの各種制御信号なども表示することができる。又、第2表示部51には後進時の後方確認用の画像が表示されバックモニタとして用いられる。又、タッチパネルや操作ボタンを備え、ユーザからの指示を取得可能な構成になっている。
尚、第2表示部51は例えばタブレット端末の表示部であってもよく、統合処理部40に対して有線で接続することにより表示することもできるし、通信部62を介して無線で画像を受信して表示することもできる。
第3表示部52は例えば電子サイドミラーとして機能する表示部であり、本実施形態では、第3表示部52は第1表示部50とは別体で設けているが、第1表示部50の左右の端の部分に第3表示部52と同様の表示をしても良い
第3表示部52は右側の電子サイドミラーと左側の電子サイドミラーとして構成され、右側の電子サイドミラーは例えば右ドアの内側に配置され、左側の電子サイドミラーは例えば左ドアの内側に配置される。又、第3表示部52もタッチパネルや操作ボタンを備え、ユーザからの指示を取得可能な構成になっている。
本実施形態では、移動体の電源が入っている状態では、第3表示部52は、常に表示状態になっているものとする。又、第3表示部52における表示画角は、カメラユニット12、14の夫々の全撮影画角が表示されていても良い。
尚、第1表示部50、第2表示部51、第3表示部52のディスプレイパネルとしては、液晶ディスプレイや有機ELディスプレイなどを用いることができる。尚、表示部の数は3つに限定されない。
又、統合制御部41cは走行制御部(ECU)60などとCANやFlexRay、Ethernetなどのプロトコルを用いて内部に設けられた不図示の通信部を介して通信を行う。それによって、走行制御部(ECU)60などから受信した車両制御信号に基づき、表示する情報を適宜変更する表示処理を行う。即ち、例えば車両制御信号により取得された車両の移動状態に応じて表示部に表示する画像の範囲などを変化させる。
尚、走行制御部(ECU)60は、車両1に搭載されており、車両1の駆動制御、方向制御などを総合的に行うためのコンピュータやメモリを内蔵したユニットである。走行制御部(ECU)60からは車両制御信号として例えば走行速度、走行方向、シフトレバー、シフトギア、ウインカーの状態、地磁気センサなどによる車両の向きなどの車両の走行(移動状態)に関する情報などが統合処理部40に対して入力される。
一方、統合制御部41cは、認識部31b~34b等で認識された所定の対象物(障害物など)の種類、位置、移動方向、移動速度などの情報を走行制御部(ECU)60に送信する。尚、障害物に関しては障害物検知部64によっても検知されるように構成されている。
そして認識部31b~34bや障害物検知部64で障害物が検知された場合には、走行制御部(ECU)60は車両の停止、駆動、走行方向の変更などの障害物の回避などに必要な制御を行う。ここで走行制御部(ECU)60は、画像認識結果等に基づき移動体としての車両の移動を制御する移動制御部として機能している。
尚、統合処理部40などに含まれる機能ブロックの一部又は全部をハードウェアで実現するようにしてもよいし、CPU42に、メモリ43に記憶されたコンピュータプログラムを実行させることによって実現してもよい。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。尚、画像処理部31a~34aで行っている画像処理の一部又は全部を統合処理部40の画像処理部41aで行ってもよい。
尚、本実施形態では統合処理部40は移動体としての車両1に搭載されているが、統合処理部40の画像処理部41a、統合制御部41cの一部の処理を例えばネットワークを介して外部サーバなどで行ってもよい。その場合、画像取得部としての撮像部21~24は移動体としての車両1に搭載されるが、例えばカメラ処理部31~34や統合処理部40の機能の一部を外部サーバなどで処理することが可能になる。又、統合処理部40の一部又は全部の機能を走行制御部(ECU)60に持たせることも可能である。
61は記憶部であり、統合処理部40で生成された撮像部21~24毎の全体画像や、パノラマ的な合成画像を記憶する。更に、認識された対象物を示す所定の枠や文字や警告などのCGや、CGが重畳され第1表示部50,第2表示部51などに表示された画像を時刻などやGPS情報などと共に記憶する。統合処理部40は記憶部61に記憶された過去の情報を再生し、それを第1表示部50や第2表示部51に表示することも可能である。
62は通信部であり、ネットワークを介して外部サーバなどと通信するためのものであり、記憶部61に記憶される前の情報や記憶部61に記憶された過去の情報を外部サーバなどに送信して外部サーバなどに保存することが可能である。
又、前述のように画像を外部のタブレット端末などに送信して、タブレット端末の表示部である第2表示部51に画像を表示することもできる。又、外部サーバなどから渋滞情報や、各種の情報を取得して、統合処理部40を介して第1表示部50や第2表示部51や第3表示部52に表示することも可能である。尚、本実施形態ではこれらの複数の表示部は同時にそれぞれの画角の画像を夫々表示可能である。
63は操作部でありユーザの操作によって画像処理システムに対する様々な指示を入力するためのものである。操作部は例えばタッチパネルや操作ボタンなどのユーザの選択を受け付けるUIを含む。64は障害物検知部であり、例えばレーザ光等を用いて移動体の周囲に存在する障害物を検知するためのものである。
尚、本実施形態では制御手段としてのCPU42は、信号線71~74によって夫々画像処理部31a、32a,33a、34aにおける画像処理の制御と撮像部21~24における露光制御(絞り制御や電荷蓄積時間制御等)を行うことができる。尚、信号線74は図3においては不図示である。
又、表示部に表示される画角に応じて、その画角内のホワイトバランスやゲインやγやローカル・トーン・マッピング等を最適化すると共に、撮像時の露光制御によってその画角内の画像の輝度レベルを適正化することができる。詳しくは後述する。
図4は実施形態1の後方のカメラユニット13の画角と高解像度領域と低解像度領域の対応関係を説明するための図である。図4に示すように、後方のカメラユニット13の撮像画角13aの画像は撮像素子の受光面81の高解像度領域(低歪曲領域)10aに結像する。又、撮像画角13bの周辺部の画像は、撮像素子の受光面81の低解像度領域(高歪曲領域)10bに結像する。
次に図5は実施形態1における画像処理方法を説明するためのフローチャートである。図5のフローは、走行制御部(ECU)60からの走行状態を示す信号に応じて統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより例えばフレーム単位で処理される。
図5のステップS500において、第1表示部50~第3表示部52の少なくとも1つにユーザが指でタッチしたか否かを判別する。Yesの場合には、ステップS509に進む。尚、ここでは表示部へのタッチによって、どの表示部をメインに用いるかを判別しているが、タッチに限定されない。例えばメニューボタンで表示部を選択しても良い。
又、タッチ範囲等により画角範囲を選択しても良いし、カーソル等で画角範囲を選択しても良い。ステップS509では、タッチにより指定された画角範囲の画像を、タッチされた表示部に表示する。タッチされたら、その画角範囲の画像の画質を調整する。
即ち、前述のように、統合制御部41cが、信号線71~74によって夫々画像処理部31a、32a,33a、34aにおける画像処理の制御と撮像部21~24における露光制御(絞り制御や電荷蓄積時間制御等)を行う。尚、本実施形態では画像処理制御と露光制御の両方を行っているが、画像処理制御と露光制御の少なくとも一方であっても良い。又、画像処理制御は、例えば異なる電荷蓄積時間で撮影された画像を合成してダイナミックレンジを広げるHDR制御を含んでも良い。
即ち、表示部に表示される画角に応じて、その画角内のホワイトバランスやゲインやγやローカル・トーン・マッピング等を最適化すると共に、撮像時の露光制御によってその画角内の画像の輝度レベルを適正化する。
図6は実施形態1における画像処理部31aの構成例を説明するための機能ブロック図である。図6に示すように、画像処理部31aは、ホワイトバランス補正部310、デベイヤ処理部311、ゲイン補正部312、ローカル・トーン・マッピング部313、ガンマ補正部314、画像解析部315を有する。
ホワイトバランス補正部310は画像信号の色を被写体の色温度に応じて補正する。デベイヤ処理部311は、撮像素子から得られるR,G、Bの各色信号を同時化してRプレーン、Gプレーン、Bプレーンの色信号に分離する。ゲイン補正部312は、例えば選択された画角範囲の画像の輝度レベルの例えば平均値が所定の最適値となるようにゲインを調整する。
ローカル・トーン・マッピング部313は、選択された画角範囲の画像についてシーンの再現性を高めるために局所的に異なる輝度変換を行う。ガンマ補正部314は、例えば輝度のヒストグラムに応じて、ガンマカーブを最適化する。
画像解析部315は、統合制御部41cから、選択された画角範囲(所定の位置、所定の大きさ)に関する情報を取得し、その画角範囲の画像を解析する。例えば、その画角範囲の画像の色温度や平均輝度値や輝度ヒストグラム等を解析し、解析結果に基づきホワイトバランス補正部310によってホワイトバランスを補正し、ゲイン補正部312によりゲイン補正をする。又、輝度のヒストグラムの解析結果に基づきガンマ補正部314によりガンマ曲線を補正する。
図7は、ステップS509における処理の例を説明するためのフローチャートである。図7のフローは、走行制御部(ECU)60からの走行状態を示す信号に応じて統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより例えばフレーム単位で処理される。
具体的には、例えばユーザが指で第1表示部50(電子ルームミラー)にタッチしたとする。その場合に、その時に第1表示部50(電子ルームミラー)には前方の画像が表示されていたとする。そして、その画像において、タッチ操作により、所定の画角範囲(所定の位置、所定の大きさ)が選択されたとする。
すると図7のステップS710において、統合制御部41cは、第1表示部50における選択された画角範囲(所定の位置、所定の大きさ)を制御対象として決定する。次にステップS711において、統合制御部41cは、第1表示部50における選択された画角範囲(所定の位置、所定の大きさ)が制御対象として決定されたことを、信号線71を介して夫々画像処理部31a及び撮像部21に送信する。
画像解析部315は、選択された画角範囲(所定の位置、所定の大きさ)における画像を解析し、ステップS712において、その解析結果に基づき撮像部と画像処理部における制御方法を決定する。
即ち、例えば選択された画角範囲の画像の例えば輝度レベルが適切になるように、撮像部21の撮像素子の電荷蓄積時間又は画像処理部31aにおけるゲインの少なくとも一方を調整することを決定する。或いは解析結果に基づきホワイトバランス補正や、ガンマ補正等を制御することを決定する。
次にステップS713において、ステップS712で決定された制御を実行する。例えば撮像素子の電荷蓄積時間とゲイン補正を行うことにより例えば選択された画角範囲の画像に太陽光の反射等によって白飛びしていても適切な輝度レベルの画像を得ることができる。又、ホワイトバランスやガンマ等を適正に補正する。次にステップS714において補正後の画角範囲の画像をその表示部に表示する。上記のような処理をステップS509において実行した後でステップS510に進む。
尚、ステップS509で第1表示部50において画質調整された画像の表示を行っている際に、例えば第2表示部51等には例えばカメラユニット11で撮像された例えば最大画角の画像を表示していても良い。その場合、第2表示部51等に表示される画像の画質は第1表示部50における画質に合わせた画質で表示すれば良い。
即ち、他の表示部における表示は画角が異なっていても、露光調整や画質調整状態は第1表示部と同じ状態で良い。後述のステップS505,ステップS506、ステップS507、ステップS508においても同様である。但し、このとき他の表示部に表示される画像の画質は第1表示部50における画質より劣る場合がある。これは、他の表示部に表示される画像と第1表示部50に表示される画像とでは画角が異なるために露光等の最適値が異なるからである。
ステップS500でNoの場合にはステップS501に進む。ステップS501で走行制御部(ECU)60から、車両制御情報を取得する。車両制御情報は前述のように、例えば走行速度、走行方向、シフトレバー、シフトギア、ウインカーなどの車両の走行に関する情報などを含む。
ステップS502において、車両制御情報に基づき車両が走行中であって前進状態か否かを判別する。前進であればステップS503において、障害物を検出した又は進路変更中か否かを判別し、Noの場合にはステップS504で前進速度が所定の閾値V1(例えば60km/h)よりも大きいか否かを判別する。
ステップS504でNoの場合にはステップS505で、予めユーザが設定した所定の基準画角の画像を画質調整して第1表示部に表示する。即ち、所定の基準画角の画像82C、82B、82L、82Rを例えば電子ルームミラーとしての第1表示部50に表示し、その後でステップS510に進む。尚、上記の画質調整はステップS509における画質調整と同様のものとする。即ち、撮像素子の露光調整(絞りや電荷蓄積時間等の調整)、画像処理による画質調整などである。
図8(A)は実施形態1の第1表示部50の表示画面501の表示例を説明するための図、図8(B)は実施形態1の第2表示部51の表示画面511の表示例を説明するための図である。尚、図8(A)において82Lは左側方のカメラユニット14からの一部の画像、82Cは正面のカメラユニット11の基準画角の画像、82Rは右側方のカメラユニット12からの一部の画像を示している。
図8(A)に示すように、ステップS504で前進速度がV1(例えば時速60km)以下と判別された場合には、ステップS505に進み、画像82L、基準画角の82Cと、画像82Rを並べて第1表示部50の表示画面501に表示する。尚、画像82L、画像82Rは、車両の電源をオンしたら、夫々左の電子サイドミラー及び右の電子サイドミラーとしての第3表示部52にも表示される。
尚、図8(A)において82Bは後方用のカメラユニット13の、予め設定した後方用の基準画角の画像であり、第1表示部50の表示画面501の中に例えばピクチャーインピクチャーで表示される。
尚、図8(A)では前方画像がメインで後方画像がピクチャーインピクチャーで表示される例を示しているが、通常の走行状態では、後方画像をメインとし、前方画像はピクチャーインピクチャーで表示する。その際前方画像は表示しなくても良い。
本実施形態ではステップS504で前進速度がV1以下と判別された場合には、カメラユニット11,13からの夫々基準画角の画像82C、82Bが表示される。
一方、ステップS504で前進速度がV1より大きいと判別された場合にはステップS506に進む。そして、図8の82B、82Cよりも左右が狭く上側の画角の表示領域の画像を画質調整して電子ルームミラーとしての第1表示部に表示し、その後でステップS510に進む。
尚、上記の画質調整はステップS509における画質調整と同様のものとする。即ち、撮像素子の露光調整、画像処理による画質調整などである。ステップS506における前方と後方の画像の画角は、は前述の基準画角より上下左右方向が狭い画角とする。
これは前進速度が大きい場合には、運転者の上下左右の視野が狭くなるからである。
これは前進速度が大きい場合には、運転者の上下左右の視野が狭くなるからである。
このように、前進速度がV1(例えば60km)より大きい場合には視覚が狭くなるので、上下左右を狭くして表示したほうが必要な情報を速やかに視認しやすくなる。
また、図5のステップS503において障害物検出又は進路変更中であると判断された場合には、ステップS507に進み、画質調整して、左右及び下方に広画角の少なくとも前方の画像を表示する。尚、上記の画質調整はステップS509における画質調整と同様のものとする。即ち、撮像素子の露光調整、画像処理による画質調整などである。ここでステップS507における表示領域は基準画角の表示領域よりも左右方向の幅が広く、下方向に広げたものとする。
このように、本実施形態では障害物検出した場合や進路変更中は左右に広げた画角の少なくとも前方の画像を表示するので周囲の安全を、より視認しやすくなる。しかも下方に画角を広げた画像を表示しているので、道路の障害物をより視認しやすくなる。ステップS507の後はステップS510に進む。
図5のステップS502において、走行中であって前進ではないと判断された場合にはステップS508に進む。ステップS508では基準画角より下方及び左右方向に広い画角の後進用の画像を画質調整し、例えば図8(B)のように、バックモニタ用の第2表示部51の表示画面511に表示する。その後でステップS510に進む。
尚、ステップS508における画質調整はステップS509における画質調整と同様のものとする。即ち、撮像素子の露光調整、画像処理による画質調整などである。
尚、ステップS508で下方及び左右に画角を広げているのは、後進中において広い範囲の障害物を見つけやすくするためである。
図8(B)は車両1を後退する際に第2表示部51の表示画面511に表示される画面の例を示しており、例えば駐車スペースに車両1をガイドするためのガイド表示512が重畳表示される。
ステップS508の後でステップS510に進み、ユーザから終了要求があったか否かを判別し、Yesであれば図5のフローを終了し、NoであればステップS500に戻る。
尚、ステップS510において、後進速度がV2より大きい場合には、表示領域後方用の基準画角よりも上下左右方向に画角が広げられている。これは、後進速度がV2よりも大きい場合には、より広く後方を表示して障害物を視認しやすくするためである。
ここで、ステップS500~S504は、画像信号の一部の画角範囲を選択する選択ステップ(選択手段)として機能している。又、ステップS505~S509は、選択ステップによって選択された画角範囲の画質に応じて、画像信号による画像について露光制御及び画質調整の少なくとも一方を行う制御ステップ(制御手段)として機能している。
このように、実施形態1においては、移動体としての車両1の移動状態に応じて、運転手が主に見る画面の画質が好適に制御され視認性が向上する。又、表示領域を適切に変更することが可能なので、中心高解像度レンズや周辺高解像度レンズのような光学系を用いた画像処理システムの性能を更に引き出すことができる。
又、表示領域を切り替えた場合に、その画角範囲(表示領域)について露光調整や画質調整を行い、画像処理や露光制御を最適化しているので、より白飛びや黒つぶれによる視認性の低下を防ぐことができる。
又、前述のように、同じ撮像部からの画像を用いて同時に他の表示部において異なる画角の表示を行っている場合においては、上記のような特定の表示部の露光を適正化したことによって、他の表示部の表示画質の劣化を抑制するように画質補正を行えば良い。
又、実施形態1、2では、前方及び後方を撮影するカメラユニットの高解像度領域(低歪曲領域)を、通常の撮像用の光学系の中心射影方式(y=f×tanθ)又は等距離射影方式(y=f×θ)に近似した射影特性となるように構成している。
又、図8に示すように、電子ルームミラーとしての第1表示部50には、中心高解像度レンズ21cを介してカメラユニット11により撮像された画像82Cが表示されている。又、第1表示部50には、中心高解像度レンズ23cを介してカメラユニット13により撮像された画像82Bが表示されている。又、第2表示部51には、後進時において、カメラユニット13により撮像された画像が表示される。
したがって、例えば第1表示部50や第2表示部51に表示される高解像度領域(低歪曲領域)10aの画像は、解像度が低解像度領域(高歪曲領域)10bと比較して高く、車両1の正面、後方の遠方を、より精細に表示することができる。
一方、側面のカメラユニットの光学系の特性を前方や後方のカメラユニットの光学特性の逆の特性にしているので、移動体の側方の前と後ろ方向の移動体などを電子サイドミラーにより視認しやすくなる。
[実施形態2]
図9は本発明の実施形態2の動作を説明するためのフローチャートである。実施形態2においては、移動体としての車両の移動状態(走行状態)に応じて第3表示部の表示を制御する。図9のフローは、走行制御部(ECU)60からの走行状態を示す信号に応じて統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより処理される。
図9は本発明の実施形態2の動作を説明するためのフローチャートである。実施形態2においては、移動体としての車両の移動状態(走行状態)に応じて第3表示部の表示を制御する。図9のフローは、走行制御部(ECU)60からの走行状態を示す信号に応じて統合処理部40のCPU42がメモリ43内のコンピュータプログラムを実行することにより処理される。
図9のステップS901は図5のステップS507において、広画角の画像を画質調整して第1表示部に表示した後で、行われる処理である。ステップS901において、カメラユニット12又はカメラユニット14の画像から障害物が検知されたか判別する。尚、障害物の検知は、例えば認識部32b、34bにより行われる。
ステップS901でYesの場合にはステップS902に進み、Noの場合にはステップS903に進む。ステップS902において、CPU42は、第2表示部51にカメラユニット12又はカメラユニット14の内の障害物が検知された方のカメラユニットからの画像の、下方向の広画角の画像を例えば第2表示部51に表示する。
尚、この時の表示先は第3表示部でも良い。即ち、カメラユニット12、14の画像から障害物が検出された時には夫々右又は左の電子サイドミラーとしての第3表示部52にカメラユニット12からの画像の下方向の広画角の画像を表示しても良い。
尚、上記の下方向の広画角の画像とは、例えば略水平方向を向いたカメラユニット12、14の画角の内、例えば下半分の画角とする。又、カメラユニット12、14の画角の中央周辺は低解像度であると共に歪曲しているので、歪曲補正をしたうえで表示をする。このような画像を表示することにより例えば車両の下側の死角に存在する障害物をより視認しやすくなる。
ステップS901においてNoの場合には、ステップS903に進み、車両の前進速度がV2(例えば20km/h)未満か判別し、Noの場合にはステップS902に進んで、ステップS902の処理を行う。Yesの場合にはステップS904に進む。
ステップS904においては、右左折の動作が行われているか判別する。右左折の動作が行われているか否かは、例えばウインカー操作、車輪の向き、ハンドルの回転角度、走行制御ECU60からの信号等により判別する。
ステップS904で右折又は左折の動作が判別された場合には、ステップS905に進み、Noの場合にはステップS902に進んでステップS902の処理を行う。
ステップS905においては、右のカメラユニット12又は左のカメラユニット14から得られた画像の内の、斜め後方に相当する画角の画像を切り出して電子サイドミラーとしての第3表示部52に表示する。その際にステップS509と同様の方法で例えば露光制御や画像処理によって画質を調整する。
このように、ステップS905では速度がV2未満で、かつ、右折又は左折動作中には、夫々右又は左の電子サイドミラーに斜め後方の画像が表示される。従って、例えば斜め後方から自転車や自動二輪車などが接近している場合にそれを直ちに視認することができる。ステップS905の処理後にステップS510に進む。
以上のように、実施形態2においては、移動体としての車両の走行状態に応じて、電子サイドミラーとしての第3表示部52に最適な画質の画像を表示することができる。
以上のように、実施形態2においては、移動体としての車両の走行状態に応じて、電子サイドミラーとしての第3表示部52に最適な画質の画像を表示することができる。
尚、以上の実施形態では複数のカメラユニットを用いる例を説明したが、カメラユニットが1つだけのシステムにおいても有効である。
尚、上述の実施形態においては車両などの移動体に画像処理システムを搭載した例について説明した。しかし、これらの実施形態の移動体は、自動車などの車両に限らず、列車、船舶、飛行機、ロボット、ドローンなどの移動をする移動装置であれば、どのようなものであってもよい。
又、実施形態の画像処理システムはそれらの移動体に搭載されていてもよいし、搭載されていなくてもよい。又、例えば移動体をリモートでコントロールする場合にもこれらの実施形態の構成を適用することができる。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。尚、上記実施形態は、以下の組み合わせを含む。
(構成1)光学像を撮像する撮像手段により生成した画像信号を取得する画像取得手段と、前記画像信号の一部の画角範囲を選択する選択手段と、前記選択手段によって選択された前記画角範囲の画質に応じて、前記画像信号による画像について露光制御および画質調整の少なくとも一方を行う制御手段と、を有することを特徴とする画像処理システム。
(構成2)前記画像取得手段は移動体に設置されており、前記選択手段は、前記移動体の移動状態に応じて前記画角範囲を選択することを特徴とする構成1に記載の画像処理システム。
(構成3)前記選択手段は、ユーザによる選択を受け付けるUIを有することを特徴とする構成1又は2に記載の画像処理システム。
(構成4)異なる位置に配置された複数の前記画像取得手段を有し、複数の前記画像取得手段から取得した前記画像信号を合成して合成画像を生成する表示信号生成手段を有することを特徴とする構成1~3のいずれか1つに記載の画像処理システム。
(構成5)前記画像取得手段は、前記光学像を形成する光学系と、前記光学系により形成された前記光学像を撮像する撮像素子と、を含むことを特徴とする構成1~4のいずれか1つに記載の画像処理システム。
(構成6)前記光学像は高解像度領域と低解像度領域を有することを特徴とする構成5に記載の画像処理システム。
(構成7)前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、前記高解像度領域におけるy(θ)はf×θより大きく、前記低解像度領域における前記射影特性とは異なることを特徴とする構成6に記載の画像処理システム。
(構成8)前記高解像度領域は、y=f×tanθ又はy=f×θに近似した射影特性となるように構成されていることを特徴とする構成6又は7に記載の画像処理システム。
(構成9)θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、1<f×sinθmax/y(θmax)≦Aを満足するように構成されていることを特徴とする構成6~8のいずれか1つに記載の画像処理システム。
(構成10)θmaxを前記光学系が有する最大の半画角、Bを所定の定数とするとき、0.2<2×f×tan(θmax/2)/y(θmax)<Bを満足するように構成されていることを特徴とする構成6~9のいずれか1つに記載の画像処理システム。
(構成11)θmaxを前記光学系が有する最大の半画角、A、Bを所定の定数とするとき、1<f×sinθmax/y(θmax)≦Aを満足する前記画像取得手段と、0.2<2×f×tan(θmax/2)/y(θmax)<Bを満足する前記画像取得手段を有することを特徴とする構成6~10のいずれか1つに記載の画像処理システム。
(構成12)前記画質調整は、ホワイトバランス補正、ゲイン調整、ガンマ補正の少なくとも1つを含むことを特徴とする構成1~11のいずれか1つに記載の画像処理システム。
(構成13)前記制御手段は、前記選択手段によって選択された前記画角範囲に適した画質となるように、前記画像信号による前記画像について前記露光制御および前記画質調整の少なくとも一方を行うことを特徴とする構成1~12のいずれか1つに記載の画像処理システム。
(構成14)前記選択手段は、前記移動体に設置されている電子ルームミラーおよびバックモニタのうち少なくとも一方に対応する画角範囲を選択することを特徴とする構成2~13のいずれか1つに記載の画像処理システム。
(構成15)前記選択手段は、前記移動体が後進する場合に、バックモニタに対応する画角範囲を選択することを特徴とする構成2~14のいずれか1つに記載の画像処理システム。
(構成16)構成1~15のいずれか1つに記載の画像処理システムの前記撮像手段を搭載し、前記選択手段により、移動体の移動状態に応じて前記画角範囲を選択するように構成したことを特徴とする移動体。
(方法)光学像を撮像する撮像手段により生成した画像信号を取得する画像取得ステップと、前記画像信号の一部の画角範囲を選択する選択ステップと、前記選択ステップによって選択された前記画角範囲の画質に応じて、前記画像信号により画像について露光制御及び画質調整の少なくとも一方を行う制御ステップと、を有することを特徴とする画像処理方法。
(プログラム)構成1~15のいずれか1つに記載の画像処理システム又は構成16に記載の移動体の各手段をコンピュータにより制御するためのコンピュータプログラム。
尚、上記実施形態における制御の一部又は全部を実現するために、上述した実施形態の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理システム等に供給するようにしてもよい。そしてその画像処理システム等におけるコンピュータ(又はCPUやMPU等)がそのプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
1:車両
10a:高解像度領域
10b:低解像度領域
11~14:カメラユニット
21~24:撮像部
31~34:カメラ処理部
31b~34b:認識部
40:統合処理部
50:第1表示部
51:第2表示部
60:走行制御部ECU
10a:高解像度領域
10b:低解像度領域
11~14:カメラユニット
21~24:撮像部
31~34:カメラ処理部
31b~34b:認識部
40:統合処理部
50:第1表示部
51:第2表示部
60:走行制御部ECU
Claims (18)
- 光学像を撮像する撮像手段により生成した画像信号を取得する画像取得手段と、
前記画像信号の一部の画角範囲を選択する選択手段と、
前記選択手段によって選択された前記画角範囲の画質に応じて、前記画像信号による画像について露光制御および画質調整の少なくとも一方を行う制御手段と、
を有することを特徴とする画像処理システム。 - 前記画像取得手段は移動体に設置されており、
前記選択手段は、前記移動体の移動状態に応じて前記画角範囲を選択することを特徴とする請求項1に記載の画像処理システム。 - 前記選択手段は、ユーザによる選択を受け付けるUIを有することを特徴とする請求項1に記載の画像処理システム。
- 異なる位置に配置された複数の前記画像取得手段を有し、
複数の前記画像取得手段から取得した前記画像信号を合成して合成画像を生成する表示信号生成手段を有することを特徴とする請求項1に記載の画像処理システム。 - 前記画像取得手段は、前記光学像を形成する光学系と、
前記光学系により形成された前記光学像を撮像する撮像素子と、を含むことを特徴とする請求項1に記載の画像処理システム。 - 前記光学像は高解像度領域と低解像度領域を有することを特徴とする請求項5に記載の画像処理システム。
- 前記光学系の焦点距離をf、半画角をθ、像面での像高をy、像高yと半画角θとの関係を表す射影特性をy(θ)とするとき、
前記高解像度領域におけるy(θ)はf×θより大きく、前記低解像度領域における前記射影特性とは異なることを特徴とする請求項6に記載の画像処理システム。 - 前記高解像度領域は、y=f×tanθ又はy=f×θに近似した射影特性となるように構成されていることを特徴とする請求項6に記載の画像処理システム。
- θmaxを前記光学系が有する最大の半画角、Aを所定の定数とするとき、
1<f×sinθmax/y(θmax)≦A
を満足するように構成されていることを特徴とする請求項6に記載の画像処理システム。 - θmaxを前記光学系が有する最大の半画角、Bを所定の定数とするとき、
0.2<2×f×tan(θmax/2)/y(θmax)<B
を満足するように構成されていることを特徴とする請求項6に記載の画像処理システム。 - θmaxを前記光学系が有する最大の半画角、A、Bを所定の定数とするとき、
1<f×sinθmax/y(θmax)≦A
を満足する前記画像取得手段と、
0.2<2×f×tan(θmax/2)/y(θmax)<B
を満足する前記画像取得手段を有することを特徴とする請求項6に記載の画像処理システム。 - 前記画質調整は、ホワイトバランス補正、ゲイン調整、ガンマ補正の少なくとも1つを含むことを特徴とする請求項1に記載の画像処理システム。
- 前記制御手段は、前記選択手段によって選択された前記画角範囲に適した画質となるように、前記画像信号による前記画像について前記露光制御および前記画質調整の少なくとも一方を行うことを特徴とする請求項1に記載の画像処理システム。
- 前記選択手段は、前記移動体に設置されている電子ルームミラーおよびバックモニタのうち少なくとも一方に対応する画角範囲を選択することを特徴とする請求項2に記載の画像処理システム。
- 前記選択手段は、前記移動体が後進する場合に、バックモニタに対応する画角範囲を選択することを特徴とする請求項2に記載の画像処理システム。
- 請求項1に記載の画像処理システムの前記撮像手段を搭載し、
前記選択手段により、移動体の移動状態に応じて前記画角範囲を選択するように構成したことを特徴とする移動体。 - 光学像を撮像する撮像手段により生成した画像信号を取得する画像取得ステップと、
前記画像信号の一部の画角範囲を選択する選択ステップと、
前記選択ステップによって選択された前記画角範囲の画質に応じて、前記画像信号により画像について露光制御及び画質調整の少なくとも一方を行う制御ステップと、
を有することを特徴とする画像処理方法。 - 請求項1~15のいずれか1項に記載の画像処理システム又は請求項16に記載の移動体の各手段をコンピュータにより制御するためのコンピュータプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023011341A JP2024106871A (ja) | 2023-01-27 | 2023-01-27 | 画像処理システム、移動体、画像処理方法、およびコンピュータプログラム |
US18/543,286 US20240259671A1 (en) | 2023-01-27 | 2023-12-18 | Image processing system, movable apparatus, image processing method, and storage medium |
EP23218606.4A EP4408006A1 (en) | 2023-01-27 | 2023-12-20 | Image processing system, movable apparatus, image processing method, and storage medium |
KR1020240010216A KR20240118670A (ko) | 2023-01-27 | 2024-01-23 | 화상 처리 시스템, 이동가능 장치, 화상 처리 방법, 및 저장 매체 |
CN202410106210.2A CN118413752A (zh) | 2023-01-27 | 2024-01-25 | 图像处理系统、可移动设备、图像处理方法和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023011341A JP2024106871A (ja) | 2023-01-27 | 2023-01-27 | 画像処理システム、移動体、画像処理方法、およびコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024106871A true JP2024106871A (ja) | 2024-08-08 |
Family
ID=89224434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023011341A Pending JP2024106871A (ja) | 2023-01-27 | 2023-01-27 | 画像処理システム、移動体、画像処理方法、およびコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240259671A1 (ja) |
EP (1) | EP4408006A1 (ja) |
JP (1) | JP2024106871A (ja) |
KR (1) | KR20240118670A (ja) |
CN (1) | CN118413752A (ja) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004345554A (ja) | 2003-05-23 | 2004-12-09 | Clarion Co Ltd | 車両後方モニタ装置及び車両後方モニタシステム |
US7893985B1 (en) * | 2004-03-15 | 2011-02-22 | Grandeye Ltd. | Wide angle electronic camera with improved peripheral vision |
JP2010095202A (ja) | 2008-10-19 | 2010-04-30 | Alpine Electronics Inc | ルームミラー位置後視カメラ画像表示装置 |
US10525883B2 (en) * | 2014-06-13 | 2020-01-07 | Magna Electronics Inc. | Vehicle vision system with panoramic view |
CN109076163B (zh) * | 2016-04-27 | 2021-08-31 | 索尼公司 | 成像控制装置、成像控制方法以及成像装置 |
JP6668975B2 (ja) * | 2016-07-01 | 2020-03-18 | 株式会社ニコン | 電子機器および自動車 |
JP2024038527A (ja) * | 2021-01-12 | 2024-03-21 | ソニーセミコンダクタソリューションズ株式会社 | 信号処理装置、信号処理方法及び信号処理システム |
CN117561468A (zh) * | 2021-06-29 | 2024-02-13 | 佳能株式会社 | 光学系统、图像拾取装置和图像拾取系统 |
JP2023011341A (ja) | 2021-07-12 | 2023-01-24 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
JP7467402B2 (ja) * | 2021-09-24 | 2024-04-15 | キヤノン株式会社 | 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム |
-
2023
- 2023-01-27 JP JP2023011341A patent/JP2024106871A/ja active Pending
- 2023-12-18 US US18/543,286 patent/US20240259671A1/en active Pending
- 2023-12-20 EP EP23218606.4A patent/EP4408006A1/en active Pending
-
2024
- 2024-01-23 KR KR1020240010216A patent/KR20240118670A/ko unknown
- 2024-01-25 CN CN202410106210.2A patent/CN118413752A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4408006A1 (en) | 2024-07-31 |
CN118413752A (zh) | 2024-07-30 |
KR20240118670A (ko) | 2024-08-05 |
US20240259671A1 (en) | 2024-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7467402B2 (ja) | 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム | |
JPWO2020090512A1 (ja) | 撮影装置、制御方法、及び、プログラム | |
JP2024063155A (ja) | 移動体、画像処理方法、およびコンピュータプログラム | |
US20230100099A1 (en) | Image processing system, image processing method, and storage medium | |
JP7500527B2 (ja) | 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム | |
US20230096414A1 (en) | Camera unit installing method, moving device, image processing system, image processing method, and storage medium | |
JP2024050331A (ja) | 移動体及び撮像装置の設置方法 | |
JP2024106871A (ja) | 画像処理システム、移動体、画像処理方法、およびコンピュータプログラム | |
JP7566709B2 (ja) | カメラシステム、移動体、制御方法、及びコンピュータプログラム | |
JP7434476B2 (ja) | 画像処理システム、画像処理方法、撮像装置、光学系、およびコンピュータプログラム | |
JP2024078751A (ja) | 画像処理システム、画像処理方法、およびコンピュータプログラム | |
WO2023145690A1 (ja) | 画像処理システム、移動体、撮像システム、画像処理方法、及び記憶媒体 | |
US12028603B2 (en) | Image processing system, image processing method, storage medium, image pickup apparatus, and optical unit | |
US20240346626A1 (en) | Image processing system, movable apparatus, image processing method, and storage medium | |
US20240253565A1 (en) | Image processing system, movable apparatus, image processing method, and storage medium | |
US20230394845A1 (en) | Movable apparatus, control method for movable apparatus, and storage medium | |
JP2023109164A (ja) | 画像処理システム、移動体、撮像システム、画像処理方法、及びコンピュータプログラム | |
JP2024131942A (ja) | 移動体、画像処理装置、コンピュータプログラム、及び撮像装置の設置方法 | |
JP2024050334A (ja) | 移動体及び撮像装置の設置方法 | |
JP2024094584A (ja) | 撮像設定装置、撮像装置および撮像設定方法 | |
JP2024106876A (ja) | 画像処理システム、画像処理方法、及びコンピュータプログラム |