JP2018037739A - Image processing apparatus, image processing system, mobile body, and image processing method - Google Patents

Image processing apparatus, image processing system, mobile body, and image processing method Download PDF

Info

Publication number
JP2018037739A
JP2018037739A JP2016167208A JP2016167208A JP2018037739A JP 2018037739 A JP2018037739 A JP 2018037739A JP 2016167208 A JP2016167208 A JP 2016167208A JP 2016167208 A JP2016167208 A JP 2016167208A JP 2018037739 A JP2018037739 A JP 2018037739A
Authority
JP
Japan
Prior art keywords
image
images
saturation
information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016167208A
Other languages
Japanese (ja)
Other versions
JP6655504B2 (en
Inventor
須永 敏弘
Toshihiro Sunaga
須永  敏弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016167208A priority Critical patent/JP6655504B2/en
Publication of JP2018037739A publication Critical patent/JP2018037739A/en
Application granted granted Critical
Publication of JP6655504B2 publication Critical patent/JP6655504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image for generating a composite image which is well-balanced in color saturation and imparts a less feeling of incompatibility to a person who refers thereto.SOLUTION: An image processing apparatus 1 comprises: an acquisition part 21 which acquires a plurality of images picked up by a plurality of cameras 10 each comprising a filter transmitting visible light and selectively transmitting infrared light within a predetermined wavelength range; and a processor 22 which calculates color saturation information for each of the plurality of images acquired by the acquisition part 21, and lowers color saturation of pixels constituting at least one image among the plurality of images based upon respective pieces of color saturation information.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理システム、移動体、及び画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing system, a moving body, and an image processing method.

従来、複数のカメラによって撮像された画像を合成して1つの連続した合成画像を作成する画像処理装置が知られている。例えば、特許文献1に記載の画像処理装置は、4つのカメラによって車両の前方、後方、右方、及び左方をそれぞれ撮像した画像を合成することによって、車両及び車両周囲の路面を見降ろした様子を表す合成画像を生成する。   2. Description of the Related Art Conventionally, there has been known an image processing apparatus that creates one continuous composite image by combining images captured by a plurality of cameras. For example, the image processing apparatus described in Patent Document 1 overlooks the vehicle and the road surface around the vehicle by synthesizing images obtained by imaging the front, rear, right, and left sides of the vehicle with four cameras. A composite image representing the state is generated.

一方、夕方や夜間等の、カメラの撮像範囲の照度が低い場合に、近赤外光を被写体に照射させることによって、被写体である人物に眩しさや不快感を与えずに撮像する撮像装置が知られている。例えば、特許文献2に記載の撮像装置は、各色の画素の相対感度がほぼ等しくなる800nm以上の近赤外光を透過させて、この波長範囲の近赤外光を除く赤外光を遮光するフィルタを有し、近赤外光が照射された被写体を撮像する。   On the other hand, imaging devices that capture images without causing glare or discomfort to the subject person by irradiating the subject with near-infrared light when the illuminance of the camera's imaging range is low, such as in the evening or at night, are known. It has been. For example, the imaging device described in Patent Document 2 transmits near-infrared light of 800 nm or more where the relative sensitivities of pixels of each color are substantially equal, and shields infrared light except near-infrared light in this wavelength range. It has a filter and images a subject irradiated with near-infrared light.

特開2009−17020号公報JP 2009-17020 A 特開平10−108206号公報JP-A-10-108206

しかしながら、上述の従来技術のような、所定の波長範囲の近赤外光を透過させて、所定の波長範囲の近赤外光を除く赤外光を遮光するフィルタを有した撮像装置によって、近赤外光が照射された被写体を撮像すると、近赤外光においては各色の画素の相対感度がほぼ等しいため、近赤外光が照射されていない被写体を撮像した画像に比べて彩度が低下する。   However, an imaging apparatus having a filter that transmits near-infrared light in a predetermined wavelength range and shields infrared light other than the near-infrared light in the predetermined wavelength range, as in the above-described prior art, When imaging a subject that has been irradiated with infrared light, the relative sensitivity of the pixels of each color in the near-infrared light is almost the same, so the saturation is reduced compared to an image of a subject that has not been irradiated with near-infrared light. To do.

そのため、複数の画像を合成して合成画像を生成する画像処理装置において、近赤外光を透過させて、近赤外光を除く赤外光を遮光するフィルタを有する撮像装置によって撮像された画像を用いた場合、近赤外光が照射された被写体に係る画像と近赤外光が照射されていない被写体に係る画像とでは彩度が異なる。したがって、これらの画像を合成した合成画像は領域ごとに彩度が異なり、全体として見たときに不自然な画像となることがある。   Therefore, in an image processing apparatus that generates a composite image by combining a plurality of images, an image captured by an imaging apparatus having a filter that transmits near-infrared light and blocks infrared light other than near-infrared light Is used, an image relating to a subject irradiated with near infrared light and an image relating to a subject not irradiated with near infrared light have different saturations. Therefore, a synthesized image obtained by synthesizing these images has a different saturation for each region, and may become an unnatural image when viewed as a whole.

したがって、これらの点に着目してなされた本発明の目的は、被写体の一部が近赤外光に照射されている場合であっても、彩度に均整がとれた、参照する者にとって違和感の少ない合成画像を生成するための画像を得ることができる画像処理装置、画像処理システム、移動体、及び画像処理方法を提供することにある。   Therefore, the object of the present invention, which has been made by paying attention to these points, is a sense of incongruity for the reference person who has balanced saturation even when a part of the subject is irradiated with near-infrared light. An image processing apparatus, an image processing system, a moving body, and an image processing method capable of obtaining an image for generating a composite image with a small amount of image data.

上記課題を解決する画像処理装置は、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを備える複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させるプロセッサと、を備える。   An image processing apparatus that solves the above problems obtains a plurality of images captured by a plurality of cameras each having a filter that transmits visible light and selectively transmits infrared light in a predetermined wavelength range. And saturation information of each of the plurality of images acquired by the acquisition unit, and based on the respective saturation information, saturation of pixels constituting at least one image of the plurality of images And a processor for reducing the above.

上記課題を解決する画像処理システムは、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを含む複数のカメラと、前記複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させるプロセッサと、を含む画像処理装置と、を備える。   An image processing system that solves the above problems includes a plurality of cameras including filters that transmit visible light and selectively transmit infrared light in a predetermined wavelength range, and a plurality of images captured by the plurality of cameras, respectively. And obtaining saturation information of each of the plurality of images obtained by the obtaining unit, and obtaining at least one image of the plurality of images based on the respective saturation information And an image processing device including a processor for reducing the saturation of the constituent pixels.

上記課題を解決する移動体は、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを有する複数のカメラと、前記複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させるプロセッサと、を有する画像処理装置と、を含む画像処理システムを備える。   A moving body that solves the above problems includes a plurality of cameras having filters that transmit visible light and selectively transmit infrared light in a predetermined wavelength range, and a plurality of images captured by the plurality of cameras, respectively. An acquisition unit that acquires an image, and calculates saturation information of each of the plurality of images acquired by the acquisition unit, and configures at least one of the plurality of images based on the respective saturation information And an image processing apparatus including a processor for reducing the saturation of a pixel to be processed.

上記課題を解決する画像処理方法は、画像処理装置が実行する画像処理方法であって、前記画像処理装置が、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを備える複数のカメラによってそれぞれ撮像された複数の画像を取得し、前記画像処理装置が、前記取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させる。   An image processing method that solves the above problem is an image processing method executed by an image processing device, wherein the image processing device transmits visible light and selectively transmits infrared light in a predetermined wavelength range. A plurality of images captured by a plurality of cameras each having a filter to be acquired, and the image processing device calculates saturation information of each of the acquired plurality of images, and based on the respective saturation information Thus, the saturation of the pixels constituting at least one of the plurality of images is reduced.

本発明の一実施形態によれば、被写体の一部が近赤外光に照射されている場合であっても、彩度に均整がとれた、参照する者にとって違和感の少ない合成画像を生成するための画像を得ることを可能とする。   According to an embodiment of the present invention, even when a part of a subject is irradiated with near-infrared light, a composite image that is balanced in saturation and less discomfort for a reference person is generated. It is possible to obtain an image for

図1は、第1の実施形態の画像処理システムの機能ブロック図である。FIG. 1 is a functional block diagram of the image processing system according to the first embodiment. 図2は、図1に示す撮像装置、画像処理装置、及び表示装置を搭載した移動体の上面図である。FIG. 2 is a top view of a moving body on which the imaging device, the image processing device, and the display device shown in FIG. 1 are mounted. 図3は、第1の実施形態における画像処理システムの処理フローを示すフロー図である。FIG. 3 is a flowchart showing a processing flow of the image processing system in the first embodiment. 図4は、第2の実施形態における画像処理システムの機能ブロック図である。FIG. 4 is a functional block diagram of the image processing system according to the second embodiment. 図5は、第2の実施形態における画像処理システムの処理フローを示すフロー図である。FIG. 5 is a flowchart showing a processing flow of the image processing system in the second embodiment.

以下、本発明の第1の実施形態について、図面を参照して説明する。   A first embodiment of the present invention will be described below with reference to the drawings.

図1に示すように、第1の実施形態に係る画像処理システム1は、撮像装置(カメラ)10a、10b、10c、10d、画像処理装置20、表示装置30等を含んで構成される。画像処理装置20は、通信ネットワークを介してカメラ10a、10b、10c、10d、表示装置30とそれぞれ接続されて情報を送受信する。また、画像処理装置20は、通信ネットワークを介して、運転支援装置等と接続されて運転支援情報を受信してもよい。運転支援情報とは、運転者の操作を支援するための、例えば、目標駐車位置、予想進路線、後退開始位置等を示す情報である。画像処理装置20は、表示装置30と同一の筺体内に設けられてもよい。その場合、通信インタフェース24、31は無くてもよく、プロセッサ22と表示用プロセッサ32とがそれぞれ実行する機能を同一のプロセッサで実行してよい。表示装置30は、運転支援装置等の表示部を兼用してよい。   As shown in FIG. 1, the image processing system 1 according to the first embodiment includes imaging devices (cameras) 10a, 10b, 10c, and 10d, an image processing device 20, a display device 30, and the like. The image processing device 20 is connected to the cameras 10a, 10b, 10c, 10d, and the display device 30 via a communication network to transmit and receive information. Further, the image processing device 20 may be connected to a driving support device or the like via a communication network to receive driving support information. The driving support information is information for supporting a driver's operation, for example, indicating a target parking position, an expected route, a reverse start position, and the like. The image processing device 20 may be provided in the same housing as the display device 30. In this case, the communication interfaces 24 and 31 may not be provided, and the functions executed by the processor 22 and the display processor 32 may be executed by the same processor. The display device 30 may also serve as a display unit such as a driving support device.

また、図2に示すように、カメラ10a、10b、10c、10d、画像処理装置20、表示装置30は、移動体4に搭載される。ここで、「移動体」は、例えば、乗用車、トラック、バスといった道路上を走行する車両等を意味する。また、以降においては、カメラ10a、10b、10c、10dのうち任意の撮像装置を「撮像装置(カメラ)10」という。   As shown in FIG. 2, the cameras 10 a, 10 b, 10 c, 10 d, the image processing device 20, and the display device 30 are mounted on the moving body 4. Here, the “moving body” means, for example, a vehicle traveling on a road such as a passenger car, a truck, and a bus. In the following, any imaging device among the cameras 10a, 10b, 10c, and 10d is referred to as an “imaging device (camera) 10”.

カメラ10は、移動体4の周辺を撮像するように設置される。図2に示した例を用いて説明すると、カメラ10a、10b、10c、10dは、移動体4のそれぞれ前方、右方、後方、左方を撮像するように設置される。また、各カメラは、該カメラの撮像範囲の一部が、他のカメラの撮像範囲の一部と共通であるように設置される。   The camera 10 is installed so as to image the periphery of the moving body 4. If it demonstrates using the example shown in FIG. 2, camera 10a, 10b, 10c, 10d will be installed so that the front, right side, back, and left side of the moving body 4 may respectively be imaged. Each camera is installed such that a part of the imaging range of the camera is common to a part of the imaging range of the other cameras.

カメラ10aの撮像範囲は図2に示すA1,A2,及びA3であり、カメラ10bの撮像範囲はA3,A5,及びA8である。すなわち、カメラ10aの撮像範囲の一部であるA3は、カメラ10bの撮像範囲の一部である。   The imaging range of the camera 10a is A1, A2, and A3 shown in FIG. 2, and the imaging range of the camera 10b is A3, A5, and A8. That is, A3 which is a part of the imaging range of the camera 10a is a part of the imaging range of the camera 10b.

同様にして、カメラ10cの撮像範囲はA6,A7,A8である。すなわち、カメラ10bの撮像範囲の一部であるA8はカメラ10cの撮像範囲の一部である。   Similarly, the imaging range of the camera 10c is A6, A7, A8. That is, A8 which is a part of the imaging range of the camera 10b is a part of the imaging range of the camera 10c.

また、カメラ10dの撮像範囲はA1,A4,及びA6である。すなわち、カメラ10dの撮像範囲の一部であるA1はカメラ10aの撮像範囲の一部である。   The imaging range of the camera 10d is A1, A4, and A6. That is, A1 which is a part of the imaging range of the camera 10d is a part of the imaging range of the camera 10a.

カメラ10は、撮像レンズ11、フィルタ12、撮像素子13、信号処理部14等を含んで構成される。具体的には、図1に示したように、カメラ10aは、撮像レンズ11a、フィルタ12a、撮像素子13a、信号処理部14a等を含んで構成される。同様にして、カメラ10bは、撮像レンズ11b、フィルタ12b、撮像素子13b、信号処理部14b等を含んで構成される。また、カメラ10cは撮像レンズ11c、フィルタ12c、撮像素子13c、信号処理部14c等を含んで構成され、カメラ10dは撮像レンズ11d、フィルタ12d、撮像素子13d、信号処理部14d等を含んで構成される。   The camera 10 includes an imaging lens 11, a filter 12, an imaging element 13, a signal processing unit 14, and the like. Specifically, as shown in FIG. 1, the camera 10a includes an imaging lens 11a, a filter 12a, an imaging element 13a, a signal processing unit 14a, and the like. Similarly, the camera 10b includes an imaging lens 11b, a filter 12b, an imaging element 13b, a signal processing unit 14b, and the like. The camera 10c includes an imaging lens 11c, a filter 12c, an imaging element 13c, a signal processing unit 14c, and the like, and the camera 10d includes an imaging lens 11d, a filter 12d, an imaging element 13d, a signal processing unit 14d, and the like. Is done.

撮像レンズ11は、入射した光が撮像素子13の受光面で結像するように集光するレンズである。撮像レンズ11は、例えば、魚眼レンズ、超広角レンズで構成されてもよい。撮像レンズ11は、単レンズで構成されてもよいし、複数枚のレンズで構成されてもよい。   The imaging lens 11 is a lens that collects light so that incident light forms an image on the light receiving surface of the imaging element 13. The imaging lens 11 may be configured with, for example, a fisheye lens or an ultra-wide angle lens. The imaging lens 11 may be composed of a single lens or a plurality of lenses.

フィルタ12は、撮像レンズ11の像側に、該フィルタ12の面が該撮像レンズ11の光軸に略垂直になるよう配置することができる。フィルタ12は、可視光を透過させ、所定の波長範囲の近赤外光を選択的に透過させる。所定の波長範囲とは、各色の撮像素子13の相対感度が等しい、近赤外光の波長の範囲であり、例えば860nmを含む範囲である。   The filter 12 can be disposed on the image side of the imaging lens 11 so that the surface of the filter 12 is substantially perpendicular to the optical axis of the imaging lens 11. The filter 12 transmits visible light and selectively transmits near infrared light in a predetermined wavelength range. The predetermined wavelength range is a range of near-infrared light wavelengths in which the relative sensitivities of the image pickup devices 13 of the respective colors are equal, for example, a range including 860 nm.

このようなフィルタ12を通った光が撮像素子13に結像することによって生成される、画像を構成する画素は、可視光線によってカラーで表される。そして、上述のように、可視光線とともに所定の波長範囲の近赤外光が撮像素子13に到達する。近赤外光による各色の画素ごとの信号強度は略等しいため、該カラーで表されている画素の彩度は、近赤外光が到達しない場合に比べて低下している。   The pixels constituting the image generated by the light passing through the filter 12 being imaged on the image sensor 13 are expressed in color by visible light. As described above, near infrared light in a predetermined wavelength range reaches the image sensor 13 together with visible light. Since the signal intensity of each color pixel by near-infrared light is substantially equal, the saturation of the pixel represented by the color is lower than when the near-infrared light does not reach.

例えば、各カメラ10a、10b、10c、10dが撮像する範囲の一部のみに近赤外光が照射された場合、赤外光が照射された範囲を撮像するカメラ10においてのみ、上記の波長範囲の赤外光がフィルタ12を透過して撮像素子13に到達する。そのため、カメラ10a、10b、10c、10dのうち近赤外光が照射された範囲を撮像した第1の画像と、カメラ10a、10b、10c、10dのうち近赤外光が照射されない範囲を撮像した第2の画像とでは彩度が、人の目から見て違和感をもつ程に異なる場合がある。特に、プロセッサ22が、第1の画像と第2の画像とを合成することにより、1つの合成画像を生成した場合、1つの合成画像内で、第1の画像に係る領域と第2の画像に係る領域とでは彩度が異なるため、合成画像を視認したユーザは違和感をもつことになる。   For example, when the near-infrared light is irradiated to only a part of the range captured by each camera 10a, 10b, 10c, 10d, the above-described wavelength range only in the camera 10 that captures the range irradiated with the infrared light. Infrared light passes through the filter 12 and reaches the image sensor 13. Therefore, the first image obtained by imaging the range irradiated with near infrared light among the cameras 10a, 10b, 10c, and 10d and the range not irradiated with near infrared light among the cameras 10a, 10b, 10c, and 10d are imaged. In some cases, the saturation of the second image is so different as to be uncomfortable from the human eye. In particular, when the processor 22 generates one synthesized image by synthesizing the first image and the second image, the region related to the first image and the second image within the synthesized image. Since the saturation is different from that of the area related to, the user who visually recognizes the composite image has a sense of incongruity.

撮像素子13は、撮像レンズ11によって結像された画像を撮像する撮像素子である。撮像素子13は、CCD(Charge-Coupled Device)イメージセンサ及びCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。撮像素子13は、カラー画像を撮像するためのカラーフィルタを備える。カラーフィルタは、受光素子ごとに、レッド、グリーン、ブルー、または、シアン、マゼンダ、イエロー等の複数の色のフィルタが配列される。カラーフィルタはベイヤ配列で配列してよい。   The imaging element 13 is an imaging element that captures an image formed by the imaging lens 11. The image sensor 13 includes a charge-coupled device (CCD) image sensor and a complementary metal oxide semiconductor (CMOS) image sensor. The image sensor 13 includes a color filter for capturing a color image. As the color filter, filters of a plurality of colors such as red, green, blue, cyan, magenta, and yellow are arranged for each light receiving element. The color filters may be arranged in a Bayer arrangement.

信号処理部14は、画像を処理するプロセッサであり、例えば特定の機能を実行するように形成した専用のマイクロプロセッサや特定のプログラムを読出すことにより特定の機能を実行するプロセッサである。   The signal processing unit 14 is a processor that processes an image. For example, the signal processing unit 14 is a dedicated microprocessor formed to execute a specific function or a processor that executes a specific function by reading a specific program.

信号処理部14は、該撮像素子13で結像された画像を表す画像信号を生成する。また、信号処理部14は、画像に対して歪み補正、ガンマ補正等の任意の処理を行ってもよい。   The signal processing unit 14 generates an image signal representing an image formed by the image sensor 13. The signal processing unit 14 may perform arbitrary processing such as distortion correction and gamma correction on the image.

通信インタフェース15は、信号処理部14によって処理された、画像を表す画像信号を画像処理装置20に送信する。   The communication interface 15 transmits an image signal representing an image processed by the signal processing unit 14 to the image processing device 20.

画像処理装置20は、取得部21、プロセッサ22、メモリ23、通信インタフェース24等を含んで構成される。   The image processing apparatus 20 includes an acquisition unit 21, a processor 22, a memory 23, a communication interface 24, and the like.

取得部21は、信号処理部14によって生成された画像信号の入力を受けることによって画像信号が表す画像を取得する、カメラ10とのインタフェースである。   The acquisition unit 21 is an interface with the camera 10 that acquires an image represented by the image signal by receiving the input of the image signal generated by the signal processing unit 14.

プロセッサ22は、取得部21によって取得した画像を処理するプロセッサであり、例えば特定の機能を実行するように形成した専用のマイクロプロセッサや特定のプログラムを読出すことにより特定の機能を実行する汎用のCPU(中央処理装置:Central Processing Unit)である。   The processor 22 is a processor that processes the image acquired by the acquisition unit 21, and is a general-purpose processor that executes a specific function by reading a dedicated microprocessor or a specific program formed to execute the specific function, for example. CPU (Central Processing Unit).

プロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像され、取得部21によって取得された複数の画像の明るさ情報の差が所定の閾値(第3の閾値)以下となるように調整する。明るさ情報とは、画像全体の明るさに関する特性を示す値である。明るさ情報は、画像を構成する各画素の明るさ(明度)から算出され、例えば、各画素の明るさの平均値、中央値、最頻値、合計等の統計値である。複数のカメラ10a、10b、10c、10dは、近赤外光に対する感度を有するので、明るさ情報には可視光とともに近赤外光が寄与する。   The processor 22 is imaged by each of the plurality of cameras 10a, 10b, 10c, and 10d, and the difference in brightness information of the plurality of images acquired by the acquisition unit 21 is equal to or less than a predetermined threshold (third threshold). adjust. Brightness information is a value indicating characteristics relating to the brightness of the entire image. The brightness information is calculated from the brightness (brightness) of each pixel constituting the image, and is, for example, a statistical value such as an average value, a median value, a mode value, and a total brightness of each pixel. Since the plurality of cameras 10a, 10b, 10c, and 10d have sensitivity to near-infrared light, near-infrared light contributes to brightness information together with visible light.

具体的には、プロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像され、取得部21によって取得された複数の画像の明るさ情報の差が第3の閾値より大きいか否かを判定する。そして、明るさ情報の差が第3の閾値より大きい場合、全ての画像の明るさ情報の差が第3の閾値以下となるように、1つ以上の画像を構成する画素の明るさを変更する。明るさ情報の差が第3の閾値未満である場合、プロセッサ22は、いずれの画素の明るさも変更しない。   Specifically, the processor 22 determines whether or not the difference in the brightness information of the plurality of images captured by the plurality of cameras 10a, 10b, 10c, and 10d and acquired by the acquisition unit 21 is greater than the third threshold value. Determine. If the difference in brightness information is greater than the third threshold, the brightness of the pixels constituting one or more images is changed so that the difference in brightness information for all images is less than or equal to the third threshold. To do. If the difference in brightness information is less than the third threshold, the processor 22 does not change the brightness of any pixel.

ここで、第3の閾値とは、明るさ情報の差がこの値以下である場合に、複数の画像の明るさが人間の目で見て同程度であるとみなせる値であり、実験等により予め決定される。   Here, the third threshold value is a value that can be considered that the brightness of a plurality of images is comparable with the human eye when the difference in brightness information is less than or equal to this value. It is determined in advance.

プロセッサ22が各画像の明るさ情報を変更する方法は任意であり、例えば、プロセッサ22は、複数の画像のうち最も明るさ情報が高い画像に他の画像の明るさ情報を合わせるように、他の画像を構成する画素の明るさを高くしてもよいし、他の画像に、明るさ情報を合わせるように最も明るさ情報が高い画像を構成する画素の明るさを低下させてもよいし、また、プロセッサ22は、複数の画像の明るさ情報の平均値を算出し、複数の画像の明るさ情報が平均値となるように各画像を構成する画素の明るさを変更してもよい。   The method by which the processor 22 changes the brightness information of each image is arbitrary. For example, the processor 22 adjusts the brightness information of another image to the image having the highest brightness information among the plurality of images. The brightness of the pixels that make up the image may be increased, or the brightness of the pixels that make up the image with the highest brightness information may be reduced so that the brightness information matches the other images. Further, the processor 22 may calculate an average value of the brightness information of the plurality of images, and change the brightness of the pixels constituting each image so that the brightness information of the plurality of images becomes the average value. .

プロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像され、上述のように明るさ情報が調整された複数の画像の彩度情報を算出する。彩度情報とは、画像全体の鮮やかさに関する特性を示す値である。彩度情報は、画像を構成する各画素の彩度から算出され、例えば、各画素の彩度の平均値、中央値、最頻値、合計等の統計値である。各画素の彩度は、各画素のRGB値から計算される。   The processor 22 calculates the saturation information of the plurality of images that are respectively captured by the plurality of cameras 10a, 10b, 10c, and 10d and whose brightness information is adjusted as described above. Saturation information is a value indicating the characteristics related to the vividness of the entire image. The saturation information is calculated from the saturation of each pixel constituting the image, and is, for example, a statistical value such as an average value, a median value, a mode value, or a sum of the saturation of each pixel. The saturation of each pixel is calculated from the RGB value of each pixel.

また、プロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像された複数の画像についての彩度情報に基づいて、複数の画像の彩度情報の差が所定の範囲内となるように、少なくとも1つの画像を構成する画素の彩度を低下させる。ここで、プロセッサ22が複数の彩度情報に基づいて画素の彩度を低下させる処理について詳細に説明する。   Further, the processor 22 makes the difference between the saturation information of the plurality of images within a predetermined range based on the saturation information about the plurality of images captured by the plurality of cameras 10a, 10b, 10c, and 10d, respectively. In addition, the saturation of the pixels constituting at least one image is reduced. Here, a process in which the processor 22 reduces the saturation of the pixel based on the plurality of saturation information will be described in detail.

プロセッサ22は、複数の画像の彩度情報の差を算出して、複数の画像のうちの第1の画像と第1の画像とは異なる第2の画像との彩度情報の差に基づいて画像を構成する画素の彩度を低下させるか否かを判定する。   The processor 22 calculates a difference in the saturation information of the plurality of images, and based on the difference in the saturation information between the first image and the second image different from the first image among the plurality of images. It is determined whether or not the saturation of the pixels constituting the image is reduced.

例えば、プロセッサ22は、取得部21によって取得された画像のうち最も明るさ情報の高い画像を第1の画像とし、第1の画像とは異なる第2の画像との差に基づいて彩度情報の差を算出する。図2において二点破線の楕円で囲まれる、移動体4の左側の領域がハロゲンライトで構成される街灯によって照射されている場合、複数のカメラ10a,10b,10c,10dのうち、カメラ10dによって撮像された画像Idの明るさ情報が最も高い。また、ハロゲンライトによって照射される光には近赤外領域の波長の光が多く含まれるため、カメラ10dによって撮像された画像Idの彩度情報が、ハロゲンライトによって照射されない場合に比べて低くなっている。   For example, the processor 22 sets the image having the highest brightness information among the images acquired by the acquisition unit 21 as the first image, and the saturation information based on a difference from the second image different from the first image. Calculate the difference. In FIG. 2, when the area on the left side of the moving body 4 surrounded by a two-dot broken line ellipse is illuminated by a streetlight composed of a halogen light, among the plurality of cameras 10a, 10b, 10c, and 10d, the camera 10d The brightness information of the captured image Id is the highest. In addition, since the light emitted by the halogen light includes a lot of light in the near-infrared region, the saturation information of the image Id imaged by the camera 10d is lower than that when not illuminated by the halogen light. ing.

そこで、プロセッサ22は、明るさ情報の最も高い第1の画像Idの彩度情報SPdと第1の画像Idとは異なる画像Ia,Ib,Ic(本例では、これらの画像がそれぞれ第2の画像に相当する)それぞれの彩度情報SPa,SPb,SPcとの差を算出する。具体的には、プロセッサ22は、第1の画像Idの彩度情報SPdと、カメラ10aによって撮像された画像Iaの彩度情報SPaとの差|SPd―SPa|を算出する。また、プロセッサ22は、画像Idの彩度情報SPdとカメラ10bによって撮像された画像Ibの彩度情報SPbとの差|SPd―SPb|、及び画像Idの彩度情報SPdと、カメラ10cによって撮像された画像Icの彩度情報SPcとの差|SPd―SPc|を算出する。そして、プロセッサ22は、算出した彩度情報の差のうちのいずれかが所定の閾値(第1の閾値)より大きいか否かを判定する。そして、プロセッサ22は、彩度情報の差のいずれかが第1の閾値以上である場合に複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させると判定する。ここで、第1の閾値とは、彩度情報の差がこの値以下である場合に、複数の画像の鮮やかさが人間の目で見て同程度であるとみなせる値であり、実験等により予め決定される。   Accordingly, the processor 22 determines that the saturation information SPd of the first image Id having the highest brightness information and the images Ia, Ib, and Ic different from the first image Id (in this example, these images are the second images, respectively). Differences between the respective saturation information SPa, SPb, and SPc (corresponding to images) are calculated. Specifically, the processor 22 calculates a difference | SPd−SPa | between the saturation information SPd of the first image Id and the saturation information SPa of the image Ia captured by the camera 10a. Further, the processor 22 captures the difference | SPd−SPb | between the saturation information SPd of the image Id and the saturation information SPb of the image Ib captured by the camera 10b, and the saturation information SPd of the image Id and the camera 10c. The difference | SPd−SPc | with respect to the saturation information SPc of the image Ic is calculated. Then, the processor 22 determines whether any of the calculated saturation information differences is larger than a predetermined threshold (first threshold). Then, the processor 22 determines that the saturation of the pixels constituting at least one of the plurality of images is reduced when any of the differences in the saturation information is greater than or equal to the first threshold. Here, the first threshold value is a value that can be considered that the vividness of a plurality of images is comparable with the human eye when the difference in saturation information is less than or equal to this value. It is determined in advance.

複数の画像の彩度情報の差を算出する方法はこれに限られず、次のように算出してもよい。例えば、プロセッサ22は、複数のカメラ10a,10b,10c,10dによってそれぞれ撮像された任意の第1の画像と第1の画像とは異なる第2の画像との組合せ全てにおける彩度情報の差を算出し、いずれかの差が第1の閾値以上である場合に複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させると判定する。   The method of calculating the difference between the saturation information of a plurality of images is not limited to this, and may be calculated as follows. For example, the processor 22 calculates differences in saturation information in all combinations of arbitrary first images and second images different from the first images captured by the plurality of cameras 10a, 10b, 10c, and 10d, respectively. When it is calculated and any one of the differences is equal to or greater than the first threshold, it is determined that the saturation of the pixels constituting at least one of the plurality of images is reduced.

具体的には、プロセッサ22は、カメラ10aによって撮像された画像Iaの彩度情報SPaとカメラ10bによって撮像された画像の彩度情報SPbとの差|SPa−SPb|を算出する。同様にして、プロセッサ22は、カメラ10cによって撮像された画像の彩度情報SPc、カメラ10dによって撮像された画像の彩度情報SPdを用いて、|SPa−SPc|、|SPa−SPd|、|SPb−SPc|、|SPb−SPd|、及び|SPc―SPd|をそれぞれ算出する。そして、プロセッサ22は、これらの差のうちいずれかの差が第1の閾値より大きい場合に複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させると判定する。   Specifically, the processor 22 calculates a difference | SPa−SPb | between the saturation information SPa of the image Ia captured by the camera 10a and the saturation information SPb of the image captured by the camera 10b. Similarly, the processor 22 uses the saturation information SPc of the image captured by the camera 10c and the saturation information SPd of the image captured by the camera 10d, to | SPa-SPc |, | SPa-SPd |, | SPb-SPc |, | SPb-SPd |, and | SPc-SPd | are calculated, respectively. Then, the processor 22 determines that the saturation of the pixels constituting at least one of the plurality of images is reduced when any of these differences is larger than the first threshold.

ここで、プロセッサ22が、画像を構成する画素の彩度を低下させる処理について、詳細に説明する。   Here, a process in which the processor 22 reduces the saturation of the pixels constituting the image will be described in detail.

プロセッサ22は、画像Ia,Ib,Ic,Idのうち最も彩度情報が低い第1の画像に、第1の画像とは異なる第2の画像の彩度情報を合わせるように彩度を低下させる。画像Ia,Ib,Ic,Idののうち画像Idの彩度情報Spdが最も低い場合、画像Ia,Ib,Icそれぞれの彩度情報Spa,Spb,Spcと画像Idの彩度情報Spdとの差が第1の閾値以下となるように画像Ia、Ib、Icを構成する画素の彩度を低下させる。このとき、各画素の彩度の低下率が同じとなるように彩度を低下させてもよいし、他の任意のアルゴリズムに基づいて彩度を低下させてもよい。   The processor 22 reduces the saturation so that the saturation information of the second image different from the first image is matched with the first image having the lowest saturation information among the images Ia, Ib, Ic, and Id. . When the saturation information Spd of the image Id is the lowest among the images Ia, Ib, Ic and Id, the difference between the saturation information Spa, Spb and Spc of the images Ia, Ib and Ic and the saturation information Spd of the image Id The saturation of the pixels constituting the images Ia, Ib, and Ic is reduced so that becomes less than or equal to the first threshold. At this time, the saturation may be lowered so that the saturation reduction rate of each pixel becomes the same, or the saturation may be lowered based on any other algorithm.

また、プロセッサ22は、複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、複数の画像の彩度情報の差を第1の閾値以下にすると、複数の画像を合成することによって合成画像を生成する。   In addition, the processor 22 reduces the saturation of the pixels constituting at least one of the plurality of images, so that the difference in the saturation information of the plurality of images is equal to or less than the first threshold value. A composite image is generated by combining.

また、プロセッサ22は、複数の画像を合成することによって生成した合成画像を通信インタフェース24に出力する。また、プロセッサ22は、運転支援装置から受信した、例えば、目標駐車位置、予想進路線、後退開始位置等を示す運転支援情報を合成画像に重畳した画像を通信インタフェース24に出力してもよい。   In addition, the processor 22 outputs a composite image generated by combining a plurality of images to the communication interface 24. Further, the processor 22 may output, to the communication interface 24, an image obtained by superimposing driving assistance information received from the driving assistance device, for example, indicating a target parking position, an expected route, a reverse start position, and the like on the composite image.

通信インタフェース24は、複数のカメラ10a、10b、10c、10dによって撮像された画像を表す画像情報を、それぞれのカメラ10a、10b、10c、10dから受信する。また、通信インタフェース24は、運転支援装置から運転支援情報を受信する。また、通信インタフェース24は、プロセッサ22によって出力された合成画像、又は合成画像に運転支援情報を重畳した画像を表す画像情報を表示装置に送信する。通信インタフェース24は、物理コネクタ、無線通信機等とすることができる。物理コネクタには、電気コネクタ、光コネクタ、及び電磁コネクタが含まれる。また、無線通信機には、Bluetooth(登録商標)及びIEEE802.11を含む各規格に準拠する無線通信機、並びにアンテナが含まれる。   The communication interface 24 receives image information representing images captured by the plurality of cameras 10a, 10b, 10c, and 10d from the respective cameras 10a, 10b, 10c, and 10d. The communication interface 24 receives driving support information from the driving support device. In addition, the communication interface 24 transmits image information representing a composite image output by the processor 22 or an image in which driving support information is superimposed on the composite image to the display device. The communication interface 24 can be a physical connector, a wireless communication device, or the like. Physical connectors include electrical connectors, optical connectors, and electromagnetic connectors. The wireless communication device includes a wireless communication device that conforms to each standard including Bluetooth (registered trademark) and IEEE802.11, and an antenna.

表示装置30は、通信インタフェース31、表示用プロセッサ32、表示パネル33等を含んで構成される。   The display device 30 includes a communication interface 31, a display processor 32, a display panel 33, and the like.

通信インタフェース31は、画像処理装置20から通信インタフェース24を介して合成画像、又は合成画像に運転支援情報を重畳した画像を表す画像情報を受信する。通信インタフェース31は、通信インタフェース24と同様に、物理コネクタ、無線通信機等とすることができる。   The communication interface 31 receives image information representing a composite image or an image obtained by superimposing driving support information on the composite image via the communication interface 24 from the image processing apparatus 20. As with the communication interface 24, the communication interface 31 can be a physical connector, a wireless communication device, or the like.

表示用プロセッサ32は、通信インタフェース31によって受信した画像情報を表示パネル33に表示させる。   The display processor 32 displays the image information received by the communication interface 31 on the display panel 33.

続いて、第1の実施形態の画像処理システム1の画像処理方法について、図3を参照して説明する。   Next, an image processing method of the image processing system 1 according to the first embodiment will be described with reference to FIG.

まず、カメラ10a、10b、10c、10dは、移動体4の周辺の被写体をそれぞれ撮像して画像Ia、Ib、Ic、Idを生成する(ステップS11)。   First, the cameras 10a, 10b, 10c, and 10d respectively capture subjects around the moving body 4 to generate images Ia, Ib, Ic, and Id (step S11).

ステップS11で、画像Ia、Ib、Ic、Idが生成されると、画像処理装置20の取得部21が画像Ia、Ib、Ic、Idをそれぞれ表す画像情報をそれぞれのカメラ10a、10b、10c、10dから取得する(ステップS12)。   When the images Ia, Ib, Ic, and Id are generated in step S11, the acquisition unit 21 of the image processing apparatus 20 displays the image information representing the images Ia, Ib, Ic, and Id, respectively, on the respective cameras 10a, 10b, 10c, It is acquired from 10d (step S12).

ステップS12で画像情報を取得すると、プロセッサ22は、画像Ia、Ib、Ic、Idを構成する画素の明るさに基づいて、各画像の明るさ情報を算出する(ステップS13)。   When the image information is acquired in step S12, the processor 22 calculates the brightness information of each image based on the brightness of the pixels constituting the images Ia, Ib, Ic, and Id (step S13).

ステップS13で明るさ情報が算出されると、プロセッサ22は、各画像の明るさ情報差が第3の閾値以下となるように少なくとも1つの画像を構成する画素の明るさを変更することによって画像の明るさ情報を調整する(ステップS14)。   When the brightness information is calculated in step S13, the processor 22 changes the brightness of the pixels constituting at least one image so that the brightness information difference between the images is equal to or smaller than the third threshold value. Brightness information is adjusted (step S14).

ステップS14で明るさ情報が調整されると、プロセッサ22は、明るさ情報が調整された複数の画像についてそれぞれ彩度情報を算出する(ステップS15)。   When the brightness information is adjusted in step S14, the processor 22 calculates saturation information for each of the plurality of images whose brightness information has been adjusted (step S15).

ステップS15で彩度情報が算出されると、複数の画像の彩度情報の差が第1の閾値以下であるか否かを判定する(ステップS16)。   When the saturation information is calculated in step S15, it is determined whether or not the difference between the saturation information of the plurality of images is equal to or less than the first threshold (step S16).

ステップS16で複数の画像についての彩度情報の差が第1の閾値より大きいと判定されると、複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させる(ステップS17)。具体的には、画像Ia、Ib、Ic、Idのうち最も低い彩度情報を有する第1の画像との差が第1の閾値以下となるよう、第1の画像とは異なる第2の画像それぞれを構成する画素の彩度を低下させる。   If it is determined in step S16 that the difference in saturation information for the plurality of images is greater than the first threshold, the saturation of the pixels constituting at least one of the plurality of images is reduced (step S17). Specifically, the second image different from the first image so that the difference from the first image having the lowest saturation information among the images Ia, Ib, Ic, and Id is not more than the first threshold value. The saturation of the pixels constituting each of them is reduced.

ステップS17で画素の彩度を低下させることによって、複数の画像についての彩度情報の差が第1の閾値以下とされると、プロセッサ22は、複数の画像を合成して合成画像を生成する(ステップS18)。このとき、プロセッサ22は合成画像に運転支援装置から受信した、駐車する際の目標駐車位置、予想進路線、後退開始位置等を含む運転支援情報を重畳させた画像を生成してもよい。   When the difference in saturation information for a plurality of images is equal to or less than the first threshold value by reducing the saturation of the pixels in step S17, the processor 22 combines the plurality of images to generate a combined image. (Step S18). At this time, the processor 22 may generate an image obtained by superimposing driving support information including a target parking position, an expected route, a reverse start position, etc. received from the driving support device on the composite image.

ステップS18で合成画像又は合成画像に運転支援情報を重畳した画像が生成されると、プロセッサ22は、生成された画像を表す画像情報を出力し、通信インタフェース24を介して表示装置30に送信する(ステップS19)。   When the composite image or the image in which the driving support information is superimposed on the composite image is generated in step S18, the processor 22 outputs image information representing the generated image and transmits the image information to the display device 30 via the communication interface 24. (Step S19).

ステップS19で、画像情報が表示装置30に出力されると、表示装置30は画像を表示する(ステップS20)。   When the image information is output to the display device 30 in step S19, the display device 30 displays the image (step S20).

第1の実施形態においては、カメラ10a、10b、10c、10dによって撮像された複数の画像のうちのいずれかが近赤外光によって彩度が低下していても、複数の画像それぞれの彩度情報に基づいて、少なくとも1つの画像を構成する画素の彩度を低下させるため、全ての画像の彩度情報を同程度とすることができる。そのため、これらの画像を合成することによって合成画像を生成した場合、参照者は領域ごとに彩りについての差異を感じることなく画像を参照することができる。   In the first embodiment, even when any one of the plurality of images captured by the cameras 10a, 10b, 10c, and 10d is reduced in saturation by near-infrared light, the saturation of each of the plurality of images. Since the saturation of the pixels constituting at least one image is reduced based on the information, the saturation information of all the images can be made the same level. Therefore, when a composite image is generated by combining these images, the reference can refer to the image without feeling a difference in color for each region.

また、第1の実施形態においては、明るさ情報の差が第3の閾値以下となるよう調整された複数の画像について、いずれか1つの画像の彩度を低下させる。そのため、例えば、近赤外光を多く含む光を発光する街灯によって、一部の画像のみが明るくなっている場合に、全ての画像の明るさが参照する者の目からみて同程度となるように調整され、さらに彩度情報を同程度とすることができる。夜間や夕方において、近赤外光を多く含むハロゲンライト等の街灯等により複数のカメラ10a、10b、10c、10dによる撮像範囲の一部のみが照射されていた場合、その撮像範囲にある被写体が撮像された画像は、他の画像より明るく、また彩度が低下している。そのため、複数の画像について、上述のように明るさ情報が調整されて、さらに彩度情報が同程度とされると、これらの画像を合成することによって合成画像が生成された場合、合成画像を参照する者は、明るさについても鮮やかさについても領域ごとに差異を感じることなく、画像を参照することができる。   In the first embodiment, the saturation of any one of the plurality of images adjusted so that the difference in brightness information is equal to or smaller than the third threshold is reduced. For this reason, for example, when only a part of an image is brightened by a streetlight that emits light containing a lot of near-infrared light, the brightness of all the images is almost the same as the eyes of the referring person. And saturation information can be made similar. When only a part of the imaging range of the plurality of cameras 10a, 10b, 10c, and 10d is illuminated at night or in the evening by a streetlight such as a halogen light containing a lot of near infrared light, an object in the imaging range is displayed. The captured image is brighter than the other images and has a reduced saturation. Therefore, when the brightness information is adjusted as described above for a plurality of images and the saturation information is set to the same level, if a composite image is generated by combining these images, the composite image is A person who refers to the image can refer to the image without feeling a difference between the areas in terms of brightness and vividness.

以下、本発明の第2の実施形態について、図面を参照して説明する。   Hereinafter, a second embodiment of the present invention will be described with reference to the drawings.

第2の実施形態に係る画像処理システム2は、図4に示すように、第1の実施形態に係る画像処理システム1と同様に、カメラ10a、10b、10c、10d、画像処理装置20、表示装置30等を含んで構成される。また、画像処理システム2は、第1の実施形態に係る画像処理システム2と同様に移動体4に搭載される。また、画像処理システム2は、カメラ10a、10b、10c、10dの撮像範囲を近赤外光によりそれぞれ照射する照明装置40a、40b、40c、40dをさらに備える点で第1の実施形態に係る画像処理システム2と異なる。以降の説明では、照明装置40a、40b、40c、40dのうち任意の照明装置を「照明装置40」という。   As shown in FIG. 4, the image processing system 2 according to the second embodiment is similar to the image processing system 1 according to the first embodiment, and includes cameras 10 a, 10 b, 10 c, 10 d, an image processing device 20, and a display. It includes the device 30 and the like. The image processing system 2 is mounted on the moving body 4 in the same manner as the image processing system 2 according to the first embodiment. The image processing system 2 further includes the illumination devices 40a, 40b, 40c, and 40d that irradiate the imaging ranges of the cameras 10a, 10b, 10c, and 10d with near-infrared light, respectively, according to the first embodiment. Different from the processing system 2. In the following description, an arbitrary illumination device among the illumination devices 40a, 40b, 40c, and 40d is referred to as “illumination device 40”.

なお、図4においては、カメラ10b、10c、10dが備える構成を省略するが、カメラ10bは第1の実施形態と同様に撮像レンズ11b、フィルタ12b、撮像素子13b、信号処理部14b等を含んで構成される。また、カメラ10cは撮像レンズ11c、フィルタ12c、撮像素子13c、信号処理部14c等を含んで構成され、カメラ10dは撮像レンズ11d、フィルタ12d、撮像素子13d、信号処理部14d等を含んで構成される。   In FIG. 4, the configuration of the cameras 10b, 10c, and 10d is omitted, but the camera 10b includes an imaging lens 11b, a filter 12b, an imaging element 13b, a signal processing unit 14b, and the like, as in the first embodiment. Consists of. The camera 10c includes an imaging lens 11c, a filter 12c, an imaging element 13c, a signal processing unit 14c, and the like, and the camera 10d includes an imaging lens 11d, a filter 12d, an imaging element 13d, a signal processing unit 14d, and the like. Is done.

照明装置40は、カメラ10が撮像する範囲の少なくとも一部を、近赤外光により照射する。照明装置40は、通信インタフェース41、照射制御部42、発光部43等を含んで構成される。具体的には、照明装置40aは、通信インタフェース41a、照射制御部42a、発光部43a等を含んで構成される。また、図4においては省略されているが、照明装置40bも同様に、通信インタフェース41b、照射制御部42b、発光部43b等を含んで構成され、照明装置40cは、通信インタフェース41c、照射制御部42c、発光部43c等を含んで構成され、照明装置40dは、通信インタフェース41d、照射制御部42d、発光部43d等を含んで構成される。   The illuminating device 40 irradiates at least a part of the range captured by the camera 10 with near infrared light. The lighting device 40 includes a communication interface 41, an irradiation control unit 42, a light emitting unit 43, and the like. Specifically, the illumination device 40a includes a communication interface 41a, an irradiation control unit 42a, a light emitting unit 43a, and the like. Although not shown in FIG. 4, the illumination device 40b is similarly configured to include a communication interface 41b, an irradiation control unit 42b, a light emitting unit 43b, and the like. The illumination device 40c includes the communication interface 41c and the irradiation control unit. 42c, the light emission part 43c, etc. are comprised, and the illuminating device 40d is comprised including the communication interface 41d, the irradiation control part 42d, the light emission part 43d, etc.

通信インタフェース41は、画像処理装置20から通信インタフェース24を介して送信された、照明の強度を示す強度情報を受信する。通信インタフェース41は、通信インタフェース24と同様に、物理コネクタ、無線通信機等とすることができる。   The communication interface 41 receives intensity information indicating the intensity of illumination transmitted from the image processing apparatus 20 via the communication interface 24. As with the communication interface 24, the communication interface 41 can be a physical connector, a wireless communication device, or the like.

照射制御部42は、通信インタフェース41によって受信した強度情報に基づいて、発光部43による照射の強度を制御する。   The irradiation control unit 42 controls the intensity of irradiation by the light emitting unit 43 based on the intensity information received by the communication interface 41.

発光部43は、照射制御部42によって制御された発光強度で、カメラ10が撮像する範囲を照射する。発光部43は、近赤外光の光源を含む。近赤外光の光源は、例えば、近赤外LED(light emitting diode)とすることができる。   The light emitting unit 43 irradiates the range captured by the camera 10 with the light emission intensity controlled by the irradiation control unit 42. The light emitting unit 43 includes a near infrared light source. The near-infrared light source can be, for example, a near-infrared LED (light emitting diode).

第2の実施形態において、画像処理装置20のプロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像され、取得部21によって取得された複数の画像の明るさ情報の差に基づいて、照明装置40a、40b、40c、40dの強度を制御する。   In the second embodiment, the processor 22 of the image processing apparatus 20 is imaged by each of the plurality of cameras 10a, 10b, 10c, and 10d, and is based on the difference in the brightness information of the plurality of images acquired by the acquisition unit 21. The intensity of the lighting devices 40a, 40b, 40c, and 40d is controlled.

具体的には、プロセッサ22は、複数の画像の明るさ情報の差が第3の閾値以下となるように、照明装置40a、40b、40c、40dの強度を決定する。そして、プロセッサ22は、各照明装置40a、40b、40c、40dについて決定した強度をそれぞれ表す強度情報を、通信インタフェース24を介してそれぞれの照明装置40a、40b、40c、40dに送信する。   Specifically, the processor 22 determines the intensities of the lighting devices 40a, 40b, 40c, and 40d so that the difference in the brightness information of the plurality of images is equal to or less than the third threshold value. Then, the processor 22 transmits intensity information representing the intensity determined for each of the lighting devices 40a, 40b, 40c, and 40d to the respective lighting devices 40a, 40b, 40c, and 40d via the communication interface 24.

第2の実施形態におけるその他の構成、作用は第1の実施形態と同様なので、同一または対応する構成要素には、同一参照符号を付して説明を省略する。   Since other configurations and operations in the second embodiment are the same as those in the first embodiment, the same or corresponding components are denoted by the same reference numerals and description thereof is omitted.

続いて、第2の実施形態の画像処理システム2の画像処理方法について、図5を参照して説明する。   Next, an image processing method of the image processing system 2 according to the second embodiment will be described with reference to FIG.

まず、カメラ10a、10b、10c、10dは、移動体4の周辺の被写体をそれぞれ撮像して画像Ia1、Ib1、Ic1、Id1を生成する(ステップS31)。   First, the cameras 10a, 10b, 10c, and 10d respectively capture subjects around the moving body 4 to generate images Ia1, Ib1, Ic1, and Id1 (step S31).

ステップS11で、画像Ia1、Ib1、Ic1、Id1が生成されると、画像処理装置20の取得部21が画像Ia1、Ib1、Ic1、Id1をそれぞれ表す画像情報をそれぞれのカメラ10a、10b、10c、10dから取得する(ステップS32)。   When the images Ia1, Ib1, Ic1, and Id1 are generated in step S11, the acquisition unit 21 of the image processing device 20 displays the image information representing the images Ia1, Ib1, Ic1, and Id1, respectively, on the respective cameras 10a, 10b, 10c, 10d is acquired (step S32).

ステップS12で画像情報を取得すると、プロセッサ22は、画像Ia1、Ib1、Ic1、Id1を構成する画素の明るさに基づいて、各画像の明るさ情報を算出する(ステップS33)。   When the image information is acquired in step S12, the processor 22 calculates the brightness information of each image based on the brightness of the pixels constituting the images Ia1, Ib1, Ic1, and Id1 (step S33).

ステップS33で明るさ情報が算出されると、プロセッサ22は、各画像の明るさ情報の差が第3の閾値以下となるように、各照明装置40a、40b、40c、40dの強度を決定する(ステップS34)。   When the brightness information is calculated in step S33, the processor 22 determines the intensity of each of the lighting devices 40a, 40b, 40c, and 40d so that the difference in brightness information between the images is equal to or less than the third threshold value. (Step S34).

ステップS34で強度が決定されると、プロセッサ22は、強度を表す強度情報を照明装置40a、40b、40c、40dに送信する(ステップS35)。   When the intensity is determined in step S34, the processor 22 transmits intensity information indicating the intensity to the lighting devices 40a, 40b, 40c, and 40d (step S35).

ステップS35で強度情報が送信されると、照明装置40a、40b、40c、40dは、強度情報に基づいて、それぞれカメラ10a、10b、10c、10dの撮像範囲の少なくとも一部を近赤外光により照射する(ステップS36)。   When the intensity information is transmitted in step S35, the illuminating devices 40a, 40b, 40c, and 40d, based on the intensity information, at least part of the imaging ranges of the cameras 10a, 10b, 10c, and 10d, respectively, with near infrared light. Irradiate (step S36).

ステップS36でカメラ10a、10b、10c、10dの撮像範囲の少なくとも一部が近赤外光により照射されている状態で、カメラ10a、10b、10c、10dは、ふたたび移動体4の周辺の被写体をそれぞれ撮像して画像Ia2、Ib2、Ic2、Id2を生成する(ステップS37)。上述のステップS33〜S36の処理により、ここで生成された画像Ia2、Ib2、Ic2、Id2の明るさ情報の差は第3の閾値以下となっている。   In a state where at least a part of the imaging ranges of the cameras 10a, 10b, 10c, and 10d is irradiated with near-infrared light in step S36, the cameras 10a, 10b, 10c, and 10d again detect subjects around the moving body 4. Images are taken to generate images Ia2, Ib2, Ic2, and Id2 (step S37). Due to the processing in steps S33 to S36 described above, the difference in brightness information between the images Ia2, Ib2, Ic2, and Id2 generated here is equal to or smaller than the third threshold value.

ステップS37で画像Ia2、Ib2、Ic2、Id2が生成されると、取得部21は生成された画像Ia2、Ib2、Ic2、Id2を取得する(ステップS38)。   When the images Ia2, Ib2, Ic2, and Id2 are generated in step S37, the acquisition unit 21 acquires the generated images Ia2, Ib2, Ic2, and Id2 (step S38).

画像Ia2、Ib2、Ic2、Id2が取得されると、プロセッサ22はステップS39〜S44において、第1の実施形態のステップS15〜S20と同様の処理を行う。   When the images Ia2, Ib2, Ic2, and Id2 are acquired, the processor 22 performs the same processing as steps S15 to S20 of the first embodiment in steps S39 to S44.

以上、説明したように、第2の実施形態においては、複数のカメラ10a、10b、10c、10dによって撮像された複数の画像のうちのいずれかが近赤外光によって彩度が低下していても、複数の画像それぞれの彩度情報に基づいて、少なくとも1つの画像を構成する画素の彩度を低下させるため、全ての画像の彩度情報を同程度とすることができる。そのため、これらの画像を合成することによって合成画像を生成した場合、参照者は領域ごとに彩りについての差異を感じることなく画像を参照することができるという第1の実施形態と同様の効果を奏する。   As described above, in the second embodiment, the saturation of any of the plurality of images captured by the plurality of cameras 10a, 10b, 10c, and 10d is reduced by near infrared light. In addition, since the saturation of the pixels constituting at least one image is reduced based on the saturation information of each of the plurality of images, the saturation information of all the images can be set to the same level. Therefore, when a synthesized image is generated by synthesizing these images, the same effect as in the first embodiment can be obtained, in which the reference can refer to the image without feeling a difference in color for each region. .

また、第2の実施形態においては、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像された複数の画像の明るさ情報に基づいて、複数のカメラ10a、10b、10c、10dの撮像範囲の明るさが同程度となるように照明装置40a、40b、40c、40dを制御する。そのため、夜間や夕方において、照明装置40a、40b、40c、40dは、街灯等により複数のカメラ10a、10b、10c、10dによる撮像範囲の一部のみが照射されていた場合、照明装置40a、40b、40c、40dが制御されている状態で複数のカメラ10a、10b、10c、10dによってそれぞれ撮像された複数の画像は明るさ情報が同程度となっている。このような複数の画像において、彩度情報が同程度とされると、これらの画像を合成することによって合成画像を生成した場合、合成画像を参照する者は、明るさについても鮮やかさについても領域ごとに差異を感じることなく、画像を参照することができる。   In the second embodiment, the imaging ranges of the plurality of cameras 10a, 10b, 10c, and 10d are based on the brightness information of the plurality of images captured by the plurality of cameras 10a, 10b, 10c, and 10d, respectively. The lighting devices 40a, 40b, 40c, and 40d are controlled so that the brightness is approximately the same. Therefore, at night or in the evening, when the lighting devices 40a, 40b, 40c, and 40d are irradiated with only a part of the imaging range of the plurality of cameras 10a, 10b, 10c, and 10d by street lights or the like, the lighting devices 40a, 40b , 40c and 40d are controlled, and the plurality of images taken by the plurality of cameras 10a, 10b, 10c, and 10d have the same brightness information. In such a plurality of images, if the saturation information is the same level, when the synthesized image is generated by synthesizing these images, the person who refers to the synthesized image has both brightness and vividness. An image can be referred to without feeling a difference for each region.

続いて、本発明の第3の実施形態について説明する。   Subsequently, a third embodiment of the present invention will be described.

第3の実施形態に係る画像処理システム3は、第1の実施形態に係る画像処理システム1と同様に移動体4に搭載され、撮像装置(カメラ)10a、10b、10c、10d、画像処理装置20、表示装置30等を含んで構成される。   The image processing system 3 according to the third embodiment is mounted on the moving body 4 in the same manner as the image processing system 1 according to the first embodiment, and the imaging devices (cameras) 10a, 10b, 10c, and 10d, and the image processing device. 20 and the display device 30 and the like.

第1の実施形態におけるプロセッサ22は、画像Ia、Ib、Ic、Idのうち最も彩度情報が低い第1の画像に第1の画像とは異なる第2の画像の彩度情報を合わせるように彩度を低下させる。第3の実施形態におけるプロセッサ22は、複数の画像それぞれの彩度情報Spa,Spb,Spc,Spdのうちいずれか1つ以上が、所定の閾値(第2の閾値)以下である場合、画像Ia、Ib、Ic、Idがそれぞれモノクロ画像となるように各画像を構成する画素の彩度を低下させる。この点で、第3の実施形態におけるプロセッサ22は、第1の実施形態におけるプロセッサ22と異なっている。   The processor 22 in the first embodiment matches the saturation information of the second image different from the first image to the first image having the lowest saturation information among the images Ia, Ib, Ic, and Id. Reduce saturation. The processor 22 according to the third embodiment, when one or more of the saturation information Spa, Spb, Spc, and Spd of each of the plurality of images is equal to or less than a predetermined threshold (second threshold), the image Ia , Ib, Ic, and Id are reduced in saturation so that the pixels constituting each image become monochrome images. In this respect, the processor 22 in the third embodiment is different from the processor 22 in the first embodiment.

第3の実施形態におけるその他の構成、作用は第1の実施形態と同様なので、同一または対応する構成要素には、同一参照符号を付して説明を省略する。   Since other configurations and operations in the third embodiment are the same as those in the first embodiment, the same or corresponding components are denoted by the same reference numerals and description thereof is omitted.

以上、説明したように、第3の実施形態においては、カメラ10a,10b,10c,10dによってそれぞれ撮像された複数の画像のうちのいずれかが近赤外光によって彩度が低下していても、複数の画像それぞれの彩度情報Spa,Spb,Spc,Spdに基づいて、少なくとも1つの画像を構成する画素の彩度を低下させる。そのため、全ての画像の彩度情報を同程度とすることができる。したがって、これらの画像を合成することによって合成画像が生成された場合、合成画像を参照する者は違和感を少なくして、画像を参照することができるという第1の実施形態と同様の効果を奏する。   As described above, in the third embodiment, even when any one of a plurality of images captured by the cameras 10a, 10b, 10c, and 10d is reduced in saturation by near-infrared light. Based on the saturation information Spa, Spb, Spc, Spd of each of the plurality of images, the saturation of the pixels constituting at least one image is reduced. Therefore, the saturation information of all the images can be set to the same level. Therefore, when a synthesized image is generated by synthesizing these images, an effect similar to that of the first embodiment in which a person who refers to the synthesized image can refer to the image with less discomfort. .

また、第3の実施形態においては、複数の画像Ia、Ib、Ic、Idそれぞれの彩度情報Spa,Spb,Spc,Spdのうちいずれか1つ以上が、所定の閾値(第2の閾値)以下である場合、カメラ10a,10b,10c,10dによってそれぞれ撮像された複数の画像の全てをモノクロ画像とする。そのため、複数の画像の彩度情報の差をより一層少なくすることができる。したがって、これらの画像を合成することによって合成画像が生成された場合、合成画像を参照する者は、彩度の違いによる、参照する者の違和感をより一層少なくすることができる。   In the third embodiment, any one or more of the saturation information Spa, Spb, Spc, Spd of each of the plurality of images Ia, Ib, Ic, Id is a predetermined threshold (second threshold). In the following cases, all of the plurality of images captured by the cameras 10a, 10b, 10c, and 10d are all monochrome images. Therefore, the difference in the saturation information of a plurality of images can be further reduced. Therefore, when a synthesized image is generated by synthesizing these images, a person who refers to the synthesized image can further reduce the sense of discomfort of the referring person due to a difference in saturation.

上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態及び実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態及び実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。   Although the above embodiment has been described as a representative example, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments and examples, and various modifications and changes can be made without departing from the scope of the claims. For example, a plurality of constituent blocks described in the embodiments and examples can be combined into one, or one constituent block can be divided.

上述の実施形態においては、画像処理システム1は4つのカメラ10a、10b、10c、10dを備えるとしたが、カメラ10の数は4つに限られず、2つ、3つ、又は5つ以上であればよい。すなわち、画像処理システム1は複数のカメラを備えることができる。   In the above-described embodiment, the image processing system 1 includes the four cameras 10a, 10b, 10c, and 10d. However, the number of the cameras 10 is not limited to four, and may be two, three, or five or more. I just need it. That is, the image processing system 1 can include a plurality of cameras.

1 画像処理システム
4 移動体
10,10a,10b,10c,10d カメラ
11,11a,11b,11c,11d 撮像レンズ
12,12a,12b,12c,12d フィルタ
13,13a,13b,13c,13d 撮像素子
14,14a,14b,14c,14d 信号処理部
15,15a,15b,15c,15d 通信インタフェース
20 画像処理装置
21 取得部
22 プロセッサ
23 メモリ
24 通信インタフェース
30 表示装置
31 通信インタフェース
32 表示用プロセッサ
33 表示パネル
40,40a,40b,40c,40d 照明装置
41,41a,41b,41c,41d 通信インタフェース
42,42a,42b,42c,42d 照射制御部
43,43a,43b,43c,43d 発光部
DESCRIPTION OF SYMBOLS 1 Image processing system 4 Moving body 10,10a, 10b, 10c, 10d Camera 11,11a, 11b, 11c, 11d Imaging lens 12,12a, 12b, 12c, 12d Filter 13,13a, 13b, 13c, 13d Image pick-up element 14 , 14a, 14b, 14c, 14d Signal processing unit 15, 15a, 15b, 15c, 15d Communication interface 20 Image processing device 21 Acquisition unit 22 Processor 23 Memory 24 Communication interface 30 Display device 31 Communication interface 32 Display processor 33 Display panel 40 , 40a, 40b, 40c, 40d Illumination device 41, 41a, 41b, 41c, 41d Communication interface 42, 42a, 42b, 42c, 42d Irradiation control unit 43, 43a, 43b, 43c, 43d Light emitting unit

Claims (13)

可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを備える複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、
前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させるプロセッサと、
を備える画像処理装置。
An acquisition unit for acquiring a plurality of images respectively captured by a plurality of cameras including a filter that transmits visible light and selectively transmits infrared light in a predetermined wavelength range;
The saturation information of each of the plurality of images acquired by the acquisition unit is calculated, and the saturation of pixels constituting at least one of the plurality of images is reduced based on the respective saturation information. A processor;
An image processing apparatus comprising:
前記プロセッサは、前記複数の画像のうち第1の画像の彩度情報と、前記複数の画像のうち前記第1の画像と異なる第2の画像の彩度情報との差に基づいて、前記1の画像および前記第2の画像のうち前記彩度情報が高い方の画像を構成する前記画素の彩度を低下させる請求項1に記載の画像処理装置。   The processor is configured based on a difference between saturation information of a first image of the plurality of images and saturation information of a second image different from the first image among the plurality of images. The image processing apparatus according to claim 1, wherein the saturation of the pixels constituting the image having the higher saturation information among the first image and the second image is reduced. 前記プロセッサは、前記第1の画像の彩度情報と、前記第2の画像の彩度情報との差が所定の値を有する第1の閾値より大きい場合に、前記1の画像および前記第2の画像のうち前記彩度情報が高い方の前記画素の彩度を低下させる請求項2に記載の画像処理装置。   When the difference between the saturation information of the first image and the saturation information of the second image is greater than a first threshold having a predetermined value, the processor is configured to output the first image and the second image. The image processing apparatus according to claim 2, wherein the saturation of the pixel having the higher saturation information in the image is reduced. 前記プロセッサは、前記複数の画像のうち前記彩度情報が高い画像を構成する画素の彩度を低下させた画像と、前記複数の画像のうち彩度情報が低い画像とにおいて、それぞれの彩度情報の差が前記第1の閾値以下となるように、前記彩度情報が高い画像を構成する画素の彩度を低下させる請求項3に記載の画像処理装置。   The processor includes: an image obtained by lowering a saturation of a pixel constituting an image having a high saturation information among the plurality of images; and an image having a low saturation information among the plurality of images. The image processing apparatus according to claim 3, wherein the saturation of the pixels constituting the image with the high saturation information is reduced so that the difference in information is equal to or less than the first threshold. 前記プロセッサは、前記複数の画像それぞれの彩度情報のうちいずれか1つ以上が、所定の値を有する第2の閾値以下である場合、前記複数の画像の全てがモノクロ画像となるように、前記複数の画像それぞれを構成する画素の彩度を低下させる請求項1に記載の画像処理装置。   The processor, when any one or more of the saturation information of each of the plurality of images is equal to or less than a second threshold having a predetermined value, so that all of the plurality of images become monochrome images. The image processing apparatus according to claim 1, wherein the saturation of pixels constituting each of the plurality of images is reduced. 前記プロセッサは、前記取得部によって取得された複数の画像の明るさ情報の差が所定の値を有する第3の閾値以下となるよう調整し、前記明るさ情報が調整された複数の画像の彩度情報を算出する請求項1から5のいずれか一項に記載の画像処理装置。   The processor adjusts the difference between the brightness information of the plurality of images acquired by the acquisition unit to be equal to or less than a third threshold value having a predetermined value, and colors the plurality of images for which the brightness information is adjusted. The image processing apparatus according to claim 1, wherein the degree information is calculated. 可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを含む複数のカメラと、
前記複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させるプロセッサと、を含む画像処理装置と、
を備える画像処理システム。
A plurality of cameras including a filter that transmits visible light and selectively transmits infrared light in a predetermined wavelength range;
An acquisition unit for acquiring a plurality of images respectively captured by the plurality of cameras, and calculating saturation information of each of the plurality of images acquired by the acquisition unit, and based on the respective saturation information, A processor for reducing the saturation of pixels constituting at least one of the plurality of images;
An image processing system comprising:
前記複数のカメラの撮像範囲をそれぞれ照射する複数の照明装置をさらに備え、
前記プロセッサは、前記取得部によって取得された複数の画像それぞれの明るさ情報を算出し、前記明るさ情報に基づいて、前記複数の照明装置を制御する請求項7に記載の画像処理システム。
A plurality of illumination devices that respectively illuminate the imaging ranges of the plurality of cameras;
The image processing system according to claim 7, wherein the processor calculates brightness information of each of the plurality of images acquired by the acquisition unit, and controls the plurality of lighting devices based on the brightness information.
前記プロセッサは、前記複数の画像それぞれの明るさ情報の差が所定の値を有する第1の閾値以下であるかを判定し、前記差が前記第1の閾値より大きい場合、前記差が前記第1の閾値以下となるように前記複数の照明装置の少なくとも1つの照明装置が前記撮像範囲を照射するよう制御し、前記差が前記第1の閾値以下である場合、前記複数の照明装置のいずれもが前記撮像範囲を照射しないよう制御する請求項8に記載の画像処理システム。   The processor determines whether a difference in brightness information of each of the plurality of images is equal to or less than a first threshold having a predetermined value, and if the difference is greater than the first threshold, the difference is the first threshold. When at least one illumination device of the plurality of illumination devices is controlled to irradiate the imaging range so as to be less than or equal to a threshold value of 1, and when the difference is less than or equal to the first threshold value, The image processing system according to claim 8, wherein the image is controlled not to irradiate the imaging range. 前記照明装置は、所定の波長範囲の赤外光を含む光を発光する請求項8又は9に記載の画像処理システム。   The image processing system according to claim 8, wherein the illumination device emits light including infrared light in a predetermined wavelength range. 前記プロセッサは、前記画素の彩度を低下させた場合、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成する請求項7から10のいずれか一項に記載の画像処理システム。   When the saturation of the pixel is decreased, the processor generates a combined image by combining the image with the decreased saturation and an image different from the at least one image among the plurality of images. The image processing system according to claim 7. 可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを有する複数のカメラと、
前記複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させるプロセッサと、を有する画像処理装置と、を含む画像処理システムを備える移動体。
A plurality of cameras having filters that transmit visible light and selectively transmit infrared light in a predetermined wavelength range;
An acquisition unit for acquiring a plurality of images respectively captured by the plurality of cameras, and calculating saturation information of each of the plurality of images acquired by the acquisition unit, and based on the respective saturation information, A moving object provided with an image processing system including an image processing device which has a processor which reduces the saturation of a pixel which constitutes at least one picture among a plurality of pictures.
画像処理装置が実行する画像処理方法であって、
前記画像処理装置が、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを備える複数のカメラによってそれぞれ撮像された複数の画像を取得し、
前記画像処理装置が、前記取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させる、
画像処理方法。
An image processing method executed by an image processing apparatus,
The image processing apparatus acquires a plurality of images respectively captured by a plurality of cameras including filters that transmit visible light and selectively transmit infrared light in a predetermined wavelength range;
The image processing device calculates the saturation information of each of the acquired plurality of images, and based on each of the saturation information, the saturation of pixels constituting at least one image of the plurality of images Reduce,
Image processing method.
JP2016167208A 2016-08-29 2016-08-29 Image processing apparatus, image processing system, moving object, and image processing method Active JP6655504B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167208A JP6655504B2 (en) 2016-08-29 2016-08-29 Image processing apparatus, image processing system, moving object, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167208A JP6655504B2 (en) 2016-08-29 2016-08-29 Image processing apparatus, image processing system, moving object, and image processing method

Publications (2)

Publication Number Publication Date
JP2018037739A true JP2018037739A (en) 2018-03-08
JP6655504B2 JP6655504B2 (en) 2020-02-26

Family

ID=61566127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167208A Active JP6655504B2 (en) 2016-08-29 2016-08-29 Image processing apparatus, image processing system, moving object, and image processing method

Country Status (1)

Country Link
JP (1) JP6655504B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097613A1 (en) * 2020-11-04 2022-05-12 パナソニックIpマネジメント株式会社 Imaging system, 3d model generation system, controller, method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002240629A (en) * 2001-02-20 2002-08-28 Sony Corp On-vehicle video camera
JP2009017020A (en) * 2007-07-02 2009-01-22 Nissan Motor Co Ltd Image processor and method for generating display image
JP2010193037A (en) * 2009-02-17 2010-09-02 Toyota Central R&D Labs Inc Apparatus and program for creating pseudo-color image
JP2016111475A (en) * 2014-12-04 2016-06-20 ソニー株式会社 Image processing system, image processing method, and imaging system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002240629A (en) * 2001-02-20 2002-08-28 Sony Corp On-vehicle video camera
JP2009017020A (en) * 2007-07-02 2009-01-22 Nissan Motor Co Ltd Image processor and method for generating display image
JP2010193037A (en) * 2009-02-17 2010-09-02 Toyota Central R&D Labs Inc Apparatus and program for creating pseudo-color image
JP2016111475A (en) * 2014-12-04 2016-06-20 ソニー株式会社 Image processing system, image processing method, and imaging system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097613A1 (en) * 2020-11-04 2022-05-12 パナソニックIpマネジメント株式会社 Imaging system, 3d model generation system, controller, method, and program

Also Published As

Publication number Publication date
JP6655504B2 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
US10230873B2 (en) Vehicle vision system with color correction
US9497395B2 (en) Night-vision device
US11936979B2 (en) Imaging device
JP2007286943A (en) Signal light detection apparatus
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
JPWO2015064095A1 (en) Image correction parameter output device, camera system, and correction parameter output method
JP4363207B2 (en) Image processing method, image processing system, and image processing apparatus
JP2006148690A (en) Imaging device
JP2013162339A (en) Imaging apparatus
US20230140768A1 (en) Imaging element and electronic apparatus
JP6655504B2 (en) Image processing apparatus, image processing system, moving object, and image processing method
JP7015382B2 (en) Endoscope system
KR20110066571A (en) Multifunctional camera module
JP6168024B2 (en) Captured image display device, captured image display method, and captured image display program
JP2012008845A (en) Image processor
JP2012010141A (en) Image processing apparatus
CN109076199B (en) White balance adjustment device, working method thereof and non-transitory computer readable medium
WO2022030367A1 (en) Imaging device
JP6322723B2 (en) Imaging apparatus and vehicle
US10102436B2 (en) Image processing device, warning device and method for processing image
KR20220146447A (en) imaging device, imaging method, electronic device
JP7080724B2 (en) Light distribution control device, light projection system and light distribution control method
JP2013003482A (en) Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method
JP2019197948A (en) Imaging device and method for controlling the same
WO2022059139A1 (en) Image display device and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6655504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150