JP6655504B2 - Image processing apparatus, image processing system, moving object, and image processing method - Google Patents

Image processing apparatus, image processing system, moving object, and image processing method Download PDF

Info

Publication number
JP6655504B2
JP6655504B2 JP2016167208A JP2016167208A JP6655504B2 JP 6655504 B2 JP6655504 B2 JP 6655504B2 JP 2016167208 A JP2016167208 A JP 2016167208A JP 2016167208 A JP2016167208 A JP 2016167208A JP 6655504 B2 JP6655504 B2 JP 6655504B2
Authority
JP
Japan
Prior art keywords
image
images
saturation
information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016167208A
Other languages
Japanese (ja)
Other versions
JP2018037739A (en
Inventor
須永 敏弘
須永  敏弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016167208A priority Critical patent/JP6655504B2/en
Publication of JP2018037739A publication Critical patent/JP2018037739A/en
Application granted granted Critical
Publication of JP6655504B2 publication Critical patent/JP6655504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、画像処理システム、移動体、及び画像処理方法に関する。   The present invention relates to an image processing device, an image processing system, a moving object, and an image processing method.

従来、複数のカメラによって撮像された画像を合成して1つの連続した合成画像を作成する画像処理装置が知られている。例えば、特許文献1に記載の画像処理装置は、4つのカメラによって車両の前方、後方、右方、及び左方をそれぞれ撮像した画像を合成することによって、車両及び車両周囲の路面を見降ろした様子を表す合成画像を生成する。   2. Description of the Related Art Conventionally, there has been known an image processing apparatus that combines images captured by a plurality of cameras to create one continuous combined image. For example, the image processing device described in Patent Literature 1 looks down on a vehicle and a road surface around the vehicle by combining images obtained by capturing four images of the front, rear, right, and left of the vehicle. Generate a composite image representing the situation.

一方、夕方や夜間等の、カメラの撮像範囲の照度が低い場合に、近赤外光を被写体に照射させることによって、被写体である人物に眩しさや不快感を与えずに撮像する撮像装置が知られている。例えば、特許文献2に記載の撮像装置は、各色の画素の相対感度がほぼ等しくなる800nm以上の近赤外光を透過させて、この波長範囲の近赤外光を除く赤外光を遮光するフィルタを有し、近赤外光が照射された被写体を撮像する。   On the other hand, when the illuminance in the imaging range of the camera is low, such as in the evening or at night, an imaging device that irradiates a subject with near-infrared light to capture an image without giving dazzling or discomfort to the subject person is known. Have been. For example, the imaging device described in Patent Literature 2 transmits near-infrared light of 800 nm or more in which the relative sensitivities of pixels of each color are substantially equal, and blocks infrared light excluding near-infrared light in this wavelength range. It has a filter and images a subject irradiated with near-infrared light.

特開2009−17020号公報JP 2009-17020A 特開平10−108206号公報JP-A-10-108206

しかしながら、上述の従来技術のような、所定の波長範囲の近赤外光を透過させて、所定の波長範囲の近赤外光を除く赤外光を遮光するフィルタを有した撮像装置によって、近赤外光が照射された被写体を撮像すると、近赤外光においては各色の画素の相対感度がほぼ等しいため、近赤外光が照射されていない被写体を撮像した画像に比べて彩度が低下する。   However, such an image pickup apparatus having a filter that transmits near-infrared light in a predetermined wavelength range and blocks infrared light excluding near-infrared light in a predetermined wavelength range, as in the above-described related art, has been proposed. When an image of a subject irradiated with infrared light is captured, the saturation is lower than that of an image of a subject not irradiated with near infrared light because the relative sensitivity of pixels of each color is almost equal in near infrared light. I do.

そのため、複数の画像を合成して合成画像を生成する画像処理装置において、近赤外光を透過させて、近赤外光を除く赤外光を遮光するフィルタを有する撮像装置によって撮像された画像を用いた場合、近赤外光が照射された被写体に係る画像と近赤外光が照射されていない被写体に係る画像とでは彩度が異なる。したがって、これらの画像を合成した合成画像は領域ごとに彩度が異なり、全体として見たときに不自然な画像となることがある。   Therefore, in an image processing apparatus that generates a synthesized image by synthesizing a plurality of images, an image captured by an imaging apparatus having a filter that transmits near-infrared light and blocks infrared light other than near-infrared light Is used, the saturation of an image of a subject irradiated with near-infrared light is different from that of an image of a subject not irradiated with near-infrared light. Therefore, the synthesized image obtained by synthesizing these images has different saturation for each region, and may be unnatural when viewed as a whole.

したがって、これらの点に着目してなされた本発明の目的は、被写体の一部が近赤外光に照射されている場合であっても、彩度に均整がとれた、参照する者にとって違和感の少ない合成画像を生成するための画像を得ることができる画像処理装置、画像処理システム、移動体、及び画像処理方法を提供することにある。   Therefore, an object of the present invention focused on these points is that even when a part of the subject is irradiated with near-infrared light, the saturation is balanced, and the referrer feels uncomfortable. It is an object of the present invention to provide an image processing apparatus, an image processing system, a moving object, and an image processing method capable of obtaining an image for generating a composite image with less image quality.

上記課題を解決する画像処理装置は、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを備える複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、前記複数の画像の前記彩度情報の差を所定の値を有する第1の閾値以下とするプロセッサと、を備える。前記プロセッサは、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成する。 An image processing apparatus that solves the above-described problem is configured to acquire a plurality of images captured by a plurality of cameras each including a filter that transmits visible light and selectively transmits infrared light in a predetermined wavelength range. And calculating the saturation information of each of the plurality of images obtained by the obtaining unit, and based on the respective pieces of saturation information, the saturation of pixels constituting at least one image of the plurality of images. And a processor configured to reduce a difference between the saturation information of the plurality of images to be equal to or less than a first threshold having a predetermined value . The processor generates a synthesized image by synthesizing the image with the reduced saturation and an image different from the at least one of the plurality of images.

上記課題を解決する画像処理システムは、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを含む複数のカメラと、前記複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、前記複数の画像の前記彩度情報の差を所定の値を有する第1の閾値以下とし、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成するプロセッサと、を含む画像処理装置と、を備える。 An image processing system that solves the above problem includes a plurality of cameras including a filter that transmits visible light and selectively transmits infrared light in a predetermined wavelength range, and a plurality of images that are respectively captured by the plurality of cameras. An acquisition unit that acquires the image of the plurality of images, calculates saturation information of each of the plurality of images acquired by the acquisition unit, and, based on the respective saturation information, determines at least one image of the plurality of images. By reducing the saturation of the constituent pixels, the difference between the saturation information of the plurality of images is made equal to or less than a first threshold having a predetermined value, and the image having the reduced saturation and the plurality of images A processor that combines the at least one image with an image different from the at least one image to generate a combined image .

上記課題を解決する移動体は、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを有する複数のカメラと、前記複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、前記複数の画像の前記彩度情報の差を所定の値を有する第1の閾値以下とし、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成するプロセッサと、を有する画像処理装置と、を含む画像処理システムを備える。 A moving body that solves the above-mentioned problem transmits a visible light, and has a plurality of cameras each having a filter that selectively transmits infrared light in a predetermined wavelength range, and a plurality of cameras each of which is imaged by the plurality of cameras. An acquiring unit for acquiring an image, calculating saturation information of each of the plurality of images acquired by the acquiring unit, and configuring at least one of the plurality of images based on the respective saturation information By reducing the saturation of the pixel to be performed, the difference between the saturation information of the plurality of images is set to be equal to or less than a first threshold having a predetermined value, and the image having the reduced saturation, and And an image processing apparatus having a processor that synthesizes an image different from the at least one image to generate a synthesized image .

上記課題を解決する画像処理方法は、画像処理装置が実行する画像処理方法であって、前記画像処理装置が、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを備える複数のカメラによってそれぞれ撮像された複数の画像を取得し、前記画像処理装置が、前記取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、前記複数の画像の前記彩度情報の差を所定の値を有する第1の閾値以下とし、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成するAn image processing method for solving the above problems is an image processing method executed by an image processing apparatus, wherein the image processing apparatus transmits visible light and selectively transmits infrared light in a predetermined wavelength range. Acquiring a plurality of images respectively captured by a plurality of cameras including a filter for causing the image processing apparatus to calculate saturation information of each of the plurality of acquired images, based on the respective saturation information Reducing the saturation of the pixels constituting at least one of the plurality of images to reduce the difference between the saturation information of the plurality of images to a first threshold having a predetermined value or less, A combined image is generated by combining the image with reduced saturation and an image different from the at least one of the plurality of images .

本発明の一実施形態によれば、被写体の一部が近赤外光に照射されている場合であっても、彩度に均整がとれた、参照する者にとって違和感の少ない合成画像を生成するための画像を得ることを可能とする。   According to an embodiment of the present invention, even when a part of a subject is irradiated with near-infrared light, a composite image with uniform saturation and less discomfort for a referrer is generated. It is possible to obtain an image for.

図1は、第1の実施形態の画像処理システムの機能ブロック図である。FIG. 1 is a functional block diagram of the image processing system according to the first embodiment. 図2は、図1に示す撮像装置、画像処理装置、及び表示装置を搭載した移動体の上面図である。FIG. 2 is a top view of a moving body on which the imaging device, the image processing device, and the display device illustrated in FIG. 1 are mounted. 図3は、第1の実施形態における画像処理システムの処理フローを示すフロー図である。FIG. 3 is a flowchart illustrating a processing flow of the image processing system according to the first embodiment. 図4は、第2の実施形態における画像処理システムの機能ブロック図である。FIG. 4 is a functional block diagram of the image processing system according to the second embodiment. 図5は、第2の実施形態における画像処理システムの処理フローを示すフロー図である。FIG. 5 is a flowchart illustrating a processing flow of the image processing system according to the second embodiment.

以下、本発明の第1の実施形態について、図面を参照して説明する。   Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

図1に示すように、第1の実施形態に係る画像処理システム1は、撮像装置(カメラ)10a、10b、10c、10d、画像処理装置20、表示装置30等を含んで構成される。画像処理装置20は、通信ネットワークを介してカメラ10a、10b、10c、10d、表示装置30とそれぞれ接続されて情報を送受信する。また、画像処理装置20は、通信ネットワークを介して、運転支援装置等と接続されて運転支援情報を受信してもよい。運転支援情報とは、運転者の操作を支援するための、例えば、目標駐車位置、予想進路線、後退開始位置等を示す情報である。画像処理装置20は、表示装置30と同一の筺体内に設けられてもよい。その場合、通信インタフェース24、31は無くてもよく、プロセッサ22と表示用プロセッサ32とがそれぞれ実行する機能を同一のプロセッサで実行してよい。表示装置30は、運転支援装置等の表示部を兼用してよい。   As shown in FIG. 1, the image processing system 1 according to the first embodiment includes an imaging device (camera) 10a, 10b, 10c, 10d, an image processing device 20, a display device 30, and the like. The image processing device 20 is connected to the cameras 10a, 10b, 10c, 10d, and the display device 30 via a communication network to transmit and receive information. The image processing device 20 may be connected to a driving support device or the like via a communication network to receive driving support information. The driving support information is information indicating, for example, a target parking position, a predicted course line, a retreat start position, and the like for supporting a driver's operation. The image processing device 20 may be provided in the same housing as the display device 30. In that case, the communication interfaces 24 and 31 may not be provided, and the functions executed by the processor 22 and the display processor 32 may be executed by the same processor. The display device 30 may also serve as a display unit such as a driving support device.

また、図2に示すように、カメラ10a、10b、10c、10d、画像処理装置20、表示装置30は、移動体4に搭載される。ここで、「移動体」は、例えば、乗用車、トラック、バスといった道路上を走行する車両等を意味する。また、以降においては、カメラ10a、10b、10c、10dのうち任意の撮像装置を「撮像装置(カメラ)10」という。   2, the cameras 10a, 10b, 10c, and 10d, the image processing device 20, and the display device 30 are mounted on the moving body 4. Here, the “moving body” means, for example, a vehicle running on a road, such as a passenger car, a truck, or a bus. In the following, any imaging device among the cameras 10a, 10b, 10c, and 10d is referred to as "imaging device (camera) 10".

カメラ10は、移動体4の周辺を撮像するように設置される。図2に示した例を用いて説明すると、カメラ10a、10b、10c、10dは、移動体4のそれぞれ前方、右方、後方、左方を撮像するように設置される。また、各カメラは、該カメラの撮像範囲の一部が、他のカメラの撮像範囲の一部と共通であるように設置される。   The camera 10 is installed so as to capture an image around the moving body 4. Explaining using the example shown in FIG. 2, the cameras 10a, 10b, 10c, and 10d are installed so as to capture images of the front, right, rear, and left of the moving body 4, respectively. Each camera is installed such that a part of the imaging range of the camera is common to a part of the imaging range of another camera.

カメラ10aの撮像範囲は図2に示すA1,A2,及びA3であり、カメラ10bの撮像範囲はA3,A5,及びA8である。すなわち、カメラ10aの撮像範囲の一部であるA3は、カメラ10bの撮像範囲の一部である。   The imaging range of the camera 10a is A1, A2, and A3 shown in FIG. 2, and the imaging range of the camera 10b is A3, A5, and A8. That is, A3 which is a part of the imaging range of the camera 10a is a part of the imaging range of the camera 10b.

同様にして、カメラ10cの撮像範囲はA6,A7,A8である。すなわち、カメラ10bの撮像範囲の一部であるA8はカメラ10cの撮像範囲の一部である。   Similarly, the imaging range of the camera 10c is A6, A7, and A8. That is, A8 which is a part of the imaging range of the camera 10b is a part of the imaging range of the camera 10c.

また、カメラ10dの撮像範囲はA1,A4,及びA6である。すなわち、カメラ10dの撮像範囲の一部であるA1はカメラ10aの撮像範囲の一部である。   The imaging range of the camera 10d is A1, A4, and A6. That is, A1 which is a part of the imaging range of the camera 10d is a part of the imaging range of the camera 10a.

カメラ10は、撮像レンズ11、フィルタ12、撮像素子13、信号処理部14等を含んで構成される。具体的には、図1に示したように、カメラ10aは、撮像レンズ11a、フィルタ12a、撮像素子13a、信号処理部14a等を含んで構成される。同様にして、カメラ10bは、撮像レンズ11b、フィルタ12b、撮像素子13b、信号処理部14b等を含んで構成される。また、カメラ10cは撮像レンズ11c、フィルタ12c、撮像素子13c、信号処理部14c等を含んで構成され、カメラ10dは撮像レンズ11d、フィルタ12d、撮像素子13d、信号処理部14d等を含んで構成される。   The camera 10 includes an imaging lens 11, a filter 12, an imaging element 13, a signal processing unit 14, and the like. Specifically, as shown in FIG. 1, the camera 10a includes an imaging lens 11a, a filter 12a, an imaging element 13a, a signal processing unit 14a, and the like. Similarly, the camera 10b includes an imaging lens 11b, a filter 12b, an imaging element 13b, a signal processing unit 14b, and the like. The camera 10c includes an imaging lens 11c, a filter 12c, an imaging device 13c, a signal processing unit 14c, and the like. The camera 10d includes an imaging lens 11d, a filter 12d, an imaging device 13d, a signal processing unit 14d, and the like. Is done.

撮像レンズ11は、入射した光が撮像素子13の受光面で結像するように集光するレンズである。撮像レンズ11は、例えば、魚眼レンズ、超広角レンズで構成されてもよい。撮像レンズ11は、単レンズで構成されてもよいし、複数枚のレンズで構成されてもよい。   The imaging lens 11 is a lens that condenses incident light so that an image is formed on a light receiving surface of the imaging element 13. The imaging lens 11 may be configured by, for example, a fish-eye lens or an ultra-wide-angle lens. The imaging lens 11 may be composed of a single lens, or may be composed of a plurality of lenses.

フィルタ12は、撮像レンズ11の像側に、該フィルタ12の面が該撮像レンズ11の光軸に略垂直になるよう配置することができる。フィルタ12は、可視光を透過させ、所定の波長範囲の近赤外光を選択的に透過させる。所定の波長範囲とは、各色の撮像素子13の相対感度が等しい、近赤外光の波長の範囲であり、例えば860nmを含む範囲である。   The filter 12 can be arranged on the image side of the imaging lens 11 so that the surface of the filter 12 is substantially perpendicular to the optical axis of the imaging lens 11. The filter 12 transmits visible light and selectively transmits near-infrared light in a predetermined wavelength range. The predetermined wavelength range is a range of wavelengths of near-infrared light in which the relative sensitivities of the imaging elements 13 of the respective colors are equal, and includes, for example, 860 nm.

このようなフィルタ12を通った光が撮像素子13に結像することによって生成される、画像を構成する画素は、可視光線によってカラーで表される。そして、上述のように、可視光線とともに所定の波長範囲の近赤外光が撮像素子13に到達する。近赤外光による各色の画素ごとの信号強度は略等しいため、該カラーで表されている画素の彩度は、近赤外光が到達しない場合に比べて低下している。   Pixels forming an image, which are generated by the light passing through the filter 12 being formed on the image sensor 13, are represented in color by visible light. Then, as described above, near-infrared light in a predetermined wavelength range arrives at the image sensor 13 together with visible light. Since the signal intensity of each color pixel due to the near-infrared light is substantially equal, the saturation of the pixel represented by the color is lower than when no near-infrared light arrives.

例えば、各カメラ10a、10b、10c、10dが撮像する範囲の一部のみに近赤外光が照射された場合、赤外光が照射された範囲を撮像するカメラ10においてのみ、上記の波長範囲の赤外光がフィルタ12を透過して撮像素子13に到達する。そのため、カメラ10a、10b、10c、10dのうち近赤外光が照射された範囲を撮像した第1の画像と、カメラ10a、10b、10c、10dのうち近赤外光が照射されない範囲を撮像した第2の画像とでは彩度が、人の目から見て違和感をもつ程に異なる場合がある。特に、プロセッサ22が、第1の画像と第2の画像とを合成することにより、1つの合成画像を生成した場合、1つの合成画像内で、第1の画像に係る領域と第2の画像に係る領域とでは彩度が異なるため、合成画像を視認したユーザは違和感をもつことになる。   For example, when near infrared light is applied to only a part of the range captured by each of the cameras 10a, 10b, 10c, and 10d, the wavelength range described above is applied only to the camera 10 that captures the range irradiated with the infrared light. Is transmitted through the filter 12 and reaches the image sensor 13. Therefore, a first image of the range of the cameras 10a, 10b, 10c, and 10d irradiated with near-infrared light, and an image of the range of the cameras 10a, 10b, 10c, and 10d not irradiated with near-infrared light. There is a case where the saturation of the second image is different from that of the second image so as to cause a sense of incongruity when viewed from human eyes. In particular, when the processor 22 generates one combined image by combining the first image and the second image, the area related to the first image and the second image in one combined image are generated. Since the saturation is different from the region according to the above, the user who has visually recognized the composite image has a sense of discomfort.

撮像素子13は、撮像レンズ11によって結像された画像を撮像する撮像素子である。撮像素子13は、CCD(Charge-Coupled Device)イメージセンサ及びCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。撮像素子13は、カラー画像を撮像するためのカラーフィルタを備える。カラーフィルタは、受光素子ごとに、レッド、グリーン、ブルー、または、シアン、マゼンダ、イエロー等の複数の色のフィルタが配列される。カラーフィルタはベイヤ配列で配列してよい。   The imaging device 13 is an imaging device that captures an image formed by the imaging lens 11. The image sensor 13 includes a charge-coupled device (CCD) image sensor and a complementary metal oxide semiconductor (CMOS) image sensor. The imaging device 13 includes a color filter for capturing a color image. In the color filters, filters of a plurality of colors such as red, green, blue, or cyan, magenta, and yellow are arranged for each light receiving element. The color filters may be arranged in a Bayer arrangement.

信号処理部14は、画像を処理するプロセッサであり、例えば特定の機能を実行するように形成した専用のマイクロプロセッサや特定のプログラムを読出すことにより特定の機能を実行するプロセッサである。   The signal processing unit 14 is a processor that processes an image, for example, a dedicated microprocessor formed to execute a specific function, or a processor that executes a specific function by reading a specific program.

信号処理部14は、該撮像素子13で結像された画像を表す画像信号を生成する。また、信号処理部14は、画像に対して歪み補正、ガンマ補正等の任意の処理を行ってもよい。   The signal processing unit 14 generates an image signal representing an image formed by the image sensor 13. Further, the signal processing unit 14 may perform arbitrary processing such as distortion correction and gamma correction on the image.

通信インタフェース15は、信号処理部14によって処理された、画像を表す画像信号を画像処理装置20に送信する。   The communication interface 15 transmits an image signal representing an image processed by the signal processing unit 14 to the image processing device 20.

画像処理装置20は、取得部21、プロセッサ22、メモリ23、通信インタフェース24等を含んで構成される。   The image processing device 20 includes an acquisition unit 21, a processor 22, a memory 23, a communication interface 24, and the like.

取得部21は、信号処理部14によって生成された画像信号の入力を受けることによって画像信号が表す画像を取得する、カメラ10とのインタフェースである。   The acquisition unit 21 is an interface with the camera 10 that acquires an image represented by the image signal by receiving the input of the image signal generated by the signal processing unit 14.

プロセッサ22は、取得部21によって取得した画像を処理するプロセッサであり、例えば特定の機能を実行するように形成した専用のマイクロプロセッサや特定のプログラムを読出すことにより特定の機能を実行する汎用のCPU(中央処理装置:Central Processing Unit)である。   The processor 22 is a processor that processes an image acquired by the acquisition unit 21, and is, for example, a dedicated microprocessor formed to execute a specific function or a general-purpose microprocessor that executes a specific function by reading a specific program. It is a CPU (Central Processing Unit).

プロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像され、取得部21によって取得された複数の画像の明るさ情報の差が所定の閾値(第3の閾値)以下となるように調整する。明るさ情報とは、画像全体の明るさに関する特性を示す値である。明るさ情報は、画像を構成する各画素の明るさ(明度)から算出され、例えば、各画素の明るさの平均値、中央値、最頻値、合計等の統計値である。複数のカメラ10a、10b、10c、10dは、近赤外光に対する感度を有するので、明るさ情報には可視光とともに近赤外光が寄与する。   The processor 22 is configured so that the difference between the brightness information of the plurality of images captured by the plurality of cameras 10a, 10b, 10c, and 10d, and the plurality of images acquired by the acquisition unit 21 is equal to or smaller than a predetermined threshold (third threshold). adjust. The brightness information is a value indicating a characteristic regarding the brightness of the entire image. The brightness information is calculated from the brightness (brightness) of each pixel constituting the image, and is, for example, a statistical value such as an average value, a median value, a mode value, and a sum of the brightness of each pixel. Since the plurality of cameras 10a, 10b, 10c, and 10d have sensitivity to near-infrared light, near-infrared light as well as visible light contributes to brightness information.

具体的には、プロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像され、取得部21によって取得された複数の画像の明るさ情報の差が第3の閾値より大きいか否かを判定する。そして、明るさ情報の差が第3の閾値より大きい場合、全ての画像の明るさ情報の差が第3の閾値以下となるように、1つ以上の画像を構成する画素の明るさを変更する。明るさ情報の差が第3の閾値未満である場合、プロセッサ22は、いずれの画素の明るさも変更しない。   Specifically, the processor 22 determines whether or not the difference between the brightness information of the plurality of images captured by the plurality of cameras 10a, 10b, 10c, and 10d and acquired by the acquisition unit 21 is greater than a third threshold value. Is determined. Then, when the difference in the brightness information is larger than the third threshold, the brightness of the pixels constituting one or more images is changed so that the difference in the brightness information of all the images is equal to or less than the third threshold. I do. If the difference in the brightness information is less than the third threshold, the processor 22 does not change the brightness of any of the pixels.

ここで、第3の閾値とは、明るさ情報の差がこの値以下である場合に、複数の画像の明るさが人間の目で見て同程度であるとみなせる値であり、実験等により予め決定される。   Here, the third threshold value is a value that allows the brightness of a plurality of images to be considered to be substantially the same as seen by human eyes when the difference between the brightness information is equal to or less than this value. It is determined in advance.

プロセッサ22が各画像の明るさ情報を変更する方法は任意であり、例えば、プロセッサ22は、複数の画像のうち最も明るさ情報が高い画像に他の画像の明るさ情報を合わせるように、他の画像を構成する画素の明るさを高くしてもよいし、他の画像に、明るさ情報を合わせるように最も明るさ情報が高い画像を構成する画素の明るさを低下させてもよいし、また、プロセッサ22は、複数の画像の明るさ情報の平均値を算出し、複数の画像の明るさ情報が平均値となるように各画像を構成する画素の明るさを変更してもよい。   The method by which the processor 22 changes the brightness information of each image is arbitrary. For example, the processor 22 may adjust the brightness information of another image so as to match the brightness information of the other image with the image having the highest brightness information among the plurality of images. The brightness of the pixels forming the image having the highest brightness information may be reduced, or the brightness of the pixels forming the image having the highest brightness information may be reduced so as to match the brightness information with another image. Further, the processor 22 may calculate an average value of the brightness information of the plurality of images, and may change the brightness of the pixels constituting each image so that the brightness information of the plurality of images becomes the average value. .

プロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像され、上述のように明るさ情報が調整された複数の画像の彩度情報を算出する。彩度情報とは、画像全体の鮮やかさに関する特性を示す値である。彩度情報は、画像を構成する各画素の彩度から算出され、例えば、各画素の彩度の平均値、中央値、最頻値、合計等の統計値である。各画素の彩度は、各画素のRGB値から計算される。   The processor 22 calculates saturation information of a plurality of images captured by the cameras 10a, 10b, 10c, and 10d, respectively, and the brightness information of which is adjusted as described above. The saturation information is a value indicating a characteristic regarding the vividness of the entire image. The saturation information is calculated from the saturation of each pixel constituting the image, and is, for example, a statistical value such as an average value, a median value, a mode value, and a sum of the saturation of each pixel. The saturation of each pixel is calculated from the RGB values of each pixel.

また、プロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像された複数の画像についての彩度情報に基づいて、複数の画像の彩度情報の差が所定の範囲内となるように、少なくとも1つの画像を構成する画素の彩度を低下させる。ここで、プロセッサ22が複数の彩度情報に基づいて画素の彩度を低下させる処理について詳細に説明する。   In addition, the processor 22 controls the difference between the saturation information of the plurality of images to be within a predetermined range based on the saturation information of the plurality of images respectively captured by the plurality of cameras 10a, 10b, 10c, and 10d. In addition, the saturation of pixels constituting at least one image is reduced. Here, a process in which the processor 22 reduces the saturation of a pixel based on a plurality of pieces of saturation information will be described in detail.

プロセッサ22は、複数の画像の彩度情報の差を算出して、複数の画像のうちの第1の画像と第1の画像とは異なる第2の画像との彩度情報の差に基づいて画像を構成する画素の彩度を低下させるか否かを判定する。   The processor 22 calculates a difference between the saturation information of the plurality of images, and based on the difference between the saturation information of the first image and the second image different from the first image among the plurality of images. It is determined whether or not the saturation of the pixels forming the image is to be reduced.

例えば、プロセッサ22は、取得部21によって取得された画像のうち最も明るさ情報の高い画像を第1の画像とし、第1の画像とは異なる第2の画像との差に基づいて彩度情報の差を算出する。図2において二点破線の楕円で囲まれる、移動体4の左側の領域がハロゲンライトで構成される街灯によって照射されている場合、複数のカメラ10a,10b,10c,10dのうち、カメラ10dによって撮像された画像Idの明るさ情報が最も高い。また、ハロゲンライトによって照射される光には近赤外領域の波長の光が多く含まれるため、カメラ10dによって撮像された画像Idの彩度情報が、ハロゲンライトによって照射されない場合に比べて低くなっている。   For example, the processor 22 sets the image with the highest brightness information among the images acquired by the acquisition unit 21 as the first image, and calculates the saturation information based on a difference between the first image and a second image different from the first image. Is calculated. In the case where the left area of the moving object 4 surrounded by the two-dot broken line ellipse in FIG. 2 is illuminated by the streetlight constituted by the halogen light, the camera 10d among the plurality of cameras 10a, 10b, 10c, and 10d. The brightness information of the captured image Id is the highest. Further, since the light irradiated by the halogen light contains much light having a wavelength in the near-infrared region, the saturation information of the image Id captured by the camera 10d is lower than that when the light is not irradiated by the halogen light. ing.

そこで、プロセッサ22は、明るさ情報の最も高い第1の画像Idの彩度情報SPdと第1の画像Idとは異なる画像Ia,Ib,Ic(本例では、これらの画像がそれぞれ第2の画像に相当する)それぞれの彩度情報SPa,SPb,SPcとの差を算出する。具体的には、プロセッサ22は、第1の画像Idの彩度情報SPdと、カメラ10aによって撮像された画像Iaの彩度情報SPaとの差|SPd―SPa|を算出する。また、プロセッサ22は、画像Idの彩度情報SPdとカメラ10bによって撮像された画像Ibの彩度情報SPbとの差|SPd―SPb|、及び画像Idの彩度情報SPdと、カメラ10cによって撮像された画像Icの彩度情報SPcとの差|SPd―SPc|を算出する。そして、プロセッサ22は、算出した彩度情報の差のうちのいずれかが所定の閾値(第1の閾値)より大きいか否かを判定する。そして、プロセッサ22は、彩度情報の差のいずれかが第1の閾値以上である場合に複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させると判定する。ここで、第1の閾値とは、彩度情報の差がこの値以下である場合に、複数の画像の鮮やかさが人間の目で見て同程度であるとみなせる値であり、実験等により予め決定される。   Accordingly, the processor 22 determines that the saturation information SPd of the first image Id having the highest brightness information and the images Ia, Ib, and Ic different from the first image Id (in the present example, these images are the second images, respectively). The difference from each of the chroma information SPa, SPb, and SPc (corresponding to an image) is calculated. Specifically, the processor 22 calculates a difference | SPd−SPa | between the saturation information SPd of the first image Id and the saturation information SPa of the image Ia captured by the camera 10a. The processor 22 also calculates the difference | SPd−SPb | between the saturation information SPd of the image Id and the saturation information SPb of the image Ib captured by the camera 10b, and the saturation information SPd of the image Id, and captures the image by the camera 10c. The difference | SPd−SPc | between the obtained image Ic and the saturation information SPc is calculated. Then, the processor 22 determines whether or not any of the calculated differences in the saturation information is greater than a predetermined threshold (first threshold). Then, the processor 22 determines that the saturation of the pixels constituting at least one of the plurality of images is reduced when any of the differences in the saturation information is equal to or greater than the first threshold. Here, the first threshold value is a value at which the vividness of a plurality of images can be considered to be substantially the same as seen by the human eyes when the difference between the saturation information is equal to or less than this value. It is determined in advance.

複数の画像の彩度情報の差を算出する方法はこれに限られず、次のように算出してもよい。例えば、プロセッサ22は、複数のカメラ10a,10b,10c,10dによってそれぞれ撮像された任意の第1の画像と第1の画像とは異なる第2の画像との組合せ全てにおける彩度情報の差を算出し、いずれかの差が第1の閾値以上である場合に複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させると判定する。   The method of calculating the difference between the saturation information of a plurality of images is not limited to this, and may be calculated as follows. For example, the processor 22 calculates a difference between the saturation information in all combinations of an arbitrary first image captured by the plurality of cameras 10a, 10b, 10c, and 10d and a second image different from the first image. It is calculated, and if any of the differences is equal to or greater than the first threshold value, it is determined that the saturation of pixels constituting at least one of the plurality of images is to be reduced.

具体的には、プロセッサ22は、カメラ10aによって撮像された画像Iaの彩度情報SPaとカメラ10bによって撮像された画像の彩度情報SPbとの差|SPa−SPb|を算出する。同様にして、プロセッサ22は、カメラ10cによって撮像された画像の彩度情報SPc、カメラ10dによって撮像された画像の彩度情報SPdを用いて、|SPa−SPc|、|SPa−SPd|、|SPb−SPc|、|SPb−SPd|、及び|SPc―SPd|をそれぞれ算出する。そして、プロセッサ22は、これらの差のうちいずれかの差が第1の閾値より大きい場合に複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させると判定する。   Specifically, the processor 22 calculates a difference | SPa−SPb | between the saturation information SPa of the image Ia captured by the camera 10a and the saturation information SPb of the image captured by the camera 10b. Similarly, the processor 22 uses the saturation information SPc of the image captured by the camera 10c and the saturation information SPd of the image captured by the camera 10d to generate | SPa-SPc |, | SPa-SPd |, | SPb-SPc |, | SPb-SPd |, and | SPc-SPd | are calculated, respectively. Then, the processor 22 determines that the saturation of the pixels constituting at least one of the plurality of images is reduced when any of the differences is larger than the first threshold.

ここで、プロセッサ22が、画像を構成する画素の彩度を低下させる処理について、詳細に説明する。   Here, the process in which the processor 22 lowers the saturation of the pixels constituting the image will be described in detail.

プロセッサ22は、画像Ia,Ib,Ic,Idのうち最も彩度情報が低い第1の画像に、第1の画像とは異なる第2の画像の彩度情報を合わせるように彩度を低下させる。画像Ia,Ib,Ic,Idののうち画像Idの彩度情報Spdが最も低い場合、画像Ia,Ib,Icそれぞれの彩度情報Spa,Spb,Spcと画像Idの彩度情報Spdとの差が第1の閾値以下となるように画像Ia、Ib、Icを構成する画素の彩度を低下させる。このとき、各画素の彩度の低下率が同じとなるように彩度を低下させてもよいし、他の任意のアルゴリズムに基づいて彩度を低下させてもよい。   The processor 22 reduces the saturation such that the saturation information of the second image different from the first image is matched with the first image having the lowest saturation information among the images Ia, Ib, Ic, and Id. . When the saturation information Spd of the image Id among the images Ia, Ib, Ic, Id is the lowest, the difference between the saturation information Spa, Spb, Spc of each of the images Ia, Ib, Ic and the saturation information Spd of the image Id. Is less than or equal to the first threshold value, the saturation of the pixels constituting the images Ia, Ib, Ic is reduced. At this time, the saturation may be reduced so that the saturation reduction rate of each pixel may be the same, or the saturation may be reduced based on another arbitrary algorithm.

また、プロセッサ22は、複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、複数の画像の彩度情報の差を第1の閾値以下にすると、複数の画像を合成することによって合成画像を生成する。   Further, the processor 22 reduces the saturation of the pixels forming at least one of the plurality of images to reduce the saturation information of the plurality of images to a first threshold value or less, and the plurality of images are reduced. A composite image is generated by compositing.

また、プロセッサ22は、複数の画像を合成することによって生成した合成画像を通信インタフェース24に出力する。また、プロセッサ22は、運転支援装置から受信した、例えば、目標駐車位置、予想進路線、後退開始位置等を示す運転支援情報を合成画像に重畳した画像を通信インタフェース24に出力してもよい。   Further, the processor 22 outputs a synthesized image generated by synthesizing a plurality of images to the communication interface 24. In addition, the processor 22 may output to the communication interface 24 an image obtained by superimposing the driving assistance information indicating the target parking position, the predicted course line, the retreat start position, and the like on the composite image, received from the driving assistance device.

通信インタフェース24は、複数のカメラ10a、10b、10c、10dによって撮像された画像を表す画像情報を、それぞれのカメラ10a、10b、10c、10dから受信する。また、通信インタフェース24は、運転支援装置から運転支援情報を受信する。また、通信インタフェース24は、プロセッサ22によって出力された合成画像、又は合成画像に運転支援情報を重畳した画像を表す画像情報を表示装置に送信する。通信インタフェース24は、物理コネクタ、無線通信機等とすることができる。物理コネクタには、電気コネクタ、光コネクタ、及び電磁コネクタが含まれる。また、無線通信機には、Bluetooth(登録商標)及びIEEE802.11を含む各規格に準拠する無線通信機、並びにアンテナが含まれる。   The communication interface 24 receives, from each of the cameras 10a, 10b, 10c, and 10d, image information representing an image captured by the plurality of cameras 10a, 10b, 10c, and 10d. Further, the communication interface 24 receives driving support information from the driving support device. In addition, the communication interface 24 transmits to the display device image information representing the composite image output by the processor 22 or an image in which driving assistance information is superimposed on the composite image. The communication interface 24 can be a physical connector, a wireless communication device, or the like. Physical connectors include electrical connectors, optical connectors, and electromagnetic connectors. The wireless communication device includes a wireless communication device conforming to each standard including Bluetooth (registered trademark) and IEEE 802.11, and an antenna.

表示装置30は、通信インタフェース31、表示用プロセッサ32、表示パネル33等を含んで構成される。   The display device 30 includes a communication interface 31, a display processor 32, a display panel 33, and the like.

通信インタフェース31は、画像処理装置20から通信インタフェース24を介して合成画像、又は合成画像に運転支援情報を重畳した画像を表す画像情報を受信する。通信インタフェース31は、通信インタフェース24と同様に、物理コネクタ、無線通信機等とすることができる。   The communication interface 31 receives, from the image processing device 20 via the communication interface 24, a composite image or image information representing an image in which driving assistance information is superimposed on the composite image. The communication interface 31, like the communication interface 24, can be a physical connector, a wireless communication device, or the like.

表示用プロセッサ32は、通信インタフェース31によって受信した画像情報を表示パネル33に表示させる。   The display processor 32 causes the display panel 33 to display the image information received by the communication interface 31.

続いて、第1の実施形態の画像処理システム1の画像処理方法について、図3を参照して説明する。   Next, an image processing method of the image processing system 1 according to the first embodiment will be described with reference to FIG.

まず、カメラ10a、10b、10c、10dは、移動体4の周辺の被写体をそれぞれ撮像して画像Ia、Ib、Ic、Idを生成する(ステップS11)。   First, the cameras 10a, 10b, 10c, and 10d each capture an image of a subject around the moving body 4 and generate images Ia, Ib, Ic, and Id (step S11).

ステップS11で、画像Ia、Ib、Ic、Idが生成されると、画像処理装置20の取得部21が画像Ia、Ib、Ic、Idをそれぞれ表す画像情報をそれぞれのカメラ10a、10b、10c、10dから取得する(ステップS12)。   When the images Ia, Ib, Ic, and Id are generated in step S11, the acquisition unit 21 of the image processing device 20 outputs the image information representing the images Ia, Ib, Ic, and Id to the respective cameras 10a, 10b, 10c, and Obtained from 10d (step S12).

ステップS12で画像情報を取得すると、プロセッサ22は、画像Ia、Ib、Ic、Idを構成する画素の明るさに基づいて、各画像の明るさ情報を算出する(ステップS13)。   After acquiring the image information in step S12, the processor 22 calculates the brightness information of each image based on the brightness of the pixels constituting the images Ia, Ib, Ic, Id (step S13).

ステップS13で明るさ情報が算出されると、プロセッサ22は、各画像の明るさ情報差が第3の閾値以下となるように少なくとも1つの画像を構成する画素の明るさを変更することによって画像の明るさ情報を調整する(ステップS14)。   When the brightness information is calculated in step S13, the processor 22 changes the brightness of at least one pixel constituting the image so that the brightness information difference between the images is equal to or less than the third threshold value. Is adjusted (step S14).

ステップS14で明るさ情報が調整されると、プロセッサ22は、明るさ情報が調整された複数の画像についてそれぞれ彩度情報を算出する(ステップS15)。   When the brightness information is adjusted in step S14, the processor 22 calculates saturation information for each of the plurality of images whose brightness information has been adjusted (step S15).

ステップS15で彩度情報が算出されると、複数の画像の彩度情報の差が第1の閾値以下であるか否かを判定する(ステップS16)。   When the saturation information is calculated in step S15, it is determined whether or not the difference between the saturation information of the plurality of images is equal to or less than a first threshold (step S16).

ステップS16で複数の画像についての彩度情報の差が第1の閾値より大きいと判定されると、複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させる(ステップS17)。具体的には、画像Ia、Ib、Ic、Idのうち最も低い彩度情報を有する第1の画像との差が第1の閾値以下となるよう、第1の画像とは異なる第2の画像それぞれを構成する画素の彩度を低下させる。   If it is determined in step S16 that the difference between the saturation information of the plurality of images is larger than the first threshold, the saturation of the pixels forming at least one of the plurality of images is reduced (step S17). Specifically, a second image different from the first image such that a difference from the first image having the lowest saturation information among the images Ia, Ib, Ic, and Id is equal to or less than a first threshold. The saturation of the pixels constituting each is reduced.

ステップS17で画素の彩度を低下させることによって、複数の画像についての彩度情報の差が第1の閾値以下とされると、プロセッサ22は、複数の画像を合成して合成画像を生成する(ステップS18)。このとき、プロセッサ22は合成画像に運転支援装置から受信した、駐車する際の目標駐車位置、予想進路線、後退開始位置等を含む運転支援情報を重畳させた画像を生成してもよい。   When the difference in the saturation information of the plurality of images is reduced to the first threshold value or less by reducing the saturation of the pixel in step S17, the processor 22 combines the plurality of images to generate a combined image. (Step S18). At this time, the processor 22 may generate an image in which the driving assistance information received from the driving assistance device, including the target parking position for parking, the predicted course line, the retreat start position, and the like, received from the driving assistance device are superimposed.

ステップS18で合成画像又は合成画像に運転支援情報を重畳した画像が生成されると、プロセッサ22は、生成された画像を表す画像情報を出力し、通信インタフェース24を介して表示装置30に送信する(ステップS19)。   When the combined image or the image in which the driving assistance information is superimposed on the combined image is generated in step S18, the processor 22 outputs the image information representing the generated image and transmits the image information to the display device 30 via the communication interface 24. (Step S19).

ステップS19で、画像情報が表示装置30に出力されると、表示装置30は画像を表示する(ステップS20)。   When the image information is output to the display device 30 in step S19, the display device 30 displays the image (step S20).

第1の実施形態においては、カメラ10a、10b、10c、10dによって撮像された複数の画像のうちのいずれかが近赤外光によって彩度が低下していても、複数の画像それぞれの彩度情報に基づいて、少なくとも1つの画像を構成する画素の彩度を低下させるため、全ての画像の彩度情報を同程度とすることができる。そのため、これらの画像を合成することによって合成画像を生成した場合、参照者は領域ごとに彩りについての差異を感じることなく画像を参照することができる。   In the first embodiment, even if the saturation of one of the plurality of images captured by the cameras 10a, 10b, 10c, and 10d is reduced by near-infrared light, the saturation of each of the plurality of images is reduced. Since the saturation of at least one pixel constituting the image is reduced based on the information, the saturation information of all the images can be made the same. Therefore, when a synthesized image is generated by synthesizing these images, the viewer can refer to the images without feeling a difference in coloring for each region.

また、第1の実施形態においては、明るさ情報の差が第3の閾値以下となるよう調整された複数の画像について、いずれか1つの画像の彩度を低下させる。そのため、例えば、近赤外光を多く含む光を発光する街灯によって、一部の画像のみが明るくなっている場合に、全ての画像の明るさが参照する者の目からみて同程度となるように調整され、さらに彩度情報を同程度とすることができる。夜間や夕方において、近赤外光を多く含むハロゲンライト等の街灯等により複数のカメラ10a、10b、10c、10dによる撮像範囲の一部のみが照射されていた場合、その撮像範囲にある被写体が撮像された画像は、他の画像より明るく、また彩度が低下している。そのため、複数の画像について、上述のように明るさ情報が調整されて、さらに彩度情報が同程度とされると、これらの画像を合成することによって合成画像が生成された場合、合成画像を参照する者は、明るさについても鮮やかさについても領域ごとに差異を感じることなく、画像を参照することができる。   In the first embodiment, the saturation of any one of the plurality of images adjusted so that the difference in the brightness information is equal to or less than the third threshold is reduced. Therefore, for example, when only some of the images are brightened by a streetlight that emits light including a large amount of near-infrared light, the brightness of all the images is substantially the same as seen from the eyes of the reference person. And the saturation information can be made comparable. At night or in the evening, when only a part of the imaging range of the plurality of cameras 10a, 10b, 10c, and 10d is illuminated by a streetlight such as a halogen light containing a large amount of near-infrared light, the subject in the imaging range is The captured image is brighter than other images and has a lower saturation. Therefore, when the brightness information is adjusted for a plurality of images as described above, and the saturation information is further set to the same level, when a synthesized image is generated by synthesizing these images, the synthesized image is The referring person can refer to the image without feeling any difference in brightness and vividness between the regions.

以下、本発明の第2の実施形態について、図面を参照して説明する。   Hereinafter, a second embodiment of the present invention will be described with reference to the drawings.

第2の実施形態に係る画像処理システム2は、図4に示すように、第1の実施形態に係る画像処理システム1と同様に、カメラ10a、10b、10c、10d、画像処理装置20、表示装置30等を含んで構成される。また、画像処理システム2は、第1の実施形態に係る画像処理システム2と同様に移動体4に搭載される。また、画像処理システム2は、カメラ10a、10b、10c、10dの撮像範囲を近赤外光によりそれぞれ照射する照明装置40a、40b、40c、40dをさらに備える点で第1の実施形態に係る画像処理システム2と異なる。以降の説明では、照明装置40a、40b、40c、40dのうち任意の照明装置を「照明装置40」という。   As shown in FIG. 4, the image processing system 2 according to the second embodiment includes cameras 10a, 10b, 10c, and 10d, an image processing device 20, and a display, like the image processing system 1 according to the first embodiment. It is configured to include the device 30 and the like. Further, the image processing system 2 is mounted on the moving body 4 similarly to the image processing system 2 according to the first embodiment. Further, the image processing system 2 according to the first embodiment is different in that the image processing system 2 further includes illumination devices 40a, 40b, 40c, and 40d that irradiate the imaging ranges of the cameras 10a, 10b, 10c, and 10d with near-infrared light. Different from the processing system 2. In the following description, any lighting device among the lighting devices 40a, 40b, 40c, and 40d is referred to as “lighting device 40”.

なお、図4においては、カメラ10b、10c、10dが備える構成を省略するが、カメラ10bは第1の実施形態と同様に撮像レンズ11b、フィルタ12b、撮像素子13b、信号処理部14b等を含んで構成される。また、カメラ10cは撮像レンズ11c、フィルタ12c、撮像素子13c、信号処理部14c等を含んで構成され、カメラ10dは撮像レンズ11d、フィルタ12d、撮像素子13d、信号処理部14d等を含んで構成される。   In FIG. 4, the configurations of the cameras 10b, 10c, and 10d are omitted, but the camera 10b includes an imaging lens 11b, a filter 12b, an imaging element 13b, a signal processing unit 14b, and the like, as in the first embodiment. It consists of. The camera 10c includes an imaging lens 11c, a filter 12c, an imaging device 13c, a signal processing unit 14c, and the like. The camera 10d includes an imaging lens 11d, a filter 12d, an imaging device 13d, a signal processing unit 14d, and the like. Is done.

照明装置40は、カメラ10が撮像する範囲の少なくとも一部を、近赤外光により照射する。照明装置40は、通信インタフェース41、照射制御部42、発光部43等を含んで構成される。具体的には、照明装置40aは、通信インタフェース41a、照射制御部42a、発光部43a等を含んで構成される。また、図4においては省略されているが、照明装置40bも同様に、通信インタフェース41b、照射制御部42b、発光部43b等を含んで構成され、照明装置40cは、通信インタフェース41c、照射制御部42c、発光部43c等を含んで構成され、照明装置40dは、通信インタフェース41d、照射制御部42d、発光部43d等を含んで構成される。   The illumination device 40 irradiates at least a part of the range captured by the camera 10 with near-infrared light. The lighting device 40 includes a communication interface 41, an irradiation control unit 42, a light emitting unit 43, and the like. Specifically, the lighting device 40a includes a communication interface 41a, an irradiation control unit 42a, a light emitting unit 43a, and the like. Also, although omitted in FIG. 4, the lighting device 40b is similarly configured to include a communication interface 41b, an irradiation control unit 42b, a light emitting unit 43b, and the like. The lighting device 40c includes a communication interface 41c, an irradiation control unit The lighting device 40d includes a communication interface 41d, an irradiation control unit 42d, a light emitting unit 43d, and the like.

通信インタフェース41は、画像処理装置20から通信インタフェース24を介して送信された、照明の強度を示す強度情報を受信する。通信インタフェース41は、通信インタフェース24と同様に、物理コネクタ、無線通信機等とすることができる。   The communication interface 41 receives intensity information indicating the intensity of illumination transmitted from the image processing device 20 via the communication interface 24. The communication interface 41, like the communication interface 24, can be a physical connector, a wireless communication device, or the like.

照射制御部42は、通信インタフェース41によって受信した強度情報に基づいて、発光部43による照射の強度を制御する。   The irradiation control unit 42 controls the intensity of irradiation by the light emitting unit 43 based on the intensity information received by the communication interface 41.

発光部43は、照射制御部42によって制御された発光強度で、カメラ10が撮像する範囲を照射する。発光部43は、近赤外光の光源を含む。近赤外光の光源は、例えば、近赤外LED(light emitting diode)とすることができる。   The light emitting unit 43 irradiates the area captured by the camera 10 with the light emission intensity controlled by the irradiation control unit 42. The light emitting unit 43 includes a light source of near-infrared light. The light source of the near-infrared light can be, for example, a near-infrared LED (light emitting diode).

第2の実施形態において、画像処理装置20のプロセッサ22は、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像され、取得部21によって取得された複数の画像の明るさ情報の差に基づいて、照明装置40a、40b、40c、40dの強度を制御する。   In the second embodiment, the processor 22 of the image processing device 20 captures images using the plurality of cameras 10a, 10b, 10c, and 10d, respectively, based on the difference in brightness information of the plurality of images acquired by the acquisition unit 21. And the intensity of the lighting devices 40a, 40b, 40c, 40d.

具体的には、プロセッサ22は、複数の画像の明るさ情報の差が第3の閾値以下となるように、照明装置40a、40b、40c、40dの強度を決定する。そして、プロセッサ22は、各照明装置40a、40b、40c、40dについて決定した強度をそれぞれ表す強度情報を、通信インタフェース24を介してそれぞれの照明装置40a、40b、40c、40dに送信する。   Specifically, the processor 22 determines the intensities of the lighting devices 40a, 40b, 40c, and 40d such that the difference between the brightness information of the plurality of images is equal to or less than a third threshold. Then, the processor 22 transmits intensity information representing the intensity determined for each of the lighting devices 40a, 40b, 40c, and 40d to each of the lighting devices 40a, 40b, 40c, and 40d via the communication interface 24.

第2の実施形態におけるその他の構成、作用は第1の実施形態と同様なので、同一または対応する構成要素には、同一参照符号を付して説明を省略する。   Other configurations and operations in the second embodiment are the same as those in the first embodiment. Therefore, the same or corresponding components are denoted by the same reference characters and description thereof is omitted.

続いて、第2の実施形態の画像処理システム2の画像処理方法について、図5を参照して説明する。   Next, an image processing method of the image processing system 2 according to the second embodiment will be described with reference to FIG.

まず、カメラ10a、10b、10c、10dは、移動体4の周辺の被写体をそれぞれ撮像して画像Ia1、Ib1、Ic1、Id1を生成する(ステップS31)。   First, the cameras 10a, 10b, 10c, and 10d each capture an image of a subject around the moving body 4 to generate images Ia1, Ib1, Ic1, and Id1 (step S31).

ステップS11で、画像Ia1、Ib1、Ic1、Id1が生成されると、画像処理装置20の取得部21が画像Ia1、Ib1、Ic1、Id1をそれぞれ表す画像情報をそれぞれのカメラ10a、10b、10c、10dから取得する(ステップS32)。   When the images Ia1, Ib1, Ic1, and Id1 are generated in step S11, the acquisition unit 21 of the image processing device 20 outputs image information representing the images Ia1, Ib1, Ic1, and Id1 to the cameras 10a, 10b, and 10c, respectively. 10d (step S32).

ステップS12で画像情報を取得すると、プロセッサ22は、画像Ia1、Ib1、Ic1、Id1を構成する画素の明るさに基づいて、各画像の明るさ情報を算出する(ステップS33)。   After acquiring the image information in step S12, the processor 22 calculates the brightness information of each image based on the brightness of the pixels constituting the images Ia1, Ib1, Ic1, and Id1 (step S33).

ステップS33で明るさ情報が算出されると、プロセッサ22は、各画像の明るさ情報の差が第3の閾値以下となるように、各照明装置40a、40b、40c、40dの強度を決定する(ステップS34)。   When the brightness information is calculated in step S33, the processor 22 determines the intensity of each of the lighting devices 40a, 40b, 40c, and 40d such that the difference between the brightness information of each image is equal to or less than a third threshold. (Step S34).

ステップS34で強度が決定されると、プロセッサ22は、強度を表す強度情報を照明装置40a、40b、40c、40dに送信する(ステップS35)。   When the intensity is determined in step S34, the processor 22 transmits intensity information representing the intensity to the lighting devices 40a, 40b, 40c, and 40d (step S35).

ステップS35で強度情報が送信されると、照明装置40a、40b、40c、40dは、強度情報に基づいて、それぞれカメラ10a、10b、10c、10dの撮像範囲の少なくとも一部を近赤外光により照射する(ステップS36)。   When the intensity information is transmitted in step S35, the lighting devices 40a, 40b, 40c, and 40d respectively cause at least a part of the imaging range of each of the cameras 10a, 10b, 10c, and 10d to emit near-infrared light based on the intensity information. Irradiation is performed (step S36).

ステップS36でカメラ10a、10b、10c、10dの撮像範囲の少なくとも一部が近赤外光により照射されている状態で、カメラ10a、10b、10c、10dは、ふたたび移動体4の周辺の被写体をそれぞれ撮像して画像Ia2、Ib2、Ic2、Id2を生成する(ステップS37)。上述のステップS33〜S36の処理により、ここで生成された画像Ia2、Ib2、Ic2、Id2の明るさ情報の差は第3の閾値以下となっている。   In a state where at least a part of the imaging range of the cameras 10a, 10b, 10c, and 10d is irradiated with the near-infrared light in step S36, the cameras 10a, 10b, 10c, and 10d re-examine the objects around the moving body 4. Images are respectively captured to generate images Ia2, Ib2, Ic2, and Id2 (step S37). By the processing in steps S33 to S36 described above, the difference between the brightness information of the images Ia2, Ib2, Ic2, and Id2 generated here is equal to or smaller than the third threshold.

ステップS37で画像Ia2、Ib2、Ic2、Id2が生成されると、取得部21は生成された画像Ia2、Ib2、Ic2、Id2を取得する(ステップS38)。   When the images Ia2, Ib2, Ic2, Id2 are generated in step S37, the obtaining unit 21 obtains the generated images Ia2, Ib2, Ic2, Id2 (step S38).

画像Ia2、Ib2、Ic2、Id2が取得されると、プロセッサ22はステップS39〜S44において、第1の実施形態のステップS15〜S20と同様の処理を行う。   When the images Ia2, Ib2, Ic2, and Id2 are obtained, the processor 22 performs the same processing in steps S39 to S44 as in steps S15 to S20 of the first embodiment.

以上、説明したように、第2の実施形態においては、複数のカメラ10a、10b、10c、10dによって撮像された複数の画像のうちのいずれかが近赤外光によって彩度が低下していても、複数の画像それぞれの彩度情報に基づいて、少なくとも1つの画像を構成する画素の彩度を低下させるため、全ての画像の彩度情報を同程度とすることができる。そのため、これらの画像を合成することによって合成画像を生成した場合、参照者は領域ごとに彩りについての差異を感じることなく画像を参照することができるという第1の実施形態と同様の効果を奏する。   As described above, in the second embodiment, one of the plurality of images captured by the plurality of cameras 10a, 10b, 10c, and 10d has a reduced saturation due to near-infrared light. Also, since the saturation of the pixels constituting at least one image is reduced based on the saturation information of each of the plurality of images, the saturation information of all the images can be made the same. Therefore, when a combined image is generated by combining these images, the same effect as in the first embodiment can be obtained in that the referrer can refer to the image without feeling a difference in coloring for each region. .

また、第2の実施形態においては、複数のカメラ10a、10b、10c、10dによってそれぞれ撮像された複数の画像の明るさ情報に基づいて、複数のカメラ10a、10b、10c、10dの撮像範囲の明るさが同程度となるように照明装置40a、40b、40c、40dを制御する。そのため、夜間や夕方において、照明装置40a、40b、40c、40dは、街灯等により複数のカメラ10a、10b、10c、10dによる撮像範囲の一部のみが照射されていた場合、照明装置40a、40b、40c、40dが制御されている状態で複数のカメラ10a、10b、10c、10dによってそれぞれ撮像された複数の画像は明るさ情報が同程度となっている。このような複数の画像において、彩度情報が同程度とされると、これらの画像を合成することによって合成画像を生成した場合、合成画像を参照する者は、明るさについても鮮やかさについても領域ごとに差異を感じることなく、画像を参照することができる。   In the second embodiment, based on brightness information of a plurality of images respectively captured by the plurality of cameras 10a, 10b, 10c, and 10d, the imaging ranges of the plurality of cameras 10a, 10b, 10c, and 10d are determined. The lighting devices 40a, 40b, 40c, and 40d are controlled so that the brightness is substantially the same. Therefore, at night or in the evening, the illuminating devices 40a, 40b, 40c, and 40d emit light when only a part of the imaging range of the plurality of cameras 10a, 10b, 10c, and 10d is illuminated by street lights or the like. , 40c, and 40d are controlled, and the plurality of images respectively captured by the plurality of cameras 10a, 10b, 10c, and 10d have substantially the same brightness information. If the saturation information is the same in such a plurality of images, if a synthesized image is generated by synthesizing these images, a person who refers to the synthesized image will not be able to determine both the brightness and the vividness. An image can be referred to without feeling a difference for each region.

続いて、本発明の第3の実施形態について説明する。   Subsequently, a third embodiment of the present invention will be described.

第3の実施形態に係る画像処理システム3は、第1の実施形態に係る画像処理システム1と同様に移動体4に搭載され、撮像装置(カメラ)10a、10b、10c、10d、画像処理装置20、表示装置30等を含んで構成される。   An image processing system 3 according to the third embodiment is mounted on a moving body 4 similarly to the image processing system 1 according to the first embodiment, and includes imaging devices (cameras) 10a, 10b, 10c, 10d, and an image processing device. 20 and a display device 30.

第1の実施形態におけるプロセッサ22は、画像Ia、Ib、Ic、Idのうち最も彩度情報が低い第1の画像に第1の画像とは異なる第2の画像の彩度情報を合わせるように彩度を低下させる。第3の実施形態におけるプロセッサ22は、複数の画像それぞれの彩度情報Spa,Spb,Spc,Spdのうちいずれか1つ以上が、所定の閾値(第2の閾値)以下である場合、画像Ia、Ib、Ic、Idがそれぞれモノクロ画像となるように各画像を構成する画素の彩度を低下させる。この点で、第3の実施形態におけるプロセッサ22は、第1の実施形態におけるプロセッサ22と異なっている。   The processor 22 according to the first embodiment adjusts the saturation information of the second image different from the first image to the first image having the lowest saturation information among the images Ia, Ib, Ic, and Id. Decrease saturation. The processor 22 according to the third embodiment determines that if any one or more of the saturation information Spa, Spb, Spc, and Spd of each of a plurality of images is equal to or less than a predetermined threshold (second threshold), the image Ia , Ib, Ic, and Id become the monochrome images, respectively. In this point, the processor 22 in the third embodiment is different from the processor 22 in the first embodiment.

第3の実施形態におけるその他の構成、作用は第1の実施形態と同様なので、同一または対応する構成要素には、同一参照符号を付して説明を省略する。   Other configurations and operations in the third embodiment are the same as those in the first embodiment, and thus the same or corresponding components are denoted by the same reference characters and description thereof will be omitted.

以上、説明したように、第3の実施形態においては、カメラ10a,10b,10c,10dによってそれぞれ撮像された複数の画像のうちのいずれかが近赤外光によって彩度が低下していても、複数の画像それぞれの彩度情報Spa,Spb,Spc,Spdに基づいて、少なくとも1つの画像を構成する画素の彩度を低下させる。そのため、全ての画像の彩度情報を同程度とすることができる。したがって、これらの画像を合成することによって合成画像が生成された場合、合成画像を参照する者は違和感を少なくして、画像を参照することができるという第1の実施形態と同様の効果を奏する。   As described above, in the third embodiment, even if any one of the plurality of images captured by the cameras 10a, 10b, 10c, and 10d has a reduced saturation due to near-infrared light. The color saturation of pixels constituting at least one image is reduced based on the saturation information Spa, Spb, Spc, Spd of each of the plurality of images. Therefore, the saturation information of all the images can be made equal. Therefore, when a synthesized image is generated by synthesizing these images, an effect similar to that of the first embodiment is obtained in that a person who refers to the synthesized image can refer to the image with less discomfort. .

また、第3の実施形態においては、複数の画像Ia、Ib、Ic、Idそれぞれの彩度情報Spa,Spb,Spc,Spdのうちいずれか1つ以上が、所定の閾値(第2の閾値)以下である場合、カメラ10a,10b,10c,10dによってそれぞれ撮像された複数の画像の全てをモノクロ画像とする。そのため、複数の画像の彩度情報の差をより一層少なくすることができる。したがって、これらの画像を合成することによって合成画像が生成された場合、合成画像を参照する者は、彩度の違いによる、参照する者の違和感をより一層少なくすることができる。   In the third embodiment, at least one of the saturation information Spa, Spb, Spc, and Spd of each of the plurality of images Ia, Ib, Ic, and Id is set to a predetermined threshold (a second threshold). In the following cases, all of the plurality of images respectively captured by the cameras 10a, 10b, 10c, and 10d are monochrome images. Therefore, the difference between the saturation information of a plurality of images can be further reduced. Therefore, when a combined image is generated by combining these images, a person who refers to the combined image can further reduce the discomfort of the referring person due to a difference in saturation.

上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態及び実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態及び実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。   Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the present invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments and examples, and various modifications and changes can be made without departing from the scope of the claims. For example, a plurality of constituent blocks described in the embodiment and the examples can be combined into one, or one constituent block can be divided.

上述の実施形態においては、画像処理システム1は4つのカメラ10a、10b、10c、10dを備えるとしたが、カメラ10の数は4つに限られず、2つ、3つ、又は5つ以上であればよい。すなわち、画像処理システム1は複数のカメラを備えることができる。   In the above-described embodiment, the image processing system 1 includes the four cameras 10a, 10b, 10c, and 10d. However, the number of the cameras 10 is not limited to four, but may be two, three, or five or more. I just need. That is, the image processing system 1 can include a plurality of cameras.

1 画像処理システム
4 移動体
10,10a,10b,10c,10d カメラ
11,11a,11b,11c,11d 撮像レンズ
12,12a,12b,12c,12d フィルタ
13,13a,13b,13c,13d 撮像素子
14,14a,14b,14c,14d 信号処理部
15,15a,15b,15c,15d 通信インタフェース
20 画像処理装置
21 取得部
22 プロセッサ
23 メモリ
24 通信インタフェース
30 表示装置
31 通信インタフェース
32 表示用プロセッサ
33 表示パネル
40,40a,40b,40c,40d 照明装置
41,41a,41b,41c,41d 通信インタフェース
42,42a,42b,42c,42d 照射制御部
43,43a,43b,43c,43d 発光部
1 Image processing system 4 Moving object 10, 10a, 10b, 10c, 10d Camera 11, 11a, 11b, 11c, 11d Imaging lens 12, 12a, 12b, 12c, 12d Filter 13, 13a, 13b, 13c, 13d Image sensor 14 , 14a, 14b, 14c, 14d Signal processing unit 15, 15a, 15b, 15c, 15d Communication interface 20 Image processing device 21 Acquisition unit 22 Processor 23 Memory 24 Communication interface 30 Display device 31 Communication interface 32 Display processor 33 Display panel 40 , 40a, 40b, 40c, 40d Lighting device 41, 41a, 41b, 41c, 41d Communication interface 42, 42a, 42b, 42c, 42d Irradiation control unit 43, 43a, 43b, 43c, 43d Light emitting unit

Claims (13)

可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを備える複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、
前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、前記複数の画像の前記彩度情報の差を所定の値を有する第1の閾値以下とするプロセッサと、
を備え
前記プロセッサは、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成する、
る画像処理装置。
An acquisition unit that transmits visible light, and acquires a plurality of images respectively captured by a plurality of cameras including a filter that selectively transmits infrared light in a predetermined wavelength range,
Calculating the saturation information of each of the plurality of images acquired by the acquisition unit; and decreasing the saturation of a pixel constituting at least one of the plurality of images based on the respective saturation information. A processor for setting a difference between the saturation information of the plurality of images to be equal to or less than a first threshold having a predetermined value ;
Equipped with a,
The processor generates the synthesized image by synthesizing the image with the reduced saturation and an image different from the at least one image of the plurality of images,
Image processing device.
前記プロセッサは、前記複数の画像のうち第1の画像の彩度情報と、前記複数の画像のうち前記第1の画像と異なる第2の画像の彩度情報との差に基づいて、前記1の画像および前記第2の画像のうち前記彩度情報が高い方の画像を構成する前記画素の彩度を低下させる請求項1に記載の画像処理装置。   The processor, based on a difference between saturation information of a first image of the plurality of images and saturation information of a second image different from the first image of the plurality of images, The image processing device according to claim 1, wherein the saturation of the pixels constituting the image having the higher saturation information of the image and the second image is reduced. 前記プロセッサは、前記第1の画像の彩度情報と、前記第2の画像の彩度情報との差が前記第1の閾値より大きい場合に、前記1の画像および前記第2の画像のうち前記彩度情報が高い方の前記画素の彩度を低下させる請求項2に記載の画像処理装置。 The processor and saturation information of the first image, when the difference between the chroma information of the second image is greater than the first threshold value, among the first image and the second image The image processing apparatus according to claim 2, wherein the saturation of the pixel having the higher saturation information is reduced. 前記プロセッサは、前記複数の画像のうち前記彩度情報が高い画像を構成する画素の彩度を低下させた画像と、前記複数の画像のうち彩度情報が低い画像とにおいて、それぞれの彩度情報の差が前記第1の閾値以下となるように、前記彩度情報が高い画像を構成する画素の彩度を低下させる請求項3に記載の画像処理装置。   The processor may include, for each of the plurality of images, the image in which the saturation information of the pixel having the high saturation information is reduced in saturation and the image in which the saturation information is low among the plurality of images, respectively. The image processing apparatus according to claim 3, wherein the saturation of pixels forming an image having high saturation information is reduced so that a difference in information is equal to or less than the first threshold. 前記プロセッサは、前記複数の画像それぞれの彩度情報のうちいずれか1つ以上が、所定の値を有する第2の閾値以下である場合、前記複数の画像の全てがモノクロ画像となるように、前記複数の画像それぞれを構成する画素の彩度を低下させる請求項1に記載の画像処理装置。   The processor, when any one or more of the saturation information of each of the plurality of images is equal to or less than a second threshold having a predetermined value, so that all of the plurality of images are monochrome images. The image processing apparatus according to claim 1, wherein the saturation of pixels constituting each of the plurality of images is reduced. 前記プロセッサは、前記取得部によって取得された複数の画像の明るさ情報の差が所定の値を有する第3の閾値以下となるよう調整し、前記明るさ情報が調整された複数の画像の彩度情報を算出する請求項1から5のいずれか一項に記載の画像処理装置。   The processor adjusts a difference between brightness information of the plurality of images acquired by the acquisition unit to be equal to or less than a third threshold having a predetermined value, and adjusts a color of the plurality of images in which the brightness information is adjusted. The image processing apparatus according to claim 1, wherein degree information is calculated. 可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを含む複数のカメラと、
前記複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、前記複数の画像の前記彩度情報の差を所定の値を有する第1の閾値以下とし、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成するプロセッサと、を含む画像処理装置と、
を備える画像処理システム。
A plurality of cameras including a filter that transmits visible light and selectively transmits infrared light in a predetermined wavelength range,
An acquisition unit that acquires a plurality of images respectively captured by the plurality of cameras, calculates saturation information of each of the plurality of images acquired by the acquisition unit, and, based on the respective saturation information, By reducing the saturation of pixels constituting at least one of the plurality of images, the difference between the saturation information of the plurality of images is set to be equal to or less than a first threshold having a predetermined value, and the saturation is reduced. An image processing apparatus including: a reduced image; and a processor configured to combine a different image from the at least one image of the plurality of images to generate a combined image ;
An image processing system comprising:
前記複数のカメラの撮像範囲をそれぞれ照射する複数の照明装置をさらに備え、
前記プロセッサは、前記取得部によって取得された複数の画像それぞれの明るさ情報を算出し、前記明るさ情報に基づいて、前記複数の照明装置を制御する請求項7に記載の画像処理システム。
Further comprising a plurality of lighting devices that respectively illuminate the imaging range of the plurality of cameras,
The image processing system according to claim 7, wherein the processor calculates brightness information of each of the plurality of images acquired by the acquisition unit, and controls the plurality of lighting devices based on the brightness information.
前記プロセッサは、前記複数の画像それぞれの明るさ情報の差が前記第1の閾値以下であるかを判定し、前記差が前記第1の閾値より大きい場合、前記差が前記第1の閾値以下となるように前記複数の照明装置の少なくとも1つの照明装置が前記撮像範囲を照射するよう制御し、前記差が前記第1の閾値以下である場合、前記複数の照明装置のいずれもが前記撮像範囲を照射しないよう制御する請求項8に記載の画像処理システム。 Wherein the processor difference in each of the plurality of image brightness information is determined by whether more than the first threshold value, if the difference is greater than the first threshold value, the difference is less than the first threshold value At least one of the plurality of lighting devices is controlled so as to irradiate the imaging range, and when the difference is equal to or less than the first threshold, all of the plurality of lighting devices perform the imaging. The image processing system according to claim 8, wherein control is performed so as not to irradiate the range. 前記照明装置は、所定の波長範囲の赤外光を含む光を発光する請求項8又は9に記載の画像処理システム。   The image processing system according to claim 8, wherein the illumination device emits light including infrared light in a predetermined wavelength range. 前記プロセッサは、前記画素の彩度を低下させた場合、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成する請求項7から10のいずれか一項に記載の画像処理システム。   When the saturation of the pixel is reduced, the processor combines the image with the reduced saturation with an image different from the at least one image of the plurality of images to generate a combined image. The image processing system according to claim 7. 可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを有する複数のカメラと、
前記複数のカメラによってそれぞれ撮像された複数の画像を取得する取得部と、前記取得部によって取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、前記複数の画像の前記彩度情報の差を所定の値を有する第1の閾値以下とし、前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成するプロセッサと、を有する画像処理装置と、を含む画像処理システムを備える移動体。
A plurality of cameras having a filter that transmits visible light and selectively transmits infrared light in a predetermined wavelength range,
An acquisition unit that acquires a plurality of images respectively captured by the plurality of cameras, calculates saturation information of each of the plurality of images acquired by the acquisition unit, and, based on the respective saturation information, By reducing the saturation of pixels constituting at least one of the plurality of images, the difference between the saturation information of the plurality of images is set to be equal to or less than a first threshold having a predetermined value, and the saturation is reduced. A moving object including: an image processing apparatus including: a reduced image; and a processor configured to combine an image different from the at least one image among the plurality of images to generate a combined image. .
画像処理装置が実行する画像処理方法であって、
前記画像処理装置が、可視光を透過させ、且つ、所定の波長範囲の赤外光を選択的に透過させるフィルタを備える複数のカメラによってそれぞれ撮像された複数の画像を取得し、
前記画像処理装置が、前記取得された前記複数の画像それぞれの彩度情報を算出し、前記それぞれの彩度情報に基づいて、前記複数の画像のうち少なくとも1つの画像を構成する画素の彩度を低下させることによって、前記複数の画像の前記彩度情報の差を所定の値を有する第1の閾値以下とし、
前記彩度を低下させた画像と、前記複数の画像のうち前記少なくとも1つの画像とは異なる画像とを合成して合成画像を生成する、
画像処理方法。
An image processing method executed by an image processing device,
The image processing apparatus transmits visible light, and acquires a plurality of images respectively captured by a plurality of cameras including a filter that selectively transmits infrared light in a predetermined wavelength range,
The image processing apparatus calculates saturation information of each of the plurality of acquired images, and calculates a saturation of a pixel included in at least one of the plurality of images based on the saturation information. By reducing the difference between the saturation information of the plurality of images to a first threshold having a predetermined value or less,
Generating a synthesized image by synthesizing the image with the reduced saturation and an image different from the at least one image of the plurality of images;
Image processing method.
JP2016167208A 2016-08-29 2016-08-29 Image processing apparatus, image processing system, moving object, and image processing method Active JP6655504B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167208A JP6655504B2 (en) 2016-08-29 2016-08-29 Image processing apparatus, image processing system, moving object, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167208A JP6655504B2 (en) 2016-08-29 2016-08-29 Image processing apparatus, image processing system, moving object, and image processing method

Publications (2)

Publication Number Publication Date
JP2018037739A JP2018037739A (en) 2018-03-08
JP6655504B2 true JP6655504B2 (en) 2020-02-26

Family

ID=61566127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167208A Active JP6655504B2 (en) 2016-08-29 2016-08-29 Image processing apparatus, image processing system, moving object, and image processing method

Country Status (1)

Country Link
JP (1) JP6655504B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022097613A1 (en) * 2020-11-04 2022-05-12

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4815677B2 (en) * 2001-02-20 2011-11-16 ソニー株式会社 Automotive video camera system and automotive outside mirror
JP2009017020A (en) * 2007-07-02 2009-01-22 Nissan Motor Co Ltd Image processor and method for generating display image
JP4941482B2 (en) * 2009-02-17 2012-05-30 株式会社豊田中央研究所 Pseudo color image generation apparatus and program
JP6394338B2 (en) * 2014-12-04 2018-09-26 ソニー株式会社 Image processing apparatus, image processing method, and imaging system

Also Published As

Publication number Publication date
JP2018037739A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
US10166921B2 (en) Brightness and color matching video from multiple-camera system
EP3065390B1 (en) Image correction parameter output device, camera system, and correction parameter output method
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
JP4363207B2 (en) Image processing method, image processing system, and image processing apparatus
US11146760B2 (en) Imaging apparatus, imaging method, and computer readable recording medium
WO2016158376A1 (en) Image processing apparatus
US11845335B2 (en) Image capture device and associated system for monitoring a driver
WO2013118337A1 (en) Imaging device
JP6655504B2 (en) Image processing apparatus, image processing system, moving object, and image processing method
US20230140768A1 (en) Imaging element and electronic apparatus
JP7015382B2 (en) Endoscope system
US10769762B2 (en) Motor vehicle camera device with histogram spreading
JP6168024B2 (en) Captured image display device, captured image display method, and captured image display program
CN108886608B (en) White balance adjustment device, working method thereof and computer readable medium
JP2012010141A (en) Image processing apparatus
CN109076199B (en) White balance adjustment device, working method thereof and non-transitory computer readable medium
JP2012008845A (en) Image processor
WO2022030367A1 (en) Imaging device
JP6327388B2 (en) Captured image display device, captured image display method, and captured image display program
JP2003070009A (en) Imaging apparatus
JP7080724B2 (en) Light distribution control device, light projection system and light distribution control method
JP2019197948A (en) Imaging device and method for controlling the same
JP2013003482A (en) Imaging device for visible light and far-infrared light, vehicle imaging device including imaging device, and image forming method
WO2022059139A1 (en) Image display device and image display method
JP2006137383A (en) Photographing device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6655504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150