JP6502003B1 - Image correction apparatus and image correction method - Google Patents

Image correction apparatus and image correction method Download PDF

Info

Publication number
JP6502003B1
JP6502003B1 JP2019504145A JP2019504145A JP6502003B1 JP 6502003 B1 JP6502003 B1 JP 6502003B1 JP 2019504145 A JP2019504145 A JP 2019504145A JP 2019504145 A JP2019504145 A JP 2019504145A JP 6502003 B1 JP6502003 B1 JP 6502003B1
Authority
JP
Japan
Prior art keywords
image
correction
imaging
imaging target
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019504145A
Other languages
Japanese (ja)
Other versions
JPWO2020021601A1 (en
Inventor
孝一 折戸
孝一 折戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6502003B1 publication Critical patent/JP6502003B1/en
Publication of JPWO2020021601A1 publication Critical patent/JPWO2020021601A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

画像補正装置(1)は、移動する撮像対象を撮像する第1の撮像装置(21)によって得られた画像を、当該画像が形成される時間の最終の時刻に形成された画像である最終時刻画像と、上記の最終の時刻より前に形成された画像である非最終時刻画像とに分割し、最終時刻画像及び非最終時刻画像の各々を、撮像対象の位置をもとに、最終時刻画像及び非最終時刻画像の各部分が形成された際に要した露光時間毎の複数の領域に分割する分割部(10)と、各領域の輝度値を補正する補正部(12)とを有する。補正部(12)は、最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値を用いて補正し、非最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、第1の補正値と非最終時刻画像に対応する第2の補正値とを用いて補正する。   The image correction device (1) is an image obtained by the first imaging device (21) for imaging a moving imaging target, and is an image formed at the final time of the time when the image is formed. The final time image is divided into an image and a non-final time image which is an image formed before the above-mentioned final time, and each of the final time image and the non-final time image is based on the position of the imaging target And a division unit (10) for dividing into a plurality of regions for each exposure time required when each portion of the non-final time image is formed, and a correction unit (12) for correcting the luminance value of each region. The correction unit (12) sets the luminance value of the region to be corrected to the first exposure time required when the region to be corrected is formed for a plurality of regions included in the final time image. With respect to a plurality of areas included in the non-final time image, correction is performed using the correction value, and the luminance value of the area to be corrected is a second correction value corresponding to the first correction value and the non-final time image Use and to correct.

Description

本発明は、移動する撮像対象を撮像する撮像装置によって得られた画像を補正する画像補正装置及び画像補正方法に関する。   The present invention relates to an image correction apparatus and an image correction method for correcting an image obtained by an imaging apparatus for imaging a moving imaging target.

従来、移動する撮像対象がカメラで撮像された画像に生じるぶれを補正する技術が知られている。撮像対象が移動すると撮像対象の少なくとも一部の部位に対応する部分画像がひとつのフレームにおける複数の箇所の各々に含まれることになるので、ぶれは撮像対象の一部の部位の輝度値が積算されることによって生じる。例えば、特許文献1は、製鉄所における取鍋が赤外線カメラで撮像された画像に生じるぶれを補正する技術を開示している。   BACKGROUND Conventionally, there is known a technique for correcting blurring that occurs in an image captured by a camera for a moving imaging target. When the imaging target is moved, a partial image corresponding to at least a part of the imaging target is included in each of a plurality of portions in one frame, so that blurring is an integration of luminance values of a part of the imaging target It is caused by being done. For example, Patent Document 1 discloses a technique for correcting blurring that occurs in an image captured by an infrared camera with a ladle in a steel mill.

特開2017−187434号公報JP, 2017-187434, A

物流業界における撮像対象は、製鉄所における撮像対象である取鍋より速く移動し、物流業界における撮像対象の大きさは、取鍋に比べて著しく小さい。そのため、特許文献1が開示している技術を用いても、物流業界での移動する撮像対象が赤外線カメラで撮影された画像に生じるぶれを適切に補正することはできない。移動する撮像対象が赤外線カメラで撮影された画像に生じるぶれを適切に補正する技術が提供されることが要求されている。   The imaging target in the logistics industry moves faster than the ladle, which is the imaging target in a steel mill, and the size of the imaging target in the logistics industry is significantly smaller than that of the ladle. Therefore, even if the technique disclosed in Patent Document 1 is used, it is not possible to properly correct blurring that occurs in an image captured by an infrared camera as a moving imaging target in the physical distribution industry. It is required to provide a technique for appropriately correcting blurring that occurs in an image captured by an infrared camera as a moving imaging target.

本発明は、上記に鑑みてなされたものであって、移動する撮像対象が撮影された画像に生じるぶれであって輝度値の積算によって生じるぶれを適切に補正する画像補正装置を得ることを目的とする。   The present invention has been made in view of the above, and it is an object of the present invention to provide an image correction apparatus that appropriately corrects blurring that occurs in a captured image of a moving imaging target and that is generated by integration of luminance values. I assume.

上述した課題を解決し、目的を達成するために、本発明は、移動する撮像対象を撮像する第1の撮像装置によって1フレームが形成される時間に得られた画像を、上記の時間の最終の時刻に形成された画像である最終時刻画像と、上記の時間の最終の時刻より前に形成された画像である非最終時刻画像とに分割し、最終時刻画像及び非最終時刻画像の各々を、撮像対象の位置をもとに、最終時刻画像及び非最終時刻画像の各部分が形成された際に要した露光時間毎の複数の領域に分割する分割部と、分割部によって得られた最終時刻画像及び非最終時刻画像に含まれている複数の領域の各々の輝度値を補正する補正部とを有する。補正部は、最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値を用いて補正し、非最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値と非最終時刻画像に対応する第2の補正値とを用いて補正する。   In order to solve the problems described above and to achieve the object, the present invention provides an image obtained at a time when one frame is formed by a first imaging device for imaging a moving imaging object, The image is divided into a final time image which is an image formed at the time of 1 and a non final time image which is an image formed before the final time of the above time, and each of the final time image and the non final time image is divided A division unit for dividing into a plurality of areas for each exposure time required when each portion of the final time image and the non-final time image is formed based on the position of the imaging target, and the final obtained by the division unit And a correction unit configured to correct the luminance value of each of a plurality of areas included in the time image and the non-final time image. The correction unit sets, for a plurality of areas included in the final time image, the luminance value of the area to be corrected, and the first correction value corresponding to the exposure time required when the area to be corrected is formed. For a plurality of areas included in the non-final time image, the correction is performed using the luminance value of the area to be corrected, and the first correction corresponding to the exposure time required when the area to be corrected is formed Correction is performed using the value and a second correction value corresponding to the non-final time image.

本発明にかかる画像補正装置は、移動する撮像対象が撮影された画像に生じるぶれであって輝度値の積算によって生じるぶれを適切に補正することができるという効果を奏する。   The image correction apparatus according to the present invention has an effect that it is possible to appropriately correct a shake that occurs in a captured image of a moving imaging target and that is generated by integration of luminance values.

実施の形態1にかかる撮像システムの構成を示す図FIG. 1 shows a configuration of an imaging system according to a first embodiment. 実施の形態1にかかる撮像システムが有する第1の撮像装置及び第2の撮像装置の各々が移動する撮像対象を撮像することによって得られた画像の例を示す図A diagram showing an example of an image obtained by imaging an imaging target on which each of a first imaging device and a second imaging device included in the imaging system according to the first embodiment moves 実施の形態1にかかる画像補正装置の構成を示す図FIG. 1 shows a configuration of an image correction apparatus according to a first embodiment. 実施の形態1にかかる画像補正装置が有する分割部が有する機能を説明するための図Diagram for explaining the function of the division unit of the image correction apparatus according to the first embodiment 実施の形態1にかかる画像補正装置が有する補正値記憶部に記憶されている第1の補正値を説明するための図The figure for demonstrating the 1st correction value memorized by the correction value storage part which the image correction device concerning a 1st embodiment has. 実施の形態1にかかる画像補正装置の動作の手順を示すフローチャートA flowchart showing the procedure of the operation of the image correction apparatus according to the first embodiment 実施の形態1にかかる画像補正装置が有する補正部が補正を行うことによって得た輝度値の分布を模式的に示す図FIG. 5 schematically shows the distribution of luminance values obtained by performing correction by the correction unit of the image correction apparatus according to the first embodiment. 実施の形態1にかかる画像補正装置が行う補正を説明するための図FIG. 6 is a diagram for explaining correction performed by the image correction apparatus according to the first embodiment. 実施の形態2にかかる画像補正装置が有する分割部が有する機能を説明するための図Diagram for explaining the function of the division unit of the image correction apparatus according to the second embodiment 実施の形態2にかかる画像補正装置が有する補正値記憶部に記憶されている第2の補正値を説明するための図The figure for demonstrating the 2nd correction value memorized by the correction value storage part which the image correction device concerning a 2nd embodiment has. 実施の形態3にかかる画像補正装置の構成を示す図FIG. 6 is a diagram showing the configuration of an image correction apparatus according to a third embodiment. 実施の形態3にかかる画像補正装置が有する補間画像生成部の機能を説明するための図Diagram for explaining the function of the interpolation image generation unit of the image correction device according to the third embodiment 実施の形態1から実施の形態3にかかる画像補正装置がエンコーダと制御装置に接続されている状況を示す図The figure which shows the condition where the image correction apparatus concerning Embodiment 1 to Embodiment 3 is connected to an encoder and a control apparatus.

以下に、本発明の実施の形態にかかる画像補正装置及び画像補正方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Hereinafter, an image correction apparatus and an image correction method according to an embodiment of the present invention will be described in detail based on the drawings. The present invention is not limited by the embodiment.

実施の形態1.
図1は、実施の形態1にかかる撮像システム50の構成を示す図である。撮像システム50は、画像を補正する画像補正装置1を有する。画像補正装置1の詳細については、後述する。撮像システム50は、移動する撮像対象23を第1のフレームレートで撮像する第1の撮像装置21と、第1の撮像装置21が撮像対象23を撮像する際の第1のフレームレートより高い第2のフレームレートで撮像対象23を撮像する第2の撮像装置22とを更に有する。第1の撮像装置21と第2の撮像装置22とは、並べられて配置されている。図1には、撮像対象23も示されている。フレームレートは、単位時間当たりに撮像によって得られるフレームの個数を意味する。
Embodiment 1
FIG. 1 is a diagram showing the configuration of an imaging system 50 according to the first embodiment. The imaging system 50 includes an image correction device 1 that corrects an image. Details of the image correction device 1 will be described later. The imaging system 50 has a first imaging device 21 for imaging the moving imaging object 23 at a first frame rate, and a first frame rate higher than the first frame rate at which the first imaging device 21 images the imaging object 23 And a second imaging device 22 for imaging the imaging target 23 at a frame rate of 2. The first imaging device 21 and the second imaging device 22 are arranged side by side. The imaging object 23 is also shown in FIG. The frame rate means the number of frames obtained by imaging per unit time.

第1の撮像装置21の例は、赤外線カメラである。第2の撮像装置22の例は、可視光カメラである。第1のフレームレートの例は60fpsであり、第2のフレームレートの例は1200fpsである。なお、説明の便宜上、実施の形態1では、第1のフレームレートが60fpsであって、第2のフレームレートが180fpsであることを想定する。実施の形態1では、第1の撮像装置21の画角と第2の撮像装置22の画角とは、同じである。   An example of the first imaging device 21 is an infrared camera. An example of the second imaging device 22 is a visible light camera. An example of the first frame rate is 60 fps and an example of the second frame rate is 1200 fps. For convenience of explanation, in the first embodiment, it is assumed that the first frame rate is 60 fps and the second frame rate is 180 fps. In the first embodiment, the angle of view of the first imaging device 21 and the angle of view of the second imaging device 22 are the same.

撮像対象23は、ベルトコンベア24に載置されている。図1には、ベルトコンベア24も示されている。ベルトコンベア24を構成するベルトが動作することにより、撮像対象23は、矢印25の向きに移動する。撮像対象23の例は、ホットメルト工程によって製函された段ボールである。実施の形態1では、撮像対象23が等速直線運動することを想定する。   The imaging target 23 is placed on the belt conveyor 24. A belt conveyor 24 is also shown in FIG. The imaging target 23 moves in the direction of the arrow 25 by the operation of the belt that constitutes the belt conveyor 24. An example of the imaging target 23 is a corrugated cardboard made by a hot melt process. In the first embodiment, it is assumed that the imaging target 23 performs constant velocity linear motion.

図2は、実施の形態1にかかる撮像システム50が有する第1の撮像装置21及び第2の撮像装置22の各々が移動する撮像対象23を撮像することによって得られた画像の例を示す図である。具体的には、図2(A)は、第1の撮像装置21が移動する撮像対象23を撮像することによって得られた画像の例を示している。図2(B)は、第2の撮像装置22が移動する撮像対象23を撮像することによって得られた画像の例を示している。なお、図2以降の各図では、図13を除き、説明の便宜上、撮像対象23は三角形で示されている。以下では、撮像対象23は三角形であることを想定する。   FIG. 2 is a view showing an example of an image obtained by imaging the imaging target 23 on which each of the first imaging device 21 and the second imaging device 22 included in the imaging system 50 according to the first embodiment moves. It is. Specifically, FIG. 2A shows an example of an image obtained by imaging the imaging target 23 on which the first imaging device 21 moves. FIG. 2B illustrates an example of an image obtained by imaging the imaging target 23 on which the second imaging device 22 moves. In each of the drawings after FIG. 2, except for FIG. 13, for convenience of explanation, the imaging target 23 is shown by a triangle. In the following, it is assumed that the imaging target 23 is a triangle.

第2の撮像装置22は、図2(B)に示す通り、撮像の最初の時刻から1/180秒後、2/180秒後及び3/180秒後の各々の時刻において、撮像対象23の画像を得る。他方、第1の撮像装置21は、図2(A)に示す通り、撮像の最初の時刻から1/60秒後、すなわち3/180秒後において、撮像対象23の画像を得る。   As shown in FIG. 2 (B), the second imaging device 22 takes the imaging object 23 at each time after 1/180 seconds, 2/180 seconds and 3/180 seconds from the first time of imaging. Get an image. On the other hand, as shown in FIG. 2A, the first imaging device 21 obtains an image of the imaging target 23 1/60 seconds after the first time of imaging, that is, 3/180 seconds.

撮像の最初の時刻から1/60秒後、すなわち3/180秒後までの時間は、第1の撮像装置21によって1フレームが形成される時間である。つまり、図2の撮像の最初の時刻から3/180秒後の時刻は、第1の撮像装置21によって1フレームが形成される時間の最終の時刻である。すなわち、図2(A)の撮像の最初の時刻から3/180秒後の画像は、第1の撮像装置21によって1フレームが形成される時間に得られた画像である。なお、図2(A)及び図2(B)の撮像の最初の時刻に記載されている撮像対象23の画像は、第2の撮像装置22が撮像の最初の時刻に撮像対象23を撮像することによって得られた画像である。   The time 1/60 seconds after the first time of imaging, that is, the time after 3/180 seconds, is the time when one frame is formed by the first imaging device 21. That is, the time 3/180 seconds after the first time of imaging in FIG. 2 is the last time of the time when one frame is formed by the first imaging device 21. That is, the image 3/180 seconds after the first time of imaging shown in FIG. 2A is an image obtained at the time when one frame is formed by the first imaging device 21. Note that the image of the imaging target 23 described at the first time of imaging in FIGS. 2A and 2B is such that the second imaging device 22 images the imaging target 23 at the first time of imaging It is an image obtained by

上述の通り、実施の形態1では、第1のフレームレートが60fpsであって、第2のフレームレートが180fpsである。つまり、第1の撮像装置21が1枚の画像を得る際の時間は、第2の撮像装置22が1枚の画像を得る際の時間の3倍である。図1を用いて説明したように、撮像対象23は移動している。そのため、図2(A)の撮像の最初の時刻から1/60秒後の画像が示す通り、第1の撮像装置21は、撮像の最初の時刻から1/60秒後において、撮像の最初の時刻から1/60秒後の位置の撮像対象23の画像を得るだけでなく、撮像の最初の時刻から1/60秒後までの各位置の撮像対象23を示すぶれ画像23aを得る。更に言うと、第1の撮像装置21は、撮像の最初の時刻から1/60秒後において、撮像対象23の画像を得ると共に、撮像の最初の時刻から1/60秒後までに移動する撮像対象23の一部の部位の輝度値が積算されることによって生じるぶれ画像23aを得る。   As described above, in the first embodiment, the first frame rate is 60 fps and the second frame rate is 180 fps. That is, the time when the first imaging device 21 obtains one image is three times the time when the second imaging device 22 obtains one image. As described with reference to FIG. 1, the imaging target 23 is moving. Therefore, as shown by the image 1/60 sec after the first time of imaging in FIG. 2A, the first imaging device 21 is the first imaging after 1/60 sec from the first time of imaging. Not only an image of the imaging target 23 at a position 1/60 seconds after the time is obtained, but also a blurred image 23a showing the imaging target 23 at each position up to 1/60 second after the first time of imaging is obtained. Furthermore, the first imaging device 21 obtains an image of the imaging target 23 at 1/60 seconds after the first time of imaging and moves to 1/60 seconds after the first time of imaging. A blurred image 23a resulting from the integration of the luminance values of a part of the object 23 is obtained.

第2の撮像装置22の使用が禁止されている場合がある。上述の通り、第1の撮像装置21は、撮像の最初の時刻から1/60秒後において、撮像対象23の画像を得ると共にぶれ画像23aを得る。ぶれ画像23aは、撮像の最初の時刻から1/60秒後において第2の撮像装置22では得られない画像である。第1の撮像装置21が撮像の最初の時刻から1/60秒後に得る撮像対象23の画像は、移動する撮像対象23の一部の部位の輝度値が積算されている部分を含む。画像補正装置1は、第2の撮像装置22が使用されずに第1の撮像装置21が使用された場合、1/60秒毎に第2の撮像装置22が得る画像に類似する画像を得ることを目的とする。   The use of the second imaging device 22 may be prohibited. As described above, the first imaging device 21 obtains an image of the imaging target 23 and obtains a blurred image 23 a 1/60 seconds after the first time of imaging. The blurred image 23a is an image that can not be obtained by the second imaging device 22 1/60 seconds after the first time of imaging. The image of the imaging target 23 obtained 1/60 seconds after the first imaging device 21 captures the first time of imaging includes a portion in which the luminance values of a part of the moving imaging target 23 are integrated. When the first imaging device 21 is used without using the second imaging device 22, the image correction device 1 obtains an image similar to an image obtained by the second imaging device 22 every 1/60 seconds. The purpose is

画像補正装置1は、図2(A)の撮像の最初の時刻から1/60秒後の画像のような撮像対象23の画像とぶれ画像23aとを含む画像から撮像対象23の画像を得るための補正を行う。すなわち、画像補正装置1は、移動する撮像対象23を撮像する第1の撮像装置21によって得られた画像を補正する。   The image correction apparatus 1 obtains an image of the imaging target 23 from an image including the image of the imaging target 23 such as an image 1/60 seconds after the first time of imaging in FIG. 2A and the blurred image 23a. Make corrections for That is, the image correction device 1 corrects an image obtained by the first imaging device 21 that images the moving imaging target 23.

図3は、実施の形態1にかかる画像補正装置1の構成を示す図である。画像補正装置1は、第1の撮像装置21及び第2の撮像装置22の各々に撮像を開始させるための撮像トリガを生成するトリガ生成部2を有する。図3には、第1の撮像装置21及び第2の撮像装置22も示されている。画像補正装置1は、トリガ生成部2によって生成された撮像トリガを第1の撮像装置21及び第2の撮像装置22の各々に同時に送信する通信部3を有する。   FIG. 3 is a diagram showing the configuration of the image correction device 1 according to the first embodiment. The image correction device 1 includes a trigger generation unit 2 that generates an imaging trigger for causing each of the first imaging device 21 and the second imaging device 22 to start imaging. The first imaging device 21 and the second imaging device 22 are also shown in FIG. The image correction device 1 has a communication unit 3 that simultaneously transmits the imaging trigger generated by the trigger generation unit 2 to each of the first imaging device 21 and the second imaging device 22.

第1の撮像装置21及び第2の撮像装置22は、撮像トリガを受信し、撮像対象23の撮像を開始する。通信部3は、第1の撮像装置21が撮像対象23を撮像した際に得られた画像データを第1の撮像装置21から受信する機能と、第2の撮像装置22が撮像対象23を撮像した際に得られた画像データを第2の撮像装置22から受信する機能とを有する。   The first imaging device 21 and the second imaging device 22 receive an imaging trigger and start imaging of the imaging target 23. The communication unit 3 has a function of receiving from the first imaging device 21 the image data obtained when the first imaging device 21 images the imaging target 23, and the second imaging device 22 images the imaging target 23 And a function of receiving image data obtained at the time of image formation from the second imaging device 22.

画像補正装置1は、通信部3が第1の撮像装置21から受信した画像データと第2の撮像装置22から受信した画像データとを記憶する画像記憶部4を更に有する。画像補正装置1は、画像記憶部4に記憶された画像データであって通信部3が第2の撮像装置22から受信した画像データをもとにした撮像対象23の画像の特徴点を抽出する特徴抽出部5を更に有する。特徴点の例は、撮像対象23のエッジである。実施の形態1では、エッジは、三角形の撮像対象23の3個の頂点の各々である。三角形の撮像対象23の形状及び大きさは、当該3個の頂点をもとに特定される。画像補正装置1は、特徴抽出部5によって抽出された特徴点を示すデータを記憶する特徴記憶部6を更に有する。   The image correction device 1 further includes an image storage unit 4 that stores the image data received by the communication unit 3 from the first imaging device 21 and the image data received from the second imaging device 22. The image correction apparatus 1 extracts the feature points of the image of the imaging target 23 based on the image data which is the image data stored in the image storage unit 4 and which the communication unit 3 receives from the second imaging device 22. It further has a feature extraction unit 5. An example of the feature point is an edge of the imaging target 23. In the first embodiment, the edge is each of three vertices of the triangular imaging target 23. The shape and size of the triangular imaging target 23 are identified based on the three vertices. The image correction device 1 further includes a feature storage unit 6 that stores data indicating feature points extracted by the feature extraction unit 5.

画像補正装置1は、特徴記憶部6に記憶されたデータが示す特徴点の単位時間当たりの移動量を演算する移動量演算部7を更に有する。具体的には、移動量演算部7は、第2の撮像装置22によって撮像された隣り合う2個のフレームにおける対応する特徴点をもとに、第2の撮像装置22によって1フレームが形成される時間における特徴点の移動量を演算する。画像補正装置1は、移動量演算部7が演算を行うことによって得られた特徴点の単位時間当たりの移動量を示すデータを記憶する移動量記憶部8を更に有する。   The image correction device 1 further includes a movement amount calculation unit 7 that calculates the movement amount per unit time of the feature point indicated by the data stored in the feature storage unit 6. Specifically, in the movement amount calculation unit 7, one frame is formed by the second imaging device 22 based on the corresponding feature points in two adjacent frames captured by the second imaging device 22. The movement amount of the feature point in the time is calculated. The image correction apparatus 1 further includes a movement amount storage unit 8 that stores data indicating the movement amount per unit time of the feature point obtained by the movement amount calculation unit 7 performing calculation.

画像補正装置1は、画像記憶部4に記憶された画像データであって通信部3が第1の撮像装置21から受信した画像データをもとにした画像である補正対象画像の特徴点を抽出して補正対象画像を特定する補正画像特定部9を更に有する。具体的には、補正画像特定部9は、図2(A)の撮像の最初の時刻から1/60秒後の撮像対象23の画像とぶれ画像23aとを含む台形の画像を補正対象画像と特定する。特徴記憶部6は、補正画像特定部9によって抽出された特徴点を示すデータも記憶する。更に言うと、特徴記憶部6は、補正対象画像を示すデータも記憶する。   The image correction apparatus 1 extracts the feature points of the correction target image which is an image based on the image data which is the image data stored in the image storage unit 4 and which the communication unit 3 receives from the first imaging device 21. The correction image specifying unit 9 further specifies a correction target image. Specifically, the correction image specifying unit 9 sets a trapezoidal image including the image of the imaging target 23 and the blurred image 23a 1/60 seconds after the first time of imaging in FIG. 2A as the correction target image. Identify. The feature storage unit 6 also stores data indicating feature points extracted by the corrected image identification unit 9. Furthermore, the feature storage unit 6 also stores data indicating the correction target image.

画像補正装置1は、移動する撮像対象23を撮像する第1の撮像装置21によって1フレームが形成される時間に得られた画像である補正対象画像を、当該時間の最終の時刻に形成された画像である最終時刻画像と、当該時間の最終の時刻より前に形成された画像である非最終時刻画像とに分割する分割部10を更に有する。分割部10は、最終時刻画像及び非最終時刻画像の各々を、撮像対象23の位置をもとに、最終時刻画像及び非最終時刻画像の各部分が形成された際に要した露光時間毎の複数の領域に分割する。撮像対象23の位置は、通信部3が第2の撮像装置22から受信した画像データによって特定される。更に言うと、撮像対象23の位置は、移動量記憶部8に記憶されているデータによって特定される。   The image correction device 1 forms the correction target image, which is an image obtained at the time when one frame is formed by the first imaging device 21 for imaging the moving imaging object 23, at the final time of the time The image processing apparatus further includes a division unit 10 that divides an image into a final time image and a non-final time image that is an image formed before the final time of the time. The dividing unit 10 sets each of the final time image and the non-final time image on the basis of the position of the imaging target 23, and for each exposure time required when each portion of the final time image and the non-final time image is formed. Divide into multiple areas. The position of the imaging target 23 is specified by the image data received by the communication unit 3 from the second imaging device 22. Furthermore, the position of the imaging target 23 is specified by the data stored in the movement amount storage unit 8.

具体的には、分割部10は、特徴記憶部6に記憶されたデータをもとにした撮影された画像の撮像対象23の形状及び大きさと、移動量記憶部8に記憶されたデータをもとにした撮像対象23の位置とをもとに、補正画像特定部9によって特定された補正対象画像を、図2(A)の撮像の最初の時刻から1/60秒後の撮像対象23の画像である最終時刻画像と、ぶれ画像23aである非最終時刻画像とに分割する。   Specifically, the dividing unit 10 also uses the shape and size of the imaging target 23 of the photographed image based on the data stored in the feature storage unit 6 and the data stored in the movement amount storage unit 8. The correction target image specified by the correction image specifying unit 9 based on the position of the imaging target 23 determined in step It is divided into a final time image which is an image and a non-final time image which is a blurred image 23a.

図4は、実施の形態1にかかる画像補正装置1が有する分割部10が有する機能を説明するための図である。更に言うと、図4は、図2(A)の撮像の最初の時刻から1/60秒後の撮像対象23の画像とぶれ画像23aとを含む補正対象画像を示す図である。上述の通り、撮像対象23は等速直線運動する。そのため、撮像の最初の時刻から1/60秒後には、図4において点P0、点Q0及び点R0を3個の頂点に持つ三角形の画像が矢印25aの向きに順に移動したような補正対象画像が第1の撮像装置21によって得られる。   FIG. 4 is a diagram for explaining the function of the dividing unit 10 of the image correction apparatus 1 according to the first embodiment. Further, FIG. 4 is a view showing a correction target image including the image of the imaging target 23 and the blurred image 23a 1/60 seconds after the first time of imaging in FIG. 2 (A). As described above, the imaging target 23 moves in a uniform linear motion. Therefore, after 1/60 seconds from the first time of imaging, a correction target image such as a triangular image having point P0, point Q0 and point R0 at three vertices in FIG. 4 sequentially moved in the direction of arrow 25a. Is obtained by the first imaging device 21.

撮像の最初の時刻において、図4における点P0、点Q0及び点R0を3個の頂点に持つ三角形の画像が第1の撮像装置21に得られる。撮像の最初の時刻から1/180秒後には、図4における点P1、点Q1及び点R1を3個の頂点に持つ三角形の画像が第1の撮像装置21によって得られる。撮像の最初の時刻から2/180秒後には、図4における点P2、点Q2及び点R2を3個の頂点に持つ三角形の画像が第1の撮像装置21によって得られる。撮像の最初の時刻から3/180秒後である1/60秒後には、図4における点P3、点Q3及び点R3を3個の頂点に持つ三角形の画像が第1の撮像装置21によって得られる。上記の4個の各々の時刻において得られる画像が合成されて、撮像の最初の時刻から3/180秒後である1/60秒後において、点P0、点Q0、点R3及び点P3を4個の頂点に持つ台形の補正対象画像が第1の撮像装置21によって得られる。   At the first time of imaging, a first image pickup device 21 obtains an image of a triangle having the point P0, the point Q0 and the point R0 in FIG. After 1/180 seconds from the first time of imaging, the first imaging device 21 obtains a triangular image having the point P1, the point Q1 and the point R1 in FIG. 2/180 seconds after the first time of imaging, the first imaging device 21 obtains a triangular image having the point P2, the point Q2 and the point R2 in FIG. 4 at three apexes. After 1/60 seconds, which is 3/180 seconds after the first time of imaging, a first image pickup device 21 obtains an image of a triangle having three points, point P3, point Q3 and point R3 in FIG. Be The images obtained at each of the above four times are combined, and point P0, point Q0, point R3 and point P3 are 4 at 1/60 seconds after 3/180 seconds from the first time of imaging. The first image pickup device 21 obtains a trapezoidal correction target image possessed at each vertex.

図4において、「y0」は、撮像の最初の時刻から1/60秒後までの1/60秒間を3等分したときの各1/180秒間での上記の三角形の画像の移動量を示している。当該移動量を示すデータは、移動量記憶部8に記憶されている。撮像対象23が等速直線運動するので、三角形の画像の1/180秒毎の移動量y0は一定である。   In FIG. 4, “y0” indicates the movement amount of the above-mentioned triangular image in each 1/180 second when dividing 1/60 second from first time of imaging to 1/60 second in half. ing. Data indicating the movement amount is stored in the movement amount storage unit 8. Since the imaging target 23 moves in a uniform linear motion, the movement amount y0 of the triangular image every 1/180 seconds is constant.

上述の通り、撮像の最初の時刻から3/180秒後である1/60秒後には、図4において点P3、点Q3及び点R3を3個の頂点に持つ三角形の画像が第1の撮像装置21によって撮像される。点P3、点Q3及び点R3を3個の頂点に持つ三角形の画像を構成する4個の領域には、符号Bが割り当てられている。符号Bが割り当てられているすべての領域によって構成されている画像は、補正対象画像が形成される時間の最終の時刻に形成された最終時刻画像である。ただし、符号Bが割り当てられている4個の領域の各々が形成された際に要した露光時間は、他の領域が形成された際に要した露光時間と異なる。図4において、符号Aが割り当てられているすべての領域によって構成されている画像は、露光時間の最終の時刻より前に形成された非最終時刻画像である。   As described above, after 1/60 seconds, which is 3/180 seconds after the first time of imaging, a triangular image having point P3, point Q3 and point R3 at three vertices in FIG. 4 is the first imaging. The image is captured by the device 21. The code B is assigned to four regions constituting a triangular image having the point P3, the point Q3 and the point R3 at three vertices. The image constituted by all the regions to which the code B is assigned is the final time image formed at the last time of the time when the correction target image is formed. However, the exposure time taken when each of the four areas to which the code B is assigned is formed is different from the exposure time required when the other areas are formed. In FIG. 4, the image constituted by all the regions to which the code A is assigned is a non-final time image formed before the final time of the exposure time.

撮像の最初の時刻の三角形の画像の一部は、撮像の最初の時刻から1/180秒後の三角形の画像、撮像の最初の時刻から2/180秒後の三角形の画像、及び、撮像の最初の時刻から3/180秒後の三角形の画像と重複する。撮像の最初の時刻から1/180秒後の三角形の画像の一部は、撮像の最初の時刻から2/180秒後の三角形の画像、及び、撮像の最初の時刻から3/180秒後の三角形の画像と重複する。撮像の最初の時刻から2/180秒後の三角形の画像の一部は、撮像の最初の時刻から3/180秒後の三角形の画像と重複する。   A part of the triangle image of the first time of imaging is a triangle image 1/180 second after the first time of imaging, a triangle image 2/180 seconds after the first time of imaging, and Overlap with the triangle image 3/180 seconds after the first time. A part of the triangle image 1/180 sec after the first time of imaging is a triangle image 2/180 sec after the first time of imaging and 3/180 seconds after the first time of imaging Overlap with the triangle image. A part of the triangle image 2/180 seconds after the first time of imaging overlaps with the triangle image 3/180 seconds after the first time of imaging.

図4では、符号A又は符号Bの右側に付加されている数字は、撮像の最初の時刻から1/60秒後までの1/60秒間を3等分したときの各1/180秒間での上記の三角形の画像の一部が重複した回数に「1」を加えたものである。重複した回数は、露光時間に対応する。具体的には、符号A1が割り当てられている領域が形成された際に要した露光時間は、符号A2が割り当てられている領域が形成された際に要した露光時間より短い。符号A2が割り当てられている領域が形成された際に要した露光時間は、符号A3が割り当てられている領域が形成された際に要した露光時間より短い。   In FIG. 4, the numbers added on the right side of the code A or the code B are each 1/180 seconds obtained by dividing 1/60 seconds from the first time of imaging to 1/60 seconds into three equal parts. "1" is added to the number of times that a part of the above triangular image overlaps. The number of times of duplication corresponds to the exposure time. Specifically, the exposure time required when the area to which the code A1 is assigned is formed is shorter than the exposure time required when the area to which the code A2 is assigned is formed. The exposure time required when the area to which the code A2 is assigned is formed is shorter than the exposure time required when the area to which the code A3 is assigned is formed.

符号B1が割り当てられている領域が形成された際に要した露光時間は、符号B2が割り当てられている領域が形成された際に要した露光時間より短い。符号B2が割り当てられている領域が形成された際に要した露光時間は、符号B3が割り当てられている領域が形成された際に要した露光時間より短い。符号B3が割り当てられている領域が形成された際に要した露光時間は、符号B4が割り当てられている領域が形成された際に要した露光時間より短い。   The exposure time required when the area to which the code B1 is assigned is formed is shorter than the exposure time required when the area to which the code B2 is assigned is formed. The exposure time required when the area to which the code B2 is assigned is formed is shorter than the exposure time required when the area to which the code B3 is assigned is formed. The exposure time required when the area to which the code B3 is assigned is formed is shorter than the exposure time required when the area to which the code B4 is assigned is formed.

分割部10は、最終時刻画像及び非最終時刻画像の各々を、撮像対象23の位置をもとに、最終時刻画像及び非最終時刻画像の各部分が形成された際に要した露光時間毎の複数の領域に分割する。撮像対象23の位置は、通信部3が第2の撮像装置22から受信した画像データによって特定される。具体的には、撮像対象23の位置は、移動量記憶部8に記憶されているデータによって特定される。   The dividing unit 10 sets each of the final time image and the non-final time image on the basis of the position of the imaging target 23, and for each exposure time required when each portion of the final time image and the non-final time image is formed. Divide into multiple areas. The position of the imaging target 23 is specified by the image data received by the communication unit 3 from the second imaging device 22. Specifically, the position of the imaging target 23 is specified by the data stored in the movement amount storage unit 8.

すなわち、図4に示すように、分割部10は、最終時刻画像を、符号B1が割り当てられている領域と、符号B2が割り当てられている領域と、符号B3が割り当てられている領域と、符号B4が割り当てられている領域とに分割する。加えて、分割部10は、非最終時刻画像を、符号A1が割り当てられている領域と、符号A2が割り当てられている領域と、符号A3が割り当てられている領域とに分割する。   That is, as shown in FIG. 4, the dividing unit 10 determines the final time image as an area to which the code B1 is allocated, an area to which the code B2 is allocated, an area to which the code B3 is allocated, and Divide into the area to which B4 is allocated. In addition, the dividing unit 10 divides the non-final time image into an area to which the code A1 is allocated, an area to which the code A2 is allocated, and an area to which the code A3 is allocated.

図3に戻る。画像補正装置1は、画像を補正する際に用いられる第1の補正値及び第2の補正値を記憶する補正値記憶部11を更に有する。図5は、実施の形態1にかかる画像補正装置1が有する補正値記憶部11に記憶されている第1の補正値を説明するための図である。第1の補正値は、補正対象の領域が形成された際に要した露光時間に対応している。図5は、第1の補正値が露光時間に比例して小さくなる例を示している。   Return to FIG. The image correction apparatus 1 further includes a correction value storage unit 11 that stores a first correction value and a second correction value used when correcting an image. FIG. 5 is a diagram for explaining the first correction value stored in the correction value storage unit 11 of the image correction apparatus 1 according to the first embodiment. The first correction value corresponds to the exposure time required when the area to be corrected is formed. FIG. 5 shows an example in which the first correction value decreases in proportion to the exposure time.

図5は、α1、α2、α3及びα4の4個の第1の補正値を示している。α1は、符号A1及び符号B1が割り当てられている領域の輝度値を補正する際に用いられる第1の補正値である。α2は、符号A2及び符号B2が割り当てられている領域の輝度値を補正する際に用いられる第1の補正値である。α3は、符号A3及び符号B3が割り当てられている領域の輝度値を補正する際に用いられる第1の補正値である。α4は、符号B4が割り当てられている領域の輝度値を補正する際に用いられる第1の補正値である。   FIG. 5 shows four first correction values of α1, α2, α3 and α4. α1 is a first correction value used when correcting the luminance value of the area to which the code A1 and the code B1 are assigned. α2 is a first correction value used when correcting the luminance value of the area to which the code A2 and the code B2 are assigned. α3 is a first correction value used when correcting the luminance value of the area to which the code A3 and the code B3 are assigned. α4 is a first correction value used when correcting the luminance value of the area to which the code B4 is assigned.

図3に戻る。画像補正装置1は、分割部10によって得られた最終時刻画像及び非最終時刻画像に含まれている複数の領域の各々の輝度値を補正する補正部12を更に有する。補正部12は、最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値を用いて補正する。第1の補正値は、補正値記憶部11に記憶されている。   Return to FIG. The image correction device 1 further includes a correction unit 12 that corrects the luminance value of each of a plurality of areas included in the final time image and the non-final time image obtained by the dividing unit 10. The correction unit 12 sets, for a plurality of areas included in the final time image, a first correction value corresponding to the exposure time required when the area to be corrected is formed. Use to correct. The first correction value is stored in the correction value storage unit 11.

補正対象の領域が、符号B1が割り当てられている領域である場合、補正部12は、符号B1が割り当てられている領域の輝度値を、符号B1が割り当てられている領域が形成された際に要した露光時間に対応する第1の補正値α1を用いて補正する。補正対象の領域が、符号B2が割り当てられている領域である場合、補正部12は、符号B2が割り当てられている領域の輝度値を、符号B2が割り当てられている領域が形成された際に要した露光時間に対応する第1の補正値α2を用いて補正する。   When the area to be corrected is the area to which the code B1 is assigned, the correction unit 12 generates the luminance value of the area to which the code B1 is assigned and the area to which the code B1 is assigned is formed. Correction is performed using the first correction value α1 corresponding to the required exposure time. When the area to be corrected is the area to which the code B2 is allocated, the correction unit 12 generates the luminance value of the area to which the code B2 is allocated, and the area to which the code B2 is allocated is formed. Correction is performed using the first correction value α2 corresponding to the required exposure time.

補正部12は、非最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値と、非最終時刻画像に対応する第2の補正値とを用いて補正する。第1の補正値及び第2の補正値は、補正値記憶部11に記憶されている。例えば、第2の補正値は、1より小さい値である。   The correction unit 12 performs, for a plurality of areas included in the non-final time image, the first correction corresponding to the exposure time required when the area to be corrected is formed. Correction is performed using the value and the second correction value corresponding to the non-final time image. The first correction value and the second correction value are stored in the correction value storage unit 11. For example, the second correction value is a value smaller than one.

補正対象の領域が、符号A1が割り当てられている領域である場合、補正部12は、符号A1が割り当てられている領域の輝度値を、符号A1が割り当てられている領域が形成された際に要した露光時間に対応する第1の補正値α1と、非最終時刻画像に対応する第2の補正値とを用いて補正する。補正対象の領域が、符号A2が割り当てられている領域である場合、補正部12は、符号A2が割り当てられている領域の輝度値を、符号A2が割り当てられている領域が形成された際に要した露光時間に対応する第1の補正値α2と、非最終時刻画像に対応する第2の補正値とを用いて補正する。   When the area to be corrected is the area to which the code A1 is assigned, the correction unit 12 generates the luminance value of the area to which the code A1 is assigned and the area to which the code A1 is assigned is formed. Correction is performed using the first correction value α1 corresponding to the required exposure time and the second correction value corresponding to the non-final time image. When the area to be corrected is the area to which the code A2 is allocated, the correction unit 12 generates the luminance value of the area to which the code A2 is allocated, and the area to which the code A2 is allocated is formed. Correction is performed using the first correction value α2 corresponding to the required exposure time and the second correction value corresponding to the non-final time image.

更に言うと、符号Xnが割り当てられている領域の補正前の輝度値がXnであって、符号Xnが割り当てられている領域の補正後の輝度値がXn’である場合、例えば、補正部12は、下記の式(1)にしたがって補正前の輝度値を補正する。なお、XはA又はBであり、nは1から4までのいずれかの整数である。下記の式において、β0は第2の補正値である。
A1’=α1×β0×A1
A2’=α2×β0×A2
A3’=α3×β0×A3
B1’=α1×B1
B2’=α2×B2
B3’=α3×B3
B4’=α4×B4 ・・・(1)
Furthermore, for example, when the luminance value before correction of the area to which the code Xn is allocated is Xn and the luminance value after correction of the area to which the code Xn is allocated is Xn ′, for example, the correction unit 12 Corrects the luminance value before correction according to the following equation (1). Here, X is A or B, and n is an integer of 1 to 4. In the following equation, β0 is a second correction value.
A1 ′ = α1 × β0 × A1
A2 '= α2 × β0 × A2
A3 '= α3 × β0 × A3
B1 '= α1 × B1
B2 '= α2 × B2
B3 '= α3 × B3
B4 '= α4 × B4 (1)

画像補正装置1は、補正部12によって得られた輝度値をもとに、補正後の画像を生成する補正画像生成部13を更に有する。画像補正装置1は、補正画像生成部13によって生成された補正後の画像を表示する表示部14を更に有する。表示部14の例は、液晶表示装置である。   The image correction apparatus 1 further includes a corrected image generation unit 13 that generates an image after correction based on the luminance value obtained by the correction unit 12. The image correction apparatus 1 further includes a display unit 14 that displays the image after correction generated by the correction image generation unit 13. An example of the display unit 14 is a liquid crystal display device.

画像補正装置1が有する画像記憶部4、特徴記憶部6、移動量記憶部8及び補正値記憶部11の例は、半導体メモリである。   An example of the image storage unit 4, the feature storage unit 6, the movement amount storage unit 8, and the correction value storage unit 11 included in the image correction device 1 is a semiconductor memory.

図6は、実施の形態1にかかる画像補正装置1の動作の手順を示すフローチャートである。トリガ生成部2は、第1の撮像装置21及び第2の撮像装置22の各々に撮像を開始させるための撮像トリガを生成する。通信部3は、トリガ生成部2によって生成された撮像トリガを第1の撮像装置21及び第2の撮像装置22の各々に同時に送信する(S1)。通信部3は、第1の撮像装置21が撮像対象23を撮像した際に得た画像データを第1の撮像装置21から受信し、第2の撮像装置22が撮像対象23を撮像した際に得た画像データを第2の撮像装置22から受信する(S2)。   FIG. 6 is a flowchart showing the procedure of the operation of the image correction apparatus 1 according to the first embodiment. The trigger generation unit 2 generates an imaging trigger for causing each of the first imaging device 21 and the second imaging device 22 to start imaging. The communication unit 3 simultaneously transmits the imaging trigger generated by the trigger generation unit 2 to each of the first imaging device 21 and the second imaging device 22 (S1). The communication unit 3 receives, from the first imaging device 21, image data obtained when the first imaging device 21 images the imaging target 23, and when the second imaging device 22 images the imaging target 23. The obtained image data is received from the second imaging device 22 (S2).

特徴抽出部5は、通信部3が第2の撮像装置22から受信した画像データをもとにした画像である撮像対象23の画像の特徴点を抽出する(S3)。移動量演算部7は、特徴抽出部5によって抽出された特徴点の単位時間当たりの移動量を演算する(S4)。補正画像特定部9は、通信部3が第1の撮像装置21から受信した画像データをもとにした画像の特徴点を抽出して補正対象画像を特定する(S5)。   The feature extraction unit 5 extracts feature points of the image of the imaging target 23, which is an image based on the image data received by the communication unit 3 from the second imaging device 22 (S3). The movement amount calculation unit 7 calculates the movement amount per unit time of the feature point extracted by the feature extraction unit 5 (S4). The correction image specifying unit 9 specifies feature points of an image based on the image data received by the communication unit 3 from the first imaging device 21 and specifies a correction target image (S5).

分割部10は、移動する撮像対象23を撮像する第1の撮像装置21によって得られた画像である補正対象画像を、補正対象画像が形成される時間の最終の時刻に形成された画像である最終時刻画像と、露光時間の最終の時刻より前に形成された画像である非最終時刻画像とに分割する(S6)。分割部10は、最終時刻画像及び非最終時刻画像の各々を、撮像対象23の位置をもとに、最終時刻画像及び非最終時刻画像の各部分が形成された際に要した露光時間毎の複数の領域に分割する(S6)。   The dividing unit 10 is an image formed at the final time of the time when the correction target image is formed, which is the correction target image which is an image obtained by the first imaging device 21 that picks up the moving imaging target 23. The image is divided into a final time image and a non-final time image which is an image formed before the final time of the exposure time (S6). The dividing unit 10 sets each of the final time image and the non-final time image on the basis of the position of the imaging target 23, and for each exposure time required when each portion of the final time image and the non-final time image is formed. It is divided into a plurality of areas (S6).

補正部12は、分割部10によって得られた最終時刻画像及び非最終時刻画像に含まれている複数の領域の各々の輝度値を補正する。つまり、補正部12は、補正対象画像を補正する(S7)。補正画像生成部13は、補正部12によって得られた輝度値をもとに、補正後の画像である補正画像を生成する(S8)。表示部14は、補正画像生成部13によって生成された補正後の画像である補正画像を表示する(S9)。   The correction unit 12 corrects the luminance value of each of the plurality of areas included in the final time image and the non-final time image obtained by the dividing unit 10. That is, the correction unit 12 corrects the correction target image (S7). The corrected image generation unit 13 generates a corrected image, which is an image after correction, based on the luminance value obtained by the correction unit 12 (S8). The display unit 14 displays a corrected image which is an image after correction generated by the corrected image generation unit 13 (S9).

上述の通り、画像補正装置1は、移動する撮像対象23を撮像する第1の撮像装置21によって1フレームが形成される時間に得られた画像である補正対象画像を、当該時間の最終の時刻に形成された画像である最終時刻画像と、当該時間の最終の時刻より前に形成された画像である非最終時刻画像とに分割する。画像補正装置1は、最終時刻画像及び非最終時刻画像の各々を、撮像対象23の位置をもとに、最終時刻画像及び非最終時刻画像の各部分が形成された際に要した露光時間毎の複数の領域に分割する。   As described above, the image correction device 1 corrects the correction target image, which is an image obtained at the time when one frame is formed by the first imaging device 21 for imaging the moving imaging object 23, at the last time of the time And a non-final time image which is an image formed before the final time of the time. The image correction device 1 sets each of the final time image and the non-final time image based on the position of the imaging target 23 for each exposure time required when each portion of the final time image and the non-final time image is formed. Divide into multiple areas of

画像補正装置1は、最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値を用いて補正する。画像補正装置1は、非最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値と、非最終時刻画像に対応する第2の補正値とを用いて補正する。   The image correction apparatus 1 performs the first correction corresponding to the exposure time required when the area to be corrected is formed for the luminance values of the area to be corrected for a plurality of areas included in the final time image. Make corrections using the values. The image correction apparatus 1 applies the first luminance value of the area to be corrected to the exposure time required when the area to be corrected is formed for a plurality of areas included in the non-final time image. Correction is performed using the correction value and the second correction value corresponding to the non-final time image.

図7は、実施の形態1にかかる画像補正装置1が有する補正部12が補正を行うことによって得た輝度値の分布を模式的に示す図である。図7は、符号B1、符号B2、符号B3及び符号B4が割り当てられている領域の輝度値が同じであることを示している。加えて、図7は、符号A1、符号A2及び符号A3が割り当てられている領域の輝度値が、符号B1、符号B2、符号B3及び符号B4が割り当てられている領域の輝度値より小さく、かつ同じであることを示している。   FIG. 7 is a view schematically showing a distribution of luminance values obtained by performing correction by the correction unit 12 of the image correction apparatus 1 according to the first embodiment. FIG. 7 shows that the luminance values of the area to which the code B1, the code B2, the code B3 and the code B4 are assigned are the same. In addition, FIG. 7 shows that the luminance values of the regions to which the symbols A1, A2 and A3 are assigned are smaller than the luminance values of the regions to which the symbols B1, B2, B3 and B4 are assigned, and It shows that it is the same.

図8は、実施の形態1にかかる画像補正装置1が行う補正を説明するための図である。図8(A)は、図2(A)と同じであって、撮像の最終の時刻において、補正対象画像を示している。図8(B)は、画像補正装置1が、撮像の最終の時刻において、補正対象画像を補正することによって得た画像を示している。図8(B)の撮像の最終の時刻において示されている画像は、図7の輝度値の分布をもとに得られた画像である。図8(C)は、図2(B)と同じであって、撮像の最初の時刻と、撮像の最初から1/180秒後の時刻と、撮像の最初から2/180秒後の時刻と、撮像の最初から3/180秒後の時刻との各々において第2の撮像装置22によって得られた画像を示している。   FIG. 8 is a diagram for explaining the correction performed by the image correction device 1 according to the first embodiment. FIG. 8A is the same as FIG. 2A, and shows the correction target image at the final time of imaging. FIG. 8B shows an image obtained by the image correction apparatus 1 correcting the correction target image at the final time of imaging. The image shown at the last time of imaging in FIG. 8B is an image obtained based on the distribution of luminance values in FIG. 7. FIG. 8C is the same as FIG. 2B, and shows the first time of imaging, the time after 1/180 seconds from the beginning of imaging, and the time after 2/180 seconds from the beginning of imaging , The image obtained by the second imaging device 22 at a time 3/180 seconds after the beginning of imaging.

図8(B)が示す通り、実施の形態1にかかる画像補正装置1は、撮像の最初から3/180秒後の時刻において、ぶれ画像23aを含まない撮像対象23の画像を得ることができる。つまり、画像補正装置1は、移動する撮像対象が撮影された画像に生じるぶれであって輝度値の積算によって生じるぶれを適切に補正することができる。更に言うと、画像補正装置1は、第2の撮像装置22を使用することが禁止されている場合に第2の撮像装置22が使用されることなく第1の撮像装置21が使用されたとき、1/60秒毎に第2の撮像装置22が得る画像に類似する画像を得ることができる。   As shown in FIG. 8B, the image correction apparatus 1 according to the first embodiment can obtain an image of the imaging target 23 not including the blurred image 23a at a time 3/180 seconds after the start of imaging. . That is, the image correction apparatus 1 can appropriately correct the shake that occurs in the image in which the moving imaging target is captured and that is generated by the integration of the luminance values. Furthermore, in the image correction apparatus 1, when the use of the second imaging device 22 is prohibited, the first imaging device 21 is used without the second imaging device 22 being used. An image similar to the image obtained by the second imaging device 22 can be obtained every 1/60 seconds.

加えて、図7から理解することができるように、画像補正装置1は、露光時間を考慮して、第1の撮像装置21によって1フレームが形成された後の輝度値が補正された撮像対象23の画像を得ることができる。すなわち、第1の撮像装置21がホットメルト工程によって製函された段ボールが適切に製函されているか否か判断するために用いられる赤外線カメラである場合、画像補正装置1は、ホットメルト工程によって製函された段ボールが適切に製函されているか否かを判断するための画像を生成することができる。画像補正装置1は、画素毎の補正を行わず、複数の画素がまとまった領域毎に補正を行うので、補正を比較的速やかに行うことができる。   In addition, as can be understood from FIG. 7, the image correction device 1 is an imaging target in which the luminance value after one frame is formed by the first imaging device 21 is corrected in consideration of the exposure time. 23 images can be obtained. That is, in the case where the first imaging device 21 is an infrared camera used to determine whether or not a corrugated cardboard boxed by the hot melt process is appropriately boxed, the image correction apparatus 1 is configured by the hot melt process. An image can be generated to determine whether the boxed cardboard is properly boxed. The image correction device 1 does not perform the correction for each pixel, but performs the correction for each region where a plurality of pixels are integrated, so that the correction can be performed relatively quickly.

なお、撮影された画像の撮像対象23の形状及び大きさを示すデータは、特徴記憶部6にあらかじめ記憶されていてもよい。更に言うと、第2の撮像装置22によって撮影された画像の撮像対象23の形状及び大きさを示すデータは、特徴記憶部6にあらかじめ記憶されていてもよい。   Data indicating the shape and size of the imaging target 23 of the captured image may be stored in the feature storage unit 6 in advance. Furthermore, data indicating the shape and size of the imaging target 23 of the image captured by the second imaging device 22 may be stored in the feature storage unit 6 in advance.

実施の形態2.
次に、実施の形態2にかかる画像補正装置1を説明する。実施の形態1では、撮像対象23が等速直線運動することを想定した。実施の形態2では、撮像対象23が加速度運動することを想定する。実施の形態2にかかる画像補正装置1の構成は、実施の形態1にかかる画像補正装置1の構成と同じである。実施の形態2では、実施の形態1と相違する部分について説明する。
Second Embodiment
Next, an image correction apparatus 1 according to a second embodiment will be described. In the first embodiment, it is assumed that the imaging target 23 performs constant velocity linear motion. In the second embodiment, it is assumed that the imaging target 23 performs an acceleration motion. The configuration of the image correction device 1 according to the second embodiment is the same as the configuration of the image correction device 1 according to the first embodiment. In the second embodiment, parts different from the first embodiment will be described.

実施の形態2では、分割部10は、非最終時刻画像を、非最終時刻画像の各部分が形成された際の露光時間と撮像対象23の加速度とに対応する複数の領域に分割する。図9は、実施の形態2にかかる画像補正装置1が有する分割部10が有する機能を説明するための図である。撮像の最初の時刻において、図9における点P0、点Q0及び点R0を3個の頂点に持つ三角形の画像が第1の撮像装置21によって得られる。撮像の最初の時刻から1/180秒後には、図9における点P1、点Q1及び点R1を3個の頂点に持つ三角形の画像が第1の撮像装置21によって得られる。   In the second embodiment, division unit 10 divides the non-final time image into a plurality of regions corresponding to the exposure time when each portion of the non-final time image is formed and the acceleration of imaging target 23. FIG. 9 is a diagram for explaining the function of the dividing unit 10 of the image correction apparatus 1 according to the second embodiment. At the first time of imaging, the first imaging device 21 obtains an image of a triangle having the point P0, the point Q0, and the point R0 in FIG. After 1/180 seconds from the first time of imaging, the first imaging device 21 obtains a triangular image having the point P1, the point Q1 and the point R1 in FIG.

撮像の最初の時刻から2/180秒後には、図9における点P2、点Q2及び点R2を3個の頂点に持つ三角形の画像が第1の撮像装置21によって得られる。撮像の最初の時刻から3/180秒後である1/60秒後には、図9における点P3、点Q3及び点R3を3個の頂点に持つ三角形の画像が第1の撮像装置21によって得られる。上記の4個の各々の時刻において得られる画像が合成されて、撮像の最初の時刻から3/180秒後である1/60秒後において、点P0、点Q0、点R3及び点P3を4個の頂点に持つ台形の補正対象画像が第1の撮像装置21によって得られる。   At 2/180 seconds after the first time of imaging, the first imaging device 21 obtains a triangular image having the point P2, the point Q2 and the point R2 in FIG. After 1/60 seconds, which is 3/180 seconds after the first time of imaging, a first image pickup device 21 obtains an image of a triangle having three points, point P3, point Q3 and point R3 in FIG. Be The images obtained at each of the above four times are combined, and point P0, point Q0, point R3 and point P3 are 4 at 1/60 seconds after 3/180 seconds from the first time of imaging. The first image pickup device 21 obtains a trapezoidal correction target image possessed at each vertex.

図9では、上記の三角形の画像の移動量は、撮像の最初の時刻から1/180秒後までの間においてy1であり、1/180秒後から2/180秒後までの間においてy2であり、2/180秒後から3/180秒後までの間においてy3である。実施の形態2では、撮像対象23が加速度運動する。そのため、移動量y1、移動量y2及び移動量y3の各々は、他の二つの移動量と異なる。移動量y1、移動量y2及び移動量y3の各々は、撮像対象23の加速度に対応している。   In FIG. 9, the moving amount of the above-mentioned triangular image is y1 between 1/180 seconds after the first time of imaging and y2 between 1/180 seconds and 2/180 seconds. And y3 between 2/180 seconds and 3/180 seconds. In the second embodiment, the imaging target 23 performs acceleration motion. Therefore, each of the movement amount y1, the movement amount y2, and the movement amount y3 is different from the other two movement amounts. Each of the movement amount y1, the movement amount y2, and the movement amount y3 corresponds to the acceleration of the imaging target 23.

図9において、点P3、点Q3及び点R3を3個の頂点に持つ三角形の画像を構成する4個の領域には、実施の形態1と同様に、符号Bが割り当てられている。符号Bが割り当てられているすべての領域によって構成されている画像は、補正対象画像が形成される時間の最終の時刻に形成された最終時刻画像である。図9において、符号Aが割り当てられているすべての領域によって構成されている画像は、補正対象画像が形成される時間の最終の時刻より前に形成された非最終時刻画像である。   In FIG. 9, in the same way as in the first embodiment, a symbol B is assigned to four regions constituting a triangular image having points P 3, Q 3 and R 3 at three vertices. The image constituted by all the regions to which the code B is assigned is the final time image formed at the last time of the time when the correction target image is formed. In FIG. 9, the image constituted by all the areas to which the code A is assigned is a non-final time image formed before the final time of the time when the correction target image is formed.

上述の通り、分割部10は、非最終時刻画像を、非最終時刻画像の各部分が形成された際の露光時間と撮像対象の加速度とに対応する複数の領域に分割する。つまり、分割部10は、移動量y1、移動量y2及び移動量y3の各々が撮像対象23の加速度に対応しているので、非最終時刻画像を、符号A4から符号A9までのいずれか1個が割り当てられている6個の領域に分割する。図10は、実施の形態2にかかる画像補正装置1が有する補正値記憶部11に記憶されている第2の補正値を説明するための図である。実施の形態2の第2の補正値は、非最終時刻画像に対応すると共に、撮像対象23の加速度によって異なる。図10は、第2の補正値が、1/180秒当たりの三角形の画像の移動量が大きくなるにつれて小さくなる例を示している。   As described above, the dividing unit 10 divides the non-final time image into a plurality of regions corresponding to the exposure time when each portion of the non-final time image is formed and the acceleration of the imaging target. That is, since each of the movement amount y1, the movement amount y2 and the movement amount y3 corresponds to the acceleration of the imaging target 23, the division unit 10 does not have any one of the non-final time images from A4 to A9. Divide into 6 areas to which is assigned. FIG. 10 is a diagram for explaining a second correction value stored in the correction value storage unit 11 of the image correction apparatus 1 according to the second embodiment. The second correction value of the second embodiment corresponds to the non-final time image and differs depending on the acceleration of the imaging target 23. FIG. 10 shows an example in which the second correction value decreases as the amount of movement of the triangular image per 1/180 second increases.

1/180秒当たりの三角形の画像の移動量がy1である場合の第2の補正値は、β1である。1/180秒当たりの三角形の画像の移動量がy2である場合の第2の補正値は、β2である。1/180秒当たりの三角形の画像の移動量がy3である場合の第2の補正値は、β3である。   The second correction value when the movement amount of the triangular image per 1/180 sec is y1 is β1. The second correction value is β2 when the movement amount of the triangular image per 1/180 sec is y2. The second correction value is β3 when the movement amount of the triangular image per 1/180 sec is y3.

符号A4が割り当てられている領域について、第1の補正値はα1であり、第2の補正値はβ1である。符号A5が割り当てられている領域について、第1の補正値はα1であり、第2の補正値はβ2である。符号A6が割り当てられている領域について、第1の補正値はα1であり、第2の補正値はβ3である。符号A7が割り当てられている領域について、第1の補正値はα2であり、第2の補正値はβ2である。符号A8が割り当てられている領域について、第1の補正値はα2であり、第2の補正値はβ3である。符号A9が割り当てられている領域について、第1の補正値はα3であり、第2の補正値はβ3である。   For the area to which the code A4 is assigned, the first correction value is α1 and the second correction value is β1. For the area to which the code A5 is assigned, the first correction value is α1, and the second correction value is β2. For the area to which the code A6 is assigned, the first correction value is α1 and the second correction value is β3. For the area to which the code A7 is assigned, the first correction value is α2 and the second correction value is β2. For the area to which the code A8 is assigned, the first correction value is α2, and the second correction value is β3. For the area to which the code A9 is assigned, the first correction value is α3 and the second correction value is β3.

補正部12は、非最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値と補正対象の領域が形成された際の撮像対象23の加速度に対応する第2の補正値とを用いて補正する。補正部12は、最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、実施の形態1において説明した方法の通りに補正する。   The correction unit 12 performs, for a plurality of areas included in the non-final time image, the first correction corresponding to the exposure time required when the area to be corrected is formed. The correction is performed using the value and the second correction value corresponding to the acceleration of the imaging target 23 when the area to be corrected is formed. The correction unit 12 corrects the luminance value of the area to be corrected according to the method described in the first embodiment for a plurality of areas included in the final time image.

符号Xnが割り当てられている領域の補正前の輝度値がXnであって、符号Xnが割り当てられている領域の補正後の輝度値がXn’である場合、例えば、補正部12は、下記の式(2)にしたがって補正前の輝度値を補正する。なお、XはA又はBであり、nは1から9までのいずれかの整数である。
A4’=α1×β1×A4
A5’=α1×β2×A5
A6’=α1×β3×A6
A7’=α2×β2×A7
A8’=α2×β3×A8
A9’=α3×β3×A9
B1’=α1×B1
B2’=α2×B2
B3’=α3×B3
B4’=α4×B4 ・・・(2)
When the luminance value before correction of the area to which the code Xn is assigned is Xn and the luminance value after correction of the area to which the code Xn is assigned is Xn ′, for example, the correction unit 12 The luminance value before correction is corrected according to equation (2). Here, X is A or B, and n is an integer of 1 to 9.
A4 '= α1 × β1 × A4
A5 '= α1 × β2 × A5
A6 '= α1 × β3 × A6
A7 '= α2 × β2 × A7
A8 '= α2 × β3 × A8
A9 '= α3 × β3 × A9
B1 '= α1 × B1
B2 '= α2 × B2
B3 '= α3 × B3
B4 '= α4 × B4 (2)

上述の通り、実施の形態2にかかる画像補正装置1は、非最終時刻画像を、非最終時刻画像の各部分が形成された際の露光時間と撮像対象23の加速度とに対応する複数の領域に分割する。実施の形態2の第2の補正値は、非最終時刻画像に対応すると共に、撮像対象23の加速度によって異なる。補正部12は、非最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、補正対象の領域が形成された際に要した露光時間に対応する第1の補正値と補正対象の領域が形成された際の撮像対象23の加速度に対応する第2の補正値とを用いて補正する。補正部12は、最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、実施の形態1において説明した方法の通りに補正する。   As described above, the image correction device 1 according to the second embodiment includes a plurality of regions corresponding to the exposure time and the acceleration of the imaging target 23 when each portion of the non-final time image is formed. Divide into The second correction value of the second embodiment corresponds to the non-final time image and differs depending on the acceleration of the imaging target 23. The correction unit 12 performs, for a plurality of areas included in the non-final time image, the first correction corresponding to the exposure time required when the area to be corrected is formed. The correction is performed using the value and the second correction value corresponding to the acceleration of the imaging target 23 when the area to be corrected is formed. The correction unit 12 corrects the luminance value of the area to be corrected according to the method described in the first embodiment for a plurality of areas included in the final time image.

すなわち、実施の形態2にかかる画像補正装置1は、撮像対象23が加速度運動しても、実施の形態1と同様に、補正対象画像を補正することによって、撮像の最終の時刻において、ぶれ画像23aを含まない撮像対象23の画像を得ることができる。更に言うと、実施の形態2にかかる画像補正装置1は、露光時間を考慮して、第1の撮像装置21によって1フレームが形成された後の輝度値が補正された撮像対象23の画像を得ることができる。   That is, as in the first embodiment, the image correction apparatus 1 according to the second embodiment corrects the correction target image at the final time of imaging even when the imaging target 23 performs acceleration motion. The image of the imaging object 23 which does not contain 23a can be obtained. Furthermore, the image correction device 1 according to the second embodiment takes the image of the imaging target 23 whose luminance value has been corrected after the first imaging device 21 has formed one frame in consideration of the exposure time. You can get it.

なお、実施の形態2にかかる画像補正装置1は、撮像対象23が加速度運動しても、撮像対象23の加速度を考慮することなく、実施の形態1において説明した方法によって補正対象画像を補正してもよい。その場合であっても、画像補正装置1は、従来よりぶれ画像23aの影響が小さく、かつ露光時間が考慮された補正画像を生成することができる。   The image correction device 1 according to the second embodiment corrects the correction target image according to the method described in the first embodiment without considering the acceleration of the imaging target 23 even when the imaging target 23 performs acceleration motion. May be Even in such a case, the image correction apparatus 1 can generate a corrected image in which the influence of the blurred image 23a is smaller than that in the related art and the exposure time is taken into consideration.

実施の形態3.
次に、実施の形態3にかかる画像補正装置1Aを説明する。図11は、実施の形態3にかかる画像補正装置1Aの構成を示す図である。画像補正装置1Aは、実施の形態1又は2にかかる画像補正装置1が有するすべての構成要素を有する。画像補正装置1Aは、画像補正装置1が有する構成要素以外の構成要素を有する。実施の形態3では、実施の形態1又は2と相違する部分について説明する。画像補正装置1Aは、補正画像生成部13によって生成された補正後の画像を示すデータを記憶する補正画像記憶部15を更に有する。補正画像記憶部15の例は、半導体メモリである。
Third Embodiment
Next, an image correction apparatus 1A according to the third embodiment will be described. FIG. 11 is a diagram showing the configuration of the image correction apparatus 1A according to the third embodiment. The image correction apparatus 1A has all the components of the image correction apparatus 1 according to the first or second embodiment. The image correction apparatus 1A has components other than the components of the image correction apparatus 1. In the third embodiment, parts different from the first or second embodiment will be described. The image correction apparatus 1A further includes a correction image storage unit 15 that stores data indicating the image after correction generated by the correction image generation unit 13. An example of the correction image storage unit 15 is a semiconductor memory.

画像補正装置1Aは、補正画像記憶部15に記憶されているデータをもとにした第1の画像と、撮像対象23の位置とをもとに、補間画像を生成する補間画像生成部16を更に有する。第1の画像は、補正部12が補正を行うことによって得た画像である。撮像対象23の位置は、移動量記憶部8に記憶されたデータをもとに特定される。更に言うと、撮像対象23の位置は、通信部3が第2の撮像装置22から受信した画像データによって特定される。   The image correction apparatus 1A generates an interpolation image generation unit 16 that generates an interpolation image based on the first image based on the data stored in the correction image storage unit 15 and the position of the imaging target 23. Furthermore, it has. The first image is an image obtained by the correction unit 12 performing the correction. The position of the imaging target 23 is identified based on the data stored in the movement amount storage unit 8. Furthermore, the position of the imaging target 23 is specified by the image data received by the communication unit 3 from the second imaging device 22.

具体的には、第1の画像は、補正部12が補正を行った後に補正画像生成部13によって生成された画像である。補間画像は、第1の画像の補正前の画像が得られた第1の時刻と、補正部12が補正を行うことによって第1の画像の次に得る第2の画像の補正前の画像が得られる第2の時刻との間の時刻の撮像対象23の画像である。表示部14は、補間画像生成部16によって生成された補間画像も表示する。   Specifically, the first image is an image generated by the corrected image generation unit 13 after the correction unit 12 performs the correction. The interpolation image is a first time at which an image before correction of the first image is obtained, and an image before correction of a second image obtained next to the first image by the correction unit 12 performing correction. It is an image of the imaging object 23 of the time between the obtained 2nd time. The display unit 14 also displays the interpolation image generated by the interpolation image generation unit 16.

図12は、実施の形態3にかかる画像補正装置1Aが有する補間画像生成部16の機能を説明するための図である。図12(A)は、第1の時刻において第1の画像を示しており、第2の時刻において第2の画像を示している。図12(B)は、第1の画像と第2の画像とに加えて、第1の時刻と第2の時刻との間の中間の時刻において補間画像生成部16によって生成された補間画像23bを示している。   FIG. 12 is a diagram for explaining the function of the interpolation image generation unit 16 included in the image correction device 1A according to the third embodiment. FIG. 12A shows a first image at a first time, and shows a second image at a second time. FIG. 12B shows the interpolation image 23 b generated by the interpolation image generation unit 16 at an intermediate time between the first time and the second time in addition to the first image and the second image. Is shown.

中間の時刻において、第1の撮像装置21が撮像対象23を撮像することによって撮像対象23の画像が撮像されたことを仮定する。加えて、中間の時刻における撮像対象23の画像が、第1の画像の撮像対象23を、第1の画像の撮像対象23の位置から第2の画像の撮像対象23の位置の向きに、第1の画像の撮像対象23の位置から移動量Zだけ移動させた画像であることを仮定する。   It is assumed that the image of the imaging target 23 is imaged by the first imaging device 21 imaging the imaging target 23 at an intermediate time. In addition, the image of the imaging target 23 at an intermediate time points the imaging target 23 of the first image from the position of the imaging target 23 of the first image to the direction of the position of the imaging target 23 of the second image. It is assumed that the image is moved by the movement amount Z from the position of the imaging target 23 of the one image.

図12(A)は、中間の時刻において、第1の画像の撮像対象23を、移動量Zだけ移動した撮像対象23の画像23bを破線で示している。移動量Zは、撮像対象23の位置をもとに特定される。具体的には、移動量Zは、移動量記憶部8に記憶されたデータをもとに特定される。更に言うと、移動量Zは、通信部3が第2の撮像装置22から受信した画像データによって特定される。   FIG. 12A shows an image 23 b of the imaging target 23 in which the imaging target 23 of the first image has been moved by the movement amount Z at a middle time by a broken line. The movement amount Z is specified based on the position of the imaging target 23. Specifically, the movement amount Z is specified based on the data stored in the movement amount storage unit 8. Furthermore, the movement amount Z is specified by the image data received by the communication unit 3 from the second imaging device 22.

補間画像生成部16は、第1の画像と、移動量Zとをもとに、図12(B)に示す通り、中間の時刻における撮像対象23の画像である補間画像23bを生成する。具体的には、補間画像生成部16は、第1の画像の撮像対象23を、第1の画像の撮像対象23の位置から第2の画像の撮像対象23の位置の向きに移動量Zだけ移動させて、中間の時刻における撮像対象23の画像である補間画像23bを生成する。   Based on the first image and the movement amount Z, the interpolation image generation unit 16 generates an interpolation image 23b which is an image of the imaging target 23 at an intermediate time, as shown in FIG. 12 (B). Specifically, the interpolation image generation unit 16 moves the imaging target 23 of the first image from the position of the imaging target 23 of the first image to the direction of the position of the imaging target 23 of the second image by the movement amount Z It is moved to generate an interpolated image 23 b which is an image of the imaging target 23 at an intermediate time.

上述の通り、画像補正装置1Aは、第1の画像と撮像対象23の位置とをもとに、具体的には、第1の画像と移動量Zとをもとに、図12(B)に示す通り、中間の時刻における撮像対象23の画像である補間画像23bを生成する。すなわち、画像補正装置1Aは、第1の画像と第2の画像とに加えて、中間の時刻における撮像対象23の画像をユーザに提示することができる。ユーザは、中間の時刻における撮像対象23の画像である補間画像23bを視認することにより、撮像対象23の移動を確認することができる。   As described above, the image correction apparatus 1A determines, based on the first image and the position of the imaging target 23, more specifically, based on the first image and the movement amount Z, as shown in FIG. As shown in, the interpolation image 23b which is an image of the imaging target 23 at an intermediate time is generated. That is, in addition to the first image and the second image, the image correction apparatus 1A can present the image of the imaging target 23 at an intermediate time to the user. The user can confirm the movement of the imaging target 23 by visually recognizing the interpolation image 23 b which is an image of the imaging target 23 at an intermediate time.

なお、実施の形態1から実施の形態3において、画像補正装置1,1Aは、エンコーダと制御装置とに接続されていてもよい。図13は、実施の形態1から実施の形態3にかかる画像補正装置1,1Aがエンコーダ26と制御装置27とに接続されている状況を示す図である。エンコーダ26は、撮像対象23の位置を検出する装置である。制御装置27は、ベルトコンベア24を制御することにより、撮像対象23の移動速度を制御する装置である。   In the first to third embodiments, the image correction devices 1 and 1A may be connected to an encoder and a control device. FIG. 13 is a diagram showing a state in which the image correction devices 1 and 1A according to the first to third embodiments are connected to the encoder 26 and the control device 27. The encoder 26 is a device that detects the position of the imaging target 23. The control device 27 is a device that controls the moving speed of the imaging target 23 by controlling the belt conveyor 24.

この場合、通信部3は、エンコーダ26と制御装置27との一方又は双方から、撮像対象23の位置に関連する情報を受信する。撮像対象23の位置又は撮像対象23の加速度は、通信部3によって受信された情報によって特定されてもよい。エンコーダ26は、撮像対象23の位置又は速度を検出するセンサに置き換えられてもよい。エンコーダ26が撮像対象23の位置又は速度を検出するセンサに置き換えられた場合、通信部3は、センサから撮像対象23の位置に関連する情報を受信する。   In this case, the communication unit 3 receives information related to the position of the imaging target 23 from one or both of the encoder 26 and the control device 27. The position of the imaging target 23 or the acceleration of the imaging target 23 may be specified by the information received by the communication unit 3. The encoder 26 may be replaced by a sensor that detects the position or velocity of the imaging target 23. When the encoder 26 is replaced with a sensor that detects the position or velocity of the imaging target 23, the communication unit 3 receives information related to the position of the imaging target 23 from the sensor.

また、第1の撮像装置21は、深度又は音を検出して検出した結果をもとに画像データを生成する装置であってもよい。   Further, the first imaging device 21 may be a device that generates image data based on a result of detecting and detecting depth or sound.

実施の形態1にかかる画像補正装置1が有するトリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の一部又は全部の機能は、メモリに格納されるプログラムを実行するプロセッサによって実現されてもよい。   The trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12, and the correction image generation unit included in the image correction apparatus 1 according to the first embodiment. Some or all of the functions of 13 may be realized by a processor that executes a program stored in a memory.

プロセッサは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)である。   The processor is a central processing unit (CPU), a processing device, an arithmetic device, a microprocessor, a microcomputer, or a digital signal processor (DSP).

トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の一部又は全部の機能がプロセッサによって実現される場合、当該一部又は全部の機能は、プロセッサと、ソフトウェア、ファームウェア、又は、ソフトウェア及びファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアは、プログラムとして記述され、メモリに格納される。プロセッサは、メモリに記憶されたプログラムを読み出して実行することにより、トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の一部又は全部の機能を実現する。   The processor realizes all or some of the functions of the trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12 and the correction image generation unit 13 When it is performed, the part or all of the functions are realized by a combination of a processor and software, firmware, or software and firmware. Software or firmware is described as a program and stored in a memory. The processor reads and executes the program stored in the memory, thereby generating the trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, and the correction unit 12. And implement all or some of the functions of the corrected image generation unit 13.

トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の一部又は全部の機能がプロセッサによって実現される場合、画像補正装置1は、トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の一部又は全部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリを有する。メモリに格納されるプログラムは、トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の一部又は全部が実行する手順又は方法をコンピュータに実行させるものであるともいえる。   The processor realizes all or some of the functions of the trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12 and the correction image generation unit 13 When the image correction device 1 includes the trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12 and the correction image generation unit 13. It has a memory for storing a program that results in the steps performed by some or all being executed. The program stored in the memory is a part of the trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12 and the correction image generation unit 13 Alternatively, it may be said that the computer is made to execute a procedure or method that is entirely performed.

メモリは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read-Only Memory)等の不揮発性もしくは揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク又はDVD(Digital Versatile Disk)等である。   The memory is, for example, nonvolatile or random access memory (RAM), read only memory (ROM), flash memory, erasable programmable read only memory (EPROM), EEPROM (registered trademark) (electrically erasable programmable read only memory) or the like. It is volatile semiconductor memory, magnetic disk, flexible disk, optical disk, compact disk, mini disk, or DVD (Digital Versatile Disk).

実施の形態1にかかる画像補正装置1が有するトリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の一部又は全部の機能は、処理回路によって実現されてもよい。   The trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12, and the correction image generation unit included in the image correction apparatus 1 according to the first embodiment. Some or all of the functions of 13 may be realized by the processing circuit.

処理回路は、専用のハードウェアである。処理回路は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又はこれらを組み合わせたものである。トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の一部は、残部とは別個の専用のハードウェアであってもよい。   The processing circuit is dedicated hardware. The processing circuit may be, for example, a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), a field-programmable gate array (FPGA), or a combination thereof. is there. The trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12 and a part of the correction image generation unit 13 are dedicated Hardware may be used.

トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の複数の機能について、当該複数の機能の一部がソフトウェア又はファームウェアで実現され、当該複数の機能の残部が専用のハードウェアで実現されてもよい。このように、トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12及び補正画像生成部13の複数の機能は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって実現することができる。   The plurality of functions of the trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12 and the correction image generation unit 13 A part may be realized by software or firmware, and the rest of the plurality of functions may be realized by dedicated hardware. As described above, the plurality of functions of the trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12 and the correction image generation unit 13 It can be realized by hardware, software, firmware, or a combination thereof.

実施の形態3にかかる画像補正装置1Aが有するトリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12、補正画像生成部13及び補間画像生成部16の一部又は全部の機能は、プロセッサによって実現されてもよい。当該一部又は全部の機能がプロセッサによって実現される場合、画像補正装置1Aは、トリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12、補正画像生成部13及び補間画像生成部16の一部又は全部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリを有する。   The trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12, and the correction image generation unit of the image correction device 1A according to the third embodiment 13 and some or all of the functions of the interpolation image generation unit 16 may be realized by a processor. When a part or all of the functions are realized by the processor, the image correction device 1A includes the trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, and the division unit 10. And a memory for storing a program that results in execution of steps executed by part or all of the correction unit 12, the correction image generation unit 13, and the interpolation image generation unit 16.

実施の形態3にかかる画像補正装置1Aが有するトリガ生成部2、通信部3、特徴抽出部5、移動量演算部7、補正画像特定部9、分割部10、補正部12、補正画像生成部13及び補間画像生成部16の一部又は全部の機能は、処理回路によって実現されてもよい。   The trigger generation unit 2, the communication unit 3, the feature extraction unit 5, the movement amount calculation unit 7, the correction image specification unit 9, the division unit 10, the correction unit 12, and the correction image generation unit of the image correction device 1A according to the third embodiment 13 and some or all of the functions of the interpolation image generation unit 16 may be realized by a processing circuit.

以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略又は変更することも可能である。   The configuration shown in the above embodiment shows an example of the contents of the present invention, and can be combined with another known technique, and one of the configurations is possible within the scope of the present invention. It is also possible to omit or change parts.

1,1A 画像補正装置、2 トリガ生成部、3 通信部、4 画像記憶部、5 特徴抽出部、6 特徴記憶部、7 移動量演算部、8 移動量記憶部、9 補正画像特定部、10 分割部、11 補正値記憶部、12 補正部、13 補正画像生成部、14 表示部、15 補正画像記憶部、16 補間画像生成部、21 第1の撮像装置、22 第2の撮像装置、23 撮像対象、23a ぶれ画像、24 ベルトコンベア、26 エンコーダ、27 制御装置、50 撮像システム。   1, 1A image correction device, 2 trigger generation unit, 3 communication unit, 4 image storage unit, 5 feature extraction unit, 6 feature storage unit, 7 movement amount calculation unit, 8 movement amount storage unit, 9 correction image identification unit, 10 A division unit, 11 correction value storage unit, 12 correction unit, 13 correction image generation unit, 14 display unit, 15 correction image storage unit, 16 interpolation image generation unit, 21 first imaging device, 22 second imaging device, 23 Imaging target, 23a blurred image, 24 belt conveyors, 26 encoders, 27 controllers, 50 imaging systems.

Claims (7)

移動する撮像対象を撮像する第1の撮像装置によって1フレームが形成される時間に得られた画像を、前記時間の最終の時刻に形成された画像である最終時刻画像と、前記時間の前記最終の時刻より前に形成された画像である非最終時刻画像とに分割し、前記最終時刻画像及び前記非最終時刻画像の各々を、前記撮像対象の位置をもとに、前記最終時刻画像及び前記非最終時刻画像の各部分が形成された際に要した露光時間毎の複数の領域に分割する分割部と、
前記分割部によって得られた前記最終時刻画像及び前記非最終時刻画像に含まれている複数の領域の各々の輝度値を補正する補正部とを備え、
前記補正部は、前記最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、前記補正対象の領域が形成された際に要した露光時間に対応する第1の補正値を用いて補正し、前記非最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、前記補正対象の領域が形成された際に要した露光時間に対応する第1の補正値と前記非最終時刻画像に対応する第2の補正値とを用いて補正する
ことを特徴とする画像補正装置。
An image obtained at a time when one frame is formed by the first imaging device for imaging a moving imaging target, a final time image which is an image formed at the final time of the time, and the final of the time And dividing the final time image and the non-final time image into the final time image and the non-final time image based on the position of the imaging target. A division unit for dividing into a plurality of regions for each exposure time required when each portion of the non-final time image is formed;
And a correction unit that corrects the luminance value of each of a plurality of areas included in the final time image and the non-final time image obtained by the division unit,
The correction unit is configured to, for a plurality of areas included in the final time image, have a first luminance value corresponding to an exposure time required when the area to be corrected is formed. Correction is performed using a correction value, and for a plurality of areas included in the non-final time image, the luminance value of the area to be corrected corresponds to the exposure time required when the area to be corrected is formed. An image correction apparatus characterized by performing correction using a first correction value to be corrected and a second correction value corresponding to the non-final time image.
前記第1の撮像装置が前記撮像対象を撮像する際のフレームレートより高いフレームレートで前記撮像対象を撮像する第2の撮像装置から画像データを受信する、前記撮像対象の位置若しくは速度を検出するセンサから前記撮像対象の位置に関連する情報を受信する、又は、前記撮像対象の移動速度を制御する制御装置から前記撮像対象の位置に関連する情報を受信する通信部を更に備え、
前記分割部は、前記通信部によって受信された画像データ又は情報によって特定される前記撮像対象の位置をもとに、前記最終時刻画像及び前記非最終時刻画像の各々を、前記複数の領域に分割する
ことを特徴とする請求項1に記載の画像補正装置。
Detecting a position or a speed of the imaging target, which receives image data from a second imaging apparatus that captures the imaging target at a frame rate higher than a frame rate at which the first imaging device captures the imaging target The communication unit further includes a communication unit that receives information related to the position of the imaging target from a sensor, or receives information related to the position of the imaging target from a control device that controls the moving speed of the imaging target.
The dividing unit divides each of the final time image and the non-final time image into the plurality of areas based on the position of the imaging target specified by the image data or information received by the communication unit. The image correction apparatus according to claim 1, further comprising:
前記撮像対象は、加速度運動しており、
前記分割部は、前記非最終時刻画像を、前記非最終時刻画像の各部分が形成された際の露光時間と前記撮像対象の加速度とに対応する複数の領域に分割し、
前記第2の補正値は、前記非最終時刻画像に対応すると共に、前記撮像対象の加速度によって異なり、
前記補正部は、前記非最終時刻画像に含まれている前記複数の領域については、補正対象の領域の輝度値を、前記補正対象の領域が形成された際に要した露光時間に対応する第1の補正値と前記補正対象の領域が形成された際の前記撮像対象の加速度に対応する前記第2の補正値とを用いて補正する
ことを特徴とする請求項1に記載の画像補正装置。
The imaging target is performing an acceleration motion,
The division unit divides the non-final time image into a plurality of regions corresponding to an exposure time when each portion of the non-final time image is formed and an acceleration of the imaging target.
The second correction value corresponds to the non-final time image and differs depending on the acceleration of the imaging target,
The correction unit corresponds to the exposure time required when the area to be corrected is formed for the plurality of areas included in the non-final time image, the luminance value of the area to be corrected being formed. The image correction apparatus according to claim 1, wherein the correction is performed using the first correction value and the second correction value corresponding to the acceleration of the imaging target when the area to be corrected is formed. .
前記第1の撮像装置が前記撮像対象を撮像する際のフレームレートより高いフレームレートで前記撮像対象を撮像する第2の撮像装置から画像データを受信する、前記撮像対象の位置若しくは速度を検出するセンサから前記撮像対象の位置に関連する情報を受信する、又は、前記撮像対象の移動速度を制御する制御装置から前記撮像対象の位置に関連する情報を受信する通信部を更に備え、
前記分割部は、前記通信部によって受信された画像データ又は情報によって特定される前記撮像対象の位置及び加速度をもとに、前記非最終時刻画像を、前記非最終時刻画像の各部分が形成された際の露光時間と前記撮像対象の加速度とに対応する複数の領域に分割し、
前記補正部は、前記非最終時刻画像に含まれている前記複数の領域の各々の輝度値を補正する際、前記通信部によって受信された画像データ又は情報によって特定される前記撮像対象の加速度に対応する前記第2の補正値を用いて補正を行う
ことを特徴とする請求項3に記載の画像補正装置。
Detecting a position or a speed of the imaging target, which receives image data from a second imaging apparatus that captures the imaging target at a frame rate higher than a frame rate at which the first imaging device captures the imaging target The communication unit further includes a communication unit that receives information related to the position of the imaging target from a sensor, or receives information related to the position of the imaging target from a control device that controls the moving speed of the imaging target.
The division unit is configured to form the non-final time image and each portion of the non-final time image based on a position and an acceleration of the imaging target specified by the image data or information received by the communication unit. Divided into a plurality of areas corresponding to the exposure time at the time of image
When the correction unit corrects the luminance value of each of the plurality of areas included in the non-final time image, the correction unit uses the acceleration of the imaging target specified by the image data or information received by the communication unit. The image correction apparatus according to claim 3, wherein the correction is performed using the corresponding second correction value.
前記補正部が補正を行うことによって得た第1の画像と前記撮像対象の位置とをもとに、前記第1の画像の補正前の画像が得られた第1の時刻と前記補正部が補正を行うことによって前記第1の画像の次に得る第2の画像の補正前の画像が得られる第2の時刻との間の時刻の前記撮像対象の画像を生成する補間画像生成部を更に備える
ことを特徴とする請求項1又は3に記載の画像補正装置。
The first time at which the image before correction of the first image is obtained based on the first image obtained by performing the correction by the correction unit and the position of the imaging target, and the correction unit The interpolation image generation unit further generates an image of the imaging target at a time between a second time before the correction of the second image obtained next to the first image by performing the correction and a second time before the correction. The image correction apparatus according to claim 1, comprising:
前記第1の撮像装置が前記撮像対象を撮像する際のフレームレートより高いフレームレートで前記撮像対象を撮像する第2の撮像装置から画像データを受信する、前記撮像対象の位置若しくは速度を検出するセンサから前記撮像対象の位置に関連する情報を受信する、又は、前記撮像対象の移動速度を制御する制御装置から前記撮像対象の位置に関連する情報を受信する通信部を更に備え、
前記補間画像生成部は、前記通信部によって受信される画像データ又は情報によって特定される前記撮像対象の位置をもとに、前記第1の時刻と前記第2の時刻との間の時刻の前記撮像対象の画像を生成する
ことを特徴とする請求項5に記載の画像補正装置。
Detecting a position or a speed of the imaging target, which receives image data from a second imaging apparatus that captures the imaging target at a frame rate higher than a frame rate at which the first imaging device captures the imaging target The communication unit further includes a communication unit that receives information related to the position of the imaging target from a sensor, or receives information related to the position of the imaging target from a control device that controls the moving speed of the imaging target.
The interpolation image generation unit is configured to calculate the time between the first time and the second time based on the position of the imaging target specified by the image data or information received by the communication unit. The image correction apparatus according to claim 5, wherein an image of an imaging target is generated.
移動する撮像対象を撮像する第1の撮像装置によって1フレームが形成される時間に得られた画像を、前記時間の最終の時刻に形成された画像である最終時刻画像と、前記時間の前記最終の時刻より前に形成された画像である非最終時刻画像とに分割し、前記最終時刻画像及び前記非最終時刻画像の各々を、前記撮像対象の位置をもとに、前記最終時刻画像及び前記非最終時刻画像の各部分が形成された際に要した露光時間毎の複数の領域に分割する分割ステップと、
前記分割ステップにおいて得られた前記最終時刻画像及び前記非最終時刻画像に含まれている複数の領域の各々の輝度値を補正する補正ステップとを含み、
前記補正ステップにおいて、前記最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、前記補正対象の領域が形成された際に要した露光時間に対応する第1の補正値を用いて補正し、前記非最終時刻画像に含まれている複数の領域については、補正対象の領域の輝度値を、前記補正対象の領域が形成された際に要した露光時間に対応する第1の補正値と前記非最終時刻画像に対応する第2の補正値とを用いて補正する
ことを特徴とする画像補正方法。
An image obtained at a time when one frame is formed by the first imaging device for imaging a moving imaging target, a final time image which is an image formed at the final time of the time, and the final of the time And dividing the final time image and the non-final time image into the final time image and the non-final time image based on the position of the imaging target. A division step of dividing into a plurality of areas for each exposure time required when each portion of the non-final time image is formed;
Correcting the luminance value of each of a plurality of areas included in the final time image and the non-final time image obtained in the division step;
In the correction step, for a plurality of areas included in the final time image, a first luminance value of the area to be corrected corresponds to an exposure time required when the area to be corrected is formed. Correction is performed using a correction value, and for a plurality of areas included in the non-final time image, the luminance value of the area to be corrected corresponds to the exposure time required when the area to be corrected is formed. And correcting using the first correction value and the second correction value corresponding to the non-final time image.
JP2019504145A 2018-07-23 2018-07-23 Image correction apparatus and image correction method Active JP6502003B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/027529 WO2020021601A1 (en) 2018-07-23 2018-07-23 Image correction apparatus and image correction method

Publications (2)

Publication Number Publication Date
JP6502003B1 true JP6502003B1 (en) 2019-04-17
JPWO2020021601A1 JPWO2020021601A1 (en) 2020-07-30

Family

ID=66166748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019504145A Active JP6502003B1 (en) 2018-07-23 2018-07-23 Image correction apparatus and image correction method

Country Status (3)

Country Link
JP (1) JP6502003B1 (en)
CN (1) CN112425147B (en)
WO (1) WO2020021601A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276361A (en) * 1997-01-31 1998-10-13 Sony Corp Image pickup device and method, image pickup system, image information service device and method, image data processing unit and method, and transmission medium
JP2009017223A (en) * 2007-07-04 2009-01-22 Sony Corp Imaging device, image processing device, and their image processing method and program
JP2009044236A (en) * 2007-08-06 2009-02-26 Fujifilm Corp White balance adjustment device and white balance adjustment method
JP2017187434A (en) * 2016-04-08 2017-10-12 日本アビオニクス株式会社 Infrared imaging device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3804617B2 (en) * 2003-02-14 2006-08-02 コニカミノルタフォトイメージング株式会社 Image processing apparatus and method
CN102831870B (en) * 2009-08-18 2015-05-13 夏普株式会社 Display device and method for correcting uneven brightness of display device
WO2011114572A1 (en) * 2010-03-19 2011-09-22 富士フイルム株式会社 Imaging device, method and program, and recording medium using same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276361A (en) * 1997-01-31 1998-10-13 Sony Corp Image pickup device and method, image pickup system, image information service device and method, image data processing unit and method, and transmission medium
JP2009017223A (en) * 2007-07-04 2009-01-22 Sony Corp Imaging device, image processing device, and their image processing method and program
JP2009044236A (en) * 2007-08-06 2009-02-26 Fujifilm Corp White balance adjustment device and white balance adjustment method
JP2017187434A (en) * 2016-04-08 2017-10-12 日本アビオニクス株式会社 Infrared imaging device

Also Published As

Publication number Publication date
CN112425147A (en) 2021-02-26
JPWO2020021601A1 (en) 2020-07-30
CN112425147B (en) 2021-08-27
WO2020021601A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
US9946955B2 (en) Image registration method
JP6151930B2 (en) Imaging apparatus and control method thereof
JP2019215622A5 (en)
JP6502003B1 (en) Image correction apparatus and image correction method
JP2014127773A5 (en)
WO2019151030A1 (en) Imaging device, solid-state imaging element, camera module, drive control unit, and imaging method
JP7468637B2 (en) Imaging system, imaging method, and computer program
JP5740370B2 (en) Region specifying apparatus, method, and program
JP2014138331A (en) Imaging apparatus and program
JP2006115346A (en) Imaging apparatus and camera shake correction method
KR20180102080A (en) A method and apparatus for displaying a front-view around a vehicle,
JP5955003B2 (en) Image processing apparatus, image processing method, and program
JP2020021104A5 (en)
JP2015095670A (en) Imaging apparatus, control method thereof and control program
JP6604783B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6602089B2 (en) Image processing apparatus and control method thereof
US10257420B2 (en) Image processing apparatus, optical apparatus, and image processing method
JP6234335B2 (en) IMAGING DEVICE AND MOBILE BODY WITH IMAGING DEVICE
JP5505072B2 (en) Image data processing apparatus and image data processing method
JP6671975B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
JP2020160756A5 (en)
JP2020170924A (en) Imaging device, control method, and program
JP6070611B2 (en) Image reading apparatus and image reading method
JP2010257196A (en) Image processing apparatus and image processing method
JP2020092373A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190125

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190125

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190319

R150 Certificate of patent or registration of utility model

Ref document number: 6502003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250