JP6238677B2 - Image processing apparatus, imaging apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, imaging apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6238677B2
JP6238677B2 JP2013216809A JP2013216809A JP6238677B2 JP 6238677 B2 JP6238677 B2 JP 6238677B2 JP 2013216809 A JP2013216809 A JP 2013216809A JP 2013216809 A JP2013216809 A JP 2013216809A JP 6238677 B2 JP6238677 B2 JP 6238677B2
Authority
JP
Japan
Prior art keywords
image
images
unit
sub
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013216809A
Other languages
Japanese (ja)
Other versions
JP2015080117A (en
Inventor
耕太郎 滝上
耕太郎 滝上
Original Assignee
株式会社アウトソーシングテクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アウトソーシングテクノロジー filed Critical 株式会社アウトソーシングテクノロジー
Priority to JP2013216809A priority Critical patent/JP6238677B2/en
Publication of JP2015080117A publication Critical patent/JP2015080117A/en
Application granted granted Critical
Publication of JP6238677B2 publication Critical patent/JP6238677B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置、撮像装置、画像処理方法及び画像処理プログラムに関し、特に、複数の画像を連結する画像処理装置、撮像装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing method, and an image processing program, and more particularly, to an image processing device, an imaging device, an image processing method, and an image processing program that connect a plurality of images.

従来、複数の画像を連結してパノラマ画像を得る画像処理装置及び撮像装置が知られている(例えば、特許文献1及び特許文献2)。パノラマ画像を得るための複数の画像は、単一又は複数のカメラによって撮影される。撮影された複数の画像は、例えば、隣り合う画像の端部同士を重ねた状態で連結されて、単一のパノラマ画像が生成される。   Conventionally, an image processing apparatus and an imaging apparatus that connect a plurality of images to obtain a panoramic image are known (for example, Patent Document 1 and Patent Document 2). A plurality of images for obtaining a panoramic image are taken by a single camera or a plurality of cameras. The plurality of captured images are connected, for example, with the ends of adjacent images overlapped to generate a single panoramic image.

特開2008−61237号公報JP 2008-61237 A 特表2001−501342号公報Special table 2001-501342 gazette

しかしながら、連結する複数の画像は、それぞれ撮影する被写体の明るさや光源状態が異なる条件下で撮影される場合がある。また、複数の画像を複数のカメラによって撮影する場合には、カメラの個体差によるホワイトバランス、露出等の差異も発生し得る。したがって、画像の色合いや明るさが、画像ごとに異なってしまう場合がある。色合いや明るさが異なる画像を連結すると、画像を連結するつなぎ目が目立ってしまう。よって、色合いや明るさの異なる画像を連結するためには、連結領域(ステッチング部分)にボケを加える処理を施したり、連結用に別画像を生成して、この別画像を介して画像を連結したりすることが考えられる。しかしながら、このような対処では演算処理速度が遅くなる。特に動画では、フレームレートの低下や、連結部分のボケがフレームごとに異なることに起因した違和感などが生じてしまう。   However, there are cases where a plurality of images to be connected are shot under conditions in which the brightness of the subject to be shot and the light source state are different. Further, when a plurality of images are taken by a plurality of cameras, differences such as white balance and exposure due to individual differences of the cameras may occur. Therefore, the color and brightness of the image may vary from image to image. When images with different hues and brightness are connected, the joints connecting the images become conspicuous. Therefore, in order to connect images with different hues and brightness, a process of adding blur to the connection area (stitching portion) is performed, or another image is generated for connection, and the image is connected via this separate image. It can be considered to be connected. However, such a countermeasure slows down the arithmetic processing speed. In particular, in a moving image, a decrease in the frame rate, a sense of incongruity caused by the fact that the blur of the connected portion differs from frame to frame, and the like occur.

上記に鑑みて本発明は、静止画及び動画のいずれにおいても、複数の画像を連結する処理速度を高めると共に、複数の画像の連結部分が目立たない画像処理を実現することを目的とする。   In view of the above, an object of the present invention is to increase the processing speed of connecting a plurality of images in both a still image and a moving image and to realize image processing in which a connecting portion of the plurality of images is not conspicuous.

上記目的を達成するために、本発明に係る画像処理装置は、複数の画像を入力する画像入力部と、画像入力部が入力した複数の画像の一部を連結領域として互いに重ね合わせて、複数の画像を連結する画像連結部とを備え、画像連結部は、連結領域を、互いに重ね合わされる複数のサブ領域に分割し、連結領域における色の差異の変化が緩やかになるように、サブ領域ごとの混合比率を変化させて、サブ領域を互いに重ね合わせるブレンディング処理部を備える。   In order to achieve the above object, an image processing apparatus according to the present invention includes an image input unit that inputs a plurality of images and a plurality of images input by the image input unit that overlap each other as a connected region, An image connecting unit for connecting the images, and the image connecting unit divides the connected region into a plurality of sub-regions that are overlapped with each other so that the change in the color difference in the connected region becomes gradual. A blending processing unit that superimposes the sub-regions on each other by changing the mixing ratio is provided.

「色」とは、無彩色及び有彩色を含むものをいい、例えば、RGB値によって表現され得る。「色の差異」には、色相の差異、彩度の差異又は明度の差異が含まれる。   “Color” refers to a color including an achromatic color and a chromatic color, and can be expressed by an RGB value, for example. The “color difference” includes a hue difference, a saturation difference, or a brightness difference.

本発明に係る画像処理装置によれば、連結領域における色の差異の変化が緩やかになるように、サブ領域ごとの混合比率を変化させて、サブ領域を互いに重ね合わせるブレンディング処理部を備えることから、複数の画像の連結部分が目立たない画像処理を実現することができる。また、ブレンディング処理部は、サブ領域ごとの画像の混合比率を変化させることによって、連結領域における色の差異の変化を緩やかにしている。したがって、例えば、ボケを施すために透明度を示す係数(アルファ値)を別途演算処理する必要がない。また、連結用の別画像を生成する必要もない。よって、画像連結処理における処理速度を高めることができる。   The image processing apparatus according to the present invention includes the blending processing unit that superimposes the sub-regions on each other by changing the mixing ratio for each sub-region so that the change in the color difference in the connected region becomes gradual. Therefore, it is possible to realize image processing in which a connection portion of a plurality of images is not conspicuous. In addition, the blending processing unit moderates the change in the color difference in the connected region by changing the mixing ratio of the image for each sub-region. Therefore, for example, it is not necessary to separately calculate a coefficient (alpha value) indicating transparency for blurring. Further, it is not necessary to generate another image for connection. Therefore, the processing speed in the image connection process can be increased.

このように、本発明に係る画像処理装置によれば、静止画及び動画のいずれにおいても、複数の画像を連結する処理速度を高めると共に、複数の画像の連結部分が目立たない画像処理を実現することができる。   As described above, according to the image processing apparatus of the present invention, in both a still image and a moving image, the processing speed for connecting a plurality of images is increased, and image processing in which a connecting portion of the plurality of images is not conspicuous is realized. be able to.

例えば、ブレンディング処理部は、複数の画像を連結する連結方向に連結領域を分割して複数のサブ領域を設定する。これにより、連結領域における色の差異の変化を連結方向に緩やかにすることができる。   For example, the blending processing unit sets a plurality of sub-regions by dividing a connection region in a connection direction for connecting a plurality of images. Thereby, the change of the color difference in a connection area | region can be made loose in a connection direction.

一例として、ブレンディング処理部は、複数の画像の混合比率を、一方の画像の複数のサブ領域における比率が、連結領域の先端に近づくにつれて減少すると共に、他方の画像の複数のサブ領域における比率が、連結領域の先端に近づくにつれて減少するように決定するものである。これにより、連結領域における色の差異を連結方向に漸次的に変化させることができる。   As an example, the blending processing unit decreases the mixing ratio of the plurality of images as the ratio of the one image in the plurality of sub-regions approaches the end of the connected region, and the ratio of the other image in the plurality of sub-regions. , It is determined so as to decrease as it approaches the tip of the connection region. Thereby, the color difference in a connection area | region can be changed gradually in a connection direction.

ブレンディング処理部は、サブ領域のRGB値を混合比率に基づいて算出してもよい。これにより、サブ領域における画像のブレンドを容易に実行することができる。   The blending processing unit may calculate the RGB values of the sub areas based on the mixing ratio. Thereby, blending of images in the sub-region can be easily executed.

例えば、画像連結部は、複数の画像を補正する画像補正部をさらに備え、画像補正部は、複数の画像を仮想球体の球面上にそれぞれ投影して複数の球体投影画像を取得し、複数の球体投影画像を仮想の円柱周面上にそれぞれ投影して複数の円柱投影画像を取得することによって、複数の画像を補正するものであり、ブレンディング処理部は、画像補正部によって補正した複数の画像を連結するものであってもよい。これにより、複数の画像の遠近感異常(遠近感が正確に表現されない現象)及び歪みを補正して、複数の画像をスムーズに連結することができる。   For example, the image connection unit further includes an image correction unit that corrects a plurality of images, and the image correction unit projects a plurality of images onto the spherical surface of the virtual sphere to obtain a plurality of sphere projection images, and Each of the spherical projection images is projected onto a virtual cylindrical peripheral surface to obtain a plurality of cylindrical projection images, thereby correcting the plurality of images. The blending processing unit corrects the plurality of images corrected by the image correction unit. May be connected. Thereby, perspective abnormality (a phenomenon in which perspective is not accurately expressed) and distortion of a plurality of images can be corrected, and the plurality of images can be smoothly connected.

本発明に係る撮像装置は、複数の画像を撮像する撮像部と、前述の画像処理装置を備える。これにより、本発明に係る撮像装置によれば、前述の画像処理装置と同様に、静止画及び動画のいずれにおいても、複数の画像を連結する処理速度を高めると共に、複数の画像の連結部分が目立たない画像処理を実現することができる。   An imaging apparatus according to the present invention includes an imaging unit that captures a plurality of images and the above-described image processing apparatus. Thereby, according to the imaging device according to the present invention, as in the above-described image processing device, the processing speed for connecting a plurality of images is increased in both a still image and a moving image, and a connecting portion of the plurality of images is provided. Inconspicuous image processing can be realized.

本発明に係る画像処理方法は、複数の画像を入力する画像入力ステップと、画像入力ステップにおいて入力した複数の画像の一部を連結領域として互いに重ね合わせて、複数の画像を連結する画像連結ステップとを含み、画像連結ステップは、連結領域を、互いに重ね合わされる複数のサブ領域に分割し、連結領域における色の差異の変化が緩やかになるように、サブ領域ごとの混合比率を変化させて、サブ領域を互いに重ね合わせるブレンディング処理ステップを含む。これにより、本発明に係る画像処理方法によれば、前述の画像処理装置と同様に、静止画及び動画のいずれにおいても、複数の画像を連結する処理速度を高めると共に、複数の画像の連結部分が目立たない画像処理を実現することができる。   An image processing method according to the present invention includes: an image input step for inputting a plurality of images; and an image connection step for connecting a plurality of images by overlapping a part of the plurality of images input in the image input step as a connection region. In the image connection step, the connection region is divided into a plurality of sub-regions that are overlapped with each other, and the mixing ratio for each sub-region is changed so that the change in the color difference in the connection region becomes gradual. , Including a blending process step of superimposing the sub-regions on each other. As a result, according to the image processing method of the present invention, as in the above-described image processing device, the processing speed for connecting a plurality of images is increased in both a still image and a moving image, and a connecting portion of the plurality of images is also provided. It is possible to realize image processing in which is not conspicuous.

本発明に係る画像処理プログラムは、コンピュータに、複数の画像を入力する画像入力ステップと、画像入力ステップにおいて入力した複数の画像の一部を連結領域として互いに重ね合わせて、複数の画像を連結する画像連結ステップとを実行させるための画像処理プログラムであって、画像連結ステップは、連結領域を、互いに重ね合わされる複数のサブ領域に分割し、連結領域における色の差異の変化が緩やかになるように、サブ領域ごとの混合比率を変化させて、サブ領域を互いに重ね合わせるブレンディング処理ステップを含む。これにより、本発明に係る画像処理プログラムによれば、前述の画像処理装置と同様に、静止画及び動画のいずれにおいても、複数の画像を連結する処理速度を高めると共に、複数の画像の連結部分が目立たない画像処理を実現することができる。   An image processing program according to the present invention connects a plurality of images to a computer by superimposing an image input step for inputting a plurality of images and a part of the plurality of images input in the image input step as a connection region. An image processing program for executing an image connection step, wherein the image connection step divides the connection region into a plurality of sub-regions that are overlapped with each other so that a change in color difference in the connection region is moderated. In addition, a blending process step of superimposing the sub-regions on each other by changing the mixing ratio for each sub-region is included. As a result, according to the image processing program of the present invention, as in the above-described image processing apparatus, the processing speed for connecting a plurality of images is increased in both a still image and a moving image, and a connecting portion for a plurality of images is also provided. It is possible to realize image processing in which is not conspicuous.

本発明に係る画像処理装置によれば、連結領域における色の差異の変化が緩やかになるように、サブ領域ごとの混合比率を変化させて、サブ領域を互いに重ね合わせるブレンディング処理部を備えることから、複数の画像の連結部分が目立たない画像処理を実現することができる。また、ブレンディング処理部は、サブ領域ごとの画像の混合比率を変化させることによって、連結領域における色の差異の変化を緩やかにしている。したがって、例えば、ボケを施すために透明度を示す係数(アルファ値)を別途演算処理する必要がない。また、連結用の別画像を生成する必要もない。よって、画像連結処理における処理速度を高めることができる。   The image processing apparatus according to the present invention includes the blending processing unit that superimposes the sub-regions on each other by changing the mixing ratio for each sub-region so that the change in the color difference in the connected region becomes gradual. Therefore, it is possible to realize image processing in which a connection portion of a plurality of images is not conspicuous. In addition, the blending processing unit moderates the change in the color difference in the connected region by changing the mixing ratio of the image for each sub-region. Therefore, for example, it is not necessary to separately calculate a coefficient (alpha value) indicating transparency for blurring. Further, it is not necessary to generate another image for connection. Therefore, the processing speed in the image connection process can be increased.

このように、本発明に係る画像処理装置によれば、静止画及び動画のいずれにおいても、複数の画像を連結する処理速度を高めると共に、複数の画像の連結部分が目立たない画像処理を実現することができる。   As described above, according to the image processing apparatus of the present invention, in both a still image and a moving image, the processing speed for connecting a plurality of images is increased, and image processing in which a connecting portion of the plurality of images is not conspicuous is realized. be able to.

本実施形態に係る撮像装置の構成図である。It is a block diagram of the imaging device which concerns on this embodiment. 本実施形態に係る撮像部の位置関係を表すイメージ図である。It is an image figure showing the positional relationship of the imaging part which concerns on this embodiment. 本実施形態に係る前処理部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the pre-processing part which concerns on this embodiment. 本実施形態に係る前処理部が処理する仮画像の説明図である。It is explanatory drawing of the temporary image which the pre-processing part which concerns on this embodiment processes. 本実施形態に係る球体円柱投影のイメージ図である。It is an image figure of the spherical cylinder projection which concerns on this embodiment. 本実施形態に係る球体円柱投影による座標変換のイメージ図である。It is an image figure of the coordinate transformation by the spherical cylinder projection which concerns on this embodiment. 本実施形態に係る撮影時の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process at the time of imaging | photography concerning this embodiment. 本実施形態に係る画像補正部と画像連結部が処理する画像の説明図である。It is explanatory drawing of the image which the image correction part and image connection part which concern on this embodiment process. 本実施形態に係る撮像装置によって画像を連結した連結領域を示す画像写真である。It is an image photograph which shows the connection area | region which connected the image with the imaging device which concerns on this embodiment. 図9の部分拡大写真である。Fig. 10 is a partially enlarged photograph of Fig. 9. 図9及び図10に示した連結領域を含むパノラマ写真の一部である。FIG. 11 is a part of a panoramic photograph including the connection area shown in FIGS. 9 and 10. FIG. 本実施形態に係る撮像装置を使用せずに、画像を連結した連結領域を示す画像写真である。It is an image photograph which shows the connection area | region which connected the image, without using the imaging device which concerns on this embodiment. 図12に示した連結領域を含むパノラマ写真の一部である。FIG. 13 is a part of a panoramic photograph including the connected area shown in FIG. 12.

以下、本発明の実施の形態を添付の図により説明する。
<構成>
図1に本実施形態に係る撮像装置1の構成図を示す。撮像装置1は、一例として、撮影した複数の画像を連結してパノラマ画像を生成する多眼カメラである。撮像装置1は、撮像部2と、画像入力部3と、制御部4と、前処理部5と、画像補正部22と、画像連結部6と、記憶部7と、出力部10と、入力部11とを備えている。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
<Configuration>
FIG. 1 shows a configuration diagram of an imaging apparatus 1 according to the present embodiment. As an example, the imaging apparatus 1 is a multi-lens camera that generates a panoramic image by connecting a plurality of captured images. The imaging device 1 includes an imaging unit 2, an image input unit 3, a control unit 4, a preprocessing unit 5, an image correction unit 22, an image connection unit 6, a storage unit 7, an output unit 10, and an input. Part 11.

撮像部2は、パノラマ画像を構成する複数の画像を撮像するものである。撮像部2は、レンズや絞り等を備える撮像光学系14と撮像素子15を備えている。撮像素子15は、CCDやCMOS等のイメージセンサである。撮像素子15は、カラーフィルタ、アンプ、及びA/Dコンバータ等を備え、撮像光学系14によって捉えられた像を光電変換し、デジタル画像信号を画像入力部3に出力する。本実施形態では、撮像部2において、撮像光学系14と撮像素子15を備える撮像機構が3組(第1の撮像部2A,第2の撮像部2B,第3の撮像部2C)設けられている。   The imaging unit 2 captures a plurality of images constituting a panoramic image. The imaging unit 2 includes an imaging optical system 14 that includes a lens, a diaphragm, and the like, and an imaging element 15. The image sensor 15 is an image sensor such as a CCD or a CMOS. The imaging element 15 includes a color filter, an amplifier, an A / D converter, and the like, photoelectrically converts an image captured by the imaging optical system 14, and outputs a digital image signal to the image input unit 3. In the present embodiment, in the imaging unit 2, three sets of imaging mechanisms including the imaging optical system 14 and the imaging element 15 (first imaging unit 2A, second imaging unit 2B, and third imaging unit 2C) are provided. Yes.

図2に、撮像部2の位置関係を表すイメージ図を示す。第1の撮像部2Aと第2の撮像部2Bと第3の撮像部2Cは、中心軸2Xを基準として左右回転方向Rに回転し、且つ上下方向Hにずれて設置されている。第1の撮像部2Aは、第2の撮像部2Bに対して角度a1分、反時計回りに回転し、高さh1分、低い位置に設置されている。第3の撮像部2Cは、第2の撮像部2Bに対して角度a2分、時計回りに回転し、第2の撮像部2Bに対して高さh2分、高い位置に設置されている。   FIG. 2 is an image diagram showing the positional relationship of the imaging unit 2. The first imaging unit 2A, the second imaging unit 2B, and the third imaging unit 2C rotate in the left-right rotation direction R with respect to the central axis 2X, and are shifted in the up-down direction H. The first imaging unit 2A rotates counterclockwise by an angle a1 with respect to the second imaging unit 2B and is installed at a low position by a height h1. The third imaging unit 2C rotates clockwise by an angle a2 with respect to the second imaging unit 2B, and is installed at a high position by a height h2 with respect to the second imaging unit 2B.

したがって、第1の撮像部2Aは、第2の撮像部2Bの撮影領域から角度a1分回転した位置を撮影し、第3の撮像部2Cは、第2の撮像部2Bの撮影領域から角度a2分回転した位置を撮影する。上下のズレ分(高さh1,h2)は、実際には左右のズレ分(角度a1,a2)と比較して僅かである。第1の撮像部2Aと第2の撮像部2Bと第3の撮像部2Cが撮像した各画像を左右回転方向Rに連結することによって、第1の撮像部2Aの撮影領域から第3の撮像部2Cの撮影領域までが連続したパノラマ画像が生成される。   Therefore, the first imaging unit 2A captures the position rotated by the angle a1 from the imaging region of the second imaging unit 2B, and the third imaging unit 2C detects the angle a2 from the imaging region of the second imaging unit 2B. Take a picture of the rotated position. The vertical displacement (height h1, h2) is actually slightly smaller than the lateral displacement (angles a1, a2). By connecting the images captured by the first imaging unit 2A, the second imaging unit 2B, and the third imaging unit 2C in the left-right rotation direction R, the third imaging is performed from the imaging region of the first imaging unit 2A. A panoramic image in which the area up to the photographing area of the part 2C is continuous is generated.

なお、第1の撮像部2Aの撮像光学系14と、第2の撮像部2Bの撮像光学系14と、第3の撮像部2Cの撮像光学系14は、入射瞳の位置で位置合わせされている。すなわち、上下にずれて設置された第1の撮像部2Aの撮像光学系14と、第2の撮像部2Bの撮像光学系14と、第3の撮像部2Cの撮像光学系14の入射瞳位置は一致している。   The imaging optical system 14 of the first imaging unit 2A, the imaging optical system 14 of the second imaging unit 2B, and the imaging optical system 14 of the third imaging unit 2C are aligned at the position of the entrance pupil. Yes. That is, the entrance pupil position of the imaging optical system 14 of the first imaging unit 2A, the imaging optical system 14 of the second imaging unit 2B, and the imaging optical system 14 of the third imaging unit 2C, which are set up and down. Are consistent.

第1の撮像部2Aと第2の撮像部2Bと第3の撮像部2Cの位置関係は相対的に固定されているため、上下のズレ分(高さh1,h2)と左右のズレ分(角度a1,a2)は、撮影時に変動しない。   Since the positional relationship among the first imaging unit 2A, the second imaging unit 2B, and the third imaging unit 2C is relatively fixed, the vertical deviation (height h1, h2) and the horizontal deviation ( The angles a1 and a2) do not vary during shooting.

画像入力部3は、複数の画像を制御部4に入力するものであり、撮像部2から入力されたデジタル画像信号を制御部4に出力する。制御部4は、撮像装置1の各処理を制御する。前処理部5は、撮影前の有効画像領域及び連結領域の設定を実行する。画像補正部22は、撮像部2が撮像した画像を補正し、画像連結部6は、補正された画像を連結する。画像入力部3と、制御部4と、前処理部5と、画像補正部22と、画像連結部6は、CPU等の演算手段によって実現し、メインメモリ、フラッシュメモリ、ハードディスク等の記憶手段と協働して機能する。   The image input unit 3 inputs a plurality of images to the control unit 4, and outputs a digital image signal input from the imaging unit 2 to the control unit 4. The control unit 4 controls each process of the imaging device 1. The preprocessing unit 5 performs setting of an effective image area and a connected area before photographing. The image correction unit 22 corrects the image captured by the imaging unit 2, and the image connection unit 6 connects the corrected images. The image input unit 3, the control unit 4, the preprocessing unit 5, the image correction unit 22, and the image connection unit 6 are realized by a calculation unit such as a CPU, and a storage unit such as a main memory, a flash memory, and a hard disk. Work together.

前処理部5は、仮画像読み込み部16と、仮画像補正部17と、有効画像領域設定部18と、連結領域設定部19とを備えている。前処理部5によって処理される画像は設定用の画像であるため、仮画像と呼ぶ。仮画像読み込み部16は、撮像部2が撮像した複数の仮画像を画像入力部3及び制御部4を介して読み込む。仮画像補正部17は、仮画像読み込み部16が読み込んだ仮画像の遠近感異常及び歪みを補正する。本実施形態において、仮画像補正部17は、球体円柱投影による補正を行う。   The preprocessing unit 5 includes a temporary image reading unit 16, a temporary image correction unit 17, an effective image region setting unit 18, and a connected region setting unit 19. Since the image processed by the preprocessing unit 5 is a setting image, it is called a temporary image. The temporary image reading unit 16 reads a plurality of temporary images captured by the imaging unit 2 via the image input unit 3 and the control unit 4. The temporary image correction unit 17 corrects the perspective abnormality and distortion of the temporary image read by the temporary image reading unit 16. In the present embodiment, the temporary image correction unit 17 performs correction by spherical cylindrical projection.

球体円柱投影による補正とは、球体投影と円柱投影とを組み合わせた補正方法であり、撮像した画像の遠近感異常及び歪みを解消するために、複数の画像を仮想球体の球面上に投影し、球面に投影した画像を平面展開するために、仮想の円柱周面上にさらに投影する補正方法である。   Correction by spherical cylindrical projection is a correction method that combines spherical projection and cylindrical projection, and projects multiple images on the spherical surface of a virtual sphere in order to eliminate perspective abnormality and distortion of the captured image. This is a correction method in which an image projected onto a spherical surface is further projected onto a virtual cylindrical circumferential surface in order to develop it on a plane.

仮画像補正部17は、複数の仮画像を仮想球体の球面上にそれぞれ投影して複数の球体投影画像を取得し、複数の球体投影画像を仮想の円柱周面上にそれぞれ投影して複数の円柱投影画像を取得することによって、撮像した複数の仮画像を補正する。有効画像領域設定部18は、撮像した複数の仮画像において、パノラマ画像として使用する有効画像領域を設定する。連結領域設定部19は、撮像した複数の画像を連結する連結領域を設定する。   The temporary image correction unit 17 obtains a plurality of spherical projection images by projecting a plurality of temporary images onto the spherical surface of the virtual sphere, and projects the plurality of spherical projection images onto a virtual cylindrical circumferential surface to thereby provide a plurality of projections. A plurality of captured temporary images are corrected by acquiring a cylindrical projection image. The effective image area setting unit 18 sets an effective image area to be used as a panoramic image in a plurality of captured temporary images. The connection area setting unit 19 sets a connection area for connecting a plurality of captured images.

画像補正部22と画像連結部6は、前処理部5による有効画像領域及び連結領域の設定が完了した後、パノラマ画像の撮影時に機能する。画像補正部22は、画像入力部3と制御部4を介して入力された複数の画像の遠近感異常及び歪みを補正する。本実施形態において、画像補正部22は、球体円柱投影による補正を行う。画像補正部22は、撮像した複数の画像を仮想球体の球面上にそれぞれ投影して複数の球体投影画像を取得し、複数の球体投影画像を仮想の円柱周面上にそれぞれ投影して複数の円柱投影画像を取得することによって、撮像した複数の画像を補正する。   The image correcting unit 22 and the image connecting unit 6 function at the time of capturing a panoramic image after the setting of the effective image region and the connecting region by the preprocessing unit 5 is completed. The image correction unit 22 corrects perspective abnormality and distortion of a plurality of images input via the image input unit 3 and the control unit 4. In the present embodiment, the image correction unit 22 performs correction by spherical cylindrical projection. The image correction unit 22 projects a plurality of captured images onto a spherical surface of a virtual sphere to obtain a plurality of spherical projection images, and projects the plurality of spherical projection images onto a virtual cylindrical circumferential surface to project a plurality of spherical projection images. By acquiring a cylindrical projection image, a plurality of captured images are corrected.

画像連結部6は、ブレンディング処理部24と、連結領域及び非連結領域結合部28と、画像整形部29とを備えている。ブレンディング処理部24は、連結領域決定部25とブレンディング実行部26を備えている。連結領域決定部25は、連結領域を、互いに重ね合わされる複数のサブ領域に分割する。本実施形態では、複数の画像を連結する連結方向に連結領域を分割して複数のサブ領域を設定する。ブレンディング実行部26は、連結領域における色の差異の変化が緩やかになるように、サブ領域ごとの混合比率を変化させて、サブ領域を互いに重ね合わせる。   The image connecting unit 6 includes a blending processing unit 24, a connected region / non-connected region combining unit 28, and an image shaping unit 29. The blending processing unit 24 includes a connected area determination unit 25 and a blending execution unit 26. The connection area determination unit 25 divides the connection area into a plurality of sub areas that are overlapped with each other. In this embodiment, a connection area | region is divided | segmented into the connection direction which connects a some image, and a some sub area | region is set. The blending execution unit 26 superimposes the sub-regions on each other by changing the mixing ratio for each sub-region so that the change in the color difference in the connected region becomes gradual.

本実施形態では、ブレンディング処理部24は、複数の画像の混合比率を、一方の画像の複数のサブ領域における比率が、連結領域の先端に近づくにつれて減少すると共に、他方の画像の複数のサブ領域における比率が、連結領域の先端に近づくにつれて減少するように決定する。また、一例として、ブレンディング処理部24は、サブ領域のRGB値を画像の混合比率に基づいて算出する。   In the present embodiment, the blending processing unit 24 reduces the mixing ratio of the plurality of images as the ratio of the plurality of sub-regions of one image approaches the tip of the connected region, and the plurality of sub-regions of the other image. The ratio at is determined to decrease as it approaches the tip of the connected region. As an example, the blending processing unit 24 calculates the RGB value of the sub-region based on the mixing ratio of the images.

連結領域及び非連結領域結合部28は、ブレンディング処理部24によって複数のサブ領域に分割され重ね合わされた連結領域と、連結領域以外の画像部分である非連結領域とを結合して単一画像を生成する。画像整形部29は、生成された単一画像を前処理部5によって設定された有効画像領域に整形する。   The connected region / non-connected region combining unit 28 combines the connected region divided and overlapped into a plurality of sub-regions by the blending processing unit 24 and the non-connected region that is an image portion other than the connected region, thereby combining a single image. Generate. The image shaping unit 29 shapes the generated single image into an effective image area set by the preprocessing unit 5.

記憶部7は、メインメモリ、フラッシュメモリ、ハードディスク等の記憶手段によって構成されている。記憶部7は、画像連結用設定データ記憶部31と、撮像画像記憶部32と、画像補正用データ記憶部33と、補正済み画像記憶部34と、ブレンディング処理済み画像記憶部35と、結合処理済み画像記憶部36と、整形処理済み画像記憶部37とを備えている。   The storage unit 7 includes storage means such as a main memory, a flash memory, and a hard disk. The storage unit 7 includes an image connection setting data storage unit 31, a captured image storage unit 32, an image correction data storage unit 33, a corrected image storage unit 34, a blended image storage unit 35, and a combining process. A completed image storage unit 36 and a shaped image storage unit 37 are provided.

画像連結用設定データ記憶部31は、前処理部5によって設定した内容を画像連結用設定データとして記憶する。画像連結用設定データには、有効画像領域のサイズ及び位置を示すデータと、連結領域のサイズ及び位置を示すデータと、複数のサブ領域の設定データが含まれる。   The image connection setting data storage unit 31 stores the contents set by the preprocessing unit 5 as image connection setting data. The image connection setting data includes data indicating the size and position of the effective image area, data indicating the size and position of the connection area, and setting data for a plurality of sub areas.

撮像画像記憶部32は、撮像部2によって撮像され、画像入力部3と制御部4を介して入力された複数の画像を記憶する。画像補正用データ記憶部33は、仮画像補正部17及び画像補正部22によって画像を補正する際に用いるデータを記憶するものであり、座標変換テーブルを保持し、各種パラメータ及び各種設定値を記憶する。補正済み画像記憶部34は、画像補正部22によって補正された補正済み画像を記憶する。ブレンディング処理済み画像記憶部35は、ブレンディング処理部24によって処理された画像を記憶する。結合処理済み画像記憶部36は、連結領域及び非連結領域結合部28によって生成された単一画像を記憶する。整形処理済み画像記憶部37は、画像整形部29によって整形された画像を記憶する。   The captured image storage unit 32 stores a plurality of images captured by the imaging unit 2 and input via the image input unit 3 and the control unit 4. The image correction data storage unit 33 stores data used when the temporary image correction unit 17 and the image correction unit 22 correct an image, holds a coordinate conversion table, and stores various parameters and various setting values. To do. The corrected image storage unit 34 stores the corrected image corrected by the image correction unit 22. The blended image storage unit 35 stores the image processed by the blending processing unit 24. The combined image storage unit 36 stores a single image generated by the connected region and non-connected region combining unit 28. The shaped image storage unit 37 stores the image shaped by the image shaping unit 29.

出力部10は、撮像装置1からの信号を外部へ出力するものである。出力部10には、ディスプレイ等の表示装置、プリンタ等の印刷装置、他のコンピュータ等への送信装置等が含まれる。本実施形態において、出力部10は、ディスプレイ等の表示装置を備えている。入力部11は、外部からの信号を撮像装置1に入力するものである。入力部11には、タッチパネル、シャッターボタン、各種入力ボタン、キーボード等の入力手段が含まれる。本実施形態において、入力部11は、動画撮影開始指示及び動画撮影停止指示ボタンと、静止画撮影用シャッターボタンとを兼用する撮影指示入力ボタンを備えている。   The output unit 10 outputs a signal from the imaging device 1 to the outside. The output unit 10 includes a display device such as a display, a printing device such as a printer, a transmission device to another computer, and the like. In the present embodiment, the output unit 10 includes a display device such as a display. The input unit 11 inputs an external signal to the imaging device 1. The input unit 11 includes input means such as a touch panel, a shutter button, various input buttons, and a keyboard. In the present embodiment, the input unit 11 includes a shooting instruction input button that doubles as a moving image shooting start instruction and a moving image shooting stop instruction button and a still image shooting shutter button.

<処理の流れ>
[前処理部5の処理シーケンス]
次に、撮像装置1によって実行される画像処理の流れについて説明する。まず、通常の撮影を開始する前に、パノラマ画像として使用する有効画像領域のサイズ及び位置と、連結領域のサイズ及び位置を、前処理部5によって設定しておく。
<Process flow>
[Processing Sequence of Pre-Processing Unit 5]
Next, the flow of image processing executed by the imaging device 1 will be described. First, before starting normal shooting, the size and position of an effective image area used as a panoramic image and the size and position of a connected area are set by the preprocessing unit 5.

入力部11の撮影指示入力ボタンを押すと、第1の撮像部2Aと第2の撮像部2Bと第3の撮像部2Cは、同時に静止画の撮像を開始する。ここでの撮像は、有効画像領域及び連結領域を設定するための撮像であるため、仮撮像と呼ぶ。仮撮像によって得られた仮画像は、画像入力部3及び制御部4を介して前処理部5に入力される。前処理部5はこの仮画像を用いて、有効画像領域及び連結領域の設定を実行する。前処理部5の処理シーケンスを図3に示し、図4に、前処理部5が処理する仮画像の説明図を示す。   When the shooting instruction input button of the input unit 11 is pressed, the first imaging unit 2A, the second imaging unit 2B, and the third imaging unit 2C start capturing a still image at the same time. The imaging here is called provisional imaging because it is an imaging for setting an effective image area and a connected area. The temporary image obtained by the temporary imaging is input to the preprocessing unit 5 via the image input unit 3 and the control unit 4. The preprocessing unit 5 uses this temporary image to set an effective image area and a connected area. A processing sequence of the preprocessing unit 5 is shown in FIG. 3, and FIG. 4 is an explanatory diagram of a temporary image processed by the preprocessing unit 5.

図3のステップS1において、仮画像読み込み部16は、入力された仮画像を読み込む。図4のステップS1に例示するように、第1の撮像部2Aによって撮像された第1の仮画像41と第2の撮像部2Bによって撮像された第2の仮画像42と第3の撮像部2Cによって撮像された第3の仮画像43が読み込まれる。   In step S1 of FIG. 3, the temporary image reading unit 16 reads the input temporary image. As illustrated in step S1 of FIG. 4, the first temporary image 41 captured by the first imaging unit 2A, the second temporary image 42 captured by the second imaging unit 2B, and the third imaging unit. The third temporary image 43 captured by 2C is read.

図3のステップS2において、仮画像補正部17は、読み込んだ複数の仮画像41,42,43を補正する。本実施形態では、前述のように、球体円柱投影による補正を行う。球体円柱投影による補正について、以下に説明する。現在用いられているレンズは、2次元のものを2次元に投影する性質を有している。したがって、通常の写真撮影に使われる平面投影では、立体物の被写体の場合、撮像画像の端部の遠近感異常及び歪みが発生し、平面的な被写体の場合、撮像画像の端部の遠近感異常が発生する。このため、個々の画像の遠近感異常及び歪みという問題に加えて、画像を一致させて連結することができなくなるという問題が生じ得る。そこで、画像を球体投影することによって、個々の画像の遠近感異常及び歪みを補正し、画像を一致させてスムーズに連結できるようにする。また、球体投影した球面画像を円柱投影によって平面画像に展開する。   In step S <b> 2 of FIG. 3, the temporary image correction unit 17 corrects the plurality of read temporary images 41, 42, and 43. In the present embodiment, as described above, correction by spherical cylindrical projection is performed. Correction by spherical cylinder projection will be described below. Currently used lenses have the property of projecting a two-dimensional lens in two dimensions. Therefore, in the planar projection used for normal photography, in the case of a three-dimensional object, abnormalities and distortion of the edge of the captured image occur, and in the case of a planar object, the perspective of the edge of the captured image. An abnormality occurs. For this reason, in addition to the problem of perspective abnormality and distortion of individual images, there may be a problem that the images cannot be matched and connected. Therefore, by projecting the image into a sphere, the perspective abnormality and distortion of the individual images are corrected, and the images can be matched and smoothly connected. Further, the spherical image projected in a spherical shape is developed into a planar image by cylindrical projection.

球体円柱投影のイメージ図を図5に示す。球体投影を行う仮想球体70の半径は、撮像光学系14の射出瞳から撮像素子15までの光軸上の距離L(以下、「射出瞳距離」という。)と等しく設定されている。なお、本実施形態では、第1の撮像部2Aから第3の撮像部2Cのそれぞれにおいて、各射出瞳距離Lは同じである。仮想球体70の外側に第1の球面75,第2の球面76,第3の球面77と接して表現されている第1の平面71、第2の平面72及び第3の平面73は、撮像された画像が投影されるイメージ平面を示している。補正前の第1の仮画像41は、第1の平面71に投影される平面画像であり、補正前の第2の仮画像42は、第2の平面72に投影される平面画像であり、補正前の第3の仮画像43は、第3の平面73に投影される平面画像である。   An image of spherical cylindrical projection is shown in FIG. The radius of the virtual sphere 70 that performs the sphere projection is set to be equal to the distance L on the optical axis from the exit pupil of the imaging optical system 14 to the image sensor 15 (hereinafter referred to as “exit pupil distance”). In the present embodiment, the exit pupil distances L are the same in each of the first imaging unit 2A to the third imaging unit 2C. The first plane 71, the second plane 72, and the third plane 73 expressed in contact with the first spherical surface 75, the second spherical surface 76, and the third spherical surface 77 outside the virtual sphere 70 are imaged. The image plane on which the projected image is projected is shown. The first temporary image 41 before correction is a flat image projected onto the first plane 71, and the second temporary image 42 before correction is a flat image projected onto the second plane 72, The third temporary image 43 before correction is a planar image projected onto the third plane 73.

補正前の仮画像41,42,43が、球体投影されると、第1の仮画像41は第1の球面75に投影され、第2の仮画像42は第2の球面76に投影され、第3の仮画像43は第3の球面77に投影される。すなわち、補正前の第1の仮画像41を構成する画素78は、球面75上の対応する画素79に変換される。球体投影による補正だけでは画像の四隅が上手く連結できないため、球面75,76,77に投影することによって得られた球体投影画像を円柱投影によって平面展開する。これにより、画素79は、円柱投影によってさらに画素80に座標変換される。画素80は第1の平面71上に位置している。   When the temporary images 41, 42, 43 before correction are projected in a sphere, the first temporary image 41 is projected onto the first spherical surface 75, the second temporary image 42 is projected onto the second spherical surface 76, The third temporary image 43 is projected onto the third spherical surface 77. That is, the pixels 78 constituting the first temporary image 41 before correction are converted into corresponding pixels 79 on the spherical surface 75. Since the four corners of the image cannot be connected well only by correction by spherical projection, a spherical projection image obtained by projecting onto the spherical surfaces 75, 76, 77 is developed in a plane by cylindrical projection. Thereby, the coordinate of the pixel 79 is further converted into the pixel 80 by the cylindrical projection. The pixel 80 is located on the first plane 71.

球体円柱投影による座標変換についてさらに以下に説明する。図6に球体円柱投影による座標変換のイメージ図を示す。(a)図に仮想球体70の正面図を示し、(b)図に仮想球体70の右側面図を示す。平面投影面(イメージ平面)81は、図5における第1の平面71から第3の平面73に対応している。   The coordinate conversion by spherical cylinder projection will be further described below. FIG. 6 shows an image diagram of coordinate conversion by spherical cylindrical projection. (A) The front view of the virtual sphere 70 is shown in the figure, and the right side view of the virtual sphere 70 is shown in the (b) figure. The plane projection plane (image plane) 81 corresponds to the first plane 71 to the third plane 73 in FIG.

以下に、「球体投影演算ステップ」について説明する。イメージ平面81上の点Pnと仮想球体70の中心点Cとの間に直線を引き、仮想球体70と直線の交点Snを定める。この交点Sn、すなわち、図6における点S1,S2,S3がイメージ平面81から仮想球体70の球面上にマッピングされた画素79(図5に示す)に対応し、図6におけるP1,P2,P3が補正前の画素78(図5に示す)に対応している。   The “sphere projection calculation step” will be described below. A straight line is drawn between the point Pn on the image plane 81 and the center point C of the virtual sphere 70 to determine the intersection Sn of the virtual sphere 70 and the straight line. This intersection Sn, that is, the points S1, S2, S3 in FIG. 6, corresponds to the pixel 79 (shown in FIG. 5) mapped on the spherical surface of the virtual sphere 70 from the image plane 81, and P1, P2, P3 in FIG. Corresponds to the pixel 78 before correction (shown in FIG. 5).

点C(0,0,L)を中心とした仮想球体70の方程式は
上記式(1)におけるパラメータLは、仮想球体70の半径を示し、本実施形態において、仮想球体70の半径は、前述の射出瞳距離と等しくなるように設定されている。
The equation of the virtual sphere 70 around the point C (0, 0, L) is
The parameter L in the above equation (1) indicates the radius of the virtual sphere 70. In this embodiment, the radius of the virtual sphere 70 is set to be equal to the exit pupil distance described above.

一方、任意の仮想球体70の球面上の点S(x,y,z)(仮想球体70と直線の交点)と中心点Cを結ぶ直線の方程式は
から、
となる。
直線の式をtとおき、

イメージ平面81上では、z=0となり、その条件でtは、式(6)から以下のように定まる。
式(7)と式(4),式(5),及び式(6)を用いて、イメージ平面81上の点P(x,y,z(=0))と点Pから点Cに向かって伸びる直線が仮想球体70と交わる点座標S(x2,2,)の関係が求められる。
On the other hand, the equation of the straight line connecting the point S (x 2 , y 2 , z 2 ) (intersection of the virtual sphere 70 and a straight line) and the center point C on the spherical surface of an arbitrary virtual sphere 70 is
From
It becomes.
Let t be the straight line equation,

On the image plane 81, z = 0, and t is determined as follows from Equation (6) under the conditions.
Using the formula (7), the formula (4), the formula (5), and the formula (6), the point P (x, y, z (= 0)) on the image plane 81 and the point P to the point C are moved. linear relationship virtual sphere 70 and intersecting point coordinates S (x 2, y 2, z 2) extending Te is calculated.

次に、「円柱投影演算ステップ」について説明する。交点Snと、この交点Snによって表される球体投影画像を仮想円柱の周面上に投影して平面展開した時のイメージ平面81上の点Pn´との関係を求める。点Pn´、すなわち、図6における点P1´,P2´,P3´が補正後の画素80(図5に示す)に対応している。   Next, the “cylindrical projection calculation step” will be described. The relationship between the intersection point Sn and the point Pn ′ on the image plane 81 when the spherical projection image represented by the intersection point Sn is projected onto the peripheral surface of the virtual cylinder and developed in a plane is obtained. The point Pn ′, that is, the points P1 ′, P2 ′, and P3 ′ in FIG. 6 correspond to the corrected pixel 80 (shown in FIG. 5).

仮想円柱の中心線上の点Q(0,y,L)とイメージ平面81上の点P(x,y,0)を結ぶ直線の方程式は、
となる。
これらを仮想球体70の方程式

に代入し

から
となる。
式(9),式(10)及び式(11)より、交点Sn(イメージ平面81上の座標Pn´とy軸への円柱投影座標Qnを結ぶ直線と、仮想球体70との交点)が求められる。
The equation of a straight line connecting the point Q (0, y c , L) on the center line of the virtual cylinder and the point P (x p , y p , 0) on the image plane 81 is
It becomes.
These are the equations of the virtual sphere 70

Assigned to

From
It becomes.
From the equations (9), (10), and (11), the intersection Sn (the intersection between the virtual sphere 70 and the straight line connecting the coordinate Pn ′ on the image plane 81 and the cylindrical projection coordinate Qn on the y axis) is obtained. It is done.

逆トレーシング又は逆追跡方式を採用して、前述の円柱投影演算ステップを実行後に前述の球体投影演算ステップを実行することにより、補正後の座標Pn´から、補正前の座標Pnを特定して対応付けることができる。   By adopting a reverse tracing or reverse tracking method and executing the spherical projection calculation step after executing the cylindrical projection calculation step, the coordinate Pn before correction is specified from the corrected coordinate Pn ′. Can be associated.

まず、円柱投影演算ステップを実行して、円柱投影した時のイメージ平面81上の各点Pn´の座標に対応する仮想球体70上の点Snの座標を特定して、互いに対応付ける。次に、球体投影演算ステップを実行して、円柱投影演算ステップによって求めた点Snの座標から補正前のイメージ平面81上の点Pnの座標を特定して対応付ける。これにより、補正後の画素の座標(点Pn´の座標)と補正前の画素の座標(点Pnの座標)を対応付けることができる。   First, a cylindrical projection calculation step is executed to identify the coordinates of the points Sn on the virtual sphere 70 corresponding to the coordinates of the points Pn ′ on the image plane 81 when the cylindrical projection is performed, and associate them with each other. Next, a spherical projection calculation step is executed, and the coordinates of the point Pn on the image plane 81 before correction are specified and associated with the coordinates of the point Sn obtained by the cylindrical projection calculation step. Thereby, the coordinates of the pixel after correction (the coordinates of the point Pn ′) and the coordinates of the pixel before the correction (the coordinates of the point Pn) can be associated with each other.

画像補正用データ記憶部33に保持された座標変換テーブルには、この補正後の画素の座標と補正前の画素の座標の対応関係が格納されている。座標変換テーブルを用いて座標を変換することにより、球体円柱投影による補正を高速に実行することができる。なお、画像補正用データ記憶部33は、パラメータLに代入される射出瞳距離を示す値と、撮像素子15の画素数及び1画素のサイズを記憶している。撮像素子15の画素数及び1画素のサイズは、x,yの値を決定するために用いられる。   The coordinate conversion table held in the image correction data storage unit 33 stores the correspondence between the corrected pixel coordinates and the uncorrected pixel coordinates. By converting coordinates using the coordinate conversion table, correction by spherical cylindrical projection can be executed at high speed. Note that the image correction data storage unit 33 stores a value indicating the exit pupil distance to be substituted for the parameter L, the number of pixels of the image sensor 15, and the size of one pixel. The number of pixels of the image sensor 15 and the size of one pixel are used to determine the values of x and y.

例えば、撮像素子15の画素数が640×480ピクセルの場合、座標変換テーブルを、TABLE[640][480]のような2次元配列で整数値のx,yをメンバーに持つテーブルとして表現してもよい。この場合、座標変換後(補正後)の画像の座標(X,Y)と座標変換前(補正前)の画像の座標(a,b)との対応関係は、TABLE[X][Y].x=a(座標値),TABLE[X][Y].y=b(座標値)と示すことができる。このように、座標変換テーブルを用いることによって、補正後の画像の座標(X,Y)を高速に決定することができる。仮画像補正部17は、画像補正用データ記憶部33から座標変換テーブルを読み出して、球体円柱投影による画像補正を実行する。   For example, when the number of pixels of the image sensor 15 is 640 × 480 pixels, the coordinate conversion table is expressed as a table having integer values x and y as members in a two-dimensional array such as TABLE [640] [480]. Also good. In this case, the correspondence relationship between the coordinates (X, Y) of the image after coordinate conversion (after correction) and the coordinates (a, b) of the image before coordinate conversion (before correction) is TABLE [X] [Y]. x = a (coordinate value), TABLE [X] [Y]. It can be expressed as y = b (coordinate value). Thus, by using the coordinate conversion table, the coordinates (X, Y) of the corrected image can be determined at high speed. The temporary image correction unit 17 reads the coordinate conversion table from the image correction data storage unit 33 and executes image correction by spherical cylindrical projection.

仮画像補正部17による画像補正が完了すると、図3のステップS3において有効画像領域設定部18によって有効画像領域が設定される。前述のように、第1の撮像部2Aから第3の撮像部2Cは互いに上下方向にずれているため、撮像された画像も上下方向にずれている。したがって、長方形等に整形されたパノラマ画像を得るためには、撮像した画像において使用できる有効画像領域を設定する必要がある。   When the image correction by the temporary image correction unit 17 is completed, an effective image region is set by the effective image region setting unit 18 in step S3 of FIG. As described above, since the first imaging unit 2A to the third imaging unit 2C are shifted from each other in the vertical direction, the captured images are also shifted in the vertical direction. Therefore, in order to obtain a panoramic image shaped into a rectangle or the like, it is necessary to set an effective image area that can be used in the captured image.

図4のステップS3−1における枠線45は、有効画像領域の上下方向のサイズを及び位置を示すものである。枠線45からはみ出た上下端部の画像は使用しないため、不使用上下端部41c,42c,43cとしてカットする。有効画像領域の上下方向のサイズ及び位置の設定は、第1の撮像部2Aから第3の撮像部2Cの上下方向のズレ分(図2に示す高さh1,高さh2)の値に基づいて決定してもよい。   A frame 45 in step S3-1 in FIG. 4 indicates the size and position of the effective image area in the vertical direction. Since the images at the upper and lower ends protruding from the frame line 45 are not used, they are cut as unused upper and lower ends 41c, 42c, and 43c. The size and position of the effective image area in the vertical direction are set based on the value of the vertical shift (the height h1 and the height h2 shown in FIG. 2) from the first imaging unit 2A to the third imaging unit 2C. May be determined.

また、より自然に画像を連結するために、画像をどの位置でどの程度重ね合わせて連結するのかを設定する必要がある。このとき、重ね合わせた領域をすべて画像合成する必要はない。画像合成する領域は少ない方が連結部分は滑らかになり処理速度も上がる。したがって、使用しない画像の端部を不使用連結端部41b,42b,43bとしてカットする。図3のステップS3−2に示すように、枠線45に囲まれた領域のうち、不使用連結端部41b,42b,43bを除いた領域が、有効画像領域41a,42a,43aである。有効画像領域41a,42a,43aの連結方向Wのサイズ及び位置の設定は、第1の撮像部2Aから第3の撮像部2Cの左右回転方向Rのズレ分(図2に示す角度a1,角度a2)の値に基づいて決定してもよい。有効画像領域41a,42a,43aの設定は、予め決められた設定値(例えば、data配列)によって設定してもよい。   Further, in order to connect images more naturally, it is necessary to set how much the images are overlapped and connected at which position. At this time, it is not necessary to synthesize all the overlapped areas. The smaller the area to be combined, the smoother the connected part and the higher the processing speed. Therefore, the end portions of the image that are not used are cut as non-use connection end portions 41b, 42b, and 43b. As shown in step S3-2 of FIG. 3, among the areas surrounded by the frame line 45, the areas excluding the unused connection end portions 41b, 42b, and 43b are effective image areas 41a, 42a, and 43a. The size and position of the connection direction W of the effective image areas 41a, 42a, and 43a are set by the amount of deviation in the left-right rotation direction R from the first imaging unit 2A to the third imaging unit 2C (angle a1, angle shown in FIG. You may determine based on the value of a2). The effective image areas 41a, 42a, and 43a may be set using predetermined setting values (for example, a data array).

また、補正後の仮画像41,42,43を出力部10の表示装置に表示させて、仮画像41,42,43の重ね合わせの位置を調整しながら、仮画像41,42,43を重ね合わせた状態を目視して、より自然に見える位置で仮画像41,42,43が連結できるように、有効画像領域41a,42a,43aを設定してもよい。   Further, the corrected temporary images 41, 42, 43 are displayed on the display device of the output unit 10, and the temporary images 41, 42, 43 are overlaid while adjusting the overlapping position of the temporary images 41, 42, 43. The effective image areas 41a, 42a, and 43a may be set so that the provisional images 41, 42, and 43 can be connected to each other at a position where the combined state can be seen more visually.

次いで、図3のステップS4において、連結領域設定部19によって、有効画像領域41a,42a,43aに複数のサブ領域に分割された連結領域を設定する。図4のステップS4に示すように、有効画像領域41a,42a,43aにおいて、隣合う画像を重ね合わせる部分を連結領域46とし、連結領域46以外の部分を非連結領域47とする。連結領域46は、連結方向Wに沿って複数のサブ領域に分割される。本実施形態では、説明のため、一例として8個のサブ領域に分割している。   Next, in step S4 of FIG. 3, the connected area setting unit 19 sets a connected area divided into a plurality of sub-areas in the effective image areas 41a, 42a, and 43a. As shown in step S4 in FIG. 4, in the effective image areas 41 a, 42 a, and 43 a, a part where adjacent images are overlapped is a connected area 46, and a part other than the connected area 46 is a non-connected area 47. The connection region 46 is divided into a plurality of sub-regions along the connection direction W. In the present embodiment, for the sake of explanation, it is divided into eight sub-regions as an example.

サブ領域をSUBDSTと示し、SUBDSTに相当するrect変数を必要数定義する。第1の画像の有効画像領域41aでは、連結領域46においてSUBDST[0]からSUBDST[7]が設定される。第2の画像の有効画像領域42aでは、有効画像領域41aと連結する連結領域46において、SUBDST[8]からSUBDST[15]が設定され、第3の画像の有効画像領域43aと連結する連結領域46において、SUBDST[16]からSUBDST[23]が設定される。有効画像領域43aでは、連結領域46においてSUBDST[24]からSUBDST[31]が設定される。一例として、1個のサブ領域のサイズは、1ピクセル〜2ピクセルである。   The sub area is denoted as SUBDST, and the required number of rect variables corresponding to SUBDST is defined. In the effective image area 41a of the first image, SUBDST [0] to SUBDST [7] are set in the connection area 46. In the effective image area 42a of the second image, SUBDST [8] to SUBDST [15] are set in the connection area 46 connected to the effective image area 41a, and the connection area connected to the effective image area 43a of the third image. At 46, SUBDST [16] to SUBDST [23] are set. In the effective image area 43a, SUBDST [24] to SUBDST [31] are set in the connection area 46. As an example, the size of one sub-region is 1 pixel to 2 pixels.

図3のステップS5において、画像連結用設定データ記憶部31が、前処理部5によって設定した内容を画像連結用設定データとして記憶する。画像連結用設定データには、有効画像領域のサイズ及び位置を示すデータと、連結領域のサイズ及び位置を示すデータと、複数のサブ領域(SUBDST[0]〜SUBDST[31])の設定データが含まれる。   In step S5 of FIG. 3, the image connection setting data storage unit 31 stores the contents set by the preprocessing unit 5 as image connection setting data. The image connection setting data includes data indicating the size and position of the effective image area, data indicating the size and position of the connection area, and setting data of a plurality of sub areas (SUBDST [0] to SUBDST [31]). included.

前処理部5による設定が完了すると、撮像装置1によるパノラマ画像の撮影を実行することができる。前述のように、第1の撮像部2Aと第2の撮像部2Bと第3の撮像部2Cの位置関係は相対的に固定されているため、上下のズレ分(図2,高さh1,h2)と左右のズレ分(図2に示す角度a1,a2)は、変動しない。したがって、前処理部5による設定が完了すると、第1の撮像部2Aと第2の撮像部2Bと第3の撮像部2Cの配置を変更しない限り、再度、前処理部5による設定を行う必要はない。   When the setting by the preprocessing unit 5 is completed, panoramic image shooting by the imaging device 1 can be executed. As described above, since the positional relationship among the first imaging unit 2A, the second imaging unit 2B, and the third imaging unit 2C is relatively fixed, the vertical displacement (FIG. 2, height h1, h2) and the left and right deviations (angles a1 and a2 shown in FIG. 2) do not vary. Therefore, when the setting by the preprocessing unit 5 is completed, the setting by the preprocessing unit 5 needs to be performed again unless the arrangement of the first imaging unit 2A, the second imaging unit 2B, and the third imaging unit 2C is changed. There is no.

[撮影時の処理シーケンス]
撮影時の処理シーケンスを図7に示し、図8に処理する画像の説明図を示す。入力部11の撮影指示入力ボタンを押すと、撮像部2が撮像を開始する。図7のステップS10において、画像入力部3と制御部4を介して、撮像部2が撮像した複数の画像を読み込む。図8のステップS10に例示するように、第1の撮像部2Aによって撮像された第1の画像51と、第2の撮像部2Bによって撮像された第2の画像52と、第3の撮像部2Cによって撮像された第3の画像53が読み込まれる。
[Processing sequence during shooting]
FIG. 7 shows a processing sequence at the time of shooting, and FIG. 8 is an explanatory diagram of an image to be processed. When the shooting instruction input button of the input unit 11 is pressed, the imaging unit 2 starts imaging. In step S <b> 10 of FIG. 7, a plurality of images captured by the imaging unit 2 are read via the image input unit 3 and the control unit 4. As illustrated in step S10 of FIG. 8, the first image 51 captured by the first image capturing unit 2A, the second image 52 captured by the second image capturing unit 2B, and the third image capturing unit. A third image 53 captured by 2C is read.

図7のステップS11において、撮像画像記憶部32が画像51,52,53を記憶する。ステップS12において、画像補正部22は、撮像画像記憶部32から画像51,52,53を読み出して補正する。ここで、画像補正部22は、画像補正用データ記憶部33から前述の座標変換テーブルを読み出して、球体円柱投影による補正を実行し、画像51,52,53の遠近感異常及び歪みを補正する。球体円柱投影による補正は、前処理部5において仮画像補正部17が実行した前述の補正と同様である。   In step S <b> 11 of FIG. 7, the captured image storage unit 32 stores images 51, 52, and 53. In step S <b> 12, the image correction unit 22 reads and corrects the images 51, 52, and 53 from the captured image storage unit 32. Here, the image correction unit 22 reads the above-described coordinate conversion table from the image correction data storage unit 33, executes correction by spherical cylindrical projection, and corrects the perspective abnormality and distortion of the images 51, 52, and 53. . The correction by the spherical cylindrical projection is the same as the above-described correction executed by the temporary image correction unit 17 in the preprocessing unit 5.

図7のステップS13において、補正済み画像記憶部34が補正した複数の画像51,52,53を記憶する。ステップS14において、連結領域決定部25が、補正済み画像記憶部34から補正した複数の画像51,52,53を読み出すと共に、画像連結用設定データ記憶部31から画像連結用設定データを読み出す。ステップS15において、画像連結用設定データに基づいて、画像51,52,53における有効画像領域及び連結領域を決定する。   In step S13 of FIG. 7, a plurality of images 51, 52, and 53 corrected by the corrected image storage unit 34 are stored. In step S <b> 14, the connection area determination unit 25 reads the corrected images 51, 52, and 53 from the corrected image storage unit 34 and reads the image connection setting data from the image connection setting data storage unit 31. In step S15, the effective image area and the connection area in the images 51, 52, and 53 are determined based on the image connection setting data.

図8のステップS15−1及びステップS15−2に示すように、有効画像領域のサイズ及び位置を示すデータに基づいて、不使用連結端部51b,52b,53bがカットされる。なお、本実施形態においては、画像の連結処理後に、使用しない上下端部のカットを実行するように構成しているため、不使用連結端部51b,52b,53b以外の画像部分51a,52a,53aは、有効画像領域に加えて、後にカットされる不使用上下端部67(図8に示すステップS22)を含んでいる。   As shown in step S15-1 and step S15-2 in FIG. 8, the unused connection end portions 51b, 52b, and 53b are cut based on the data indicating the size and position of the effective image area. In this embodiment, since the upper and lower end portions that are not used are cut after the image connection processing, the image portions 51a, 52a, 52a, 52b, 53b other than the unused connection end portions 51b, 52b, 53b are configured. 53a includes an unused upper and lower end portion 67 (step S22 shown in FIG. 8) to be cut later, in addition to the effective image area.

図7のステップS16において、連結領域決定部25は、連結領域のサイズ及び位置を示すデータと、複数のサブ領域の設定データに基づいて、連結領域を複数のサブ領域に分割する。図8のステップS16に示すように、画像部分51a,52a,53aのそれぞれについて、連結領域56と非連結領域57が決定される。連結領域56は、複数のサブ領域SUBDST[0]〜SUBDST[31]に分割される。   In step S16 of FIG. 7, the connected region determination unit 25 divides the connected region into a plurality of sub regions based on the data indicating the size and position of the connected region and the setting data of the plurality of sub regions. As shown in step S16 of FIG. 8, a connected area 56 and a non-connected area 57 are determined for each of the image portions 51a, 52a, and 53a. The connection area 56 is divided into a plurality of sub-areas SUBDST [0] to SUBDST [31].

図7のステップS17において、ブレンディング実行部26は、画像の混合比率をサブ領域ごとに変化させて、サブ領域SUBDST[0]〜SUBDST[31]を互いに重ね合わせる。図8のステップS17に示すように、第1の画像51の連結領域46と、第2の画像52の連結領域56がサブ領域ごとに重ねられ、第2の画像52の連結領域56と第3の画像53の連結領域56がサブ領域ごとに重ねられる。重ねられた後のサブ領域をDSTとする。   In step S17 of FIG. 7, the blending execution unit 26 changes the image mixing ratio for each sub-region, and superimposes the sub-regions SUBDST [0] to SUBDST [31] on each other. As shown in step S <b> 17 of FIG. 8, the connection area 46 of the first image 51 and the connection area 56 of the second image 52 are overlapped for each sub-area, and the connection area 56 of the second image 52 and the third area The connection area 56 of the image 53 is overlaid for each sub-area. The sub-region after being overlapped is defined as DST.

第1の画像51の連結領域56と第2の画像52の連結領域56では、サブ領域SUBDST[0]とサブ領域SUBDST[8]が重なってサブ領域DST[0]となり、サブ領域SUBDST[1]とサブ領域SUBDST[9]が重なってサブ領域DST[1]となり、サブ領域SUBDST[2]とサブ領域SUBDST[10]が重なってサブ領域DST[2]となる。SUBDST[3]〜SUBDST[7]も同様にSUBDST[11]〜SUBDST[15]と重なってサブ領域DST[3]〜DST[7]となる。このとき、サブ領域DST[0]〜DST[7]は、第1の画像51と第2の画像52が重み付けられてブレンドされている。   In the connection area 56 of the first image 51 and the connection area 56 of the second image 52, the sub area SUBDST [0] and the sub area SUBDST [8] overlap to form the sub area DST [0], and the sub area SUBDST [1]. ] And sub-region SUBDST [9] overlap to form sub-region DST [1], and sub-region SUBDST [2] and sub-region SUBDST [10] overlap to form sub-region DST [2]. Similarly, SUBDST [3] to SUBDST [7] overlap with SUBDST [11] to SUBDST [15] to form sub-regions DST [3] to DST [7]. At this time, in the sub areas DST [0] to DST [7], the first image 51 and the second image 52 are weighted and blended.

本実施形態では、サブ領域DST[0]における第1の画像51の占める割合は、8/9であり、第2の画像52の占める割合は、1/9である。サブ領域DST[1]における第1の画像51の占める割合は、7/9であり、第2の画像52の占める割合は、2/9である。サブ領域DST[2]における第1の画像51の占める割合は、6/9であり、第2の画像52の占める割合は、3/9である。サブ領域DST[3]における第1の画像51の占める割合は、5/9であり、第2の画像52の占める割合は、4/9である。サブ領域DST[4]における第1の画像51の占める割合は、4/9であり、第2の画像52の占める割合は、5/9である。サブ領域DST[5]における第1の画像51の占める割合は、3/9であり、第2の画像52の占める割合は、6/9である。サブ領域DST[6]における第1の画像51の占める割合は、2/9であり、第2の画像52の占める割合は、7/9である。サブ領域DST[7]における第1の画像51の占める割合は、1/9であり、第2の画像52の占める割合は、8/9である。   In the present embodiment, the proportion of the first image 51 in the sub-region DST [0] is 8/9, and the proportion of the second image 52 is 1/9. The proportion of the first image 51 in the sub-region DST [1] is 7/9, and the proportion of the second image 52 is 2/9. The proportion of the first image 51 in the sub-region DST [2] is 6/9, and the proportion of the second image 52 is 3/9. The proportion of the first image 51 in the sub-region DST [3] is 5/9, and the proportion of the second image 52 is 4/9. The proportion of the first image 51 in the sub-region DST [4] is 4/9, and the proportion of the second image 52 is 5/9. The proportion of the first image 51 in the sub-region DST [5] is 3/9, and the proportion of the second image 52 is 6/9. The proportion of the first image 51 in the sub-region DST [6] is 2/9, and the proportion of the second image 52 is 7/9. The proportion of the first image 51 in the sub-region DST [7] is 1/9, and the proportion of the second image 52 is 8/9.

このように、ブレンディング実行部26は、第1の画像51と第2の画像52の混合比率を、第1の画像51のサブ領域における比率が、連結領域56の先端(SUBDST[7]側)に近づくにつれて減少するように決定する。また、ブレンディング実行部26は、第1の画像51と第2の画像52の混合比率を、第2の画像52の複数のサブ領域における比率が、連結領域56の先端(SUBDST[8]側)に近づくにつれて減少するように決定している。本実施形態では、ブレンディング実行部26は、第1の画像51の比率と第2の画像52の比率をサブ領域ごとに1/9(すなわち、1/(サブ領域の個数+1))ずつ一定の割合で減少させている。   As described above, the blending execution unit 26 sets the mixing ratio of the first image 51 and the second image 52, and the ratio of the first image 51 in the sub-area is the tip of the connected area 56 (SUBDST [7] side). Decide to decrease as you approach. In addition, the blending execution unit 26 sets the mixing ratio of the first image 51 and the second image 52, and the ratio of the second image 52 in the plurality of sub-regions to the tip of the connected region 56 (SUBDST [8] side). It is determined to decrease as it approaches. In the present embodiment, the blending execution unit 26 makes the ratio of the first image 51 and the ratio of the second image 52 constant by 1/9 (that is, 1 / (number of subregions + 1)) for each subregion. The rate is decreased.

ここで、第1の画像51と第2の画像52は、決定された混合比率でブレンドされるため、透明度を示すアルファ値を使用する必要がない。例えば、第1の画像51が黒色画像で、第2の画像52が白色画像の場合、黒のRGB値(0,0,0)と白のRGB値(255,255,255)とを混合比率に対応させて増減させればよい。サブ領域DST[0]における第1の画像51の占める割合は、8/9であり、第2の画像52の占める割合は、1/9であるから、RGB値にそれぞれの割合を乗じて加算すると、サブ領域DST[0]のRGB値は(227,227,227)(小数点第1位を四捨五入)となり、薄いグレーの画像が得られる。他のサブ領域DSTのRGB値も同様に算出することにより、第1の画像51と第2の画像52をサブ領域ごとに異なる比率でブレンドする。   Here, since the first image 51 and the second image 52 are blended at the determined mixing ratio, it is not necessary to use an alpha value indicating transparency. For example, when the first image 51 is a black image and the second image 52 is a white image, a black RGB value (0, 0, 0) and a white RGB value (255, 255, 255) are mixed. It may be increased or decreased corresponding to. Since the proportion of the first image 51 in the sub-region DST [0] is 8/9 and the proportion of the second image 52 is 1/9, the RGB values are multiplied by the respective proportions and added. Then, the RGB value of the sub-region DST [0] becomes (227, 227, 227) (rounded to the first decimal place), and a light gray image is obtained. By similarly calculating the RGB values of the other sub-regions DST, the first image 51 and the second image 52 are blended at different ratios for each sub-region.

前述した第1の画像51と第2の画像52の連結領域56における処理と同様に、第2の画像52の連結領域56と第3の画像53の連結領域56では、サブ領域SUBDST[16]〜サブ領域SUBDST[23]とサブ領域SUBDST[24]〜サブ領域SUBDST[31]が、重ね合わされてブレンドされる。第1の画像51と第2の画像52の連結と同様に、第2の画像52と第3の画像53の混合比率を、第2の画像52のサブ領域における比率が、連結領域56の先端(SUBDST[23]側)に近づくにつれて減少すると共に、第3の画像53の複数のサブ領域における比率が、連結領域56の先端(SUBDST[24]側)に近づくにつれて減少するように決定している。以上のように、ブレンディング処理部24は、連結領域56を複数に分割してブレンドする多段ブレンディングを実行している。   Similar to the processing in the connection area 56 of the first image 51 and the second image 52 described above, in the connection area 56 of the second image 52 and the connection area 56 of the third image 53, the sub area SUBDST [16]. The sub-region SUBDST [23] and the sub-region SUBDST [24] to the sub-region SUBDST [31] are overlapped and blended. Similar to the connection of the first image 51 and the second image 52, the mixing ratio of the second image 52 and the third image 53 is set so that the ratio in the sub-area of the second image 52 is the tip of the connection area 56. It is determined so that it decreases as it approaches (SUBDST [23] side), and the ratio in the plurality of sub-regions of the third image 53 decreases as it approaches the tip of the connected region 56 (SUBDST [24] side). Yes. As described above, the blending processing unit 24 performs multi-stage blending in which the connected region 56 is divided into a plurality of blends.

図7のステップS18において、ブレンディング処理済み画像記憶部35が、ブレンドした連結領域60,61の画像と非連結領域57の画像を記憶する。図8のステップS18に示すように、第1の画像51の非連結領域57(非連結領域[0])と、ブレンドした連結領域60(DST[0]〜DST[7])と、第2の画像52の非連結領域57(非連結領域[1])と、ブレンドした連結領域61(DST[8]〜DST[15])が記憶される。   In step S18 of FIG. 7, the blended image storage unit 35 stores the blended images of the connected regions 60 and 61 and the image of the non-connected region 57. As shown in step S18 of FIG. 8, the unconnected region 57 (non-connected region [0]) of the first image 51, the combined connected region 60 (DST [0] to DST [7]), the second The non-connected region 57 (non-connected region [1]) of the image 52 and the blended connected region 61 (DST [8] to DST [15]) are stored.

図7のステップS19において、連結領域及び非連結領域結合部28は、ブレンドした連結領域60,61の画像と非連結領域57の画像をブレンディング処理済み画像記憶部35から読み出して、単一画像を生成する。図8のステップS19に示すように、第1の画像51の非連結領域57(非連結領域[0])と、第1の画像の連結領域56と第2の画像52の連結領域56をブレンドした連結領域60(DST[0]〜DST[7])と、第2の画像52の非連結領域57(非連結領域[1])と、第2の画像52の連結領域56と第3の画像53の連結領域56をブレンドした連結領域61(DST[8]〜DST[15])が、連続する領域[0]〜領域[18]によって構成される単一画像62に生成される。   In step S19 in FIG. 7, the connected region and unconnected region combining unit 28 reads the blended connected region 60 and 61 images and the unconnected region 57 image from the blended image storage unit 35 to obtain a single image. Generate. As shown in step S19 of FIG. 8, the unconnected region 57 (non-connected region [0]) of the first image 51, the connected region 56 of the first image, and the connected region 56 of the second image 52 are blended. Connected region 60 (DST [0] to DST [7]), non-connected region 57 (non-connected region [1]) of the second image 52, connected region 56 of the second image 52 and the third A connected area 61 (DST [8] to DST [15]) obtained by blending the connected areas 56 of the image 53 is generated into a single image 62 composed of continuous areas [0] to [18].

図7のステップS20において、結合処理済み画像記憶部36が生成した単一画像62を記憶する。ステップS21において、画像整形部29は、結合処理済み画像記憶部36から単一画像62を読み出し、画像連結用設定データ記憶部31から画像連結用設定データを読み出する。ステップS22において、画像整形部29は、有効画像領域のサイズ及び位置を示すデータに基づいて単一画像を整形する。図8のステップS22に示すように、枠66に囲まれた領域が有効画像領域であり、枠66からはみ出した不使用上下端部67はカットされる。   In step S20 of FIG. 7, the single image 62 generated by the combined image storage unit 36 is stored. In step S <b> 21, the image shaping unit 29 reads the single image 62 from the combined image storage unit 36 and reads the image connection setting data from the image connection setting data storage unit 31. In step S22, the image shaping unit 29 shapes a single image based on data indicating the size and position of the effective image area. As shown in step S <b> 22 of FIG. 8, the area surrounded by the frame 66 is an effective image area, and the unused upper and lower end portions 67 protruding from the frame 66 are cut.

図7のステップS23において、整形処理済み画像記憶部37は、整形した単一画像63を記憶する。ステップS24において、静止画の場合は、画像連結部6による画像連結処理は終了し、出力部10を介して整形した単一画像63を出力することができる。動画の場合は、動画撮影が終了するまで、ステップS10からステップS23までの処理が連続的に繰り返される。整形処理済み画像記憶部37は、整形した単一画像63を例えば、AVI形式等で記憶し、動画撮影中又は動画撮影後に、出力部10を介して出力することができる。   In step S <b> 23 of FIG. 7, the shaped image storage unit 37 stores the shaped single image 63. In step S24, in the case of a still image, the image linking process by the image linking unit 6 ends, and the single image 63 shaped through the output unit 10 can be output. In the case of a moving image, the processing from step S10 to step S23 is continuously repeated until moving image shooting is completed. The shaped image storage unit 37 stores the shaped single image 63 in, for example, the AVI format, and can output the image via the output unit 10 during or after moving image shooting.

以上に説明した撮像装置1によれば、連結領域60,61における色の差異の変化が緩やかになるように、サブ領域ごとの混合比率を変化させて、サブ領域を互いに重ね合わせるブレンディング処理部24を備えることから、複数の画像51,52,53の連結部分が目立たない画像処理を実現することができる。   According to the imaging apparatus 1 described above, the blending processing unit 24 that superimposes the sub-regions on each other by changing the mixing ratio for each sub-region so that the change in the color difference between the connected regions 60 and 61 becomes gradual. Therefore, it is possible to realize image processing in which the connected portions of the plurality of images 51, 52, 53 are not conspicuous.

図9及び図10に、本実施形態に係る撮像装置1によって第1の画像51と第2の画像52を連結した連結領域60の一例を示し、図11に図9及び図10に示した連結領域60を含むパノラマ画像の一部を示す。図10は図9の部分拡大写真である。図9から図11に示す画像連結においては、ブレンディング処理部24が、連結領域60を前述した8個ではなく16個のサブ領域に分割してブレンドされているが、画像連結部6による画像連結処理は前述したものと同様である。   FIG. 9 and FIG. 10 show an example of a connection region 60 in which the first image 51 and the second image 52 are connected by the imaging device 1 according to this embodiment, and FIG. 11 shows the connection shown in FIG. 9 and FIG. A part of the panoramic image including the region 60 is shown. FIG. 10 is a partially enlarged photograph of FIG. In the image connection shown in FIGS. 9 to 11, the blending processing unit 24 divides the connection region 60 into 16 sub-regions instead of the above-described eight regions and blends them. The processing is the same as described above.

また、図12に、本実施形態に係る撮像装置1を使用せずに、第1の画像51と第2の画像52を連結した連結領域84を示し、図13に、図12に示した連結領域84を含むパノラマ画像の一部を示す。図12では、連結領域84をサブ領域に分割せず、第1の画像51と第2の画像52を1/2ずつの割合でブレンドしている。したがって、図13に示すように、点線囲みで示す画像連結部分において、第1の画像51と第2の画像52における色の明度の差異が強く表れてしまい、連結部分が目立ってしまっている。   FIG. 12 shows a connection region 84 in which the first image 51 and the second image 52 are connected without using the imaging device 1 according to the present embodiment, and FIG. 13 shows the connection shown in FIG. A part of the panoramic image including the region 84 is shown. In FIG. 12, the connection area 84 is not divided into sub-areas, and the first image 51 and the second image 52 are blended at a ratio of 1/2. Therefore, as shown in FIG. 13, in the image connection portion indicated by the dotted line, the difference in color brightness between the first image 51 and the second image 52 appears strongly, and the connection portion becomes conspicuous.

これに対して、図9及び図10では、連結領域60における色の差異の変化が緩やかであるため、図11に示すように、点線囲みで示す画像連結部分において、連結部分が目立たない。したがって、撮像装置1によれば、連結部分がより自然に見える単一画像63を得ることができる。   On the other hand, in FIG. 9 and FIG. 10, since the change of the color difference in the connection area 60 is gradual, the connection part is not conspicuous in the image connection part indicated by the dotted line as shown in FIG. Therefore, according to the imaging device 1, it is possible to obtain a single image 63 in which the connected portion looks more natural.

また、ブレンディング処理部24は、サブ領域ごとの画像の混合比率を変化させることによって、連結領域60,61における色の差異の変化を緩やかにしている。したがって、例えば、ボケを施すために透明度を示す係数(アルファ値)を別途演算処理する必要がない。また、連結用の別画像を生成する必要もない。よって、画像連結処理における処理速度を高めることができる。   In addition, the blending processing unit 24 moderates the change in the color difference in the connected regions 60 and 61 by changing the mixing ratio of the image for each sub-region. Therefore, for example, it is not necessary to separately calculate a coefficient (alpha value) indicating transparency for blurring. Further, it is not necessary to generate another image for connection. Therefore, the processing speed in the image connection process can be increased.

このように、本実施形態に係る撮像装置1によれば、静止画及び動画のいずれにおいても、複数の画像51,52,53を連結する処理速度を高めると共に、複数の画像51,52,53の連結部分が目立たない画像処理を実現することができる。   As described above, according to the imaging device 1 according to the present embodiment, in both the still image and the moving image, the processing speed for connecting the plurality of images 51, 52, and 53 is increased and the plurality of images 51, 52, and 53 are combined. It is possible to realize image processing in which the connected portions are not conspicuous.

ブレンディング処理部24は、複数の画像51,52,53を連結する連結方向Wに連結領域56を分割して複数のサブ領域を設定する。これにより、連結した連結領域60,61における色の差異の変化を連結方向Wに緩やかにすることができる。   The blending processing unit 24 divides the connection area 56 in the connection direction W that connects the plurality of images 51, 52, 53 and sets a plurality of sub areas. Thereby, the change of the color difference in the connected connection areas 60 and 61 can be moderated in the connection direction W.

ブレンディング処理部24は、複数の画像51,52,53の混合比率を、一方の画像の複数のサブ領域における比率が、連結領域56の先端に近づくにつれて減少すると共に、他方の画像の複数のサブ領域における比率が、連結領域56の先端に近づくにつれて減少するように決定するものである。これにより、連結領域60,61における色の差異を連結方向に漸次的に変化させることができる。   The blending processing unit 24 decreases the mixing ratio of the plurality of images 51, 52, and 53 as the ratio in the plurality of sub-regions of one image approaches the tip of the connection region 56 and the plurality of sub-regions of the other image. The ratio in the region is determined so as to decrease as the tip of the connection region 56 is approached. Thereby, the color difference in the connection areas 60 and 61 can be gradually changed in the connection direction.

図9から図11には、16個のサブ領域に分割された連結領域60を示しているが、前述した8個のサブ領域のブレンドと同様に、第1の画像51の比率と第2の画像52の比率が、それぞれの連結領域56(図8に示す)の端部に近づくにつれて、サブ領域ごとに1/(サブ領域の個数+1)ずつ一定の割合で減少している。すなわち、図10に示すサブ領域[1]における第1の画像51の占める割合は、16/17であり、第2の画像52の占める割合は、1/17であり、サブ領域[2]における第1の画像51の占める割合は、15/17であり、第2の画像52の占める割合は、2/17であり、サブ領域[3]における第1の画像51の占める割合は、14/17であり、第2の画像52の占める割合は、3/17であり、(中略)サブ領域[16]における第1の画像51の占める割合は、1/17であり、第2の画像52の占める割合は、16/17である。   FIGS. 9 to 11 show the connected region 60 divided into 16 sub-regions, but the ratio of the first image 51 and the second region are similar to the blend of the eight sub-regions described above. As the ratio of the images 52 approaches the end of each connected area 56 (shown in FIG. 8), 1 / (number of sub areas + 1) is decreased at a constant rate for each sub area. That is, the proportion of the first image 51 in the sub-region [1] shown in FIG. 10 is 16/17, the proportion of the second image 52 is 1/17, and the proportion in the sub-region [2] The ratio occupied by the first image 51 is 15/17, the ratio occupied by the second image 52 is 2/17, and the ratio occupied by the first image 51 in the sub-region [3] is 14/17. 17, the proportion of the second image 52 is 3/17, and the proportion of the first image 51 in (substantially) the sub-region [16] is 1/17. The ratio occupied by is 16/17.

第1の画像51の比率と第2の画像52の比率が、それぞれの連結領域56(図8に示す)の端部に近づくにつれて減少することにより、図9及び図10に示すように、連結領域60において自然なグラデーションが形成され、連結部分をより自然に見せることができる。   As the ratio of the first image 51 and the ratio of the second image 52 decreases toward the end of each connected area 56 (shown in FIG. 8), as shown in FIG. 9 and FIG. A natural gradation is formed in the region 60, and the connected portion can be seen more naturally.

前述の実施形態において、ブレンディング処理部24は、サブ領域のRGB値を混合比率に基づいて算出している。これにより、サブ領域における画像のブレンドを容易に実行することができる。   In the above-described embodiment, the blending processing unit 24 calculates the RGB values of the sub areas based on the mixing ratio. Thereby, blending of images in the sub-region can be easily executed.

前述の実施形態において、撮像装置1は画像補正部22を備え、画像補正部22は、複数の画像51,52,53を仮想球体70の球面75,76,77上にそれぞれ投影して複数の球体投影画像を取得し、複数の球体投影画像を仮想の円柱周面上にそれぞれ投影して複数の円柱投影画像を取得することによって、複数の画像51,52,53を補正している。これにより、複数の画像51,52,53の遠近感異常及び歪みを補正して、複数の画像51,52,53をスムーズに連結することができる。   In the above-described embodiment, the imaging apparatus 1 includes the image correction unit 22, and the image correction unit 22 projects a plurality of images 51, 52, and 53 onto the spherical surfaces 75, 76, and 77 of the virtual sphere 70, respectively. The plurality of images 51, 52, and 53 are corrected by acquiring a spherical projection image, projecting the plurality of spherical projection images onto a virtual cylindrical circumferential surface, and acquiring a plurality of cylindrical projection images. Thereby, the perspective abnormality and distortion of the plurality of images 51, 52, 53 can be corrected, and the plurality of images 51, 52, 53 can be smoothly connected.

また、本実施形態によれば、前処理部5によって予め設定された連結領域56を連結すればよいため、パターンマッチング等の負荷の高い処理を行う必要がない。例えば、高フレームレート・ビデオ(一例として、30フレーム/秒)に対して、1/30秒ごとに合成ポイントを更新する処理は、現在のPCでも十分な処理速度で実施することは難しい。これに対して、本実施形態によれば、より低負荷且つ高速に画像の連結処理を行うことができる。   Moreover, according to this embodiment, since the connection area | region 56 preset by the pre-processing part 5 should just be connected, it is not necessary to perform high-load processes, such as pattern matching. For example, for a high frame rate video (for example, 30 frames / second), it is difficult to perform a process of updating the synthesis point every 1/30 seconds at a sufficient processing speed even with a current PC. On the other hand, according to the present embodiment, it is possible to perform image connection processing at a lower load and at a higher speed.

<他の実施形態>
以上、本発明の実施形態について述べたが、本発明は既述の実施形態に限定されるものではなく、本発明の技術的思想に基づいて各種の変形及び変更が可能である。例えば、前述の実施形態において、撮像部2を備える撮像装置1について説明したが、これに限定されない。本発明を撮像部2を備えない画像処理装置として実現してもよい。前述の撮像装置1は、パノラマ画像を撮影する多眼カメラとして実現され得るが、これに限定されない。複数の画像51,52,53を連結してパノラマ画像以外の単一画像63を生成してもよい。前述の実施形態において、撮像装置1は第1の撮像部2Aから第3の撮像部2Cを備え、3枚の画像51,52,53を連結しているが、これに限定されない。例えば、2個の撮像部2又は4個以上の撮像部2を備え、2枚又は4枚以上の画像を連結するように構成してもよい。前述の実施形態では、8個又は16個に分割されたサブ領域について説明したが、これに限定されず、他の個数のサブ領域を設定してもよい。
<Other embodiments>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made based on the technical idea of the present invention. For example, in the above-described embodiment, the imaging apparatus 1 including the imaging unit 2 has been described, but the present invention is not limited to this. The present invention may be realized as an image processing apparatus that does not include the imaging unit 2. The imaging device 1 described above can be realized as a multi-lens camera that captures a panoramic image, but is not limited thereto. A plurality of images 51, 52, and 53 may be connected to generate a single image 63 other than the panoramic image. In the above-described embodiment, the imaging device 1 includes the first imaging unit 2A to the third imaging unit 2C and connects the three images 51, 52, and 53, but is not limited thereto. For example, two imaging units 2 or four or more imaging units 2 may be provided and two or four or more images may be connected. In the above-described embodiment, the sub area divided into 8 or 16 has been described. However, the present invention is not limited to this, and another number of sub areas may be set.

サブ領域における画像51,52,53の混合比率は、前述の実施形態における比率に限定されず、他の混合比率を用いてもよい。前述の撮像装置1では、RGB値を調整することによって、サブ領域における画像51,52,53のブレンドを実行しているが、これに限定されず、RGB値以外の色の表現値を用いてサブ領域における画像51,52,53のブレンドを実行してもよい。前述の撮像装置1では、画像51,52,53が連結された後に画像整形部29によって、不使用上下端部67をカットしているがこれに限定されない。一例として、前述のステップS15(図7に示す)において、画像51,52,53を連結する前に、不使用連結端部51b,52b,53bと共に不使用上下端部67をカットしておいてもよい。この場合、画像整形部29は不要になる。前述の撮像装置1において、ホワイトバランス調整等の各種画像処理を、画像連結処理と共に実行してもよい。   The mixing ratio of the images 51, 52, and 53 in the sub-region is not limited to the ratio in the above-described embodiment, and other mixing ratios may be used. In the imaging device 1 described above, blending of the images 51, 52, and 53 in the sub-region is performed by adjusting the RGB value. However, the present invention is not limited to this, and expression values of colors other than the RGB value are used. You may perform the blend of the images 51, 52, and 53 in a sub area | region. In the imaging device 1 described above, the unused upper and lower end portions 67 are cut by the image shaping unit 29 after the images 51, 52, and 53 are connected, but the present invention is not limited to this. As an example, in step S15 (shown in FIG. 7), before connecting the images 51, 52, and 53, the unused upper and lower end portions 67 are cut together with the unused connection ends 51b, 52b, and 53b. Also good. In this case, the image shaping unit 29 becomes unnecessary. In the imaging device 1 described above, various image processing such as white balance adjustment may be executed together with the image connection processing.

1 撮像装置
2 撮像部
3 画像入力部
6 画像連結部
22 画像補正部
24 ブレンディング処理部
46,56,60,61 連結領域
51,52,53 複数の画像
70 仮想球体

DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging part 3 Image input part 6 Image connection part 22 Image correction part 24 Blending process part 46,56,60,61 Connection area 51,52,53 Multiple images 70 Virtual sphere

Claims (8)

複数の画像を入力する画像入力部と、
前記画像入力部が入力した前記複数の画像を平面画像から球体投影画像に変換して補正し、補正した画像の一部を連結領域として互いに重ね合わせて、前記複数の画像を連結する画像連結部とを備え、
前記画像連結部は、前記連結領域を、互いに重ね合わされる複数のサブ領域に分割し、前記連結領域における色の差異の変化が緩やかになるように、前記サブ領域ごとの混合比率を変化させて、前記サブ領域を互いに重ね合わせるブレンディング処理部を備える画像処理装置。
An image input unit for inputting a plurality of images;
An image connecting unit that converts the plurality of images input by the image input unit from a planar image to a spherical projection image, corrects the images , and superimposes a part of the corrected images as a connection region to connect the plurality of images. And
The image connection unit divides the connection region into a plurality of sub-regions that are overlapped with each other, and changes a mixing ratio for each sub-region so that a change in color difference in the connection region is moderate. An image processing apparatus comprising a blending processing unit that superimposes the sub-regions on each other.
前記ブレンディング処理部は、前記複数の画像を連結する連結方向に前記連結領域を分割して前記複数のサブ領域を設定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the blending processing unit sets the plurality of sub-regions by dividing the connection region in a connection direction for connecting the plurality of images. 前記ブレンディング処理部は、前記複数の画像の混合比率を、一方の画像の前記複数のサブ領域における比率が、前記連結領域の先端に近づくにつれて減少すると共に、他方の画像の前記複数のサブ領域における比率が、前記連結領域の先端に近づくにつれて減少するように決定するものであることを特徴とする請求項1又は請求項2に記載の画像処理装置。   The blending processing unit decreases the mixing ratio of the plurality of images as the ratio of the one image in the plurality of sub-regions approaches the tip of the connected region, and the other image in the plurality of sub-regions. The image processing apparatus according to claim 1, wherein the ratio is determined so as to decrease as it approaches the tip of the connection region. 前記ブレンディング処理部は、前記サブ領域のRGB値を前記混合比率に基づいて算出することを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the blending processing unit calculates an RGB value of the sub-region based on the mixing ratio. 5. 前記画像連結部は、前記複数の画像を補正する画像補正部をさらに備え、
前記画像補正部は、前記複数の画像を仮想球体の球面上にそれぞれ投影して複数の球体投影画像を取得し、前記複数の球体投影画像を仮想の円柱周面上にそれぞれ投影して複数の円柱投影画像を取得することによって、前記複数の画像を補正するものであり、
前記ブレンディング処理部は、前記画像補正部によって補正した前記複数の画像を連結するものであることを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。
The image connecting unit further includes an image correcting unit that corrects the plurality of images,
The image correction unit projects the plurality of images onto a spherical surface of a virtual sphere to obtain a plurality of sphere projection images, and projects the plurality of sphere projection images onto a virtual cylindrical circumferential surface to project a plurality of sphere projection images. Correcting the plurality of images by acquiring a cylindrical projection image;
The image processing apparatus according to claim 1, wherein the blending processing unit is configured to connect the plurality of images corrected by the image correction unit.
前記複数の画像を撮像する撮像部と、
請求項1から請求項5のいずれか1項に記載の画像処理装置とを備える撮像装置。
An imaging unit that captures the plurality of images;
An imaging device comprising the image processing device according to any one of claims 1 to 5.
複数の画像を入力する画像入力ステップと、
前記画像入力ステップにおいて入力した前記複数の画像を平面画像から球体投影画像に変換して補正し、補正した画像の一部を連結領域として互いに重ね合わせて、前記複数の画像を連結する画像連結ステップとを含み、
前記画像連結ステップは、前記連結領域を、互いに重ね合わされる複数のサブ領域に分割し、前記連結領域における色の差異の変化が緩やかになるように、前記サブ領域ごとの混合比率を変化させて、前記サブ領域を互いに重ね合わせるブレンディング処理ステップを含む画像処理方法。
An image input step for inputting a plurality of images;
An image linking step of connecting the plurality of images by converting the plurality of images input in the image input step from a planar image to a spherical projection image and correcting the images and superimposing a part of the corrected images as a connection region. Including
The image connection step divides the connection region into a plurality of sub-regions that are overlapped with each other, and changes a mixing ratio for each sub-region so that a change in color difference in the connection region becomes gradual. An image processing method including a blending processing step of superimposing the sub-regions on each other.
コンピュータに、
複数の画像を入力する画像入力ステップと、
前記画像入力ステップにおいて入力した前記複数の画像を平面画像から球体投影画像に変換して補正し、補正した画像の一部を連結領域として互いに重ね合わせて、前記複数の画像を連結する画像連結ステップとを実行させるための画像処理プログラムであって、
前記画像連結ステップは、前記連結領域を、互いに重ね合わされる複数のサブ領域に分割し、前記連結領域における色の差異の変化が緩やかになるように、前記サブ領域ごとの混合比率を変化させて、前記サブ領域を互いに重ね合わせるブレンディング処理ステップを含む画像処理プログラム。
On the computer,
An image input step for inputting a plurality of images;
An image linking step of connecting the plurality of images by converting the plurality of images input in the image input step from a planar image to a spherical projection image and correcting the images and superimposing a part of the corrected images as a connection region. An image processing program for executing
The image connection step divides the connection region into a plurality of sub-regions that are overlapped with each other, and changes a mixing ratio for each sub-region so that a change in color difference in the connection region becomes gradual. An image processing program including a blending processing step of superimposing the sub-regions on each other.
JP2013216809A 2013-10-17 2013-10-17 Image processing apparatus, imaging apparatus, image processing method, and image processing program Active JP6238677B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013216809A JP6238677B2 (en) 2013-10-17 2013-10-17 Image processing apparatus, imaging apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013216809A JP6238677B2 (en) 2013-10-17 2013-10-17 Image processing apparatus, imaging apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2015080117A JP2015080117A (en) 2015-04-23
JP6238677B2 true JP6238677B2 (en) 2017-11-29

Family

ID=53011199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013216809A Active JP6238677B2 (en) 2013-10-17 2013-10-17 Image processing apparatus, imaging apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6238677B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032125A1 (en) * 2021-09-02 2023-03-09 日本電信電話株式会社 Panoramic image generation device, panoramic image generation method, and panoramic image generation program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007180930A (en) * 2005-12-28 2007-07-12 Canon Marketing Japan Inc Image combining device, image combining method and program, and recording medium
JP5470109B2 (en) * 2010-03-11 2014-04-16 富士フイルム株式会社 Panoramic image imaging apparatus and panoramic image synthesis method
JP2013046270A (en) * 2011-08-25 2013-03-04 Olympus Corp Image connecting device, photographing device, image connecting method, and image processing program

Also Published As

Publication number Publication date
JP2015080117A (en) 2015-04-23

Similar Documents

Publication Publication Date Title
TWI554103B (en) Image capturing device and digital zooming method thereof
JP6263623B2 (en) Image generation method and dual lens apparatus
JP5088018B2 (en) Image processing apparatus and control program
US9313411B2 (en) Camera, distortion correction device and distortion correction method
CN109104596A (en) Optical projection system and the bearing calibration for showing image
US10521891B2 (en) Image processing apparatus, system, image processing method, and non-transitory recording medium
JP2007164258A (en) Image synthesizing device and method
US8988546B2 (en) Image processing device, image processing method, image capturing device, and program
EP1903498B1 (en) Creating a panoramic image by stitching a plurality of images
US8937662B2 (en) Image processing device, image processing method, and program
JP5735846B2 (en) Image processing apparatus and method
JPWO2016204068A1 (en) Image processing apparatus, image processing method, and projection system
TWI599809B (en) Lens module array, image sensing device and fusing method for digital zoomed images
US9143756B2 (en) Camera module, photographing method, and electronic apparatus
KR20160091238A (en) Image processing apparatus, image processing method, and program
US8842932B2 (en) Image processing apparatus, image processing method, and recording medium recording a program
JP6238677B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
US10401608B2 (en) Image acquisition apparatus
WO2015198478A1 (en) Image distortion correction apparatus, information processing apparatus and image distortion correction method
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2014086899A (en) Image processing device, image processing method, and program
JP6106415B2 (en) Imaging device and display device
JP6825458B2 (en) Image processing device, photographing device, and image processing method
JP5863280B2 (en) Imaging apparatus, image processing method, and program
JP6184831B2 (en) Exit pupil position measuring device, imaging device, exit pupil position measuring method and program, and imaging method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170517

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171031

R150 Certificate of patent or registration of utility model

Ref document number: 6238677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250