JP5718149B2 - Image correction method and stereoscopic image photographing apparatus - Google Patents

Image correction method and stereoscopic image photographing apparatus Download PDF

Info

Publication number
JP5718149B2
JP5718149B2 JP2011112794A JP2011112794A JP5718149B2 JP 5718149 B2 JP5718149 B2 JP 5718149B2 JP 2011112794 A JP2011112794 A JP 2011112794A JP 2011112794 A JP2011112794 A JP 2011112794A JP 5718149 B2 JP5718149 B2 JP 5718149B2
Authority
JP
Japan
Prior art keywords
image
camera
subject
reference image
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011112794A
Other languages
Japanese (ja)
Other versions
JP2012244432A (en
Inventor
石井 康史
康史 石井
成文 後田
成文 後田
真奈美 松井
真奈美 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011112794A priority Critical patent/JP5718149B2/en
Publication of JP2012244432A publication Critical patent/JP2012244432A/en
Application granted granted Critical
Publication of JP5718149B2 publication Critical patent/JP5718149B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、立体画像を撮影する立体画像撮影装置に内蔵された、2基のカメラから取得した各画像の補正を行う画像補正方法、および上記2基のカメラから取得した各画像を、上記画像補正方法に従って補正する立体画像撮影装置に関する。   The present invention provides an image correction method for correcting each image acquired from two cameras built in a three-dimensional image capturing device that captures a three-dimensional image, and each image acquired from the two cameras is the above image. The present invention relates to a stereoscopic image photographing apparatus that performs correction according to a correction method.

立体画像(立体映像)は、ユーザに対して斬新さ、臨場感等を与えることができるため、立体画像を作成して表示する技術の開発が盛んになっている。   Since a stereoscopic image (stereoscopic image) can give a user a novelty, a sense of presence, and the like, development of a technique for creating and displaying a stereoscopic image has been actively performed.

特許文献1には、左右2基のカメラが撮影した2枚の画像(左右画像)から、左右画像の位置ズレのズレ量および方向を検出し、該ズレ量および方向を示すズレベクトルに基づいて、所望の視差が得られるように左右画像の位置ズレを補正する技術が開示されている。   In Patent Document 1, a displacement amount and direction of a positional shift between left and right images are detected from two images (left and right images) taken by two left and right cameras, and based on a displacement vector indicating the displacement amount and direction. A technique for correcting a positional deviation between left and right images so as to obtain a desired parallax is disclosed.

特許文献2には、左右画像の水平方向の視差ズレを低減するために、左右画像の水平方向をトリミングにより補正する技術が開示されている。   Patent Document 2 discloses a technique for correcting the horizontal direction of the left and right images by trimming in order to reduce the horizontal disparity shift between the left and right images.

特許文献3には、左右画像の位相差を求め、求めた位相差を用いて左右画像(時系列画像)の動き情報を調整し、調整された動き情報に基づいて左右画像のトリミングを行う技術が開示されている。   Japanese Patent Application Laid-Open No. 2004-228561 obtains a phase difference between left and right images, adjusts motion information of the left and right images (time-series images) using the obtained phase difference, and trims the left and right images based on the adjusted motion information. Is disclosed.

特開2011−71604号公報(2011年4月7日公開)JP 2011-71604 A (published April 7, 2011) 特開2011−29700号公報(2011年2月10日公開)JP 2011-29700 A (published February 10, 2011) 特開2003−92768号公報(2003年3月28日公開)JP 2003-92768 A (published March 28, 2003)

特許文献1〜3に開示されている技術では、カメラから被写体までの距離(以下、「被写体距離」と称する)に応じて、取得した左右2枚の画像間での上下ズレを生じる虞があるという問題が発生する。   In the techniques disclosed in Patent Documents 1 to 3, there is a risk of vertical displacement between the acquired two left and right images depending on the distance from the camera to the subject (hereinafter referred to as “subject distance”). The problem occurs.

以下、上記の問題について説明する。   Hereinafter, the above problem will be described.

左右2枚の画像間で上記上下ズレを生じる要因としては、立体画像撮影装置に内蔵された各カメラの平行移動(各カメラの上下方向への取り付け位置ズレ)、各カメラのアオリ(各カメラの光軸の、上下方向への傾きズレ)、および各カメラの回転(カメラの光軸回りの回転ズレ)が挙げられる。立体画像撮影装置に対するこれらのカメラの取り付けズレは、カメラの組み立て精度、および/または、カメラの取り付け位置精度に応じて生じる誤差である場合、構造的に無くすことは困難である。   Factors that cause the vertical displacement between the left and right images include the parallel movement of each camera built in the stereoscopic image capturing device (the displacement of the mounting position of each camera in the vertical direction), the tilt of each camera (each camera's tilt). The tilt of the optical axis in the vertical direction) and the rotation of each camera (rotation shift around the optical axis of the camera) can be mentioned. In the case where the mounting displacement of these cameras with respect to the stereoscopic image capturing apparatus is an error caused in accordance with the assembly accuracy of the camera and / or the mounting position accuracy of the camera, it is difficult to eliminate structurally.

カメラの平行移動に起因する上記上下ズレ、およびカメラの回転に起因する上記上下ズレは、被写体距離に応じてズレ量が異なる。一方、カメラのアオリに起因する上記上下ズレは、被写体距離によらず、一定のズレ量となる。   The above-described vertical shift caused by the parallel movement of the camera and the above-described vertical shift caused by the rotation of the camera differ in the amount of deviation depending on the subject distance. On the other hand, the vertical shift due to camera tilt is a constant shift amount regardless of the subject distance.

ここで、特許文献1に開示されている技術では、カメラの平行移動に起因する上記上下ズレおよびカメラの回転に起因する上記上下ズレと、カメラのアオリに起因する上記上下ズレとを区別することができない。また、特許文献1に開示されている技術では、ズレベクトルに基づいて左右画像の位置ズレを補正するので、被写体距離に応じてズレ量が異なる上記上下ズレを補正することはできない。   Here, in the technique disclosed in Patent Document 1, the vertical shift due to the parallel movement of the camera and the vertical shift due to the rotation of the camera are distinguished from the vertical shift due to the camera tilt. I can't. Further, in the technique disclosed in Patent Document 1, since the positional deviation between the left and right images is corrected based on the deviation vector, it is not possible to correct the above-described vertical deviation in which the amount of deviation differs depending on the subject distance.

従って、特許文献1に開示されている技術では、特定の被写体距離を基準として上記上下ズレの補正を行っても、別の被写体距離において上記上下ズレを生じる虞がある。   Therefore, with the technique disclosed in Patent Document 1, even when the vertical shift is corrected based on a specific subject distance, the vertical shift may occur at another subject distance.

また、特許文献2に開示されている技術では、左右画像の上下方向のトリミングについて言及されていない。   Further, in the technique disclosed in Patent Document 2, there is no mention of vertical trimming of left and right images.

また、特許文献3に開示されている技術では、特許文献1に開示されている技術と同様の問題が発生する。   Further, the technique disclosed in Patent Document 3 has the same problem as the technique disclosed in Patent Document 1.

本発明は、上記の問題に鑑みて為されたものであり、その目的は、被写体距離に応じて、取得した左右2枚の画像間での上下ズレを低減することを可能とする画像補正方法、および立体画像撮影装置を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image correction method capable of reducing vertical displacement between two acquired left and right images according to the subject distance. And providing a stereoscopic image capturing apparatus.

本発明の画像補正方法は、上記の問題を解決するために、複数のカメラを備えたカメラ群を構成する第1カメラから取得した第1画像、および該カメラ群を構成する、第1カメラと別の第2カメラから取得した第2画像から立体画像を得るために、第1画像および第2画像の少なくとも一方をトリミングする画像補正方法であって、
(1)上記カメラ群までの距離が互いに異なる第1被写体および第2被写体を、上記第1カメラおよび第2カメラにより撮影し、第1カメラが第1被写体を撮影して得られる第1参照画像と、第2カメラが第1被写体を撮影して得られる第2参照画像と、第1カメラが第2被写体を撮影して得られる第3参照画像と、第2カメラが第2被写体を撮影して得られる第4参照画像とを取得する第1工程と、
(2)上記第1参照画像および第2参照画像から、上記第1被写体の特徴点を少なくとも2つ検出すると共に、上記第3参照画像および第4参照画像から、上記第2被写体の特徴点を少なくとも1つ検出する第2工程と、
(3)上記第2工程で検出した第1被写体の各特徴点から、上記第1カメラの光軸を中心とする第1カメラの回転角度に対する、上記第2カメラの光軸を中心とする第2カメラの回転角度の差分である相互回転角度差分を算出し、該相互回転角度差分を相殺するように、上記第1参照画像および第2参照画像の少なくとも一方を補正する第3工程と、
(4)上記第1参照画像および第2参照画像を、互いに同じ所定角度だけ回転させ、上記第1被写体の各特徴点の、第1参照画像と第2参照画像との間での上下方向におけるズレである第1上下ズレを算出する第4工程と、
(5)上記第3参照画像および第4参照画像の少なくとも一方を、上記相互回転角度差分および第1上下ズレを相殺するように、かつ互いに同じ上記所定角度だけ回転させるように補正し、上記第2工程で検出した第2被写体の特徴点の、第3参照画像と第4参照画像との間での上下方向におけるズレである第2上下ズレを算出する第5工程と、
(6)複数の上記所定角度について、上記第4工程および第5工程を行い、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを求める第6工程とを含み、
上記第6工程にて求めた、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを相殺するように、上記第1画像および第2画像の少なくとも一方をトリミングすることを特徴としている。
In order to solve the above problems, an image correction method of the present invention includes a first image acquired from a first camera that constitutes a camera group including a plurality of cameras, and a first camera that constitutes the camera group. An image correction method for trimming at least one of a first image and a second image to obtain a stereoscopic image from a second image acquired from another second camera,
(1) A first reference image obtained by photographing a first subject and a second subject having different distances to the camera group with the first camera and the second camera, and the first camera photographing the first subject. A second reference image obtained by photographing the first subject with the second camera, a third reference image obtained by photographing the second subject with the first camera, and a second reference image obtained by the second camera. A first step of acquiring a fourth reference image obtained by
(2) At least two feature points of the first subject are detected from the first reference image and the second reference image, and feature points of the second subject are detected from the third reference image and the fourth reference image. A second step of detecting at least one;
(3) From each feature point of the first subject detected in the second step, the first centered on the optical axis of the second camera relative to the rotation angle of the first camera about the optical axis of the first camera. A third step of calculating a mutual rotation angle difference, which is a difference between rotation angles of the two cameras, and correcting at least one of the first reference image and the second reference image so as to cancel the mutual rotation angle difference;
(4) The first reference image and the second reference image are rotated by the same predetermined angle with each other, and the feature points of the first subject in the vertical direction between the first reference image and the second reference image A fourth step of calculating a first vertical shift that is a shift;
(5) At least one of the third reference image and the fourth reference image is corrected so as to cancel the mutual rotation angle difference and the first vertical shift, and rotated by the same predetermined angle as each other, A fifth step of calculating a second vertical shift, which is a vertical shift between the third reference image and the fourth reference image, of the feature point of the second subject detected in the two steps;
(6) including a sixth step of performing the fourth step and the fifth step for a plurality of the predetermined angles to obtain the predetermined angle and the first vertical shift, wherein the second vertical shift is minimized,
Trimming at least one of the first image and the second image so as to cancel out the predetermined angle and the first vertical shift that minimizes the second vertical shift obtained in the sixth step. It is said.

第1画像と第2画像との間で、被写体のズレが発生する要因としては、(要因A)〜(要因D)の4つが挙げられる。   There are four factors (factor A) to (factor D) that cause the subject to shift between the first image and the second image.

(要因A)第1カメラおよび第2カメラ間での回転角度の差によるズレ。   (Factor A) Deviation due to a difference in rotation angle between the first camera and the second camera.

(要因B)第1カメラおよび第2カメラが同方向に同じ回転角度だけ回転したことによるズレ、または第1カメラおよび第2カメラ間での上下方向の取り付け位置ズレ。   (Factor B) Deviation caused by rotation of the first camera and the second camera in the same direction by the same rotation angle, or deviation in the vertical mounting position between the first camera and the second camera.

(要因C)第1カメラおよび第2カメラの各光軸間での、上下方向の傾きによるズレ。   (Factor C) Deviation due to vertical tilt between the optical axes of the first camera and the second camera.

(要因D)第1カメラおよび第2カメラの各光軸間での、左右方向の傾きによるズレ。   (Factor D) Deviation due to tilt in the left-right direction between the optical axes of the first camera and the second camera.

(要因B)に係るカメラの上下方向の取り付け位置ズレは、第1カメラおよび第2カメラの各々のレンズの中心位置を通る直線を水平とみなすと、(要因B)に係るカメラの同方向かつ同じ回転角度の回転によるズレと等価として扱うことができる。   The vertical displacement of the camera according to (Factor B) is the same as that of the camera according to (Factor B), assuming that the straight line passing through the center positions of the lenses of the first camera and the second camera is horizontal. It can be treated as equivalent to a shift caused by rotation at the same rotation angle.

(要因A)〜(要因D)のうち、第1画像と第2画像との間での上下ズレを生じさせるのは(要因B)および(要因C)である。(要因B)に係る上下ズレは、被写体距離によって上下方向へのズレ量が変わるのに対し、(要因C)に係る上下ズレのズレ量は、被写体距離によらない。そのため、(要因B)と(要因C)とで個別に補正を行う必要があるが、特定の距離にある被写体を撮影するだけではこれらを区別することはできない。   Among (Factor A) to (Factor D), it is (Factor B) and (Factor C) that cause the vertical shift between the first image and the second image. The vertical shift according to (Factor B) varies in the vertical direction depending on the subject distance, whereas the vertical shift according to (Factor C) does not depend on the subject distance. Therefore, it is necessary to perform correction separately for (Factor B) and (Factor C), but these cannot be distinguished only by photographing a subject at a specific distance.

上記の構成によれば、第3工程により、(要因A)を補正することが可能となる。また、上記の構成によれば、第4工程により、(要因B)を補正することが可能となる。また、上記の構成によれば、第5工程により、(要因C)を補正することが可能となる。   According to said structure, it becomes possible to correct | amend (factor A) by a 3rd process. Moreover, according to said structure, it becomes possible to correct | amend (factor B) by a 4th process. Moreover, according to said structure, it becomes possible to correct | amend (factor C) by a 5th process.

そして、第6工程により、第1参照画像および第2参照画像を互いに同じ角度回転させつつ、第4工程および第5工程を繰り返すことで、(要因B)および(要因C)の補正を最良化することが可能である。   Then, in the sixth step, the correction of (factor B) and (factor C) is optimized by repeating the fourth step and the fifth step while rotating the first reference image and the second reference image at the same angle. Is possible.

このように、本発明の画像補正方法では、(要因B)と(要因C)とを別々に補正する形で、画像の上下ズレの補正を行うことができるので、被写体距離に応じて、取得した左右2枚の画像間での上下ズレを低減することが可能となる。   As described above, according to the image correction method of the present invention, the vertical displacement of the image can be corrected by separately correcting (Factor B) and (Factor C). It is possible to reduce the vertical shift between the two right and left images.

ところで、上記の構成によれば、第1被写体の特徴点を2つ以上検出する必要がある。   By the way, according to the above configuration, it is necessary to detect two or more feature points of the first subject.

一方、第1参照画像および第2参照画像から、上記相互回転角度差分を算出するためには、第1参照画像に対する第2参照画像の回転角度を特定することが可能なものを、第1参照画像および第2参照画像から検出すれば十分である。「第1参照画像に対する第2参照画像の回転角度を特定することが可能なもの」とは、すなわち、第1参照画像および第2参照画像の両方に写る線である。なお、この線は、被写体として写っているものである必要は無い。   On the other hand, in order to calculate the mutual rotation angle difference from the first reference image and the second reference image, the first reference can be used to specify the rotation angle of the second reference image with respect to the first reference image. It is sufficient to detect from the image and the second reference image. “Those that can specify the rotation angle of the second reference image with respect to the first reference image” are lines that appear in both the first reference image and the second reference image. Note that this line need not be a subject.

一方、第1参照画像および第2参照画像から、上記第1上下ズレを算出するためには、第1被写体の特徴点を1つ以上検出する必要がある。   On the other hand, in order to calculate the first vertical shift from the first reference image and the second reference image, it is necessary to detect one or more feature points of the first subject.

すなわち、本発明の画像補正方法は、上記の問題を解決するために、複数のカメラを備えたカメラ群を構成する第1カメラから取得した第1画像、および該カメラ群を構成する、第1カメラと別の第2カメラから取得した第2画像から立体画像を得るために、第1画像および第2画像の少なくとも一方をトリミングする画像補正方法であって、
(1)上記カメラ群までの距離が互いに異なる第1被写体および第2被写体を、上記第1カメラおよび第2カメラにより撮影し、第1カメラが第1被写体および該第1被写体の周辺を含む被写体領域を撮影して得られる第1参照画像と、第2カメラが該被写体領域を撮影して得られる第2参照画像と、第1カメラが第2被写体を撮影して得られる第3参照画像と、第2カメラが第2被写体を撮影して得られる第4参照画像とを取得する第1工程と、
(2)上記第1参照画像および第2参照画像から、上記第1被写体の特徴点を少なくとも1つと、上記被写体領域に写る線とを検出すると共に、上記第3参照画像および第4参照画像から、上記第2被写体の特徴点を少なくとも1つ検出する第2工程と、
(3)上記第2工程で検出した第1被写体の特徴点および被写体領域に写る線から、上記第1カメラの光軸を中心とする第1カメラの回転角度に対する、上記第2カメラの光軸を中心とする第2カメラの回転角度の差分である相互回転角度差分を算出し、該相互回転角度差分を相殺するように、上記第1参照画像および第2参照画像の少なくとも一方を補正する第3工程と、
(4)上記第1参照画像および第2参照画像を、互いに同じ所定角度だけ回転させ、上記第1被写体の特徴点および被写体領域に写る線の、第1参照画像と第2参照画像との間での上下方向におけるズレである第1上下ズレを算出する第4工程と、
(5)上記第3参照画像および第4参照画像の少なくとも一方を、上記相互回転角度差分および第1上下ズレを相殺するように、かつ互いに同じ上記所定角度だけ回転させるように補正し、上記第2工程で検出した第2被写体の特徴点の、第3参照画像と第4参照画像との間での上下方向におけるズレである第2上下ズレを算出する第5工程と、
(6)複数の上記所定角度について、上記第4工程および第5工程を行い、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを求める第6工程とを含み、
上記第6工程にて求めた、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを相殺するように、上記第1画像および第2画像の少なくとも一方をトリミングすることを特徴とすることもできる。
That is, in order to solve the above-described problem, the image correction method of the present invention includes a first image acquired from a first camera constituting a camera group including a plurality of cameras, and a first image constituting the camera group. An image correction method for trimming at least one of a first image and a second image in order to obtain a stereoscopic image from a second image acquired from a second camera different from the camera,
(1) The first and second subjects having different distances to the camera group are photographed by the first camera and the second camera, and the first camera includes the first subject and the periphery of the first subject. A first reference image obtained by photographing the region, a second reference image obtained by photographing the subject region by the second camera, and a third reference image obtained by photographing the second subject by the first camera. A first step in which the second camera acquires a fourth reference image obtained by photographing the second subject;
(2) At least one feature point of the first subject and a line appearing in the subject area are detected from the first reference image and the second reference image, and from the third reference image and the fourth reference image. A second step of detecting at least one feature point of the second subject;
(3) The optical axis of the second camera with respect to the rotation angle of the first camera around the optical axis of the first camera from the feature point of the first subject detected in the second step and the line appearing in the subject area. Calculating a mutual rotation angle difference, which is a difference between rotation angles of the second camera around the center, and correcting at least one of the first reference image and the second reference image so as to cancel the mutual rotation angle difference. 3 steps,
(4) The first reference image and the second reference image are rotated by the same predetermined angle, and the line between the first reference image and the second reference image of the feature point of the first subject and the line appearing in the subject area A fourth step of calculating a first vertical shift that is a shift in the vertical direction at
(5) At least one of the third reference image and the fourth reference image is corrected so as to cancel the mutual rotation angle difference and the first vertical shift, and rotated by the same predetermined angle as each other, A fifth step of calculating a second vertical shift, which is a vertical shift between the third reference image and the fourth reference image, of the feature point of the second subject detected in the two steps;
(6) including a sixth step of performing the fourth step and the fifth step for a plurality of the predetermined angles to obtain the predetermined angle and the first vertical shift, wherein the second vertical shift is minimized,
Trimming at least one of the first image and the second image so as to cancel out the predetermined angle and the first vertical shift that minimizes the second vertical shift obtained in the sixth step. It can also be.

上記の構成によれば、第1被写体から2つの特徴点を検出するかわりに、第1被写体から1つの特徴点を検出し、かつ被写体領域に写る線、換言すれば第1参照画像に対する第2参照画像の回転角度が特定可能なものを検出しても、同様の方法が実施可能である。   According to the above configuration, instead of detecting two feature points from the first subject, one feature point is detected from the first subject, and a line that appears in the subject region, in other words, the second reference point for the first reference image. The same method can be implemented even if a reference image whose rotation angle can be specified is detected.

また、本発明の画像補正方法は、上記第1被写体の、第1参照画像と第2参照画像との間での左右方向におけるズレ、および上記第2被写体の、第3参照画像と第4参照画像との間での左右方向におけるズレの少なくとも一方を算出する第7工程をさらに含み、上記第7工程にて求めたズレを相殺するように、上記第1画像および第2画像の少なくとも一方をトリミングするのが好ましい。   Further, the image correction method of the present invention includes a shift of the first subject in the left-right direction between the first reference image and the second reference image, and a third reference image and a fourth reference of the second subject. A seventh step of calculating at least one of a shift in the left-right direction with respect to the image, wherein at least one of the first image and the second image is offset so as to cancel the shift obtained in the seventh step. Trimming is preferred.

上記の構成によれば、被写体距離に応じて、取得した左右2枚の画像間での左右方向におけるズレを低減することが可能となる。   According to the above configuration, it is possible to reduce the shift in the left-right direction between the acquired two left and right images according to the subject distance.

また、本発明の画像補正方法は、上記第1工程において、1つの画像に上記第1被写体および上記第2被写体の両方が写るように、上記第1カメラによる撮影および上記第2カメラによる撮影の少なくとも一方を行ってもよい。   In the image correction method of the present invention, in the first step, the first camera and the second camera are photographed so that both the first subject and the second subject appear in one image. At least one may be performed.

すなわち、第1カメラのみが、1つの画像に第1被写体および第2被写体が写るように撮影を行ってもよいし、第2カメラのみが、1つの画像に第1被写体および第2被写体が写るように撮影を行ってもよいし、第1カメラおよび第2カメラの両方が、1つの画像に第1被写体および第2被写体が写るように撮影を行ってもよい。   That is, only the first camera may perform shooting so that the first subject and the second subject appear in one image, or only the second camera shows the first subject and the second subject in one image. Alternatively, both the first camera and the second camera may shoot so that the first subject and the second subject appear in one image.

また、本発明の立体画像撮影装置は、本発明の画像補正方法により、上記第1画像および第2画像の少なくとも一方をトリミングするトリミング部と、上記カメラ群とを備えていることを特徴としている。   The stereoscopic image capturing apparatus of the present invention includes a trimming unit that trims at least one of the first image and the second image by the image correction method of the present invention, and the camera group. .

上記の構成によれば、本発明の画像補正方法と同様の効果を奏する立体画像撮影装置を実現することが可能となる。   According to said structure, it becomes possible to implement | achieve the stereo image imaging device which show | plays the effect similar to the image correction method of this invention.

また、本発明の立体画像撮影装置は、上記第1カメラの取り付け位置を、上記第2カメラに対して上下方向にズラした場合に、上記トリミング部により上記第1画像をトリミングして得られた画像、および上記トリミング部により上記第2画像をトリミングして得られた画像の両方が、互いに同じ回転角度により回転されることを特徴としている。   The stereoscopic image capturing apparatus of the present invention is obtained by trimming the first image by the trimming unit when the mounting position of the first camera is shifted in the vertical direction with respect to the second camera. Both the image and the image obtained by trimming the second image by the trimming unit are rotated at the same rotation angle.

本発明の画像補正方法によれば、立体画像撮影装置における第1カメラの取り付け位置を、第2カメラに対して上下方向に敢えてズラした場合、それに伴い、第1カメラの中心と第2カメラの中心とを通る直線を基準として、トリミングを行った結果、第1画像をトリミングして得られた画像および第2画像をトリミングして得られた画像の両方が、互いに同じ回転角度により回転するという現象が起こる。該現象が起こる立体画像撮影装置は、本発明の立体画像撮影装置であると考えてよい。   According to the image correction method of the present invention, when the mounting position of the first camera in the stereoscopic image capturing apparatus is deviated vertically with respect to the second camera, the center of the first camera and the second camera are accordingly moved. As a result of performing trimming on the basis of a straight line passing through the center, both the image obtained by trimming the first image and the image obtained by trimming the second image rotate at the same rotation angle. A phenomenon occurs. The stereoscopic image capturing apparatus in which the phenomenon occurs may be considered as the stereoscopic image capturing apparatus of the present invention.

以上のとおり、本発明の画像補正方法は、複数のカメラを備えたカメラ群を構成する第1カメラから取得した第1画像、および該カメラ群を構成する、第1カメラと別の第2カメラから取得した第2画像から立体画像を得るために、第1画像および第2画像の少なくとも一方をトリミングする画像補正方法であって、上記カメラ群までの距離が互いに異なる第1被写体および第2被写体を、上記第1カメラおよび第2カメラにより撮影し、第1カメラが第1被写体を撮影して得られる第1参照画像と、第2カメラが第1被写体を撮影して得られる第2参照画像と、第1カメラが第2被写体を撮影して得られる第3参照画像と、第2カメラが第2被写体を撮影して得られる第4参照画像とを取得する第1工程と、上記第1参照画像および第2参照画像から、上記第1被写体の特徴点を少なくとも2つ検出すると共に、上記第3参照画像および第4参照画像から、上記第2被写体の特徴点を少なくとも1つ検出する第2工程と、上記第2工程で検出した第1被写体の各特徴点から、上記第1カメラの光軸を中心とする第1カメラの回転角度に対する、上記第2カメラの光軸を中心とする第2カメラの回転角度の差分である相互回転角度差分を算出し、該相互回転角度差分を相殺するように、上記第1参照画像および第2参照画像の少なくとも一方を補正する第3工程と、上記第1参照画像および第2参照画像を、互いに同じ所定角度だけ回転させ、上記第1被写体の各特徴点の、第1参照画像と第2参照画像との間での上下方向におけるズレである第1上下ズレを算出する第4工程と、上記第3参照画像および第4参照画像の少なくとも一方を、上記相互回転角度差分および第1上下ズレを相殺するように、かつ互いに同じ上記所定角度だけ回転させるように補正し、上記第2工程で検出した第2被写体の特徴点の、第3参照画像と第4参照画像との間での上下方向におけるズレである第2上下ズレを算出する第5工程と、複数の上記所定角度について、上記第4工程および第5工程を行い、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを求める第6工程とを含み、上記第6工程にて求めた、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを相殺するように、上記第1画像および第2画像の少なくとも一方をトリミングする。   As described above, in the image correction method of the present invention, the first image acquired from the first camera constituting the camera group including a plurality of cameras, and the second camera different from the first camera constituting the camera group. An image correction method for trimming at least one of a first image and a second image in order to obtain a stereoscopic image from a second image acquired from the first subject and the second subject having different distances to the camera group Is captured by the first camera and the second camera, and the first reference image obtained by photographing the first subject by the first camera and the second reference image obtained by photographing the first subject by the second camera. A first step of obtaining a third reference image obtained by photographing the second subject by the first camera, and a fourth reference image obtained by photographing the second subject by the second camera; Reference image and second reference A second step of detecting at least two feature points of the first subject from the image and detecting at least one feature point of the second subject from the third reference image and the fourth reference image; The rotation angle of the second camera around the optical axis of the second camera relative to the rotation angle of the first camera around the optical axis of the first camera from each feature point of the first subject detected in two steps A third step of calculating at least one of the first reference image and the second reference image so as to cancel the mutual rotation angle difference, and calculating the mutual rotation angle difference that is a difference between the first reference image and the first reference image; The second reference image is rotated by the same predetermined angle as each other, and a first vertical shift, which is a vertical shift between the first reference image and the second reference image, of each feature point of the first subject is calculated. And a fourth step to In the second step, at least one of the third reference image and the fourth reference image is corrected so as to cancel the mutual rotation angle difference and the first vertical shift and rotate by the same predetermined angle. A fifth step of calculating a second vertical shift that is a vertical shift between the third reference image and the fourth reference image of the detected feature point of the second subject, and a plurality of the predetermined angles, Including the sixth step of performing the fourth step and the fifth step, and obtaining the predetermined angle and the first vertical deviation, wherein the second vertical deviation is minimized, and obtaining the second vertical deviation obtained in the sixth step. At least one of the first image and the second image is trimmed so as to cancel out the predetermined angle and the first vertical shift that minimize the shift.

また、本発明の画像補正方法は、複数のカメラを備えたカメラ群を構成する第1カメラから取得した第1画像、および該カメラ群を構成する、第1カメラと別の第2カメラから取得した第2画像から立体画像を得るために、第1画像および第2画像の少なくとも一方をトリミングする画像補正方法であって、上記カメラ群までの距離が互いに異なる第1被写体および第2被写体を、上記第1カメラおよび第2カメラにより撮影し、第1カメラが第1被写体および該第1被写体の周辺を含む被写体領域を撮影して得られる第1参照画像と、第2カメラが該被写体領域を撮影して得られる第2参照画像と、第1カメラが第2被写体を撮影して得られる第3参照画像と、第2カメラが第2被写体を撮影して得られる第4参照画像とを取得する第1工程と、上記第1参照画像および第2参照画像から、上記第1被写体の特徴点を少なくとも1つと、上記被写体領域に写る線とを検出すると共に、上記第3参照画像および第4参照画像から、上記第2被写体の特徴点を少なくとも1つ検出する第2工程と、上記第2工程で検出した第1被写体の特徴点および被写体領域に写る線から、上記第1カメラの光軸を中心とする第1カメラの回転角度に対する、上記第2カメラの光軸を中心とする第2カメラの回転角度の差分である相互回転角度差分を算出し、該相互回転角度差分を相殺するように、上記第1参照画像および第2参照画像の少なくとも一方を補正する第3工程と、上記第1参照画像および第2参照画像を、互いに同じ所定角度だけ回転させ、上記第1被写体の特徴点および被写体領域に写る線の、第1参照画像と第2参照画像との間での上下方向におけるズレである第1上下ズレを算出する第4工程と、上記第3参照画像および第4参照画像の少なくとも一方を、上記相互回転角度差分および第1上下ズレを相殺するように、かつ互いに同じ上記所定角度だけ回転させるように補正し、上記第2工程で検出した第2被写体の特徴点の、第3参照画像と第4参照画像との間での上下方向におけるズレである第2上下ズレを算出する第5工程と、複数の上記所定角度について、上記第4工程および第5工程を行い、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを求める第6工程とを含み、上記第6工程にて求めた、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを相殺するように、上記第1画像および第2画像の少なくとも一方をトリミングする。   In addition, the image correction method of the present invention acquires a first image acquired from a first camera constituting a camera group including a plurality of cameras, and a second camera separate from the first camera constituting the camera group. An image correction method for trimming at least one of the first image and the second image to obtain a stereoscopic image from the second image, wherein the first subject and the second subject having different distances to the camera group are A first reference image obtained by photographing with the first camera and the second camera, the first camera photographing a subject region including the first subject and the periphery of the first subject, and a second camera capturing the subject region. A second reference image obtained by photographing, a third reference image obtained by photographing the second subject with the first camera, and a fourth reference image obtained by photographing the second subject with the second camera are acquired. The first construction And detecting at least one feature point of the first subject and a line appearing in the subject region from the first reference image and the second reference image, and from the third reference image and the fourth reference image, From the second step of detecting at least one feature point of the second subject and the feature point of the first subject detected in the second step and a line appearing in the subject region, the optical axis of the first camera is the center. Calculating the mutual rotation angle difference, which is the difference of the rotation angle of the second camera around the optical axis of the second camera with respect to the rotation angle of the first camera, and canceling out the mutual rotation angle difference. A third step of correcting at least one of the first reference image and the second reference image, and the first reference image and the second reference image are rotated by the same predetermined angle, and the feature point and the subject area of the first subject A fourth step of calculating a first vertical shift, which is a vertical shift between the first reference image and the second reference image, and at least one of the third reference image and the fourth reference image; The third reference image of the feature point of the second subject detected in the second step, corrected so as to cancel out the mutual rotation angle difference and the first vertical shift, and rotated by the same predetermined angle as each other A fifth step of calculating a second vertical shift that is a vertical shift between the first reference image and the fourth reference image, and the fourth step and the fifth step for the plurality of the predetermined angles, And a sixth step for obtaining the predetermined angle and the first vertical deviation, which minimizes the deviation, and the predetermined angle and the first vertical deviation, which are obtained in the sixth step, so that the second vertical deviation is minimized. To offset Trimming at least one of the first image and the second image.

従って、被写体距離に応じて、取得した左右2枚の画像間での上下ズレを低減することが可能であるという効果を奏する。   Therefore, there is an effect that it is possible to reduce the vertical shift between the acquired two left and right images according to the subject distance.

本発明に係る画像補正方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the image correction method which concerns on this invention. 図2の(a)および(b)は、本発明に係る立体画像撮影装置としての携帯電話の外観を、概略的に示す図である。FIGS. 2A and 2B are views schematically showing the appearance of a mobile phone as a stereoscopic image capturing apparatus according to the present invention. 立体画像撮影に関連する、図2に示す携帯電話の主要構成を示す機能ブロック図である。FIG. 3 is a functional block diagram showing a main configuration of the mobile phone shown in FIG. 2 related to stereoscopic image shooting. 第1撮影部から取得した画像と、第2撮影部から取得した画像との間で発生する、垂直誤差および回転誤差を示す図である。It is a figure which shows the vertical error and rotation error which arise between the image acquired from the 1st imaging | photography part, and the image acquired from the 2nd imaging | photography part. 第1撮影部および第2撮影部から取得した両画像を、最適な配置となるように補正する技術の従来例を示す図である。It is a figure which shows the prior art example of the technique which correct | amends both the images acquired from the 1st imaging | photography part and the 2nd imaging | photography part so that it may become optimal arrangement | positioning. 左目用画像と、右目用画像との間で、上下ズレが発生する原理を示す図である。It is a figure which shows the principle which a vertical shift generate | occur | produces between the image for left eyes, and the image for right eyes. 左目用画像と、右目用画像との間で、上下ズレが発生する原理を示す別の図である。It is another figure which shows the principle which a vertical shift generate | occur | produces between the image for left eyes, and the image for right eyes. 左目用画像と、右目用画像との間で、上下ズレが発生する原理を示すさらに別の図である。It is another figure which shows the principle which a vertical shift generate | occur | produces between the image for left eyes, and the image for right eyes. 左目用画像と、右目用画像との間で、上下ズレが発生する原理を示す他の図である。It is another figure which shows the principle which a vertical shift generate | occur | produces between the image for left eyes, and the image for right eyes. 左目用画像および右目用画像が並行となる回転角度が無限に存在することを示す図である。It is a figure which shows that the rotation angle which the image for left eyes and the image for right eyes becomes infinite exists infinitely. 図11の(a)〜(d)は、カメラの回転に伴って、カメラの平行移動に相当する現象が発生する原理を示す図である。(A) to (d) of FIG. 11 are diagrams showing the principle that a phenomenon corresponding to the parallel movement of the camera occurs with the rotation of the camera. 従来一般的な、画像の補正の一例を示す図である。It is a figure which shows an example of correction | amendment of a general image conventionally. 図12に係る画像の補正を、左カメラおよび右カメラの位置に置換した場合の、左カメラおよび右カメラの動きを示す概念図である。FIG. 13 is a conceptual diagram illustrating the movement of the left camera and the right camera when the image correction according to FIG. 12 is replaced with the positions of the left camera and the right camera. 左目用補正画像と右目用補正画像との間で上下ズレが発生している状態を示す図である。It is a figure which shows the state which the up-and-down shift has generate | occur | produced between the correction image for left eyes, and the correction image for right eyes. 互いに異なる回転角度のカメラの回転が発生して、左目用画像と右目用画像との間で、角度ズレが発生する様子を示す図である。It is a figure which shows a mode that rotation of the camera of a mutually different rotation angle generate | occur | produces and an angle shift | offset | difference generate | occur | produces between the image for left eyes, and the image for right eyes. 互いに異なる回転角度のカメラの回転が発生した場合に、画像のトリミングを行う要領を示す図である。It is a figure which shows the point which trims an image when rotation of the camera of a mutually different rotation angle generate | occur | produces. 互いに同じ方向かつ同じ回転角度のカメラの回転、またはカメラの平行移動が発生して、左目用画像と右目用画像との間で、上下ズレが発生する様子を示す図である。It is a figure which shows a mode that the rotation of the camera of the same direction and the same rotation angle mutually, or the parallel movement of a camera generate | occur | produces, and a vertical shift arises between the image for left eyes, and the image for right eyes. 互いに同じ方向かつ同じ回転角度のカメラの回転、またはカメラの平行移動が発生した場合に、画像のトリミングを行う要領を示す図である。It is a figure which shows the point which trims an image when the rotation of the camera of the same direction and the same rotation angle or the parallel movement of a camera generate | occur | produces. 一方のカメラの光軸が他方のカメラの光軸に対して上下方向にズレており、左目用画像と右目用画像との間で、上下ズレが発生する様子を示す図である。It is a figure which shows a mode that the optical axis of one camera has shifted | deviated to the up-down direction with respect to the optical axis of the other camera, and the vertical shift generate | occur | produced between the image for left eyes, and the image for right eyes. 光軸の上下方向へのズレが発生した場合に、画像のトリミングを行う要領を示す図である。It is a figure which shows the point which trims an image when the shift | offset | difference to the up-down direction of an optical axis generate | occur | produced. 左目用画像と右目用画像との間で、左右ズレが発生する様子を示す図である。It is a figure which shows a mode that a left-right shift | offset | difference arises between the image for left eyes, and the image for right eyes. 光軸の左右方向へのズレが発生した場合に、画像のトリミングを行う要領を示す図である。It is a figure which shows the point which trims an image when the shift | offset | difference to the left-right direction of an optical axis generate | occur | produced. 画像補正方法において検出する特徴点の座標の一覧を示す表である。It is a table | surface which shows the list of the coordinate of the feature point detected in an image correction method. 画像の切り出し座標の一覧を示す表である。It is a table | surface which shows the list of the cutout coordinates of an image. 画像補正方法において使用する定数の一覧(一例)を示す表である。It is a table | surface which shows the list (an example) of the constant used in an image correction method. 画像補正方法において使用する変数の一覧を示す表である。It is a table | surface which shows the list of the variables used in an image correction method. 図27(a)は、画像A左から特徴点を検出する様子を示す図であり、図27(b)は、画像A右から特徴点を検出する様子を示す図であり、図27(c)は、画像B左から特徴点を検出する様子を示す図であり、図27(d)は、画像B右から特徴点を検出する様子を示す図である。FIG. 27A is a diagram illustrating a state in which feature points are detected from the left side of the image A, and FIG. 27B is a diagram illustrating a state in which feature points are detected from the right side of the image A. FIG. ) Is a diagram illustrating a state in which feature points are detected from the left side of the image B, and FIG. 27D is a diagram illustrating a state in which feature points are detected from the right side of the image B.

〔立体画像撮影装置の構成例〕
図2の(a)および(b)は、本発明に係る立体画像撮影装置としての携帯電話の外観を、概略的に示す図である。
[Configuration example of stereoscopic image capturing apparatus]
FIGS. 2A and 2B are views schematically showing the appearance of a mobile phone as a stereoscopic image capturing apparatus according to the present invention.

図2の(b)に示すとおり、携帯電話(立体画像撮影装置)1は、前面部に、表示部(例えば、液晶表示部)2を備えている。また、図2の(a)に示すとおり、携帯電話1は、背面部に、第1カメラレンズ3および第2カメラレンズ4を備えている。   As shown in FIG. 2B, the mobile phone (stereoscopic image capturing device) 1 includes a display unit (for example, a liquid crystal display unit) 2 on the front surface. In addition, as shown in FIG. 2A, the mobile phone 1 includes a first camera lens 3 and a second camera lens 4 on the back surface.

表示部2は、タッチパネルの機能を備え、ユーザが表示部2に触れることにより、携帯電話1に対して様々な指示を入力することができるものであってもよい。   The display unit 2 may have a touch panel function, and the user can input various instructions to the mobile phone 1 by touching the display unit 2.

第1カメラレンズ3および第2カメラレンズ4は、互いに所定間隔(数センチ程度)離間されている。これにより、立体画像の撮影時に、被写対象のシーン(被写体)を第1カメラレンズ3および第2カメラレンズ4を介して撮影すると、視差のある2枚の画像を取得することができる。   The first camera lens 3 and the second camera lens 4 are separated from each other by a predetermined interval (about several centimeters). As a result, when a subject scene (subject) is photographed through the first camera lens 3 and the second camera lens 4 when a stereoscopic image is photographed, two images with parallax can be acquired.

携帯電話1としては、上記の構成に限定されず、ユーザが各種指示を入力する複数のボタンが配列された操作部に対し、折り畳み式の表示部が結合された構成、または、上記操作部を表示部に対して平行にスライドさせることが可能な構成等を採用してもよい。   The mobile phone 1 is not limited to the above configuration, and a configuration in which a foldable display unit is combined with an operation unit in which a plurality of buttons for inputting various instructions by a user is arranged, or the above operation unit is used. A configuration that can be slid in parallel with the display unit may be employed.

また、本発明に係る立体画像撮影装置を、携帯電話に限らず、デジタルカメラおよびPDA(Personal Digital Assistant:携帯情報端末)等の、携帯型電子機器全般に搭載することができる。さらに、本発明に係る立体画像撮影装置を、立体表示が可能なテレビ(3Dテレビ)に搭載することもできる。   In addition, the stereoscopic image capturing device according to the present invention can be mounted not only on a mobile phone but also in all portable electronic devices such as a digital camera and a PDA (Personal Digital Assistant). Furthermore, the stereoscopic image capturing device according to the present invention can be mounted on a television (3D television) capable of stereoscopic display.

図3は、立体画像撮影に関連する、携帯電話1の主要構成を示す機能ブロック図である。   FIG. 3 is a functional block diagram showing the main configuration of the mobile phone 1 related to stereoscopic image shooting.

図3に示すとおり、携帯電話1は、第1撮影部(第1カメラ)11、第2撮影部(第2カメラ)12、第1制御部13、第2制御部14、画像記憶部15、トリミング部16、および表示部17を備えている。第1撮影部11および第2撮影部12が、複数のカメラを備えたカメラ群を構成している。   As shown in FIG. 3, the mobile phone 1 includes a first photographing unit (first camera) 11, a second photographing unit (second camera) 12, a first control unit 13, a second control unit 14, an image storage unit 15, A trimming unit 16 and a display unit 17 are provided. The 1st imaging | photography part 11 and the 2nd imaging | photography part 12 comprise the camera group provided with the several camera.

第1撮影部11は、第1カメラレンズ3、撮像素子、およびAD(Analog/Digital:アナログ/デジタル)変換器等を備えている。第2撮影部12は、第2カメラレンズ4、撮像素子、およびAD変換器等を備えている。撮像素子としては、CCD(Charge Coupled Device:電荷結合素子)またはCMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)によって構成された固体撮像素子等が挙げられる。   The first imaging unit 11 includes a first camera lens 3, an image sensor, an AD (Analog / Digital) converter, and the like. The second imaging unit 12 includes a second camera lens 4, an image sensor, an AD converter, and the like. Examples of the imaging element include a solid-state imaging element constituted by a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).

第1制御部13および第2制御部14はそれぞれ、DSP(Digital Signal Processor:デジタルシグナルプロセッサ)等を備えている。   Each of the first control unit 13 and the second control unit 14 includes a DSP (Digital Signal Processor) and the like.

第1制御部13は、第1撮影部11の撮像素子が、被写対象のシーンによって露光される時間(シャッタ時間)および撮像素子による撮像信号の出力タイミング等を制御し、出力された撮像信号からゲインおよび画質等を調整した画像データを生成する。また、第1制御部13は、第1カメラレンズ3のレンズ位置情報(フォーカス情報)等の付随情報を検出する。第2制御部14も、制御対象が第1撮影部11から第2撮影部12へと変わる以外、第1制御部13と同じ構成を備えている。   The first control unit 13 controls the time (shutter time) when the imaging device of the first imaging unit 11 is exposed by the scene to be imaged, the output timing of the imaging signal by the imaging device, and the like, and the output imaging signal To generate image data with adjusted gain, image quality, and the like. Further, the first control unit 13 detects accompanying information such as lens position information (focus information) of the first camera lens 3. The second control unit 14 also has the same configuration as the first control unit 13 except that the control target is changed from the first imaging unit 11 to the second imaging unit 12.

画像記憶部15は例えば、RAM(Random Access Memory:随時書込読出メモリ)によって構成されている。画像記憶部15は、第1制御部13が生成した画像データ(以下、「第1画像データ」と称する)、および第2制御部14が生成した画像データ(以下、「第2画像データ」と称する)を記憶する。また、画像記憶部15は、第1画像データ(第1画像)に対してトリミング部16によるトリミングを行った画像データ(以下、「第1補正画像データ」と称する)、および第2画像データ(第2画像)に対してトリミング部16によるトリミングを行った画像データ(以下、「第2補正画像データ」と称する)を記憶する。   The image storage unit 15 is configured by, for example, a RAM (Random Access Memory). The image storage unit 15 includes image data generated by the first control unit 13 (hereinafter referred to as “first image data”) and image data generated by the second control unit 14 (hereinafter referred to as “second image data”). Stored). In addition, the image storage unit 15 includes image data obtained by performing trimming on the first image data (first image) by the trimming unit 16 (hereinafter referred to as “first corrected image data”), and second image data ( Image data (hereinafter referred to as “second corrected image data”) obtained by trimming the second image) by the trimming unit 16 is stored.

トリミング部16は、予め取得している画像補正パラメータに基づいて、第1画像データおよび第2画像データのトリミングを行う。すなわち、トリミング部16は、第1画像データに対して、所望の領域以外にある画像を切り取る画像処理を施すことにより、第1補正画像データを生成する。同じく、トリミング部16は、第2画像データに対して、所望の領域以外にある画像を切り取る画像処理を施すことにより、第2補正画像データを生成する。画像補正パラメータについての詳細な説明は後述する。   The trimming unit 16 trims the first image data and the second image data based on image correction parameters acquired in advance. That is, the trimming unit 16 generates the first corrected image data by performing image processing for cutting out an image outside the desired region on the first image data. Similarly, the trimming unit 16 generates second corrected image data by performing image processing on the second image data to cut out an image outside the desired region. A detailed description of the image correction parameters will be described later.

表示部17は、画像記憶部15に記憶されている各種画像データを表示する。具体的に、表示部17は、第1画像データおよび第2画像データ、もしくは、第1補正画像データおよび第2補正画像データを用いて、ユーザが裸眼で視認できる立体画像を表示する。   The display unit 17 displays various image data stored in the image storage unit 15. Specifically, the display unit 17 uses the first image data and the second image data, or the first corrected image data and the second corrected image data, to display a stereoscopic image that can be visually recognized by the user with the naked eye.

〔背景〕
実施の形態で説明する画像補正方法は、携帯電話1に関し、第1撮影部11および第2撮影部12からそれぞれ取得した左右2枚の画像の間で、所望の視差を実現するために、各画像のトリミングを行うための画像補正パラメータを得る方法である。
〔background〕
The image correction method described in the embodiment relates to the mobile phone 1 in order to realize a desired parallax between the two left and right images respectively acquired from the first photographing unit 11 and the second photographing unit 12. This is a method of obtaining image correction parameters for trimming an image.

第1撮影部11および第2撮影部12で撮影を行って、立体画像を取得するためには、第1撮影部11および第2撮影部12から取得した各画像内に写る、任意の被写体距離(カメラ群までの距離)にある被写体に対して、両画像間での角度ズレまたは上下ズレがないことが求められる。また、2基のカメラとしての第1撮影部11および第2撮影部12に関しては、光軸が平行であるか、所望の輻輳点で交わっている必要がある。   In order to obtain a stereoscopic image by photographing with the first photographing unit 11 and the second photographing unit 12, an arbitrary subject distance that appears in each image obtained from the first photographing unit 11 and the second photographing unit 12 It is required that the subject located at (the distance to the camera group) has no angle shift or vertical shift between both images. Further, regarding the first photographing unit 11 and the second photographing unit 12 as two cameras, the optical axes need to be parallel or intersect at a desired convergence point.

しかしながら、カメラの構造的な工夫によって、カメラの組み立て精度や取り付け位置精度による誤差をなくすことは困難である。   However, it is difficult to eliminate errors due to camera assembly accuracy and mounting position accuracy by structural improvements of the camera.

すなわち、大概の立体画像撮影装置には、機構の寸法の誤差、すなわち製造公差が存在する。   That is, most stereoscopic image capturing apparatuses have a dimensional error of the mechanism, that is, a manufacturing tolerance.

上記製造公差を低減するためには、高精度の加工技術が必要となり、高精度の加工技術を採用すると、立体画像撮影装置の高コスト化を引き起こす。また、立体画像撮影装置を構成する各部品を保持する機構が大掛かりとなることから、上記製造公差を低減することは、立体画像撮影装置の大型化および高コスト化を引き起こす。   In order to reduce the manufacturing tolerance, a high-precision processing technique is required, and if a high-precision processing technique is employed, the cost of the stereoscopic image capturing apparatus is increased. In addition, since a mechanism for holding each component constituting the stereoscopic image capturing apparatus becomes large, reducing the manufacturing tolerance causes an increase in size and cost of the stereoscopic image capturing apparatus.

このため、カメラから取得した画像の切り出し(トリミング)によって、カメラから取得した画像において、これらの誤差を調整する必要がある。つまり、組み立て直後の立体画像撮影装置における各カメラのズレ量は、装置毎にバラつきがある。このため、装置個別に撮影を行って装置毎にバラつきを確認し、装置毎にバラつきに応じた領域を切り出すことによって、上記上下ズレを補正する必要がある。   For this reason, it is necessary to adjust these errors in the image acquired from the camera by cutting out (trimming) the image acquired from the camera. That is, the amount of deviation of each camera in the three-dimensional image capturing device immediately after assembly varies from device to device. For this reason, it is necessary to correct the above-described vertical shift by performing photographing for each device, confirming the variation for each device, and cutting out a region corresponding to the variation for each device.

上記上下ズレについては、特定の被写体距離にある被写体に対して、カメラ画像の回転および切り出しによって上記上下ズレを補正しても、別の被写体距離にある被写体を撮影すると上下ズレを生じることがある。   As for the above-mentioned vertical shift, even if the vertical shift is corrected by rotating and extracting a camera image with respect to a subject at a specific subject distance, the vertical shift may occur when a subject at a different subject distance is photographed. .

〔立体画像撮影装置における画像補正の原理〕
カメラの平行移動およびアオリが発生する要因として、第1撮影部11および第2撮影部12それぞれの組み立て精度、および/または、携帯電話1への第1撮影部11および第2撮影部12の取り付け精度を、立体画像撮影装置の小型化およびコスト低減とのバランスにより、高くすることができないことが挙げられる。これらの精度を高くすることができないため、第1撮影部11から取得した画像と、第2撮影部12から取得した画像との間で、垂直誤差および回転誤差(上下ズレ)が発生する虞がある。垂直誤差は、一方の画像が他方の画像に対して、上下方向にシフトするように発生した上下ズレであり、図4に符号41で示している。一方、回転誤差は、一方の画像が他方の画像に対して、該一方の画像と略平行な面上を(光軸回りに)回転するように発生した上下ズレであり、図4に符号42で示している。
[Principle of image correction in stereoscopic imaging device]
As factors that cause parallel movement and tilt of the camera, the assembly accuracy of each of the first photographing unit 11 and the second photographing unit 12 and / or attachment of the first photographing unit 11 and the second photographing unit 12 to the mobile phone 1 It is mentioned that the accuracy cannot be increased due to the balance between downsizing and cost reduction of the stereoscopic image capturing apparatus. Since these precisions cannot be increased, there is a possibility that a vertical error and a rotation error (vertical shift) may occur between the image acquired from the first imaging unit 11 and the image acquired from the second imaging unit 12. is there. The vertical error is a vertical shift generated so that one image is shifted in the vertical direction with respect to the other image, and is indicated by reference numeral 41 in FIG. On the other hand, the rotation error is a vertical shift generated so that one image rotates with respect to the other image on a plane substantially parallel to the one image (around the optical axis). Is shown.

そこで、従来、上記の垂直誤差および回転誤差を補正するため、携帯電話1の生産工程において、主にソフトウェアにより、第1撮影部11および第2撮影部12から取得した両画像を、最適な配置となるように補正する技術が知られている(図5参照)。図5では、各画像のトリミング、回転、および拡大・縮小といった、いわゆるISP(Image Signal Processor:イメージシグナルプロセッサ)処理を行い、各画像の補正を実現している。   Therefore, conventionally, in order to correct the vertical error and the rotation error described above, in the production process of the mobile phone 1, both images acquired from the first photographing unit 11 and the second photographing unit 12 mainly by software are optimally arranged. There is known a technique for correcting so as to be (see FIG. 5). In FIG. 5, so-called ISP (Image Signal Processor) processing such as trimming, rotation, and enlargement / reduction of each image is performed to correct each image.

なお、「左目撮影画像」は、後述する左目用画像(ここでは、第1撮影部11から取得した画像)を示している。また、「右目撮影画像」は、後述する右目用画像(ここでは、第2撮影部12から取得した画像)を示している。   The “left-eye photographed image” indicates a left-eye image (here, an image acquired from the first photographing unit 11) described later. Further, the “right-eye photographed image” indicates a right-eye image (here, an image acquired from the second photographing unit 12) described later.

〔上下ズレが発生する原理の詳細〕
以下、上下ズレが発生する原理の詳細について説明する。なお、説明の便宜上、図6〜図9を参照した下記の説明においては、携帯電話1の上記背面部において、左右のカメラの水平方向における配置の差が0であるものとしている。
[Details of the principle of vertical displacement]
The details of the principle of vertical displacement will be described below. For convenience of description, in the following description with reference to FIGS. 6 to 9, it is assumed that the difference in arrangement of the left and right cameras in the horizontal direction is zero in the back surface portion of the mobile phone 1.

図6は、第1撮影部11としての、左目用の画像を撮影する左カメラ60から取得した画像と、第2撮影部12としての、右目用の画像を撮影する右カメラ61から取得した画像との間で、上下ズレが発生する原理を示す図である。   FIG. 6 illustrates an image acquired from the left camera 60 that captures an image for the left eye as the first imaging unit 11 and an image acquired from the right camera 61 that captures an image for the right eye as the second imaging unit 12. It is a figure which shows the principle which a vertical shift generate | occur | produces between.

以下、左カメラ60から取得した画像を「左目用画像(第1画像)」と称すると共に、右カメラ61から取得した画像を「右目用画像(第2画像)」と称する。   Hereinafter, an image acquired from the left camera 60 is referred to as a “left-eye image (first image)”, and an image acquired from the right camera 61 is referred to as a “right-eye image (second image)”.

図6において、左カメラ60を基準とした場合、右カメラ61は、左カメラ60に対する、上方向への平行移動(移動量y1)が発生している。また、右カメラ61は、左カメラ60に対する、上方向へのアオリ(傾き角度β1)が発生している。   In FIG. 6, when the left camera 60 is used as a reference, the right camera 61 undergoes an upward parallel movement (movement amount y <b> 1) with respect to the left camera 60. Further, the right camera 61 is tilted upward (tilt angle β1) with respect to the left camera 60.

ここで、左カメラ60および右カメラ61により、水平である左カメラ60の光軸と同じ高さにある、テストチャート62の中心63を撮影する場合を考える。図6に示す例の場合、右カメラ61の平行移動に起因して、右カメラ61のレンズの中心と中心63とを通る直線が、中心63側が下となるように傾く。   Here, consider a case where the left camera 60 and the right camera 61 are used to photograph the center 63 of the test chart 62 at the same height as the optical axis of the left camera 60 that is horizontal. In the case of the example shown in FIG. 6, due to the parallel movement of the right camera 61, a straight line passing through the center of the lens of the right camera 61 and the center 63 is inclined so that the center 63 side is down.

この結果、図6にファインダ画面Fを示すように、中心63の左目用画像63Lは、ファインダ画面Fの中央に位置する一方、中心63の右目用画像63Rは、ファインダ画面Fの中央から下側に位置する。右目用画像63Rとファインダ画面Fの下辺との距離をt1とする。   As a result, as shown in the finder screen F in FIG. 6, the left-eye image 63 </ b> L at the center 63 is positioned at the center of the finder screen F, while the right-eye image 63 </ b> R at the center 63 is lower than the center of the finder screen F. Located in. The distance between the right-eye image 63R and the lower side of the finder screen F is t1.

また、図6では、該直線の傾きを考慮した、右カメラ61の見かけ上の(すなわち、右カメラ61より下にある中心63を撮影する場合の実質的な)アオリ角度を、傾き角度β2としている。   In FIG. 6, the apparent tilt angle of the right camera 61 (that is, the substantial tilt angle when shooting the center 63 below the right camera 61) in consideration of the inclination of the straight line is defined as the inclination angle β2. Yes.

図7は、左目用画像と、右目用画像との間で、上下ズレが発生する原理を示す別の図である。   FIG. 7 is another diagram illustrating the principle of vertical displacement between the left-eye image and the right-eye image.

図7において、左カメラ60を基準とした場合、右カメラ61は、左カメラ60に対する、平行移動が発生していない(移動量y2=0)。また、図7において、右カメラ61は、左カメラ60に対する、上方向へのアオリ(図6と同じ傾き角度β2)が発生しているものとする。   In FIG. 7, when the left camera 60 is used as a reference, the right camera 61 does not move in parallel with the left camera 60 (movement amount y2 = 0). In FIG. 7, it is assumed that the right camera 61 has an upward tilt (the same tilt angle β2 as in FIG. 6) with respect to the left camera 60.

ここで、移動量y1と移動量y2とは異なり、かつ、傾き角度β1と傾き角度β2とは異なる。しかしながら、左目用画像(第1画像データに相当)における中心63の位置、および右目用画像(第2画像データに相当)における中心63の位置は、図6に示す例と図7に示す例とで一致する。   Here, the movement amount y1 and the movement amount y2 are different, and the inclination angle β1 and the inclination angle β2 are different. However, the position of the center 63 in the left-eye image (corresponding to the first image data) and the position of the center 63 in the right-eye image (corresponding to the second image data) are the same as the example shown in FIG. 6 and the example shown in FIG. Match.

すなわち、図7にファインダ画面Fを示すように、中心63の左目用画像63Lは、ファインダ画面Fの中央に位置する一方、中心63の右目用画像63Rは、ファインダ画面Fの中央から下側に位置する。ここで、右目用画像63Rとファインダ画面Fの下辺との距離をt2とすると、図6と図7とで右カメラ61の傾き角度β2が等しいため、距離t2は上記距離t1に等しくなる。   That is, as shown in the finder screen F in FIG. 7, the left-eye image 63 </ b> L at the center 63 is positioned at the center of the finder screen F, while the right-eye image 63 </ b> R at the center 63 extends downward from the center of the finder screen F. To position. Here, if the distance between the right-eye image 63R and the lower side of the finder screen F is t2, the tilt angle β2 of the right camera 61 is the same in FIGS. 6 and 7, and therefore the distance t2 is equal to the distance t1.

つまり、ある1つの被写体距離の被写体を撮影した場合、左カメラ60および/または右カメラ61において、平行移動およびアオリが発生していても、両カメラから取得した両画像間においては、該被写体の上下ズレが一見一致しているように見える。   That is, when a subject at a certain subject distance is photographed, even if translation and tilting occur in the left camera 60 and / or the right camera 61, between the images acquired from both cameras, At first glance, the vertical misalignment seems to match.

つまり、ある1つの被写体距離の被写体を撮影するだけでは、取得した両画像間での上下ズレが、左カメラ60および/または右カメラ61における、平行移動に起因しているのか、それともアオリに起因しているのかを区別することができない。   That is, if only a subject at a certain subject distance is photographed, the vertical shift between the two acquired images is caused by the parallel movement in the left camera 60 and / or the right camera 61, or due to tilt. I can't tell you are doing it.

これに対し、異なる被写体距離にある複数の被写体を撮影すると、取得した両画像間での上下ズレが、左カメラ60および/または右カメラ61における、平行移動に起因しているのか、それともアオリに起因しているのかを区別できるようになる。この原理を、図8および図9に基づいて、以下に説明する。   On the other hand, when a plurality of subjects at different subject distances are photographed, whether the vertical shift between the acquired images is caused by the parallel movement in the left camera 60 and / or the right camera 61, or is tilted. It becomes possible to distinguish whether it is caused or not. This principle will be described below with reference to FIGS.

図8は、左目用画像と、右目用画像との間で、上下ズレが発生する原理を示すさらに別の図である。   FIG. 8 is still another diagram illustrating the principle of vertical displacement between the left-eye image and the right-eye image.

図9は、左目用画像と、右目用画像との間で、上下ズレが発生する原理を示す他の図である。   FIG. 9 is another diagram illustrating the principle of vertical displacement between the left-eye image and the right-eye image.

右カメラ61の平行移動およびアオリに関しては、図6に示す例と図8に示す例とで同じであり、図7に示す例と図9に示す例とで同じである。   The parallel movement and tilt of the right camera 61 are the same in the example shown in FIG. 6 and the example shown in FIG. 8, and the same in the example shown in FIG. 7 and the example shown in FIG. 9.

一方、図8および図9に示す各例は、テストチャート62と異なる位置にテストチャート64を配置した点が、それぞれ図6および図7に示す各例と異なる。図8および図9において、テストチャート64は、テストチャート62より、左カメラ60および右カメラ61に近い位置に配置されており、その中心を中心65としている。   On the other hand, each example shown in FIGS. 8 and 9 is different from each example shown in FIGS. 6 and 7 in that a test chart 64 is arranged at a position different from the test chart 62. 8 and 9, the test chart 64 is disposed closer to the left camera 60 and the right camera 61 than the test chart 62, and the center is the center 65.

ここで、左カメラ60および右カメラ61により、中心63および65を撮影する場合を考える。   Here, a case where the centers 63 and 65 are photographed by the left camera 60 and the right camera 61 is considered.

図8に示す例の場合、右カメラ61の平行移動に起因して、右カメラ61のレンズの中心と中心63とを通る直線が、中心63側が下となるように傾く。図8では、該直線の傾きを考慮した、テストチャート62に対する右カメラ61の見かけ上の(すなわち、右カメラ61より下にある中心63を撮影する場合の実質的な)アオリ角度を、傾き角度β2_1としている。   In the case of the example shown in FIG. 8, due to the parallel movement of the right camera 61, a straight line passing through the center of the lens of the right camera 61 and the center 63 is inclined so that the center 63 side is down. In FIG. 8, the inclination angle of the right camera 61 with respect to the test chart 62 in consideration of the inclination of the straight line (that is, a substantial tilt angle when photographing the center 63 below the right camera 61) is expressed as the inclination angle. β2_1.

さらに、図8に示す例の場合、右カメラ61の平行移動に起因して、右カメラ61のレンズの中心と中心65とを通る直線が、中心65側が下となるように傾く。図8では、該直線の傾きを考慮した、テストチャート64に対する右カメラ61の見かけ上の(すなわち、右カメラ61より下にある中心65を撮影する場合の実質的な)アオリ角度を、傾き角度β2_2としている。   Further, in the case of the example shown in FIG. 8, due to the parallel movement of the right camera 61, a straight line passing through the center of the lens of the right camera 61 and the center 65 is inclined so that the center 65 side is down. In FIG. 8, the inclination angle of the right camera 61 with respect to the test chart 64 in consideration of the inclination of the straight line (that is, a substantial tilt angle when the center 65 under the right camera 61 is photographed) is expressed as the inclination angle. β2_2.

ここで、右カメラ61のレンズの中心と中心65とを通る直線は、右カメラ61のレンズの中心と中心63とを通る直線より、傾きが大きくなっている。従って、傾き角度β2_2は、傾き角度β2_1と異なる角度であり、傾き角度β2_1より大きくなっている。   Here, the straight line passing through the center of the lens of the right camera 61 and the center 65 has a larger inclination than the straight line passing through the center of the lens of the right camera 61 and the center 63. Accordingly, the inclination angle β2_2 is different from the inclination angle β2_1 and is larger than the inclination angle β2_1.

この結果、図8にファインダ画面Fを示すように、中心63の左目用画像63Lは、ファインダ画面Fの中央位置する一方、中心63の右目用画像63Rは、ファインダ画面Fの中央から下側に位置する。左目用画像63Lおよび右目用画像63Rのファインダ画面Fにおける位置は、傾き角度β2_1と傾き角度β2とが等しいならば、図6と同じである。一方、中心65の左目用画像65Lは、ファインダ画面Fの中央位置する一方、中心65の右目用画像65Rは、ファインダ画面Fの中央から右目用画像63Rよりさらに下側に位置する結果となる。   As a result, as shown in the finder screen F in FIG. 8, the left-eye image 63 </ b> L at the center 63 is positioned at the center of the finder screen F, while the right-eye image 63 </ b> R at the center 63 extends downward from the center of the finder screen F. To position. The positions of the left-eye image 63L and the right-eye image 63R on the finder screen F are the same as those in FIG. 6 if the inclination angle β2_1 and the inclination angle β2 are equal. On the other hand, the left-eye image 65L at the center 65 is positioned at the center of the finder screen F, while the right-eye image 65R at the center 65 is positioned further below the right-eye image 63R from the center of the finder screen F.

一方、図9において、左カメラ60を基準とした場合、右カメラ61は、左カメラ60に対する、平行移動が発生していない(移動量y2=0)。また、図9において、右カメラ61は、左カメラ60に対する、上方向へのアオリ(傾き角度β2)が発生している。該上方向へのアオリに起因する右カメラ61のアオリ角度は、テストチャート62に対してもテストチャート64に対しても、傾き角度β2である(等しい)。   On the other hand, in FIG. 9, when the left camera 60 is used as a reference, the right camera 61 does not move parallel to the left camera 60 (movement amount y2 = 0). In FIG. 9, the right camera 61 has an upward tilt (inclination angle β <b> 2) with respect to the left camera 60. The tilt angle of the right camera 61 due to the tilt in the upward direction is the tilt angle β2 (equal) with respect to both the test chart 62 and the test chart 64.

この結果、図9にファインダ画面Fを示すように、中心63の左目用画像63Lは、ファインダ画面Fの中央に位置する一方、中心63の右目用画像63Rは、ファインダ画面Fの中央から下側に位置する。これに対し、中心65の左目用画像65Lは、ファインダ画面Fの中央位置する一方、中心65の右目用画像65Rは、中心63および中心65の右カメラ61の光軸に対する傾き角度β2が同じであるため、右目用画像63Rと同じ位置となる。   As a result, as shown in the finder screen F in FIG. 9, the left-eye image 63L at the center 63 is positioned at the center of the finder screen F, while the right-eye image 63R at the center 63 is located below the center of the finder screen F. Located in. On the other hand, the left-eye image 65L at the center 65 is positioned at the center of the finder screen F, while the right-eye image 65R at the center 65 has the same inclination angle β2 with respect to the optical axis of the center 63 and the right camera 61 at the center 65. Therefore, the position is the same as that of the right-eye image 63R.

このように、中心65の左目用画像65Lの位置は、図8に示す例と図9に示す例とで一致するが、中心65の右目用画像65Rの位置は、図8に示す例と図9に示す例との間で上下にズレる。   In this way, the position of the left-eye image 65L at the center 65 matches the example shown in FIG. 8 and the example shown in FIG. 9, but the position of the right-eye image 65R at the center 65 corresponds to the example shown in FIG. Shifts up and down from the example shown in FIG.

すなわち、カメラのアオリのみが発生している場合には、図9に示すとおり、アオリは、被写体距離によらず同じ角度である。一方、カメラの上下の平行移動が発生すると、図8に示すとおり、被写体距離に応じて異なる、該カメラの見かけ上のアオリ角度が生じる。このことから、カメラのアオリに起因する撮影画像の上下方向のズレは、被写体距離によらず一定であるが、カメラの平行移動に起因する撮影画像の上下方向のズレは、被写体距離に応じて異なることが分かる。   That is, when only the camera tilt occurs, the tilt is the same angle regardless of the subject distance, as shown in FIG. On the other hand, when the vertical translation of the camera occurs, as shown in FIG. 8, an apparent tilt angle of the camera that varies depending on the subject distance is generated. Therefore, the vertical deviation of the captured image due to the camera tilt is constant regardless of the subject distance, but the vertical deviation of the captured image due to the parallel movement of the camera depends on the subject distance. I can see that they are different.

つまり、被写体距離が異なる複数の被写体を撮影することにより、取得した両画像間での上下ズレから、左カメラ60および/または右カメラ61における、平行移動とアオリとを区別することが可能となる。   That is, by photographing a plurality of subjects having different subject distances, it is possible to distinguish between parallel movement and tilt in the left camera 60 and / or the right camera 61 from the vertical shift between the acquired images. .

実際のカメラでは、左カメラ60と右カメラ61とを、左右方向に離して配置するので、ファインダ画面F上では、左目用画像63Lと右目用画像63Rとの間で、左右方向における位置がズレることになる。特に、図8のように、互いに異なる距離にテストチャート62および64が配置される場合には、テストチャートの距離によって、該左右方向における位置は異なる。例えば、図8のファインダ画面F内における、左目用画像63Lと右目用画像63Rとは、実際には互いに左右方向にズレる。   In an actual camera, the left camera 60 and the right camera 61 are arranged apart from each other in the left-right direction, so that the position in the left-right direction is shifted between the left-eye image 63L and the right-eye image 63R on the finder screen F. It will be. In particular, as shown in FIG. 8, when the test charts 62 and 64 are arranged at different distances, the position in the left-right direction differs depending on the distance of the test chart. For example, the left-eye image 63L and the right-eye image 63R in the finder screen F in FIG. 8 are actually shifted in the left-right direction.

なお、詳細は後述するが、実際の画像補正パラメータの算出においては、左カメラ60および右カメラ61のそれぞれが、遠方の被写体(テストチャート62)および近方の被写体(テストチャート64)のそれぞれを撮影して取得した、計4枚の画像を用いる。そして、各画像に写る同一の特徴点の座標を差し引きすることにより、左カメラ60および/または右カメラ61における、カメラの平行移動による移動量と、カメラのアオリによる傾き角度とを算出する。   Although details will be described later, in the actual image correction parameter calculation, each of the left camera 60 and the right camera 61 uses a distant subject (test chart 62) and a near subject (test chart 64). A total of four images obtained by photographing are used. Then, by subtracting the coordinates of the same feature point appearing in each image, the movement amount of the left camera 60 and / or the right camera 61 due to the parallel movement of the camera and the tilt angle due to the tilt of the camera are calculated.

また、左目用画像および右目用画像から算出すべき両画像間での上下ズレの量としては、カメラの平行移動による移動量、カメラのアオリによる傾き角度のほか、カメラの回転による回転角度がある。カメラの回転に関しては、左目用画像および右目用画像が並行となる該回転角度が無限に存在するため、1つの被写体距離の被写体を撮影するだけでは、適切な画像補正パラメータを確定することができない。   In addition, the amount of vertical displacement between both images to be calculated from the left-eye image and the right-eye image includes the movement amount due to the parallel movement of the camera, the tilt angle due to the camera tilt, and the rotation angle due to the camera rotation. . Regarding the rotation of the camera, since there are an infinite number of rotation angles at which the left-eye image and the right-eye image are parallel, it is not possible to determine an appropriate image correction parameter simply by photographing a subject at a single subject distance. .

図10は、左目用画像および右目用画像が並行となる該回転角度が無限に存在することを示す図である。   FIG. 10 is a diagram illustrating that the rotation angle at which the left-eye image and the right-eye image are parallel exists infinitely.

図10中、「左目撮影画像」は、左目用画像を示している。図10中、「右目撮影画像」は、右目用画像を示している。図10中、「左調整後画像」は、左目撮影画像を補正した画像を示している。図10中、「右調整後画像」は、右目撮影画像を補正した画像を示している。   In FIG. 10, “left-eye photographed image” indicates a left-eye image. In FIG. 10, “right-eye photographed image” indicates a right-eye image. In FIG. 10, “left-adjusted image” indicates an image obtained by correcting the left-eye photographed image. In FIG. 10, “right-adjusted image” indicates an image obtained by correcting the right-eye photographed image.

また、図10には、左目撮影画像および右目撮影画像を補正する案を2つ示しており、それぞれ、補正案1および補正案2と称している。   FIG. 10 shows two plans for correcting the left-eye shot image and the right-eye shot image, which are referred to as correction plan 1 and correction plan 2, respectively.

補正案1および補正案2はいずれも、左目撮影画像および右目撮影画像の両方に写っている被写体100が互いに並行となるように、左目撮影画像および右目撮影画像を補正して、左調整後画像および右調整後画像を作成したものである。つまり、補正案1および補正案2ではいずれも、左調整後画像と右調整後画像との間で、被写体100が並行となっている。   In both of the correction plan 1 and the correction plan 2, the left-eye image and the right-eye image are corrected so that the subjects 100 appearing in both the left-eye image and the right-eye image are parallel to each other, and the left-adjusted image And a right-adjusted image. That is, in both the correction plan 1 and the correction plan 2, the subject 100 is parallel between the left adjusted image and the right adjusted image.

しかしながら、被写体100の天地が補正案1と補正案2とで異なっている。従って、補正案1および補正案2の少なくとも一方は、左調整後画像と右調整後画像との間で、被写体100が並行となるように補正されているにも関わらず、画像の補正が不適切となっていると認められる。ここでは、補正案1のトリミング領域を示す破線が傾いているので、補正案1の方で回転ズレが発生している。   However, the top and bottom of the subject 100 are different between the correction plan 1 and the correction plan 2. Accordingly, at least one of the correction plan 1 and the correction plan 2 is not corrected for the image even though the subject 100 is corrected in parallel between the left adjusted image and the right adjusted image. Approved as appropriate. Here, since the broken line indicating the trimming area of the correction plan 1 is inclined, the correction plan 1 has a rotational shift.

また、カメラの回転に起因する撮影画像の上下方向のズレは、カメラの平行移動に起因する撮影画像の上下方向のズレと同じく、被写体距離に応じて異なるものとなる。以下、この理由について説明する。   In addition, the vertical shift of the captured image caused by the rotation of the camera differs depending on the subject distance, similarly to the vertical shift of the captured image caused by the parallel movement of the camera. Hereinafter, this reason will be described.

図11の(a)〜(d)は、カメラの回転に伴って、カメラの平行移動に相当する現象が発生する原理を示す図である。   (A) to (d) of FIG. 11 are diagrams showing the principle that a phenomenon corresponding to the parallel movement of the camera occurs with the rotation of the camera.

図11の(a)および(c)では、左カメラ60および右カメラ61において、平行移動およびアオリがいずれも発生していないが、回転が発生した状態を示している。なお、図11の(a)および(c)は、左カメラ60のレンズ110の中心である中心111と、右カメラ61のレンズ112の中心である中心113とを通る直線、すなわち直線114が水平になるように図示したものである。   FIGS. 11A and 11C show a state in which the left camera 60 and the right camera 61 do not generate any parallel movement or tilt, but rotate. 11A and 11C, the straight line passing through the center 111 that is the center of the lens 110 of the left camera 60 and the center 113 that is the center of the lens 112 of the right camera 61, that is, the straight line 114 is horizontal. It is illustrated as follows.

一方、図11の(b)および(d)では、図11の(a)および(c)にそれぞれ示した状態を、左カメラ60が正立となるように図示したものである。図11の(a)と図11の(b)とは等価であり、図11の(c)と図11の(d)とは等価である。   On the other hand, FIGS. 11B and 11D show the states shown in FIGS. 11A and 11C, respectively, so that the left camera 60 is upright. 11 (a) and FIG. 11 (b) are equivalent, and FIG. 11 (c) and FIG. 11 (d) are equivalent.

図11の(b)および(d)によれば、左カメラ60を正立させた状態にすると、直線114が左目用画像における水平方向(上下方向に対して垂直な方向)と一致していない。直線114が左目用画像における水平方向に対して傾いているということは、すなわち、中心111に対して中心113が、上下方向にズレているということを意味している。換言すれば、左カメラ60に対する右カメラ61の平行移動に相当する現象が起こっている。図示しないが、右カメラ61が正立となる場合についても同様である。   According to (b) and (d) of FIG. 11, when the left camera 60 is in an upright state, the straight line 114 does not coincide with the horizontal direction (the direction perpendicular to the vertical direction) in the left-eye image. . The fact that the straight line 114 is inclined with respect to the horizontal direction in the image for the left eye means that the center 113 is shifted in the vertical direction with respect to the center 111. In other words, a phenomenon corresponding to the parallel movement of the right camera 61 relative to the left camera 60 occurs. Although not shown, the same applies to the case where the right camera 61 is upright.

1つの画像から算出した画像補正パラメータの候補を、別の被写体距離で撮影した被写体の画像に適用すると、回転角度に対するパラメータが誤っている場合、補正後の画像に垂直ズレを生じてしまうが、正しい該パラメータの場合、垂直ズレを生じない。そこで、詳細は後述するが、携帯電話1の生産工程においても複数の被写体距離にて撮影を行い、左目用画像および右目用画像の双方にて、両画像間での上下ズレが最も小さくなる該パラメータを、正しい該パラメータとして採用する方式を選択している。   When the image correction parameter candidate calculated from one image is applied to an image of a subject photographed at a different subject distance, if the parameter for the rotation angle is incorrect, a vertical shift occurs in the corrected image. In the case of the correct parameter, no vertical deviation occurs. Therefore, as will be described in detail later, even in the production process of the mobile phone 1, shooting is performed at a plurality of subject distances, and the vertical shift between both images is minimized in both the left-eye image and the right-eye image. A method of selecting a parameter as the correct parameter is selected.

〔上下ズレについてのまとめ〕
左右2つのカメラにより立体画像を撮影する、いわゆる2眼3Dカメラは、カメラ単体の組み付け精度や、2つのカメラの取り付け位置精度により、左右の各目用の取得画像間において、被写体の位置ズレが生じ得る。該位置ズレの主たる要因としては、カメラのアオリおよびカメラの回転等が挙げられ、その他にも、カメラの左右方向への傾きズレが、該位置ズレの要因となる場合もある。
[Summary about vertical deviation]
A so-called two-lens 3D camera that captures a stereoscopic image with two cameras on the left and right has a subject misalignment between the acquired images for the left and right eyes, depending on the accuracy of the camera itself and the mounting position of the two cameras. Can occur. The main factors of the positional deviation include camera tilt and camera rotation. In addition, the positional deviation of the camera in the left-right direction may be the cause of the positional deviation.

上記位置ズレは、左目用画像および右目用画像に対する、回転、平行移動、ならびにトリミングを行うことで補正することが可能である。   The positional deviation can be corrected by rotating, translating, and trimming the left-eye image and the right-eye image.

従来、左目用画像および右目用画像の一方を基準として、他方の画像に角度ズレがあれば回転角度の補正を、上下左右の位置ズレがあれば平行移動による補正を行ってきた。   Conventionally, with respect to one of the left-eye image and the right-eye image as a reference, if the other image has an angle shift, the rotation angle is corrected, and if there is a vertical / left-right position shift, a correction by parallel movement has been performed.

図12は、従来一般的な、画像の補正の一例を示す図である。図12には、左目用画像120を基準として、右目用画像121を補正する例を示している。   FIG. 12 is a diagram showing an example of conventional image correction. FIG. 12 shows an example in which the right-eye image 121 is corrected using the left-eye image 120 as a reference.

左目用画像120は、基準であるので、回転角度および上下左右の位置が維持されたままでトリミングが行われ、左目用補正画像122となる。   Since the left-eye image 120 is a reference, trimming is performed while maintaining the rotation angle and the vertical and horizontal positions, and the left-eye correction image 122 is obtained.

一方、右目用画像121は、回転角度が左目用画像120と等しくなるように回転角度の補正が行われると共に、上下左右の位置が左目用画像120と等しくなるように平行移動による補正が行われる。換言すれば、右目用画像121は、該回転角度の補正および該平行移動による補正を反映するようにトリミングが行われ、右目用補正画像123となる。   On the other hand, the rotation angle of the right-eye image 121 is corrected so that the rotation angle is equal to that of the left-eye image 120, and correction by parallel movement is performed so that the vertical and horizontal positions are equal to those of the left-eye image 120. . In other words, the right-eye image 121 is trimmed so as to reflect the correction of the rotation angle and the correction by the parallel movement, and becomes the right-eye correction image 123.

なお、上記回転角度の補正は、回転中心をどこにするかにより結果が変わり、これにより、上記平行移動による補正による補正量も変化する。例えば、図12に示す例では、該回転角度の補正において、画像の中心を回転中心として右画像を左に回転させた場合、被写体の上下方向に対する補正量は、非常に小さくなり、ほぼゼロとなる。上記のように、回転角度の補正がある場合には、回転の補正と平行移動とは独立した項目ではない。結果、回転補正により、画像の上下の軸自体が回転する。   Note that the result of the correction of the rotation angle varies depending on where the rotation center is set, and accordingly, the correction amount by the correction by the parallel movement also changes. For example, in the example shown in FIG. 12, in the correction of the rotation angle, when the right image is rotated to the left with the center of the image as the rotation center, the correction amount with respect to the vertical direction of the subject becomes very small, almost zero. Become. As described above, when there is a rotation angle correction, the rotation correction and the parallel movement are not independent items. As a result, the upper and lower axes of the image itself are rotated by the rotation correction.

図13は、図12に係る画像の補正を、左カメラ60および右カメラ61の位置に置換した場合の、左カメラ60および右カメラ61の動きを示す概念図である。   FIG. 13 is a conceptual diagram illustrating the movement of the left camera 60 and the right camera 61 when the image correction according to FIG. 12 is replaced with the positions of the left camera 60 and the right camera 61.

図12に係る画像の補正により、左カメラ60および右カメラ61において、カメラのアオリまたはカメラの回転が発生していない場合と同じ画像が得られることを、図13に示している。   FIG. 13 shows that the same image as that obtained when the camera tilt or camera rotation does not occur in the left camera 60 and the right camera 61 by the image correction according to FIG.

しかしながら、左カメラ60および右カメラ61は、項目〔立体画像撮影装置における画像補正の原理〕で述べたとおり、上下ズレの要因となる回転誤差を有している場合がある。この場合、左目用画像および右目用画像の一方に写る被写体に、他方の画像に写る被写体を一致させたとしても、左カメラ60のレンズの中心と、右カメラ61のレンズの中心とを通る直線(すなわち、図11の(a)および(b)に示す直線114)が、左目用補正画像122および右目用補正画像123における水平方向と一致するとは限らない(図11(a)〜(d)参照)。   However, the left camera 60 and the right camera 61 may have a rotation error that causes a vertical shift as described in the item [Principle of image correction in the stereoscopic image capturing apparatus]. In this case, even if the subject that appears in one of the left-eye image and the right-eye image matches the subject that appears in the other image, a straight line that passes through the center of the lens of the left camera 60 and the center of the lens of the right camera 61. (That is, the straight line 114 shown in FIGS. 11A and 11B) does not always coincide with the horizontal direction in the left-eye correction image 122 and the right-eye correction image 123 (FIGS. 11A to 11D). reference).

上記直線が上記水平方向と一致しない状態で図12および図13に示す補正が完了した左目用補正画像122および右目用補正画像123は、被写体距離によって、被写体間での上下ズレの量が異なる。該上下ズレが発生していると、図12に示す平行移動による補正では、該上下ズレを解消することができない場合がある。   The left-eye correction image 122 and the right-eye correction image 123 that have been subjected to the correction shown in FIGS. 12 and 13 in a state where the straight line does not coincide with the horizontal direction have different vertical shift amounts between subjects depending on the subject distance. If the vertical displacement occurs, the vertical displacement may not be eliminated by the correction by the parallel movement shown in FIG.

図14は、左目用補正画像122と右目用補正画像123との間で上下ズレが発生している状態を示す図である。   FIG. 14 is a diagram illustrating a state in which a vertical shift occurs between the left-eye correction image 122 and the right-eye correction image 123.

被写体141および142は、左目用補正画像122と右目用補正画像123との間で上下ズレを発生している。また、被写体141と被写体142とは、互いに異なる被写体距離となっているが、被写体141における該上下ズレのズレ量は、被写体142における該上下ズレのズレ量と異なっている。   The subjects 141 and 142 have a vertical shift between the left-eye correction image 122 and the right-eye correction image 123. The subject 141 and the subject 142 have different subject distances, but the vertical shift amount of the subject 141 is different from the vertical shift amount of the subject 142.

〔上下ズレを補正する方法の概要〕
以下、左目用画像と右目用画像との間での上下ズレを補正する方法の概要について説明する。
[Overview of how to correct vertical misalignment]
Hereinafter, an outline of a method for correcting vertical displacement between the left-eye image and the right-eye image will be described.

左目用画像および右目用画像のトリミングを調整することで、これらの画像から立体画像を得ることが可能となる。   By adjusting the trimming of the left-eye image and the right-eye image, it is possible to obtain a stereoscopic image from these images.

左カメラ60および右カメラ61において、互いのカメラに回転角度の差(相対的な回転差)が発生すると、左目用画像と右目用画像との間で、角度ズレが発生する(図15参照)。   In the left camera 60 and the right camera 61, when a rotation angle difference (relative rotation difference) occurs between the cameras, an angle shift occurs between the left-eye image and the right-eye image (see FIG. 15). .

図16は、上記互いに異なる回転角度のカメラの回転が発生した場合に、画像のトリミングを行う要領を示す図である。   FIG. 16 is a diagram showing a procedure for trimming an image when the cameras having different rotation angles are generated.

図16によれば、左目用画像160に写る被写体164および165は、右目用画像161に写る被写体164および165と異なる方向を向いている。このように、左目用画像160と右目用画像161との間で、被写体164および165が互いに異なる方向を向いていると、被写体164および165は立体画像に見えない。   According to FIG. 16, the subjects 164 and 165 shown in the left-eye image 160 are oriented in a different direction from the subjects 164 and 165 shown in the right-eye image 161. As described above, when the subjects 164 and 165 are in different directions between the left-eye image 160 and the right-eye image 161, the subjects 164 and 165 do not appear as stereoscopic images.

そこで、画像の回転角度の補正により、左目用画像160に写る被写体164および165の向きと、右目用画像161に写る被写体164および165の向きとを揃えると、被写体164および165は立体画像に見える。図16には、該画像の回転角度の補正に従って左目用画像160をトリミングした左目用補正画像162と、該画像の回転角度の補正に従って右目用画像161をトリミングした右目用補正画像163とを示している。なお、左目用画像160と右目用画像161とで被写体164および165の向きを揃えるような補正を行うためには、被写体164および165が2点以上の特徴点を有している必要がある。   Accordingly, when the orientations of the subjects 164 and 165 shown in the left-eye image 160 are aligned with the orientations of the subjects 164 and 165 shown in the right-eye image 161 by correcting the rotation angle of the image, the subjects 164 and 165 appear to be a stereoscopic image. . FIG. 16 shows a left-eye correction image 162 obtained by trimming the left-eye image 160 according to the correction of the rotation angle of the image, and a right-eye correction image 163 obtained by trimming the right-eye image 161 according to the correction of the rotation angle of the image. ing. In order to perform correction so that the orientations of the subjects 164 and 165 are aligned between the left-eye image 160 and the right-eye image 161, the subjects 164 and 165 need to have two or more feature points.

また、左カメラ60および右カメラ61において、互いに同じ方向かつ同じ回転角度のカメラの回転、またはカメラの平行移動が発生すると、左目用画像と右目用画像との間で、上下ズレが発生する(図17参照)。   In addition, when the left camera 60 and the right camera 61 are rotated in the same direction and at the same rotation angle, or the camera is moved in parallel, vertical displacement occurs between the left-eye image and the right-eye image ( FIG. 17).

図18は、上記互いに同じ方向かつ同じ回転角度のカメラの回転、またはカメラの平行移動が発生した場合に、画像のトリミングを行う要領を示す図である。   FIG. 18 is a diagram illustrating a procedure for trimming an image when the rotation of the camera in the same direction and the same rotation angle or the parallel movement of the camera occurs.

図18によれば、左目用画像160に写る被写体164および165は、右目用画像161に写る被写体164および165に対して、上下ズレを発生している。このように、左目用画像160と右目用画像161との間で、被写体164および165に上下ズレが発生していると、被写体164および165は立体画像に見えない。加えて、図18に係る上下ズレは、被写体距離に応じて上下方向のズレ量が変わるので、被写体164と被写体165とでは、該ズレ量が異なる。   According to FIG. 18, the subjects 164 and 165 shown in the left-eye image 160 have a vertical shift with respect to the subjects 164 and 165 shown in the right-eye image 161. As described above, when vertical shift occurs in the subjects 164 and 165 between the left-eye image 160 and the right-eye image 161, the subjects 164 and 165 cannot be seen as a stereoscopic image. In addition, the vertical shift according to FIG. 18 changes in the vertical shift amount according to the subject distance, and thus the shift amount differs between the subject 164 and the subject 165.

被写体距離に応じて上下方向のズレ量が変わる場合、画像の平行移動による補正を行うだけでは、図18に係る上下ズレを適切に補正することができない。そこで、画像の回転角度の補正を行うことにより、該上下ズレを適切に補正することが可能となる。図18には、該画像の回転角度の補正に従って左目用画像160をトリミングした左目用補正画像162と、該画像の回転角度の補正に従って右目用画像161をトリミングした右目用補正画像163とを示している。なお、画像の回転角度の補正を行うためには、被写体164および165として示すように、被写体距離が異なる複数の被写体が必要である。   When the vertical shift amount changes according to the subject distance, the vertical shift according to FIG. 18 cannot be corrected appropriately only by performing correction by parallel movement of the image. Therefore, by correcting the rotation angle of the image, it is possible to appropriately correct the vertical shift. FIG. 18 shows a left-eye correction image 162 obtained by trimming the left-eye image 160 according to the correction of the rotation angle of the image, and a right-eye correction image 163 obtained by trimming the right-eye image 161 according to the correction of the rotation angle of the image. ing. In order to correct the rotation angle of the image, a plurality of subjects having different subject distances are required as shown as subjects 164 and 165.

また、カメラのアオリ等に起因して、左カメラ60および右カメラ61において、一方のカメラの光軸が他方のカメラの光軸に対して上下方向にズレていると、左目用画像と右目用画像との間で、上下ズレが発生する(図19参照)。   Also, in the left camera 60 and the right camera 61 due to camera tilt or the like, if the optical axis of one camera is shifted in the vertical direction with respect to the optical axis of the other camera, the image for the left eye and the image for the right eye Vertical displacement occurs between the images (see FIG. 19).

図20は、上記の光軸の上下方向へのズレが発生した場合に、画像のトリミングを行う要領を示す図である。   FIG. 20 is a diagram illustrating a procedure for trimming an image when the optical axis is displaced in the vertical direction.

図20によれば、左目用画像160に写る被写体164および165は、右目用画像161に写る被写体164および165に対して、上下ズレを発生している。このように、左目用画像160と右目用画像161との間で、被写体164および165に上下ズレが発生していると、被写体164および165は立体画像に見えない。但し、図20に係る上下ズレは、被写体距離によらず上下方向のズレ量が同じであるので、被写体164と被写体165とでは、該ズレ量が同じとなる。   According to FIG. 20, the subjects 164 and 165 shown in the left-eye image 160 have a vertical shift with respect to the subjects 164 and 165 shown in the right-eye image 161. As described above, when vertical shift occurs in the subjects 164 and 165 between the left-eye image 160 and the right-eye image 161, the subjects 164 and 165 cannot be seen as a stereoscopic image. However, since the vertical shift according to FIG. 20 has the same vertical shift amount regardless of the subject distance, the subject 164 and the subject 165 have the same shift amount.

そこで、画像の平行移動による補正により、左目用画像160に写る被写体164および165の上下方向の位置と、右目用画像161に写る被写体164および165の上下方向の位置とを揃えることにより、図20に係る上下ズレを解消することが可能となる。図20には、該画像の平行移動による補正に従って左目用画像160をトリミングした左目用補正画像162と、該画像の平行移動による補正に従って右目用画像161をトリミングした右目用補正画像163とを示している。   Accordingly, by correcting by parallel movement of the image, the vertical positions of the subjects 164 and 165 shown in the left-eye image 160 and the vertical positions of the subjects 164 and 165 shown in the right-eye image 161 are made uniform, so that FIG. It is possible to eliminate the vertical shift related to. FIG. 20 shows a left-eye correction image 162 obtained by trimming the left-eye image 160 according to the correction by the parallel movement of the image, and a right-eye correction image 163 obtained by trimming the right-eye image 161 according to the correction by the parallel movement of the image. ing.

また、左カメラ60の光軸と右カメラ61の光軸とが、並行でないか所望の輻輳点で交差していない場合、左目用画像と右目用画像との間で、左右ズレが発生する(図21参照)。   Further, when the optical axis of the left camera 60 and the optical axis of the right camera 61 are not parallel or do not intersect at a desired convergence point, a left-right shift occurs between the left-eye image and the right-eye image ( (See FIG. 21).

図22は、上記の光軸の左右方向へのズレが発生した場合に、画像のトリミングを行う要領を示す図である。   FIG. 22 is a diagram illustrating a procedure for trimming an image when the optical axis is shifted in the left-right direction.

図22によれば、左目用画像160と右目用画像161との間で、被写体164および165に発生する左右方向へのズレが大きい場合、被写体164および165が、立体画像に見えなかったり、所望の位置より手前または奥に見えたりする。   According to FIG. 22, when there is a large lateral shift between the left-eye image 160 and the right-eye image 161 in the subjects 164 and 165, the subjects 164 and 165 are not visible as a stereoscopic image or desired It may appear in front or behind the position.

そこで、画像の平行移動による補正により、左目用画像160に写る被写体164および165の左右方向の位置と、右目用画像161に写る被写体164および165の左右方向の位置とを揃えることにより、左右方向へのズレを解消することが可能となる。図22には、左目用画像160をトリミングした左目用補正画像162と、右目用画像161をトリミングした右目用補正画像163とを示している。この場合、被写体164および165は、被写体距離が既知である必要がある。   Therefore, by correcting by the parallel movement of the image, the horizontal positions of the subjects 164 and 165 shown in the left-eye image 160 and the horizontal positions of the subjects 164 and 165 shown in the right-eye image 161 are aligned, so that the horizontal direction It is possible to eliminate the deviation. FIG. 22 shows a left-eye correction image 162 obtained by trimming the left-eye image 160 and a right-eye correction image 163 obtained by trimming the right-eye image 161. In this case, the subjects 164 and 165 need to have a known subject distance.

実施の形態で説明する画像補正方法においては、互いに異なる被写体距離にある2つ以上の被写体を用いて、該被写体の一方が1つ以上の特徴点を有しており、該被写体の他方が2つ以上の特徴点を有している必要がある。   In the image correction method described in the embodiment, two or more subjects at different subject distances are used, and one of the subjects has one or more feature points, and the other of the subjects has 2 Must have at least one feature point.

〔画像補正方法のポイント〕
実施の形態で説明する画像補正方法においては、左目用画像および右目用画像から、「傾いた長方形」を切り出すことで、左右2基のカメラ(すなわち、左カメラ60および右カメラ61)間での、角度ズレおよび上下方向のズレ等を補正する。
[Points of image correction method]
In the image correction method described in the embodiment, the “tilted rectangle” is cut out from the image for the left eye and the image for the right eye, so that the two left and right cameras (that is, the left camera 60 and the right camera 61) are separated. Correct the angle deviation and vertical deviation.

従来の方法では、左目用画像と右目用画像との間での、相対的なズレを補正していた。左右2基のカメラが同じ方向に同じ角度回転している場合、左目用画像と右目用画像との間での上下ズレが生じるが、従来の方法では、左目用画像および/または右目用画像のトリミング位置を上下方向にずらすことで、該上下ズレを補正していた。   In the conventional method, the relative deviation between the left-eye image and the right-eye image is corrected. When the left and right two cameras are rotated in the same direction and at the same angle, vertical displacement occurs between the left-eye image and the right-eye image. However, in the conventional method, the left-eye image and / or the right-eye image The vertical shift is corrected by shifting the trimming position in the vertical direction.

しかしながら、左右2基のカメラが同じ方向に同じ角度回転している場合、被写体距離に応じて上下方向のズレ量が変わるため、従来の方法では、あらゆる被写体距離にある被写体に合わせて上下ズレを補正することはできなかった。   However, when the two left and right cameras are rotated in the same direction and at the same angle, the amount of vertical displacement varies depending on the subject distance. Therefore, in the conventional method, the vertical displacement is adjusted according to the subject at any subject distance. It could not be corrected.

そこで、実施の形態で説明する画像補正方法においては、左カメラのレンズの中心と、右カメラのレンズの中心とを通る直線を、絶対的な基準線として、該基準線に対して、画像のずれを補正する。これにより、被写体がどの距離にあっても、上下ズレを補正することが可能となる。   Therefore, in the image correction method described in the embodiment, a straight line passing through the center of the lens of the left camera and the center of the lens of the right camera is used as an absolute reference line, and the image is corrected with respect to the reference line. Correct the deviation. As a result, it is possible to correct the vertical shift regardless of the distance of the subject.

実施の形態で説明する画像補正方法に係る、画像の補正手順は、図1を参照すると、以下のとおりである。   An image correction procedure according to the image correction method described in the embodiment is as follows with reference to FIG.

(手順1:S1)異なる2つの距離(被写体距離)AおよびBに対して、距離Aにある、検出可能な特徴点を少なくとも2つ有する被写体a(第1被写体)と、距離Bにある、検出可能な特徴点を少なくとも1つ有する被写体b(第2被写体)とを、左右2基のカメラで撮影する。左カメラ(第1カメラ)が被写体aを撮影(取得)した画像を左目用画像a(第1参照画像)とし、右カメラ(第2カメラ)が被写体aを撮影した画像を右目用画像a(第2参照画像)とし、左カメラが被写体bを撮影した画像を左目用画像b(第3参照画像)とし、右カメラが被写体bを撮影した画像を右目用画像b(第4参照画像)とする。なお、左目用画像aと左目用画像bとは、異なる画像であってもよいし、同一の画像であってもよい。右目用画像aと右目用画像bとについても同様に、異なる画像であってもよいし、同一の画像であってもよい。すなわち、被写体aおよび被写体bの両方が写るように、左カメラによる撮影および右カメラによる撮影の少なくとも一方を行ってもよい。換言すれば、左カメラのみが、1つの画像に被写体aおよび被写体bが写るように撮影を行ってもよいし、右カメラのみが、1つの画像に被写体aおよび被写体bが写るように撮影を行ってもよいし、左右両方のカメラが、1つの画像に被写体aおよび被写体bが写るように撮影を行ってもよい。   (Procedure 1: S1) For two different distances (subject distances) A and B, a subject a (first subject) having at least two detectable feature points at a distance A and a distance B. A subject b (second subject) having at least one detectable feature point is photographed by two cameras on the left and right. An image obtained by photographing (acquiring) the subject a by the left camera (first camera) is defined as a left-eye image a (first reference image), and an image obtained by photographing the subject a by the right camera (second camera) is represented by a right-eye image a ( A second reference image), an image obtained by photographing the subject b by the left camera as an image b for the left eye (third reference image), and an image obtained by photographing the subject b by the right camera as an image for the right eye b (fourth reference image). To do. Note that the left-eye image a and the left-eye image b may be different images or the same image. Similarly, the right-eye image a and the right-eye image b may be different images or the same image. That is, at least one of shooting with the left camera and shooting with the right camera may be performed so that both the subject a and the subject b are captured. In other words, only the left camera may shoot so that the subject a and the subject b appear in one image, or only the right camera shoots so that the subject a and the subject b appear in one image. Alternatively, the left and right cameras may shoot so that the subject a and the subject b appear in one image.

(手順2:S2)左目用画像aおよび右目用画像aから被写体aの特徴点を2つ以上検出し、左目用画像bおよび右目用画像bから被写体bの特徴点を1つ以上検出する。   (Procedure 2: S2) Two or more feature points of the subject a are detected from the left eye image a and the right eye image a, and one or more feature points of the subject b are detected from the left eye image b and the right eye image b.

(手順3:S3)被写体aの2つの特徴点から、左右2基のカメラ間の相対的な角度差分、すなわち左カメラの光軸を中心とする左カメラの回転角度に対する、右カメラの光軸を中心とする右カメラの回転角度の差分(Δθ:相互回転角度差分)を算出する。そして、左目用画像aおよび右目用画像aに対して、Δθを相殺するようにΔθによる回転角度の補正を行う。すなわち、この段階で、左目用画像aに対する回転角度の補正係数をΔθ/2とし、右目用画像aに対する回転角度の補正係数を−Δθ/2とする。   (Procedure 3: S3) The optical axis of the right camera with respect to the relative angular difference between the two left and right cameras from the two feature points of the subject a, that is, the rotation angle of the left camera around the optical axis of the left camera The difference of the rotation angle of the right camera centering on (Δθ: mutual rotation angle difference) is calculated. Then, with respect to the left-eye image a and the right-eye image a, the rotation angle is corrected by Δθ so as to cancel Δθ. That is, at this stage, the rotation angle correction coefficient for the left-eye image a is set to Δθ / 2, and the rotation angle correction coefficient for the right-eye image a is set to −Δθ / 2.

(手順4:S4)(手順3)による補正後における、左目用画像aおよび右目用画像aの両方を、任意の角度(Δφ:所定角度)回転させる。そして、被写体aの2個の特徴点の、左目用画像aと右目用画像aとの間での上下方向における差分(ΔY:第1上下ズレ)を算出する。   (Procedure 4: S4) After the correction in (Procedure 3), both the left-eye image a and the right-eye image a are rotated by an arbitrary angle (Δφ: predetermined angle). Then, the difference (ΔY: first vertical shift) in the vertical direction between the left-eye image a and the right-eye image a of the two feature points of the subject a is calculated.

(手順5:S5)左目用画像bおよび右目用画像bの両方を、Δθ、Δφ、およびΔYに基づいて、ΔθおよびΔYを相殺するように、かつΔφ回転させて補正する。すなわち、左目用画像bに対する補正係数は、
回転角度:Δθ/2+Δφ
上下移動:ΔY/2
とし、右目用画像bに対する補正係数は、
回転角度:−Δθ/2+Δφ
上下移動:−ΔY/2
とする。その後、被写体bの特徴点の、左目用画像bと右目用画像bとの間での上下方向におけるズレ(ΔY´:第2上下ズレ)を算出する。
(Procedure 5: S5) Both the left-eye image b and the right-eye image b are corrected based on Δθ, Δφ, and ΔY so as to cancel Δθ and ΔY and rotate Δφ. That is, the correction coefficient for the left-eye image b is
Rotation angle: Δθ / 2 + Δφ
Vertical movement: ΔY / 2
And the correction coefficient for the right-eye image b is
Rotation angle: -Δθ / 2 + Δφ
Vertical movement: -ΔY / 2
And Thereafter, a shift (ΔY ′: second vertical shift) in the vertical direction between the left-eye image b and the right-eye image b of the feature point of the subject b is calculated.

(手順6:S61およびS62)複数のΔφについて(手順4)および(手順5)に示す操作を繰り返し行い、ΔY´が最小となるΔφおよびΔYを求める。   (Procedure 6: S61 and S62) The operations shown in (Procedure 4) and (Procedure 5) are repeated for a plurality of Δφs to obtain Δφ and ΔY that minimize ΔY ′.

(手順7:S7)左目用画像aおよび右目用画像aに写る被写体a同士が、また、左目用画像bおよび右目用画像bに写る被写体b同士が、無限遠または所望の輻輳点で重なるように、補正すべき距離(ΔX)を求める。   (Procedure 7: S7) The subjects a appearing in the left-eye image a and the right-eye image a and the subjects b appearing in the left-eye image b and the right-eye image b overlap at an infinite distance or a desired convergence point. Then, the distance (ΔX) to be corrected is obtained.

(手順1)〜(手順7)を行った結果、左カメラ(第1撮影部11)から取得した左目用画像(第1画像データに相当)に対する補正係数は、
回転角度:Δθ/2+Δφ
上下移動:ΔY/2
左右移動:ΔX/2
とし、右カメラ(第2撮影部12)から取得した右目用画像(第2画像データに相当)に対する補正係数は、
回転角度:−Δθ/2+Δφ
上下移動:−ΔY/2
左右移動:−ΔX/2
とする。
As a result of performing (Procedure 1) to (Procedure 7), the correction coefficient for the image for the left eye (corresponding to the first image data) acquired from the left camera (first imaging unit 11) is:
Rotation angle: Δθ / 2 + Δφ
Vertical movement: ΔY / 2
Left / right movement: ΔX / 2
The correction coefficient for the right-eye image (corresponding to the second image data) acquired from the right camera (second imaging unit 12) is:
Rotation angle: -Δθ / 2 + Δφ
Vertical movement: -ΔY / 2
Left / right movement: -ΔX / 2
And

その後、上記の、左目用画像に対する補正係数、および右目用画像に対する補正係数を、画像補正パラメータとしてトリミング部16(図3参照)に供給する。画像記憶部15にそれぞれ記憶される、第1画像データとしての左目用画像および第2画像データとしての右目用画像を参照して、トリミング部16は、該画像補正パラメータに基づいて(該画像補正パラメータにより規定される補正を反映するように)、左目用画像および右目用画像のトリミングを行い、第1補正画像データおよび第2補正画像データを生成する。これにより、本発明に係る画像補正方法により、左目用画像および右目用画像それぞれの補正を行う携帯電話1を実現することができる。   Thereafter, the correction coefficient for the left-eye image and the correction coefficient for the right-eye image are supplied to the trimming unit 16 (see FIG. 3) as image correction parameters. With reference to the left-eye image as the first image data and the right-eye image as the second image data respectively stored in the image storage unit 15, the trimming unit 16 (based on the image correction parameter) The left eye image and the right eye image are trimmed so as to reflect the correction defined by the parameters, and the first corrected image data and the second corrected image data are generated. Thereby, the mobile phone 1 that corrects each of the left-eye image and the right-eye image can be realized by the image correction method according to the present invention.

なお、手順3では、左目用画像aおよび右目用画像aの両方に対して、Δθによる回転角度の補正を行ったが、左目用画像aおよび右目用画像aのいずれか一方を補正する手法を採用してもよい。   In step 3, the rotation angle is corrected by Δθ for both the left-eye image a and the right-eye image a. However, a method for correcting either the left-eye image a or the right-eye image a is used. It may be adopted.

また、手順5では、左目用画像bおよび右目用画像bの両方に対して、Δθ、Δφ、およびΔYに基づく補正を行ったが、このうちΔθおよびΔYに関しては、左目用画像bおよび右目用画像bのいずれか一方を補正する手法を採用してもよい。一方、Δφに関しては、左目用画像bおよび右目用画像bの、同方向および同角度の回転補正であるため、いずれか一方を補正することはできず、両方を補正する必要がある。   Further, in the procedure 5, both the left-eye image b and the right-eye image b are corrected based on Δθ, Δφ, and ΔY. Of these, regarding Δθ and ΔY, the left-eye image b and the right-eye image A method of correcting either one of the images b may be employed. On the other hand, regarding Δφ, since rotation correction of the left-eye image b and the right-eye image b is performed in the same direction and at the same angle, either one cannot be corrected, and both need to be corrected.

さらに、上記の各手順では、左目用画像および右目用画像の両方をトリミングするものとして説明を行ったが、トリミングにより立体画像が取得できるのであれば、左目用画像および右目用画像のいずれか一方をトリミングしてもよい。   Furthermore, in each of the above procedures, the description has been given on the assumption that both the left-eye image and the right-eye image are trimmed. However, if a stereoscopic image can be acquired by trimming, either the left-eye image or the right-eye image is selected. May be trimmed.

ここで、上記画像補正方法を行う際のポイントについて説明する。   Here, points when performing the image correction method will be described.

上述したとおり、左目用画像と右目用画像との間で、被写体のズレが発生する要因としては、(要因A)〜(要因D)の4つが挙げられる。   As described above, there are four factors (Factor A) to (Factor D) that cause the subject to shift between the left-eye image and the right-eye image.

(要因A)左カメラおよび右カメラ間での回転角度の差(相対的な回転差)によるズレ。   (Factor A) Deviation due to a difference in rotation angle (relative rotation difference) between the left camera and the right camera.

(要因B)左カメラおよび右カメラが同方向に同じ回転角度だけ回転したことによるズレ、または左カメラおよび右カメラ間での上下方向の取り付け位置ズレ。   (Factor B) Deviation caused by rotation of the left camera and the right camera in the same direction by the same rotation angle, or deviation in the vertical mounting position between the left camera and the right camera.

(要因C)左カメラおよび右カメラの各光軸間での、上下方向の傾きによるズレ。   (Factor C) Deviation due to vertical tilt between the optical axes of the left camera and the right camera.

(要因D)左カメラおよび右カメラの各光軸間での、左右方向の傾きによるズレ。   (Factor D) Deviation due to tilt in the left-right direction between the optical axes of the left camera and the right camera.

(要因B)に係るカメラの上下方向の取り付け位置ズレは、2基のカメラの各々のレンズの中心位置を通る直線を水平とみなすと、(要因B)に係るカメラの同方向かつ同じ回転角度の回転によるズレと等価として扱うことができる。   The vertical mounting position shift of the camera according to (Factor B) is the same direction and the same rotation angle of the camera according to (Factor B), assuming that a straight line passing through the center position of each lens of the two cameras is horizontal. It can be treated as equivalent to a shift caused by rotation of.

(要因A)〜(要因D)のうち、左目用画像と右目用画像との間での上下ズレを生じさせるのは(要因B)および(要因C)である。(要因B)に係る上下ズレは、被写体距離によって上下方向へのズレ量が変わるのに対し、(要因C)に係る上下ズレのズレ量は、被写体距離によらない。そのため、(要因B)と(要因C)とで個別に補正を行う必要があるが、特定の距離にある被写体を撮影するだけではこれらを区別することはできない。上記画像補正方法を用いれば、(要因B)と(要因C)とを別々に補正する形で、画像の調整を行うことができる。   Among (Factor A) to (Factor D), it is (Factor B) and (Factor C) that cause a vertical shift between the left-eye image and the right-eye image. The vertical shift according to (Factor B) varies in the vertical direction depending on the subject distance, whereas the vertical shift according to (Factor C) does not depend on the subject distance. Therefore, it is necessary to perform correction separately for (Factor B) and (Factor C), but these cannot be distinguished only by photographing a subject at a specific distance. If the image correction method is used, it is possible to adjust the image in such a manner that (Factor B) and (Factor C) are corrected separately.

なお、上記(手順2)では、被写体aから2つの特徴点を検出している。一方、上記(手順2)では、被写体aから2つの特徴点を検出する代わりに、被写体aから1つの特徴点を検出し、かつ左目用画像aに対する右目用画像aの回転角度が特定可能なものを、左目用画像aおよび右目用画像aから検出しても、同様の方法が実施可能である。なお、この線は、被写体として写っているものである必要は無い。換言すれば、左目用画像aおよび右目用画像aにおいて、被写体aおよびその周辺(背景等)を被写体領域として撮影し、左目用画像aおよび右目用画像aから、該被写体領域に写る線を検出すればよい。   In the above (procedure 2), two feature points are detected from the subject a. On the other hand, in the above (Procedure 2), instead of detecting two feature points from the subject a, one feature point is detected from the subject a and the rotation angle of the right eye image a relative to the left eye image a can be specified. A similar method can be carried out even if an object is detected from the left-eye image a and the right-eye image a. Note that this line need not be a subject. In other words, in the left-eye image a and the right-eye image a, the subject a and its surroundings (background, etc.) are photographed as subject areas, and lines appearing in the subject area are detected from the left-eye image a and the right-eye image a. do it.

具体的には、左目用画像aおよび右目用画像aから、Δθを算出するためには、左目用画像aおよび右目用画像aから、左目用画像aに対する右目用画像aの回転角度を特定することが可能なもの、すなわち、左目用画像aおよび右目用画像aの両方に写る線を検出すれば十分である。一方、左目用画像aおよび右目用画像aから、ΔYを算出するためには、被写体aの特徴点を1つ以上検出する必要がある。   Specifically, in order to calculate Δθ from the left-eye image a and the right-eye image a, the rotation angle of the right-eye image a relative to the left-eye image a is specified from the left-eye image a and the right-eye image a. It is sufficient to detect what is possible, that is, the lines that appear in both the left eye image a and the right eye image a. On the other hand, in order to calculate ΔY from the left-eye image a and the right-eye image a, it is necessary to detect one or more feature points of the subject a.

また、左目用画像に対する補正係数、および右目用画像に対する補正係数を、画像補正パラメータとしてトリミング部16に供給するタイミングは、携帯電話1の製品としての出荷前であってもよい。また、該タイミングは、携帯電話1の出荷後、例えば携帯電話1の修理時であってもよい。   The timing for supplying the correction coefficient for the left-eye image and the correction coefficient for the right-eye image to the trimming unit 16 as image correction parameters may be before shipment as a product of the mobile phone 1. The timing may be after the mobile phone 1 is shipped, for example, when the mobile phone 1 is repaired.

なお、手順1が第1工程に、手順2が第2工程に、手順3が第3工程に、手順4が第4工程に、手順5が第5工程に、手順6が第6工程に、手順7が第7工程に、それぞれ該当する。   Procedure 1 is the first step, Procedure 2 is the second step, Procedure 3 is the third step, Procedure 4 is the fourth step, Procedure 5 is the fifth step, Procedure 6 is the sixth step, Procedure 7 corresponds to the seventh step.

〔画像補正方法の具体例〕
図23は、画像補正方法において検出する特徴点の座標の一覧を示す表である。
[Specific examples of image correction methods]
FIG. 23 is a table showing a list of feature point coordinates detected in the image correction method.

図24は、画像の切り出し座標の一覧を示す表である。   FIG. 24 is a table showing a list of image cutout coordinates.

図25は、画像補正方法において使用する定数の一覧(一例)を示す表である。   FIG. 25 is a table showing a list (one example) of constants used in the image correction method.

図26は、画像補正方法において使用する変数の一覧を示す表である。なお、図26に記載していない変数については、便宜上、以下の各ステップ内で定義している。   FIG. 26 is a table showing a list of variables used in the image correction method. For convenience, variables not described in FIG. 26 are defined in the following steps.

(ステップ1:被写体距離Aおよび被写体距離Bの被写体を、左右2基のカメラで撮影し、それぞれの画像に写る特徴点の座標を検出する)
まず、被写体距離Aの被写体(第1被写体)を左カメラ(第1カメラ)で撮影した画像をA左(第1参照画像)、被写体距離Aの被写体を右カメラ(第2カメラ)で撮影した画像をA右(第2参照画像)とする。
(Step 1: Shooting subjects with subject distance A and subject distance B with two cameras on the left and right, and detecting the coordinates of feature points in each image)
First, an image obtained by photographing a subject at a subject distance A (first subject) with a left camera (first camera) was photographed with A left (first reference image), and a subject at a subject distance A was photographed with a right camera (second camera). The image is A right (second reference image).

続いて、被写体距離Bの被写体(第2被写体)を左カメラで撮影した画像をB左(第3参照画像)、被写体距離Bの被写体を右カメラで撮影した画像をB右(第4参照画像)とする。   Subsequently, an image obtained by photographing the subject at the subject distance B (second subject) with the left camera is B left (third reference image), and an image obtained by photographing the subject at the subject distance B with the right camera is B right (fourth reference image). ).

続いて、画像A左から、特徴点A1およびB1を検出する(図27(a)参照)と共に、画像A右から、特徴点A1およびB1に対応する特徴点A2およびB2を検出する(図27(b)参照)。続いて、画像B左から、特徴点A3を検出する(図27(c)参照)と共に、画像B右から、特徴点A3に対応する特徴点A4を検出する(図27(d)参照)。なお、これらの各特徴点の検出は、周知慣用技術で実現可能であるので、詳細な説明は省略する。   Subsequently, feature points A1 and B1 are detected from the left side of the image A (see FIG. 27A), and feature points A2 and B2 corresponding to the feature points A1 and B1 are detected from the right side of the image A (FIG. 27). (See (b)). Subsequently, the feature point A3 is detected from the left side of the image B (see FIG. 27C), and the feature point A4 corresponding to the feature point A3 is detected from the right side of the image B (see FIG. 27D). It should be noted that detection of each of these feature points can be realized by a well-known conventional technique, and thus detailed description thereof is omitted.

(ステップ2:画像A左と画像A右との、回転方向の角度の差を算出し、画像A左と画像A右とが互いに水平となる回転角度を算出する)
(イ)画像A左から算出した2つの特徴点を結ぶ直線の傾きを算出する。すなわち、
点A1と点B1とを結ぶ直線の水平に対する傾き:
θ1=ATAN2((X12-X11),(Y12-Y11))
を算出する。
(Step 2: Calculate the angle difference between the left image A and the right image A in the rotation direction, and calculate the rotation angle at which the left image A and the right image A are horizontal)
(A) The inclination of a straight line connecting two feature points calculated from the left of the image A is calculated. That is,
The slope of the straight line connecting point A1 and point B1 with respect to the horizontal:
θ1 = ATAN2 ((X12-X11), (Y12-Y11))
Is calculated.

(ロ)画像A右から算出した2つの特徴点を結ぶ直線の傾きを算出する。すなわち、
点A2と点B2とを結ぶ直線の水平に対する傾き:
θ2=ATAN2((X22-X21),(Y22-Y21))
を算出する。ATAN2とは、三角関数のアークタンジェントを求める一般的な関数であり、ある点の座標(x,y)と原点を結ぶ線の傾き(角度、単位はラジアン)を求める。
(B) The slope of a straight line connecting two feature points calculated from the right side of the image A is calculated. That is,
The slope of the straight line connecting point A2 and point B2 with respect to the horizontal:
θ2 = ATAN2 ((X22-X21), (Y22-Y21))
Is calculated. ATAN2 is a general function for obtaining the arc tangent of a trigonometric function, and obtains the inclination (angle, unit is radians) of a line connecting the coordinates (x, y) of a certain point and the origin.

(ハ)上記(イ)および(ロ)の算出結果から、左カメラから取得した画像および右カメラから取得した画像のそれぞれの、調整回転角度(θL1、θR1)を算出する。すなわち、
左画像(左カメラから取得した第1画像)調整回転角度:θL1=(θ2−θ1)/2
右画像(右カメラから取得した第2画像)調整回転角度:θR1=−(θL1)
を算出する。
(C) The adjustment rotation angles (θL1, θR1) of the image acquired from the left camera and the image acquired from the right camera are calculated from the calculation results of (b) and (b) above. That is,
Left image (first image acquired from the left camera) Adjustment rotation angle: θL1 = (θ2-θ1) / 2
Right image (second image acquired from the right camera) Adjustment rotation angle: θR1 = − (θL1)
Is calculated.

(ステップ3:左カメラおよび右カメラ共通の、最適な回転ズレの角度を算出する)
算出手順としては、左カメラから取得した画像と右カメラから取得した画像とで共通の、回転補正量Δφを変化させて、下記(イ)〜(ホ)を繰り返す。
(Step 3: Calculate the optimal rotation angle common to the left and right cameras)
As a calculation procedure, the rotation correction amount Δφ common to the image acquired from the left camera and the image acquired from the right camera is changed, and the following (A) to (E) are repeated.

なお、一例として、回転補正量Δφを変化させる範囲およびステップは、以下のとおりとする。   As an example, the range and steps for changing the rotation correction amount Δφ are as follows.

開始角度:−10°
終了角度:10°
変化ステップ:0.01°
但し、回転補正量Δφを変化させる範囲、回転補正量Δφを変化させるステップは任意である。原理的には、左右90°の範囲で、どのような細かさ(ステップ)で、回転補正量Δφを変化させても問題ない。
Starting angle: -10 °
End angle: 10 °
Change step: 0.01 °
However, the range in which the rotation correction amount Δφ is changed and the step of changing the rotation correction amount Δφ are arbitrary. In principle, there is no problem even if the rotation correction amount Δφ is changed in any fineness (step) within a range of 90 ° to the left and right.

(イ)ステップ2で算出した左画像調整回転角度および右画像調整回転角度に、回転補正量Δφを加えた角度を算出する。すなわち、
左右カメラ共通の回転ズレΔφを加えた左画像調整回転角度:θL2=θL1+Δφ
左右カメラ共通の回転ズレΔφを加えた右画像調整回転角度:θR2=θR1+Δφ
を算出する。
(A) An angle obtained by adding the rotation correction amount Δφ to the left image adjustment rotation angle and the right image adjustment rotation angle calculated in step 2 is calculated. That is,
Left image adjustment rotation angle with rotation deviation Δφ common to left and right cameras: θL2 = θL1 + Δφ
Right image adjustment rotation angle with rotation deviation Δφ common to left and right cameras: θR2 = θR1 + Δφ
Is calculated.

(ロ)点A1と点B1とを回転角θL2で回転させたときの座標、および点A2と点B2とを回転角θR2で回転させたときの座標を算出する。   (B) The coordinates when the point A1 and the point B1 are rotated at the rotation angle θL2, and the coordinates when the point A2 and the point B2 are rotated at the rotation angle θR2 are calculated.

まず、回転の中心軸を画像の中心と仮定して回転を行う。画像A左および画像A右の中央の座標(Xcenter,Ycenter)を算出する。すなわち、
Xcenter=Size_O_x/2
Ycenter=Size_O_y/2
を算出する。
First, rotation is performed assuming that the center axis of rotation is the center of the image. The center coordinates (Xcenter, Ycenter) of the left image A and the right image A are calculated. That is,
Xcenter = Size_O_x / 2
Ycenter = Size_O_y / 2
Is calculated.

続いて、回転中心座標(Xcenter,Ycenter)を中心として、点A1および点B1の移動先の座標を算出する。すなわち、
点A1の回転先の点A1´(X11',Y11')の座標:
X11'=(X11-Xcenter)*COS(θL2)-(Y11-Ycenter)*SIN(θL2)+Xcenter
Y11'=(X11-Xcenter)*SIN(θL2)+(Y11-Ycenter)*COS(θL2)+Ycenter
点B1の回転先の点B1´(X12',Y12')の座標:
X12'=(X12-Xcenter)*COS(θL2)-(Y12-Ycenter)*SIN(θL2)+Xcenter
Y12'=(X12-Xcenter)*SIN(θL2)+(Y12-Ycenter)*COS(θL2)+Ycenter
を算出する。
Subsequently, the coordinates of the movement destinations of the points A1 and B1 are calculated with the rotation center coordinates (Xcenter, Ycenter) as the center. That is,
The coordinates of the point A1 ′ (X11 ′, Y11 ′) to which the point A1 is rotated:
X11 '= (X11-Xcenter) * COS (θL2)-(Y11-Ycenter) * SIN (θL2) + Xcenter
Y11 '= (X11-Xcenter) * SIN (θL2) + (Y11-Ycenter) * COS (θL2) + Ycenter
Coordinates of point B1 ′ (X12 ′, Y12 ′) to which point B1 is rotated:
X12 '= (X12-Xcenter) * COS (θL2)-(Y12-Ycenter) * SIN (θL2) + Xcenter
Y12 '= (X12-Xcenter) * SIN (θL2) + (Y12-Ycenter) * COS (θL2) + Ycenter
Is calculated.

続いて、回転中心座標(Xcenter,Ycenter)を中心として、点A2および点B2の移動先の座標を算出する。すなわち、
点A2の回転先の点A2´(X21',Y21')の座標:
X21'=(X21-Xcenter)*COS(θR2)-(Y21-Ycenter)*SIN(θR2)+Xcenter
Y21'=(X21-Xcenter)*SIN(θR2)+(Y21-Ycenter)*COS(θR2)+Ycenter
点B2の回転先の点B2´(X22',Y22')の座標:
X22'=(X22-Xcenter)*COS(θR2)-(Y22-Ycenter)*SIN(θR2)+Xcenter
Y22'=(X22-Xcenter)*SIN(θR2)+(Y22-Ycenter)*COS(θR2)+Ycenter
を算出する。
Subsequently, the coordinates of the movement destinations of the points A2 and B2 are calculated with the rotation center coordinates (Xcenter, Ycenter) as the center. That is,
The coordinates of the point A2 ′ (X21 ′, Y21 ′) to which the point A2 is rotated:
X21 '= (X21-Xcenter) * COS (θR2)-(Y21-Ycenter) * SIN (θR2) + Xcenter
Y21 '= (X21-Xcenter) * SIN (θR2) + (Y21-Ycenter) * COS (θR2) + Ycenter
The coordinates of the point B2 ′ (X22 ′, Y22 ′) to which the point B2 is rotated:
X22 '= (X22-Xcenter) * COS (θR2)-(Y22-Ycenter) * SIN (θR2) + Xcenter
Y22 '= (X22-Xcenter) * SIN (θR2) + (Y22-Ycenter) * COS (θR2) + Ycenter
Is calculated.

(ハ)上記(ロ)で算出した座標値から、画像A左と画像A右との間での、X方向の傾きによるズレ(水平のアオリ)およびY方向の傾きによるズレ(垂直のアオリ)を算出する。   (C) From the coordinate values calculated in (b) above, the deviation due to the tilt in the X direction (horizontal tilt) and the shift due to the tilt in the Y direction (vertical tilt) between the left image A and the right image A Is calculated.

まず、回転補正後の座標である、点A1´および点A2´の座標から、画像A左と画像A右との間での、X方向およびY方向のズレ量を算出する。すなわち、
点A1´と点A2´との間でのX方向のズレ:ΔX=X21'-X11'
点A1´と点A2´との間でのY方向のズレ:ΔY=Y21'-Y11'
を算出する。
First, from the coordinates of the points A1 ′ and A2 ′, which are the coordinates after rotation correction, the amount of deviation in the X direction and the Y direction between the image A left and the image A right is calculated. That is,
Deviation in the X direction between the points A1 ′ and A2 ′: ΔX = X21′−X11 ′
Deviation in the Y direction between the points A1 ′ and A2 ′: ΔY = Y21′−Y11 ′
Is calculated.

続いて、左カメラから取得した画像と右カメラから取得した画像とのそれぞれにおける、X方向およびY方向の補正量を算出する。すなわち、
左画像X方向補正量:ΔXL=ΔX/2
左画像Y方向補正量:ΔYL=ΔY/2
右画像X方向補正量:ΔXR=−(ΔXL)
右画像Y方向補正量:ΔYR=−(ΔYL)
を算出する。
Subsequently, correction amounts in the X direction and the Y direction in each of the image acquired from the left camera and the image acquired from the right camera are calculated. That is,
Left image X direction correction amount: ΔXL = ΔX / 2
Left image Y direction correction amount: ΔYL = ΔY / 2
Right image X direction correction amount: ΔXR = − (ΔXL)
Right image Y direction correction amount: ΔYR = − (ΔYL)
Is calculated.

(ニ)点A3を回転角度θL2で回転させたときの座標、および点A4を回転角θR2で回転させたときの座標を算出する。   (D) The coordinates when the point A3 is rotated at the rotation angle θL2 and the coordinates when the point A4 is rotated at the rotation angle θR2 are calculated.

まず、回転の中心軸を画像の中心と仮定して回転を行う。回転中心座標(Xcenter,Ycenter)を中心として、点A3および点A4の移動先の座標を算出する。すなわち、
点A3の回転先の点A3´(X31',Y31')の座標:
X31'=(X31-Xcenter)*COS(θL2)-(Y31-Ycenter)*SIN(θL2)+Xcenter
Y31'=(X31-Xcenter)*SIN(θL2)+(Y31-Ycenter)*COS(θL2)+Ycenter
点A4の回転先の点A4´(X41',Y41')の座標:
X41'=(X41-Xcenter)*COS(θR2)-(Y41-Ycenter)*SIN(θR2)+Xcenter
Y41'=(X41-Xcenter)*SIN(θR2)+(Y41-Ycenter)*COS(θR2)+Ycenter
を算出する。
First, rotation is performed assuming that the center axis of rotation is the center of the image. Centering on the rotation center coordinates (Xcenter, Ycenter), the coordinates of the movement destinations of the points A3 and A4 are calculated. That is,
The coordinates of the point A3 ′ (X31 ′, Y31 ′) to which the point A3 is rotated:
X31 '= (X31-Xcenter) * COS (θL2)-(Y31-Ycenter) * SIN (θL2) + Xcenter
Y31 '= (X31-Xcenter) * SIN (θL2) + (Y31-Ycenter) * COS (θL2) + Ycenter
The coordinates of the point A4 ′ (X41 ′, Y41 ′) to which the point A4 is rotated:
X41 '= (X41-Xcenter) * COS (θR2)-(Y41-Ycenter) * SIN (θR2) + Xcenter
Y41 '= (X41-Xcenter) * SIN (θR2) + (Y41-Ycenter) * COS (θR2) + Ycenter
Is calculated.

続いて、上記回転後の点A3´と点A4´とをY方向に移動させたときの座標を算出する。すなわち、
点A3の移動先の点A3´´のY座標(Y31''):Y31''=Y31'+ΔYL
点A4の移動先の点A4´´のY座標(Y41''):Y41''=Y41'+ΔYR
を算出する。
Subsequently, the coordinates when the rotated points A3 ′ and A4 ′ are moved in the Y direction are calculated. That is,
Y coordinate (Y31 ″) of point A3 ″ to which point A3 is moved: Y31 ″ = Y31 ′ + ΔYL
Y coordinate (Y41 ″) of point A4 ″ to which point A4 is moved: Y41 ″ = Y41 ′ + ΔYR
Is calculated.

(ホ)上記(ニ)で算出した移動後の座標におけるY座標間誤差を算出する。   (E) The error between the Y coordinates in the coordinates after movement calculated in (d) above is calculated.

点Y31''と点Y41''座標のY方向の誤差を算出する。すなわち、
Y31''とY41''とのY方向のズレ:ΔY´=Y41''−Y31''
を算出する。
An error in the Y direction between the points Y31 '' and Y41 '' is calculated. That is,
Y direction deviation between Y31 ″ and Y41 ″: ΔY ′ = Y41 ″ −Y31 ″
Is calculated.

(ヘ)回転補正量Δφの値を変化させて、上記(イ)〜(ホ)を繰り返す。   (F) The above values (A) to (E) are repeated while changing the value of the rotation correction amount Δφ.

(ト)上記(イ)〜(ヘ)を繰り返し実行し、(ホ)で算出したΔY´が最小となるときの回転補正量Δφの値を、最適調整回転角であると判断し、その時の補正量を最適な補正量とする。   (G) The above steps (a) to (f) are repeatedly executed, and the value of the rotation correction amount Δφ when ΔY ′ calculated in (e) is minimized is determined to be the optimum adjustment rotation angle. The correction amount is set to an optimum correction amount.

まず、Y座標間誤差(ΔY´)が最小となる回転補正量Δφを探し、その角度を最適な共通調整角Δθとする。   First, the rotation correction amount Δφ that minimizes the Y-coordinate error (ΔY ′) is found, and the angle is set as the optimum common adjustment angle Δθ.

続いて、左カメラから取得した画像および右カメラから取得した画像の最適調整回転角度を算出する。すなわち、
最適な左画像調整回転角度:θL3=θL1+Δθ
最適な右画像調整回転角度:θR3=θR1+Δθ
を算出する。
Subsequently, the optimum adjustment rotation angle of the image acquired from the left camera and the image acquired from the right camera is calculated. That is,
Optimal left image adjustment rotation angle: θL3 = θL1 + Δθ
Optimal right image adjustment rotation angle: θR3 = θR1 + Δθ
Is calculated.

続いて、共通の回転補正量ΔφをΔθと等しくしたときの、画像A左と画像A右との、X方向補正量(ΔXLおよびΔXR)ならびにY方向補正量(ΔYLおよびΔYR)を最適な補正量と決める。   Subsequently, when the common rotation correction amount Δφ is made equal to Δθ, the X direction correction amounts (ΔXL and ΔXR) and the Y direction correction amounts (ΔYL and ΔYR) are optimally corrected for the left side of the image A and the right side of the image A. Decide with quantity.

(ステップ4:逆補正量を算出する)
上記ステップ3の(ト)で求めた最適調整量の逆補正値を算出する。すなわち、
最適な左カメラ側調整回転角度(逆補正値):θL4=−θL3
最適な右カメラ側調整回転角度(逆補正値):θR4=−θR3
左カメラ側X方向補正量(逆補正値):ΔXL´=−ΔXL
右カメラ側X方向補正量(逆補正値):ΔXR´=−ΔXR
左カメラ側Y方向補正量(逆補正値):ΔYL´=−ΔYL
右カメラ側Y方向補正量(逆補正値):ΔYR´=−ΔYR
を算出する。
(Step 4: Calculate the reverse correction amount)
The reverse correction value of the optimum adjustment amount obtained in step 3 (g) is calculated. That is,
Optimal left camera side adjustment rotation angle (reverse correction value): θL4 = −θL3
Optimal right camera side adjustment rotation angle (reverse correction value): θR4 = −θR3
Left camera side X direction correction amount (reverse correction value): ΔXL ′ = − ΔXL
Right camera side X direction correction amount (reverse correction value): ΔXR ′ = − ΔXR
Left camera side Y direction correction amount (reverse correction value): ΔYL ′ = − ΔYL
Right camera side Y direction correction amount (reverse correction value): ΔYR ′ = − ΔYR
Is calculated.

(ステップ5:左右画像それぞれの切り出し座標を算出する)
(イ)元画像のサイズおよび切り出しサイズから、切り出す座標を算出する為の基準点(補正量がすべて0のときの切り出し座標)を算出する。但し、本来、該基準点は定数であるので計算不要である。
(Step 5: Calculate the cut-out coordinates of the left and right images)
(A) A reference point (cutout coordinates when the correction amounts are all 0) for calculating the cutout coordinates is calculated from the size and cutout size of the original image. However, since the reference point is essentially a constant, no calculation is necessary.

まず、左画像の切り出し基準点をA5、B5、C5、D5とする。また、右画像の切り出し基準点をA6、B6、C6、D6とする。そして、A5、B5、C5、D5に関しては、
点A5の座標(X51,Y51):
X51=(Size_O_x−Size_S_x)/2
Y51=(Size_O_y−Size_S_y)/2
点B5の座標(X52,Y52):
X52=X51+(Size_S_x−1)
Y52=Y51
点C5の座標(X53,Y53):
X53=X51
Y53=Y51+(Size_S_y−1)
点D5の座標(X54,Y54):
X54=X52
Y54=Y53
を算出する。A6、B6、C6、D6に関しても同様に、点A6の座標(X61,Y61)、点B6の座標(X62,Y62)、点C6の座標(X63,Y63)、および点D6の座標(X64,Y64)をそれぞれ算出する。
First, the cutout reference points of the left image are A5, B5, C5, and D5. Further, the cut-out reference points of the right image are A6, B6, C6, and D6. And for A5, B5, C5, D5,
Point A5 coordinates (X51, Y51):
X51 = (Size_O_x−Size_S_x) / 2
Y51 = (Size_O_y−Size_S_y) / 2
Point B5 coordinates (X52, Y52):
X52 = X51 + (Size_S_x−1)
Y52 = Y51
Point C5 coordinates (X53, Y53):
X53 = X51
Y53 = Y51 + (Size_S_y-1)
Point D5 coordinates (X54, Y54):
X54 = X52
Y54 = Y53
Is calculated. Similarly, with respect to A6, B6, C6, and D6, the coordinates of the point A6 (X61, Y61), the coordinates of the point B6 (X62, Y62), the coordinates of the point C6 (X63, Y63), and the coordinates of the point D6 (X64, Y64) is calculated respectively.

(ロ)上記(イ)で算出した左右基準点(全部で8点)の座標を、上記ステップ4で算出したX方向補正量(逆補正値)、およびY方向補正量(逆補正値)で移動させたときの座標を算出する。すなわち、
点A5の移動先の点A5´の座標(X51',Y51'):
X51'=X51+ΔXL´
Y51'=Y51+ΔYL´
(同様に点B5´/点C5´/点D5´のY座標を算出する)
点A6の移動先の点A6´の座標(X61',Y61'):
X61'=X61+ΔXR´
Y61'=Y61+ΔYR´
(同様に点B6´/点C6´/点D6´のY座標を算出する)
を算出する。
(B) The coordinates of the left and right reference points (total of 8 points) calculated in (a) above are used as the X direction correction amount (reverse correction value) and Y direction correction amount (reverse correction value) calculated in step 4 above. Calculate the coordinates when moved. That is,
The coordinates (X51 ′, Y51 ′) of the point A5 ′ to which the point A5 is moved:
X51 ′ = X51 + ΔXL ′
Y51 '= Y51 + ΔYL'
(Similarly, the Y coordinate of point B5 ′ / point C5 ′ / point D5 ′ is calculated)
The coordinates (X61 ′, Y61 ′) of the point A6 ′ to which the point A6 is moved:
X61 '= X61 + ΔXR'
Y61 '= Y61 + ΔYR'
(Similarly, the Y coordinate of point B6 ′ / point C6 ′ / point D6 ′ is calculated)
Is calculated.

(ハ)画像の中央の座標(Xcenter,Ycenter)を中心として、上記ステップ4で算出した最適調整回転角(逆補正値)で、上記(イ)で求めた8点を回転したときの座標を算出する。すなわち、
点A5の回転先の点A5´´(S_X51,S_Y51)の座標:
S_X51=(X51'-Xcenter)*COS(θL4)-(Y51'-Ycenter)*SIN(θL4)+Xcenter
S_Y51=(X51'-Xcenter)*SIN(θL4)+(Y51'-Ycenter)*COS(θL4)+Ycenter
(同様に点B5´´/点C5´´/点D5´´の座標を算出する)
点A6の回転先の点A6´´(S_X61,S_Y61)の座標:
S_X61=(X61'-Xcenter)*COS(θR4)-(Y61'-Ycenter)*SIN(θR4)+Xcenter
S_Y61=(X61'-Xcenter)*SIN(θR4)+(Y61'-Ycenter)*COS(θR4)+Ycenter
(同様に点B6´´/点C6´´/点D6´´の座標を算出する)
(ステップ6:終了)
ステップ5により決定された左右画像それぞれの切り出し座標を、画像補正パラメータとしてトリミング部16(図3参照)に供給する。画像記憶部15にそれぞれ記憶される、第1画像データとしての左画像および第2画像データとしての右画像を参照して、トリミング部16は、該画像補正パラメータに基づいて、左画像および右画像のトリミングを行い、第1補正画像データおよび第2補正画像データを生成する。これにより、本発明に係る画像補正方法により、左右画像それぞれの補正を行う携帯電話1を実現することができる。
(C) The coordinates obtained by rotating the eight points obtained in (a) above with the optimum adjustment rotation angle (reverse correction value) calculated in step 4 above, centering on the center coordinates (Xcenter, Ycenter) of the image. calculate. That is,
The coordinates of the point A5 ″ (S_X51, S_Y51) to which the point A5 is rotated:
S_X51 = (X51'-Xcenter) * COS (θL4)-(Y51'-Ycenter) * SIN (θL4) + Xcenter
S_Y51 = (X51'-Xcenter) * SIN (θL4) + (Y51'-Ycenter) * COS (θL4) + Ycenter
(Similarly, the coordinates of point B5 ″ / point C5 ″ / point D5 ″ are calculated)
The coordinates of the point A6 ″ (S_X61, S_Y61) to which the point A6 is rotated:
S_X61 = (X61'-Xcenter) * COS (θR4)-(Y61'-Ycenter) * SIN (θR4) + Xcenter
S_Y61 = (X61'-Xcenter) * SIN (θR4) + (Y61'-Ycenter) * COS (θR4) + Ycenter
(Similarly, the coordinates of point B6 "/ point C6" / point D6 "are calculated)
(Step 6: End)
The cut-out coordinates of the left and right images determined in step 5 are supplied to the trimming unit 16 (see FIG. 3) as image correction parameters. With reference to the left image as the first image data and the right image as the second image data respectively stored in the image storage unit 15, the trimming unit 16 determines the left image and the right image based on the image correction parameter. The first correction image data and the second correction image data are generated. Thus, the mobile phone 1 that corrects the left and right images can be realized by the image correction method according to the present invention.

また、本発明の立体画像撮影装置は、上記第1カメラの取り付け位置を、上記第2カメラに対して上下方向にズラした場合に、上記トリミング部により上記第1画像をトリミングして得られた画像、および上記トリミング部により上記第2画像をトリミングして得られた画像の両方が、互いに同じ回転角度により回転される。   The stereoscopic image capturing apparatus of the present invention is obtained by trimming the first image by the trimming unit when the mounting position of the first camera is shifted in the vertical direction with respect to the second camera. Both the image and the image obtained by trimming the second image by the trimming unit are rotated at the same rotation angle.

本発明の画像補正方法によれば、立体画像撮影装置における第1カメラの取り付け位置を、第2カメラに対して上下方向に敢えてズラした場合、それに伴い、第1カメラの中心と第2カメラの中心とを通る直線を基準として、トリミングを行った結果、第1画像をトリミングして得られた画像および第2画像をトリミングして得られた画像の両方が、互いに同じ回転角度により回転するという現象が起こる。該現象が起こる立体画像撮影装置は、本発明の立体画像撮影装置であると考えてよい。   According to the image correction method of the present invention, when the mounting position of the first camera in the stereoscopic image capturing apparatus is deviated vertically with respect to the second camera, the center of the first camera and the second camera are accordingly moved. As a result of performing trimming on the basis of a straight line passing through the center, both the image obtained by trimming the first image and the image obtained by trimming the second image rotate at the same rotation angle. A phenomenon occurs. The stereoscopic image capturing apparatus in which the phenomenon occurs may be considered as the stereoscopic image capturing apparatus of the present invention.

なお、原理的には、遠方の被写体と近方の被写体との両方を、同時に左右それぞれ1回の撮影(左右2枚の画像)で取り込み、その各画像から、遠方の被写体の特徴点と、近方の被写体の特徴点をそれぞれ検出することも可能である。例えば、これらの各画像において、上半分に遠方の被写体が、下半分に近方の被写体が写るように撮影し、特徴点を検出する際に、画像の上下を半分ずつに分けて特徴点の検出を行ってもよい。   In principle, both a distant subject and a near subject are captured at the same time with one shot each on the left and right (two images on the left and right), and from each of the images, the feature points of the distant subject, It is also possible to detect feature points of nearby subjects. For example, in each of these images, when shooting a distant subject in the upper half and a close subject in the lower half, and detecting feature points, the top and bottom of the image is divided into halves. Detection may be performed.

ピントをうまく合わせることができれば、あるいはピントが甘くても特徴点の検出が可能な程度で撮影できれば、近距離の被写体と遠距離の被写体とを同時に撮影することは可能である。   If the focus can be adjusted well, or if the feature point can be detected even if the focus is weak, it is possible to simultaneously photograph a short-distance subject and a long-distance subject.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、立体画像を撮影する立体画像撮影装置に内蔵された、2基のカメラから取得した各画像の補正を行う画像補正方法、およびこの画像補正方法により2基のカメラから取得した各画像の補正を行う立体画像撮影装置に利用することができる。   The present invention relates to an image correction method for correcting each image acquired from two cameras built in a three-dimensional image capturing device that captures a three-dimensional image, and each image acquired from two cameras by this image correction method. It can be used for a three-dimensional image photographing apparatus that corrects the above.

1 携帯電話(立体画像撮影装置)
11 第1撮影部(第1カメラ)
12 第2撮影部(第2カメラ)
16 トリミング部
1 Mobile phone (stereoscopic image capturing device)
11 First photographing unit (first camera)
12 Second imaging unit (second camera)
16 Trimming section

Claims (5)

複数のカメラを備えたカメラ群を構成する第1カメラから取得した第1画像、および該カメラ群を構成する、第1カメラと別の第2カメラから取得した第2画像から立体画像を得るために、第1画像および第2画像の少なくとも一方をトリミングする画像補正方法であって、
上記カメラ群までの距離が互いに異なる第1被写体および第2被写体を、上記第1カメラおよび第2カメラにより撮影し、第1カメラが第1被写体を撮影して得られる第1参照画像と、第2カメラが第1被写体を撮影して得られる第2参照画像と、第1カメラが第2被写体を撮影して得られる第3参照画像と、第2カメラが第2被写体を撮影して得られる第4参照画像とを取得する第1工程と、
上記第1参照画像および第2参照画像から、上記第1被写体の特徴点を少なくとも2つ検出すると共に、上記第3参照画像および第4参照画像から、上記第2被写体の特徴点を少なくとも1つ検出する第2工程と、
上記第2工程で検出した第1被写体の各特徴点から、上記第1カメラの光軸を中心とする第1カメラの回転角度に対する、上記第2カメラの光軸を中心とする第2カメラの回転角度の差分である相互回転角度差分を算出し、該相互回転角度差分を相殺するように、上記第1参照画像および第2参照画像の少なくとも一方を補正する第3工程と、
上記第1参照画像および第2参照画像を、互いに同じ所定角度だけ回転させ、上記第1被写体の各特徴点の、第1参照画像と第2参照画像との間での上下方向におけるズレである第1上下ズレを算出する第4工程と、
上記第3参照画像および第4参照画像の少なくとも一方を、上記相互回転角度差分および第1上下ズレを相殺するように、かつ互いに同じ上記所定角度だけ回転させるように補正し、上記第2工程で検出した第2被写体の特徴点の、第3参照画像と第4参照画像との間での上下方向におけるズレである第2上下ズレを算出する第5工程と、
複数の上記所定角度について、上記第4工程および第5工程を行い、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを求める第6工程とを含み、
上記第1画像および第2画像の少なくとも一方である元画像のサイズおよび上記トリミングにおける切り出しサイズから基準点を算出し、上記第6工程にて求めた、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを相殺するように、上記基準点の座標を、上下移動に係る逆補正値で移動させたあとに、回転に係る逆補正値で回転し、上記元画像の切り出し座標を算出し、該座標に基づいて上記第1画像および第2画像の少なくとも一方をトリミングし、
上記上下移動に係る逆補正値は、上記第1上下ズレを相殺する補正に利用する補正量の正負を変えた値であり、
上記回転に係る逆補正値は、上記相互回転角度差分を相殺し、かつ互いに同じ上記所定角度だけ回転させる補正に利用する補正量の正負を変えた値である、
ことを特徴とする画像補正方法。
To obtain a stereoscopic image from a first image acquired from a first camera constituting a camera group including a plurality of cameras and a second image obtained from a second camera different from the first camera constituting the camera group. An image correction method for trimming at least one of the first image and the second image,
A first reference image obtained by photographing a first subject and a second subject having different distances to the camera group with the first camera and the second camera, and the first camera photographing the first subject; A second reference image obtained by photographing the first subject with two cameras, a third reference image obtained by photographing the second subject with the first camera, and a second reference image obtained by photographing the second subject with the second camera. A first step of acquiring a fourth reference image;
At least two feature points of the first subject are detected from the first reference image and the second reference image, and at least one feature point of the second subject is detected from the third reference image and the fourth reference image. A second step to detect;
The second camera centered on the optical axis of the second camera with respect to the rotation angle of the first camera centered on the optical axis of the first camera from each feature point of the first subject detected in the second step. A third step of calculating a mutual rotation angle difference, which is a difference in rotation angle, and correcting at least one of the first reference image and the second reference image so as to cancel the mutual rotation angle difference;
The first reference image and the second reference image are rotated by the same predetermined angle as each other, and each feature point of the first subject is shifted in the vertical direction between the first reference image and the second reference image. A fourth step of calculating the first vertical shift;
At least one of the third reference image and the fourth reference image is corrected so as to cancel out the mutual rotation angle difference and the first vertical shift, and is rotated by the same predetermined angle as each other, and in the second step A fifth step of calculating a second vertical shift, which is a vertical shift between the third reference image and the fourth reference image, of the detected feature point of the second subject;
A sixth step of performing the fourth step and the fifth step for a plurality of the predetermined angles to obtain the predetermined angle and the first vertical shift, wherein the second vertical shift is minimized,
The reference point is calculated from the size of the original image that is at least one of the first image and the second image and the cutout size in the trimming, and the second vertical shift obtained in the sixth step is minimized, The coordinates of the reference point are moved with the reverse correction value related to the vertical movement so as to cancel the predetermined angle and the first vertical shift, and then rotated with the reverse correction value related to the rotation, and the cutout coordinates of the original image And trimming at least one of the first image and the second image based on the coordinates ,
The reverse correction value related to the vertical movement is a value obtained by changing the sign of the correction amount used for the correction for canceling the first vertical shift,
The reverse correction value related to the rotation is a value obtained by changing the sign of the correction amount used for correction for canceling the mutual rotation angle difference and rotating the same predetermined angle.
An image correction method characterized by the above.
複数のカメラを備えたカメラ群を構成する第1カメラから取得した第1画像、および該カメラ群を構成する、第1カメラと別の第2カメラから取得した第2画像から立体画像を得るために、第1画像および第2画像の少なくとも一方をトリミングする画像補正方法であって、
上記カメラ群までの距離が互いに異なる第1被写体および第2被写体を、上記第1カメラおよび第2カメラにより撮影し、第1カメラが第1被写体および該第1被写体の周辺を含む被写体領域を撮影して得られる第1参照画像と、第2カメラが該被写体領域を撮影して得られる第2参照画像と、第1カメラが第2被写体を撮影して得られる第3参照画像と、第2カメラが第2被写体を撮影して得られる第4参照画像とを取得する第1工程と、
上記第1参照画像および第2参照画像から、上記第1被写体の特徴点を少なくとも1つと、上記被写体領域に写る線とを検出すると共に、上記第3参照画像および第4参照画像から、上記第2被写体の特徴点を少なくとも1つ検出する第2工程と、
上記第2工程で検出した第1被写体の特徴点および被写体領域に写る線から、上記第1カメラの光軸を中心とする第1カメラの回転角度に対する、上記第2カメラの光軸を中心とする第2カメラの回転角度の差分である相互回転角度差分を算出し、該相互回転角度差分を相殺するように、上記第1参照画像および第2参照画像の少なくとも一方を補正する第3工程と、
上記第1参照画像および第2参照画像を、互いに同じ所定角度だけ回転させ、上記第1被写体の特徴点および被写体領域に写る線の、第1参照画像と第2参照画像との間での上下方向におけるズレである第1上下ズレを算出する第4工程と、
上記第3参照画像および第4参照画像の少なくとも一方を、上記相互回転角度差分および第1上下ズレを相殺するように、かつ互いに同じ上記所定角度だけ回転させるように補正し、上記第2工程で検出した第2被写体の特徴点の、第3参照画像と第4参照画像との間での上下方向におけるズレである第2上下ズレを算出する第5工程と、
複数の上記所定角度について、上記第4工程および第5工程を行い、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを求める第6工程とを含み、
上記第1画像および第2画像の少なくとも一方である元画像のサイズおよび上記トリミングにおける切り出しサイズから基準点を算出し、上記第6工程にて求めた、上記第2上下ズレが最小となる、上記所定角度および第1上下ズレを相殺するように、上記基準点の座標を、上下移動に係る逆補正値で移動させたあとに、回転に係る逆補正値で回転し、上記元画像の切り出し座標を算出し、該座標に基づいて上記第1画像および第2画像の少なくとも一方をトリミングし、
上記上下移動に係る逆補正値は、上記第1上下ズレを相殺する補正に利用する補正量の正負を変えた値であり、
上記回転に係る逆補正値は、上記相互回転角度差分を相殺し、かつ互いに同じ上記所定角度だけ回転させる補正に利用する補正量の正負を変えた値である、
ことを特徴とする画像補正方法。
To obtain a stereoscopic image from a first image acquired from a first camera constituting a camera group including a plurality of cameras and a second image obtained from a second camera different from the first camera constituting the camera group. An image correction method for trimming at least one of the first image and the second image,
The first and second subjects having different distances to the camera group are photographed by the first camera and the second camera, and the first camera photographs the subject region including the first subject and the periphery of the first subject. A first reference image obtained by photographing the subject area with the second camera, a third reference image obtained by photographing the second subject with the first camera, and a second reference image obtained by photographing the second subject with the second camera. A first step in which a camera acquires a fourth reference image obtained by photographing a second subject;
At least one feature point of the first subject and a line appearing in the subject area are detected from the first reference image and the second reference image, and from the third reference image and the fourth reference image, the first reference image and the second reference image are detected. A second step of detecting at least one feature point of two subjects;
The optical axis of the second camera is centered on the optical axis of the first camera with respect to the rotation angle of the first camera about the optical axis of the first camera from the feature point of the first subject detected in the second step and the line appearing in the subject area. A third step of calculating a mutual rotation angle difference, which is a difference in rotation angle of the second camera, and correcting at least one of the first reference image and the second reference image so as to cancel the mutual rotation angle difference; ,
The first reference image and the second reference image are rotated by the same predetermined angle as each other, and the feature point of the first subject and the line appearing in the subject region are vertically moved between the first reference image and the second reference image. A fourth step of calculating a first vertical shift that is a shift in the direction;
At least one of the third reference image and the fourth reference image is corrected so as to cancel out the mutual rotation angle difference and the first vertical shift, and is rotated by the same predetermined angle as each other, and in the second step A fifth step of calculating a second vertical shift, which is a vertical shift between the third reference image and the fourth reference image, of the detected feature point of the second subject;
A sixth step of performing the fourth step and the fifth step for a plurality of the predetermined angles to obtain the predetermined angle and the first vertical shift, wherein the second vertical shift is minimized,
The reference point is calculated from the size of the original image that is at least one of the first image and the second image and the cutout size in the trimming, and the second vertical shift obtained in the sixth step is minimized, The coordinates of the reference point are moved with the reverse correction value related to the vertical movement so as to cancel the predetermined angle and the first vertical shift, and then rotated with the reverse correction value related to the rotation, and the cutout coordinates of the original image And trimming at least one of the first image and the second image based on the coordinates ,
The reverse correction value related to the vertical movement is a value obtained by changing the sign of the correction amount used for the correction for canceling the first vertical shift,
The reverse correction value related to the rotation is a value obtained by changing the sign of the correction amount used for correction for canceling the mutual rotation angle difference and rotating the same predetermined angle.
An image correction method characterized by the above.
上記第1被写体の、第1参照画像と第2参照画像との間での左右方向におけるズレ、および上記第2被写体の、第3参照画像と第4参照画像との間での左右方向におけるズレの少なくとも一方を算出する第7工程をさらに含み、
上記第7工程にて求めたズレを相殺するように、上記基準点の座標を、左右移動に係る逆補正値で移動させたあとに、上記回転に係る逆補正値で回転し、上記元画像の切り出し座標を算出し、該座標に基づいて上記第1画像および第2画像の少なくとも一方をトリミングし、
上記左右移動に係る逆補正値は、上記第7工程にて求めたズレを相殺する補正に利用する補正量の正負を変えた値である、
ことを特徴とする請求項1または2に記載の画像補正方法。
Deviation in the left-right direction between the first reference image and the second reference image of the first subject, and deviation in the left-right direction between the third reference image and the fourth reference image of the second subject. A seventh step of calculating at least one of
In order to cancel the deviation obtained in the seventh step, the coordinates of the reference point are moved with the reverse correction value related to the left-right movement, and then rotated with the reverse correction value related to the rotation, and the original image , And trimming at least one of the first image and the second image based on the coordinates ,
The reverse correction value related to the left-right movement is a value obtained by changing the sign of the correction amount used for correction to cancel the deviation obtained in the seventh step.
The image correction method according to claim 1, wherein the image correction method is an image correction method.
上記第1工程において、1つの画像に上記第1被写体および上記第2被写体の両方が写るように、上記第1カメラによる撮影および上記第2カメラによる撮影の少なくとも一方を行うことを特徴とする請求項1〜3のいずれか1項に記載の画像補正方法。   In the first step, at least one of photographing with the first camera and photographing with the second camera is performed so that both the first subject and the second subject are captured in one image. Item 4. The image correction method according to any one of Items 1 to 3. 請求項1〜4のいずれか1項に記載の画像補正方法により、上記第1画像および第2画像の少なくとも一方をトリミングするトリミング部と、
上記カメラ群とを備えていることを特徴とする立体画像撮影装置。
A trimming unit that trims at least one of the first image and the second image by the image correction method according to claim 1,
A stereoscopic image capturing apparatus comprising the camera group.
JP2011112794A 2011-05-19 2011-05-19 Image correction method and stereoscopic image photographing apparatus Active JP5718149B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011112794A JP5718149B2 (en) 2011-05-19 2011-05-19 Image correction method and stereoscopic image photographing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011112794A JP5718149B2 (en) 2011-05-19 2011-05-19 Image correction method and stereoscopic image photographing apparatus

Publications (2)

Publication Number Publication Date
JP2012244432A JP2012244432A (en) 2012-12-10
JP5718149B2 true JP5718149B2 (en) 2015-05-13

Family

ID=47465657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011112794A Active JP5718149B2 (en) 2011-05-19 2011-05-19 Image correction method and stereoscopic image photographing apparatus

Country Status (1)

Country Link
JP (1) JP5718149B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7291594B2 (en) * 2019-10-02 2023-06-15 株式会社Subaru Image processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4172554B2 (en) * 1998-03-12 2008-10-29 富士重工業株式会社 Stereo camera adjustment device
JP2005323021A (en) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd In-vehicle imaging system and imaging method
JP2011048295A (en) * 2009-08-28 2011-03-10 Fujifilm Corp Compound eye photographing device and method for detecting posture of the same

Also Published As

Publication number Publication date
JP2012244432A (en) 2012-12-10

Similar Documents

Publication Publication Date Title
US20210099691A1 (en) Augmented reality displays with active alignment and corresponding methods
JP5049975B2 (en) 3D model data generation method and 3D model data generation apparatus
US20200120329A1 (en) Augmented reality displays with active alignment and corresponding methods
JP5491235B2 (en) Camera calibration device
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
US9338425B2 (en) Device and method for generating stereoscopic image
JP5792662B2 (en) Parallax calculation device, distance calculation device, and parallax calculation method
US20170078570A1 (en) Image processing device, image processing method, and image processing program
WO2013005265A1 (en) Three-dimensional coordinate measuring device and three-dimensional coordinate measuring method
CN113691788A (en) Projection method of projector system
JP5828024B2 (en) 3D measuring device
KR100747733B1 (en) Parallel Axis 3D Camera and Formation Method of 3D Image
CN110580718A (en) image device correction method, and related image device and arithmetic device
US20120218388A1 (en) Computer-readable storage medium having information processing program stored therein, imaging apparatus, imaging method, and imaging system
US20130120538A1 (en) Stereo camera module
US6999072B2 (en) Data processing method, data processing program and recording medium
JP2012071394A (en) Simulation system and simulation program therefor
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP2019029721A (en) Image processing apparatus, image processing method, and program
JP6581723B2 (en) Image processing apparatus, image processing method, and image processing program
JP5718149B2 (en) Image correction method and stereoscopic image photographing apparatus
JP2007033087A (en) Calibration device and method
JP2007322403A (en) Image processing apparatus and its processing method
JP6234335B2 (en) IMAGING DEVICE AND MOBILE BODY WITH IMAGING DEVICE
Amjadi et al. Comparison of radial and tangential geometries for cylindrical panorama

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150318

R150 Certificate of patent or registration of utility model

Ref document number: 5718149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150