JP2014082768A - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP2014082768A
JP2014082768A JP2013244927A JP2013244927A JP2014082768A JP 2014082768 A JP2014082768 A JP 2014082768A JP 2013244927 A JP2013244927 A JP 2013244927A JP 2013244927 A JP2013244927 A JP 2013244927A JP 2014082768 A JP2014082768 A JP 2014082768A
Authority
JP
Japan
Prior art keywords
image
imaging
range
data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013244927A
Other languages
Japanese (ja)
Inventor
Minoru Ishida
実 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013244927A priority Critical patent/JP2014082768A/en
Publication of JP2014082768A publication Critical patent/JP2014082768A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of easily photographing user's preferred images.SOLUTION: The imaging apparatus includes: an imaging unit group having plural imaging units disposed being aligned in a shorter edge of a housing on one plane of the housing; and a control section that controls an image range. The image range is any of an image range in which a part of the imaging units is used and an image range as a display target, a recording target or a transmission target. The control section selects and sets one of plural ranges (plural ranges in which the ratio of a longer edge with respect to a shorter edge of a generally rectangular shape is different from each other) as the image range.

Description

本発明は、撮像装置に関し、特に、複数の撮像系を備える撮像装置およびその制御方法に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus including a plurality of imaging systems and a control method thereof.

近年、人物等の被写体を撮像する撮像系を備え、この撮像系により生成された画像(撮像画像)を画像ファイルとして記録するデジタルスチルカメラ、デジタルビデオカメラ(例えば、カメラ一体型レコーダ)等の撮像装置が普及している。   2. Description of the Related Art In recent years, an imaging system for imaging a subject such as a person is provided, and imaging such as a digital still camera and a digital video camera (for example, a camera-integrated recorder) that records an image (captured image) generated by the imaging system as an image file. Equipment is widespread.

また、複数の撮像系を備え、これらの撮像系により生成された画像を合成することによりパノラマ画像を生成することが可能な撮像装置が提案されている。例えば、3つの撮像系を備え、各撮像系から出力された画像を並べて合成することによりパノラマ画像を生成する撮像装置が提案されている(例えば、特許文献1参照。)。   There has also been proposed an imaging apparatus that includes a plurality of imaging systems and that can generate a panoramic image by synthesizing images generated by these imaging systems. For example, an imaging apparatus that includes three imaging systems and generates a panoramic image by arranging and synthesizing images output from the imaging systems has been proposed (see, for example, Patent Document 1).

特開2007−166317号公報JP 2007-166317 A

上述の従来技術によれば、パノラマ画像の撮影を容易に行うことができる。このため、例えば、旅行先の観光地において、有名な建物を背景にして複数の人物が点在している状態を構図として撮影する場合でも、これらの各人物を含むパノラマ画像の撮影を容易に行うことができる。また、例えば、上述したパノラマ画像に含まれる被写体のうち、中央付近に位置する人物と、この人物の背景に存在する高い建物とを含む構図で撮影することを所望するユーザも想定される。この場合には、例えば、垂直方向に長い画像となるように、光軸を回転中心として撮像装置を90度回転させて撮影を行うことにより、その所望の構図で撮影を行うことができる。   According to the above-described conventional technology, it is possible to easily take a panoramic image. For this reason, for example, even when shooting a state where a plurality of people are scattered with a famous building in the background of a tourist destination, it is easy to shoot panoramic images including these persons. It can be carried out. In addition, for example, a user who desires to take a picture with a composition including a person located near the center and a high building existing in the background of the person included in the panoramic image described above is also assumed. In this case, for example, the image can be taken with the desired composition by rotating the image pickup apparatus 90 degrees about the optical axis as a rotation center so as to form an image that is long in the vertical direction.

ここで、上述したパノラマ画像および垂直方向に長い画像を撮影する場合を想定する。この場合には、例えば、パノラマ画像を撮影した後に、撮像装置を90度回転させて、垂直方向に長い画像を撮影することができる。しかしながら、例えば、撮像装置の扱いに不慣れな者にとっては、パノラマ画像の撮影後に撮像装置を90度回転させて、所望の構図とすることが困難であることが想定される。例えば、上述したように、旅行先の観光地において撮影を行うような場合には、各人物が移動してしまうことがあるため、撮影タイミングが重要となる。しかしながら、撮像装置を回転させた後に所望の構図とするための時間が長いと、撮影タイミングを逃してしまうおそれがある。   Here, it is assumed that a panoramic image and an image that is long in the vertical direction are captured. In this case, for example, after taking a panoramic image, the image pickup device can be rotated 90 degrees to take a long image in the vertical direction. However, for example, it is assumed that it is difficult for a person unfamiliar with the handling of the imaging device to rotate the imaging device 90 degrees after taking a panoramic image to obtain a desired composition. For example, as described above, when shooting is performed at a tourist destination, the shooting timing is important because each person may move. However, if the time required to obtain the desired composition after rotating the imaging device is long, there is a risk of missing the imaging timing.

本発明はこのような状況に鑑みてなされたものであり、ユーザ好みの画像を容易に撮影することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to easily capture a user-preferred image.

本発明は、上記課題を解決するためになされたものであり、その第1の側面は、筐体の1つの面上において、複数の撮像部が上記筐体の短辺方向へ並べて配置されている撮像部群と、画像の範囲を制御する制御部とを具備し、上記画像の範囲は、上記撮像部群のうちの少なくとも一部の撮像部を用いて撮像する画像の範囲、表示対象となる画像の範囲、記録対象となる画像の範囲、または、伝送対象となる画像の範囲であり、上記撮像部群は、光軸が表示部の表示面と直交する第1撮像部と、光軸が、上記第1撮像部の光軸に対して所定角をなしかつ上記第1撮像部の光軸を対称軸として線対称に配置される、2つの第2撮像部とを備え、上記制御部は、上記画像の範囲として、略長方形の範囲であって、上記略長方形の短辺の長さに対する長辺の長さの比が異なる複数の範囲の中から1つを選択して設定し、上記複数の範囲を構成する第1の範囲は、上記第1撮像部から得られる画像の範囲内であり、かつ、上記筐体の短辺方向と直交する方向に長い略長方形の範囲であり、上記複数の範囲を構成する第2の範囲は、上記第1撮像部と上記2つの第2撮像部とから得られる画像の範囲内であり、上記筐体の短辺方向に長い略長方形の範囲である撮像装置、電子機器およびそれらの制御方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、画像の範囲として、略長方形の短辺の長さに対する長辺の長さの比が異なる複数の範囲の中から1つを選択して設定するという作用をもたらす。   The present invention has been made to solve the above-described problems, and the first side surface of the present invention is that a plurality of imaging units are arranged side by side in the short side direction of the casing on one surface of the casing. An image capturing unit group, and a control unit that controls the image range. The image range includes an image range captured using at least a part of the image capturing unit group, a display target, and A range of images to be recorded, a range of images to be recorded, or a range of images to be transmitted. The imaging unit group includes a first imaging unit whose optical axis is orthogonal to the display surface of the display unit, and an optical axis. Comprises two second imaging units that are arranged in line symmetry with respect to the optical axis of the first imaging unit and that are symmetrical about the optical axis of the first imaging unit. Is the range of the rectangle as the range of the image, and the length of the short side of the rectangle is One of a plurality of ranges having different side length ratios is selected and set, and the first range constituting the plurality of ranges is within the range of the image obtained from the first imaging unit. And a substantially rectangular range that is long in a direction orthogonal to the short side direction of the housing, and the second range that constitutes the plurality of ranges is the first imaging unit and the two second imaging units. The imaging device, the electronic apparatus, the control method thereof, and the program for causing the computer to execute the method are within the range of the image obtained from the above and within the range of a substantially rectangular shape extending in the short side direction of the casing. Thereby, as an image range, one of a plurality of ranges having different ratios of the length of the long side to the length of the short side of the substantially rectangular shape is selected and set.

また、この第1の側面において、上記第1の範囲の短辺の長さに対する上記第1の範囲の長辺の長さの比よりも上記第2の範囲の短辺の長さに対する上記第2の範囲の長辺の長さの比を大きくするようにしてもよい。これにより、第1の範囲および第2の範囲について、第1の範囲の短辺の長さに対する第1の範囲の長辺の長さの比よりも第2の範囲の短辺の長さに対する第2の範囲の長辺の長さの比を大きくするという作用をもたらす。   In the first aspect, the ratio of the length of the short side of the first range to the length of the short side of the second range is greater than the ratio of the length of the long side of the first range to the length of the short side of the first range. You may make it enlarge the ratio of the length of the long side of 2 range. Thereby, about the 1st range and the 2nd range, it is to the length of the short side of the 2nd range rather than the ratio of the length of the long side of the 1st range to the length of the short side of the 1st range. This brings about the effect of increasing the ratio of the lengths of the long sides of the second range.

また、この第1の側面において、上記第1の範囲を、上記第1の範囲の一辺であって上記筐体の短辺方向の辺の長さと、上記第1の範囲の一辺であって上記筐体の短辺方向と直交する方向の辺の長さとの比が、3:4もしくは9:16となる略長方形とし、上記第2の範囲を、上記第2の範囲の一辺であって上記筐体の短辺方向の辺の長さと、上記第2の範囲の一辺であって上記筐体の短辺方向と直交する辺の長さとの比が、16:9よりも大きい略長方形とするようにしてもよい。これにより、第1の範囲を、各辺の長さの比が、3:4もしくは9:16となる略長方形とし、第2の範囲を、各辺の長さの比が、16:9よりも大きい略長方形とするという作用をもたらす。   In the first aspect, the first range may be one side of the first range and the length of the side in the short side direction of the housing, and one side of the first range. The ratio of the length of the side in the direction orthogonal to the short side direction of the housing is a substantially rectangular shape of 3: 4 or 9:16, and the second range is one side of the second range and The ratio of the length of the side in the short side direction of the housing to the length of a side that is one side of the second range and is orthogonal to the short side direction of the housing is a substantially rectangular shape larger than 16: 9. You may do it. Thereby, the first range is a substantially rectangular shape with the ratio of the lengths of the sides being 3: 4 or 9:16, and the second range is the ratio of the lengths of the sides with the ratio of 16: 9. Also has the effect of forming a large, generally rectangular shape.

また、この第1の側面において、上記第2の範囲における上記筐体の短辺方向と直交する方向の範囲よりも、上記第1の範囲における上記筐体の短辺方向と直交する方向の範囲を広くするようにしてもよい。これにより、第2の範囲における筐体の短辺方向と直交する方向の範囲よりも、第1の範囲における筐体の短辺方向と直交する方向の範囲を広くするという作用をもたらす。   In the first aspect, the range in the direction perpendicular to the short side direction of the casing in the first range is greater than the range in the direction perpendicular to the short side direction of the casing in the second range. You may make it wide. This brings about the effect that the range in the direction orthogonal to the short side direction of the casing in the first range is wider than the range in the direction orthogonal to the short side direction of the casing in the second range.

また、この第1の側面において、上記複数の撮像部は、それぞれが撮像素子を含み、上記撮像素子は、撮像に用いる部位が略長方形であり、上記第1撮像部が含む撮像素子は、上記部位が上記筐体の短辺方向と直交する方向に長い略長方形となるように配置され、上記2つの第2撮像部が含む2つの撮像素子は、上記部位が上記筐体の短辺方向に長い略長方形となるように配置されるようにしてもよい。これにより、第1撮像部が含む撮像素子は、撮像に用いる部位が筐体の短辺方向と直交する方向に長い略長方形となるように配置され、2つの第2撮像部が含む2つの撮像素子は、撮像に用いる部位が筐体の短辺方向に長い略長方形となるように配置されるという作用をもたらす。   In the first aspect, each of the plurality of imaging units includes an imaging element, and the imaging element has a substantially rectangular portion used for imaging, and the imaging element included in the first imaging unit includes the above-described imaging element. The two imaging elements included in the two second imaging units are arranged so that the part is substantially rectangular in a direction orthogonal to the short side direction of the casing, and the part is in the short side direction of the casing. You may make it arrange | position so that it may become a long substantially rectangular shape. Thereby, the imaging device included in the first imaging unit is arranged such that a part used for imaging is a substantially rectangular shape that is long in a direction orthogonal to the short side direction of the housing, and two imaging units included in the two second imaging units are included. The element has an effect that the part used for imaging is arranged so as to be a substantially rectangular shape that is long in the short side direction of the housing.

また、本発明の第2の側面は、被写体の特定方向を長手方向とする第1の撮像画像と、上記特定方向に直交する直交方向を長手方向とする撮像画像であって上記第1の撮像画像に含まれる被写体の上記直交方向の一方に隣接する被写体を含む第2の撮像画像と、上記直交方向を長手方向とする撮像画像であって上記第1の撮像画像に含まれる被写体の上記直交方向の他方に隣接する被写体を含む第3の撮像画像とのそれぞれを互いに異なる撮像素子により生成する撮像部と、撮像装置の状態を検出する検出部と、上記撮像部により生成される上記第1乃至3の撮像画像のうち表示または記録の対象となる対象画像の範囲を上記検出された状態に基づいて決定する制御部とを具備する撮像装置およびその制御方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、撮像部により生成される第1乃至3の撮像画像のうち、表示または記録の対象となる対象画像の範囲を、検出された撮像装置の状態に基づいて決定するという作用をもたらす。   According to a second aspect of the present invention, there is provided a first captured image having a specific direction of a subject as a longitudinal direction and a captured image having a longitudinal direction orthogonal to the specific direction as a longitudinal direction. A second captured image including a subject adjacent to one of the orthogonal directions of the subject included in the image, and a captured image having the orthogonal direction as a longitudinal direction and the orthogonality of the subject included in the first captured image An imaging unit that generates a third captured image including a subject adjacent to the other of the directions by using different imaging elements, a detection unit that detects a state of the imaging device, and the first that is generated by the imaging unit An imaging device including a control unit that determines a range of a target image to be displayed or recorded among the three captured images based on the detected state, a control method thereof, and a computer that uses the method. Is a program to be executed by the. This brings about the effect that the range of the target image to be displayed or recorded among the first to third captured images generated by the imaging unit is determined based on the detected state of the imaging device.

また、この第2の側面において、上記撮像部を備える第1の筐体と、上記対象画像を表示する表示部を備える第2の筐体と、上記第1の筐体と上記第2の筐体とを回動可能に連結する回動部材とをさらに具備し、上記検出部は、上記撮像装置の状態として上記第1の筐体に対する上記第2の筐体の回動状態を検出するようにしてもよい。これにより、撮像装置の状態として、第1の筐体に対する第2の筐体の回動状態を検出するという作用をもたらす。   In the second aspect, the first casing including the imaging unit, the second casing including the display unit that displays the target image, the first casing, and the second casing. A rotation member that rotatably connects the body, and the detection unit detects a rotation state of the second housing relative to the first housing as a state of the imaging device. It may be. This brings about the effect | action of detecting the rotation state of the 2nd housing | casing with respect to a 1st housing | casing as a state of an imaging device.

また、この第2の側面において、上記検出部は、上記撮像装置の状態として上記表示部の長手方向と上記第1の撮像画像を生成する第1の撮像素子の長手方向とが略平行となる第1の特定状態を検出し、上記制御部は、上記第1の特定状態が検出された場合には上記第1の撮像画像のみを上記対象画像として用いることを決定するようにしてもよい。これにより、第1の特定状態が検出された場合には、第1の撮像画像のみを対象画像として用いることを決定するという作用をもたらす。   In the second aspect, in the detection unit, the longitudinal direction of the display unit and the longitudinal direction of the first imaging element that generates the first captured image are substantially parallel as the state of the imaging device. The first specific state may be detected, and the control unit may determine that only the first captured image is used as the target image when the first specific state is detected. Thereby, when the 1st specific state is detected, it brings about the effect | action of determining using only a 1st captured image as a target image.

また、この第2の側面において、上記制御部は、上記第1の特定状態が検出された場合には上記第1の撮像画像の全てを上記対象画像として用いることを決定するようにしてもよい。これにより、第1の特定状態が検出された場合には、第1の撮像画像の全てを対象画像として用いるという作用をもたらす。   In the second aspect, the control unit may determine to use all of the first captured image as the target image when the first specific state is detected. . Thereby, when the first specific state is detected, there is an effect that all the first captured images are used as the target images.

また、この第2の側面において、上記検出部は、上記撮像装置の状態として上記表示部の長手方向と直交する直交方向と上記第1の撮像画像を生成する第1の撮像素子の長手方向とが略平行となる第2の特定状態を検出し、上記制御部は、上記第2の特定状態が検出された場合には上記第1乃至3の撮像画像を上記対象画像として用いることを決定するようにしてもよい。これにより、第2の特定状態が検出された場合には、第1乃至3の撮像画像を対象画像として用いることを決定するという作用をもたらす。   Further, in the second aspect, the detection unit includes an orthogonal direction orthogonal to a longitudinal direction of the display unit as a state of the imaging device, and a longitudinal direction of the first imaging element that generates the first captured image. Is detected, and the control unit determines to use the first to third captured images as the target image when the second specific state is detected. You may do it. As a result, when the second specific state is detected, the first to third captured images are determined to be used as the target image.

また、この第2の側面において、上記制御部は、上記第2の特定状態が検出された場合には上記第1の撮像画像の一部と上記第2および3の撮像画像とを合成して生成される合成画像を上記対象画像として用いることを決定するようにしてもよい。これにより、第2の特定状態が検出された場合には、第1の撮像画像の一部と、第2および3の撮像画像とを合成して生成される合成画像を対象画像として用いることを決定するという作用をもたらす。   In the second aspect, the control unit combines a part of the first captured image with the second and third captured images when the second specific state is detected. It may be determined that the generated composite image is used as the target image. Thereby, when the second specific state is detected, a combined image generated by combining a part of the first captured image with the second and third captured images is used as the target image. It brings about the effect of deciding.

また、この第2の側面において、上記回動部材は、上記第1の筐体の一の面と上記第2の筐体の一の面とが対向するように連結し、上記第1の筐体の一の面の反対側の面には、上記撮像部を構成する各撮像素子のそれぞれに対応するレンズ群が並べて配置され、上記第2の筐体の一の面の反対側の面には、上記表示部が備えられるようにしてもよい。これにより、撮像部により生成された撮像画像を、その反対側の面に備えられる表示部に表示させるという作用をもたらす。   In the second side surface, the rotating member is coupled so that one surface of the first housing and one surface of the second housing face each other, and the first housing A lens group corresponding to each of the imaging elements constituting the imaging unit is arranged side by side on the surface opposite to the one surface of the body, and on the surface opposite to the one surface of the second casing. May be provided with the display unit. Thereby, the effect | action of displaying the picked-up image produced | generated by the imaging part on the display part with which the surface of the other side is provided is brought about.

また、この第2の側面において、上記回動部材は、上記表示部における表示面と上記第1の撮像画像を生成する第1の撮像素子に対応する上記レンズ群に係る光軸方向とが略垂直となるように上記第1の筐体および上記第2の筐体を連結するようにしてもよい。これにより、表示部に対して略垂直となる光軸方向に存在する被写体を含む第1の撮像画像を生成するという作用をもたらす。   In the second aspect, the rotating member has a display surface of the display unit and an optical axis direction of the lens group corresponding to the first imaging element that generates the first captured image. You may make it connect the said 1st housing | casing and the said 2nd housing | casing so that it may become perpendicular | vertical. This brings about the effect | action of producing | generating the 1st captured image containing the to-be-photographed object which exists in the optical axis direction which becomes substantially perpendicular | vertical with respect to a display part.

また、この第2の側面において、上記第1の撮像画像の一部と上記第2および3の撮像画像とを合成して合成画像を生成する画像合成部をさらに具備し、上記制御部は、上記検出された状態が特定状態である場合には上記対象画像として上記合成画像を用いることを決定するようにしてもよい。これにより、検出された撮像装置の状態が特定状態である場合には、対象画像として合成画像を用いることを決定するという作用をもたらす。   In the second aspect, the image processing device further includes an image composition unit that generates a composite image by combining a part of the first captured image and the second and third captured images. When the detected state is a specific state, it may be determined to use the composite image as the target image. As a result, when the detected state of the imaging device is the specific state, there is an effect of determining to use the composite image as the target image.

また、この第2の側面において、上記画像合成部は、上記合成画像として略長方形の画像を生成するようにしてもよい。これにより、合成画像として略長方形の画像を生成するという作用をもたらす。   In the second aspect, the image composition unit may generate a substantially rectangular image as the composite image. This brings about the effect | action of producing | generating the substantially rectangular image as a synthesized image.

また、この第2の側面において、上記制御部は、上記検出された状態に基づいて上記撮像部を構成する複数の撮像素子を用いて行う複眼撮像動作と上記第1の撮像画像を生成する第1の撮像素子のみを用いて行う単眼撮像動作とを切り替えて上記対象画像の範囲を決定するようにしてもよい。これにより、記検出された撮像装置の状態に基づいて、複眼撮像動作と、単眼撮像動作とを切り替えて対象画像の範囲を決定するという作用をもたらす。   In the second aspect, the control unit generates a first picked-up image and a compound-eye image pick-up operation performed using a plurality of image pickup elements constituting the image pickup unit based on the detected state. The range of the target image may be determined by switching between a monocular imaging operation performed using only one imaging element. Thereby, based on the detected state of the imaging device, there is an effect that the range of the target image is determined by switching between the compound eye imaging operation and the monocular imaging operation.

また、この第2の側面において、上記制御部は、上記単眼撮像動作に切り替えた場合には上記第2および3の撮像画像を生成する撮像素子の動作を停止させるようにしてもよい。これにより、単眼撮像動作に切り替えた場合には、第2および3の撮像画像を生成する撮像素子の動作を停止させるという作用をもたらす。   In the second aspect, the control unit may stop the operation of the image sensor that generates the second and third captured images when the operation is switched to the monocular imaging operation. As a result, when switching to the monocular imaging operation, the operation of the imaging device that generates the second and third captured images is stopped.

また、この第2の側面において、上記制御部は、上記複眼撮像動作に切り替えた場合には上記複眼撮像動作に所定の周波数のクロックを使用し、上記単眼撮像動作に切り替えた場合には上記単眼撮像動作に上記所定の周波数よりも低い周波数のクロックを使用することを決定するようにしてもよい。これにより、複眼撮像動作に切り替えた場合には、複眼撮像動作に所定の周波数のクロックを使用し、単眼撮像動作に切り替えた場合には、単眼撮像動作にその周波数よりも低い周波数のクロックを使用することを決定するという作用をもたらす。   In the second aspect, the control unit uses a clock having a predetermined frequency for the compound-eye imaging operation when switching to the compound-eye imaging operation, and the monocular when switching to the monocular imaging operation. It may be determined to use a clock having a frequency lower than the predetermined frequency for the imaging operation. As a result, when switching to a compound eye imaging operation, a clock with a predetermined frequency is used for the compound eye imaging operation, and when switching to a monocular imaging operation, a clock with a frequency lower than that frequency is used for the monocular imaging operation. It has the effect of deciding what to do.

また、この第2の側面において、上記制御部は、上記第1の筐体に対する上記第2の筐体の回動状態が特定状態である場合には上記対象画像を回転処理させて上記表示部に表示させるようにしてもよい。これにより、第1の筐体に対する第2の筐体の回動状態が特定状態である場合には、対象画像を回転処理させて表示部に表示させるという作用をもたらす。   In the second aspect, the control unit rotates the target image when the rotation state of the second housing with respect to the first housing is a specific state, and the display unit You may make it display on. Thereby, when the rotation state of the second housing with respect to the first housing is a specific state, the target image is rotated and displayed on the display unit.

また、本発明の第3の側面は、被写体の特定方向を長手方向とする第1の撮像画像と、上記特定方向に直交する直交方向を長手方向とする撮像画像であって上記第1の撮像画像に含まれる被写体の上記直交方向の一方に隣接する被写体を含む第2の撮像画像と、上記直交方向を長手方向とする撮像画像であって上記第1の撮像画像に含まれる被写体の上記直交方向の他方に隣接する被写体を含む第3の撮像画像とのそれぞれを互いに異なる撮像素子により生成する撮像部と、撮像範囲の変更を指示する指示操作を受け付ける操作受付部と、上記撮像部により生成される第1乃至3の撮像画像のうち表示または記録の対象となる対象画像の範囲を上記受け付けられた指示操作に基づいて決定する制御部とを具備する撮像装置およびその制御方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、撮像部により生成される第1乃至3の撮像画像のうち、表示または記録の対象となる対象画像の範囲を、受け付けられた指示操作に基づいて決定するという作用をもたらす。   The third aspect of the present invention is a first captured image having a specific direction of a subject as a longitudinal direction and a captured image having a longitudinal direction orthogonal to the specific direction as a longitudinal direction. A second captured image including a subject adjacent to one of the orthogonal directions of the subject included in the image, and a captured image having the orthogonal direction as a longitudinal direction and the orthogonality of the subject included in the first captured image Generated by an imaging unit that generates a third captured image including a subject adjacent to the other of the directions by different imaging elements, an operation reception unit that receives an instruction operation for instructing a change in the imaging range, and the imaging unit An imaging apparatus comprising: a control unit that determines a range of a target image to be displayed or recorded among the first to third captured images to be displayed based on the received instruction operation; and a control method thereof Is a program for causing a computer to execute the method in rabbi. This brings about the effect that the range of the target image to be displayed or recorded among the first to third captured images generated by the imaging unit is determined based on the received instruction operation.

本発明によれば、ユーザ好みの画像を容易に撮影することができるという優れた効果を奏し得る。   According to the present invention, it is possible to achieve an excellent effect that it is possible to easily capture a user-preferred image.

本発明の第1の実施の形態における携帯電話装置100の外観構成例を示す図である。It is a figure which shows the example of an external appearance structure of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100の内部構成例を示す図である。It is a figure which shows the internal structural example of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像部130の内部構成例を示す図である。It is a figure which shows the internal structural example of the imaging part 130 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像部130を構成する撮像素子134乃至136の配置構成例を示す図である。It is a figure which shows the example of arrangement configuration of the image pick-up elements 134 thru | or 136 which comprise the image pick-up part 130 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134乃至136に結像される像と、画像データの読出方法との関係を示す図である。It is a figure which shows the relationship between the image imaged on the image pick-up element 134 thru | or 136 in the 1st Embodiment of this invention, and the reading method of image data. 本発明の第1の実施の形態における撮像素子134乃至136に結像される像と、画像データの読出方法との関係を示す図である。It is a figure which shows the relationship between the image imaged on the image pick-up element 134 thru | or 136 in the 1st Embodiment of this invention, and the reading method of image data. 本発明の第1の実施の形態におけるDSP200の内部構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of DSP200 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像信号処理部220の内部構成例を示すブロック図である。It is a block diagram which shows the internal structural example of the image signal processing part 220 in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるクロック生成回路270の内部構成例を示すブロック図である。3 is a block diagram illustrating an example of an internal configuration of a clock generation circuit 270 according to the first embodiment of the present invention. FIG. 本発明の第1の実施の形態におけるクロック生成回路270の変形例を示すブロック図である。It is a block diagram which shows the modification of the clock generation circuit 270 in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるクロック生成回路270の変形例を示すブロック図である。It is a block diagram which shows the modification of the clock generation circuit 270 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子の内部構成例を示す図である。It is a figure which shows the internal structural example of the image pick-up element in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134が備えるレジスタ370および380の保持内容を模式的に示す図である。It is a figure which shows typically the holding | maintenance content of the registers 370 and 380 with which the image sensor 134 in the 1st Embodiment of this invention is provided. 本発明の第1の実施の形態における撮像素子134における各画素への制御信号と、これらの各画素から出力されるデータとの様子を模式的に表すタイミングチャートである。4 is a timing chart schematically showing a state of control signals to each pixel in the image sensor 134 and data output from these pixels in the first embodiment of the present invention. 本発明の第1の実施の形態における撮像素子134における各画素への制御信号と、これらの各画素から出力されるデータとの様子を模式的に表すタイミングチャートである。4 is a timing chart schematically showing a state of control signals to each pixel in the image sensor 134 and data output from these pixels in the first embodiment of the present invention. 本発明の第1の実施の形態における撮像素子134における各画素への制御信号と、これらの各画素から出力されるデータとの様子を模式的に表すタイミングチャートである。4 is a timing chart schematically showing a state of control signals to each pixel in the image sensor 134 and data output from these pixels in the first embodiment of the present invention. 本発明の第1の実施の形態における撮像素子134の間引きを行うための走査回路の一例を模式的に示す図である。It is a figure which shows typically an example of the scanning circuit for performing the thinning-out of the image pick-up element 134 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像部130および被写体との関係を示す図である。It is a figure which shows the relationship between the imaging part 130 and a to-be-photographed object in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像部130における撮像系と、これらの撮像対象となる被写体との関係を模式的に示す図である。It is a figure which shows typically the relationship between the imaging system in the imaging part 130 in the 1st Embodiment of this invention, and the to-be-photographed object. 本発明の第1の実施の形態における撮像部130における撮像系と、これらの撮像対象となる被写体との関係を模式的に示す図である。It is a figure which shows typically the relationship between the imaging system in the imaging part 130 in the 1st Embodiment of this invention, and the to-be-photographed object. 本発明の第1の実施の形態における撮像部130における撮像系と、これらにより生成される撮像画像との関係を模式的に示す図である。It is a figure which shows typically the relationship between the imaging system in the imaging part 130 in the 1st Embodiment of this invention, and the captured image produced | generated by these. 本発明の第1の実施の形態における撮像部130における撮像系と、これらの撮像対象となる被写体との関係を模式的に示す図である。It is a figure which shows typically the relationship between the imaging system in the imaging part 130 in the 1st Embodiment of this invention, and the to-be-photographed object. 本発明の第1の実施の形態における撮像部130における撮像系と、これらにより生成された撮像画像および補正後の補正画像との関係を模式的に示す図である。It is a figure which shows typically the relationship between the imaging system in the imaging part 130 in the 1st Embodiment of this invention, the captured image produced | generated by these, and the correction image after correction | amendment. 本発明の第1の実施の形態における画像合成処理部224が合成画像を生成する場合における合成の流れを模式的に示す図である。It is a figure which shows typically the flow of a synthesis | combination in case the image composition process part 224 in the 1st Embodiment of this invention produces | generates a synthesized image. 本発明の第1の実施の形態における画像合成処理部224が合成画像を生成する場合における合成の流れを模式的に示す図である。It is a figure which shows typically the flow of a synthesis | combination in case the image composition process part 224 in the 1st Embodiment of this invention produces | generates a synthesized image. 本発明の第1の実施の形態における画像合成処理部224が合成画像を生成する場合における合成の流れを模式的に示す図である。It is a figure which shows typically the flow of a synthesis | combination in case the image composition process part 224 in the 1st Embodiment of this invention produces | generates a synthesized image. 本発明の第1の実施の形態における携帯電話装置100による撮像処理の撮像対象となる被写体500を示す図である。It is a figure which shows the to-be-photographed object 500 used as the imaging target of the imaging process by the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第1の読出方法)を模式的に示す図である。It is a figure which shows typically an example (1st reading method) of the reading method of the image data in the image pick-up elements 134 thru | or 136 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第2の読出方法)を模式的に示す図である。It is a figure which shows typically an example (2nd reading method) of the reading method of the image data in the image pick-up elements 134 thru | or 136 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第3の読出方法)を模式的に示す図である。It is a figure which shows typically an example (3rd reading method) of the reading method of the image data in the image pick-up elements 134 thru | or 136 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第4の読出方法)を模式的に示す図である。It is a figure which shows typically an example (4th reading method) of the reading method of the image data in the image pick-up elements 134 thru | or 136 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第5の読出方法)を模式的に示す図である。It is a figure which shows typically an example (5th reading method) of the reading method of the image data in the image pick-up elements 134 thru | or 136 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140に表示される画像を回転させる回転処理を模式的に示す図である。It is a figure which shows typically the rotation process which rotates the image displayed on the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display part 140 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134により画素間引きおよび画素加算が行われた場合における画像データの流れを模式的に示す図である。It is a figure which shows typically the flow of the image data when pixel thinning | decimation and pixel addition are performed by the image pick-up element 134 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画素加算処理部221により画素数を変更する場合における画像データの流れを模式的に示す図である。It is a figure which shows typically the flow of the image data in the case of changing the number of pixels by the pixel addition process part 221 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像メモリ170から画像データを読み出す際に画素数を変更する場合における画像データの流れを模式的に示す図である。It is a figure which shows typically the flow of the image data in the case of changing the number of pixels, when reading image data from the image memory 170 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像素子134により読出領域を変化させる場合における画像データの流れを模式的に示す図である。It is a figure which shows typically the flow of the image data in the case of changing a read-out area | region with the image pick-up element 134 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像メモリ170から画像データを読み出す際に読出領域を変化させる場合における画像データの流れを模式的に示す図である。It is a figure which shows typically the flow of the image data in the case of changing a read-out area | region when reading image data from the image memory 170 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像系の動作を停止させるための制御方法と、各信号線との関係を示す図である。It is a figure which shows the relationship between the control method for stopping the operation | movement of the imaging system in the 1st Embodiment of this invention, and each signal line. 本発明の第1の実施の形態における撮像素子からの出力タイミングと、画像バッファへの書込みの様子を模式的に表すタイミングチャートである。3 is a timing chart schematically showing the output timing from the image sensor and the state of writing to the image buffer in the first embodiment of the present invention. 本発明の第1の実施の形態における撮像素子における各画素の読み出しおよび画像バッファへの書き込むためのクロック周波数と、画像バッファから画像データを読み出すためのクロック周波数との関係を示す図である。It is a figure which shows the relationship between the clock frequency for reading each pixel in the image pick-up element in the 1st Embodiment of this invention, and writing in an image buffer, and the clock frequency for reading image data from an image buffer. 本発明の第1の実施の形態における撮像素子における各画素の読み出しおよび画像バッファへの書き込むためのクロック周波数と、画像バッファから画像データを読み出すためのクロック周波数との関係を示す図である。It is a figure which shows the relationship between the clock frequency for reading each pixel in the image pick-up element in the 1st Embodiment of this invention, and writing in an image buffer, and the clock frequency for reading image data from an image buffer. 本発明の第1の実施の形態における撮像素子における各画素の読み出しおよび画像バッファへの書き込むためのクロック周波数と、画像バッファから画像データを読み出すためのクロック周波数との関係を示す図である。It is a figure which shows the relationship between the clock frequency for reading each pixel in the image pick-up element in the 1st Embodiment of this invention, and writing in an image buffer, and the clock frequency for reading image data from an image buffer. 本発明の第1の実施の形態における撮像素子134により生成された画像データの流れを模式的に示す図である。It is a figure which shows typically the flow of the image data produced | generated by the image pick-up element 134 in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるデータバス204を占有する処理と時間との関係を模式的に示す図である。It is a figure which shows typically the relationship between the process which occupies the data bus 204 in the 1st Embodiment of this invention, and time. 本発明の第1の実施の形態における携帯電話装置100の各撮像動作についてデータバス204の動作周波数を決定するためのパラメータを示す図である。It is a figure which shows the parameter for determining the operating frequency of the data bus 204 about each imaging operation of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100の各撮像動作についてデータバス204の動作周波数を決定するためのパラメータの一例を示す図である。It is a figure which shows an example of the parameter for determining the operating frequency of the data bus 204 about each imaging operation of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像信号処理部220により行われる時分割処理を模式的に示す図である。It is a figure which shows typically the time division process performed by the image signal process part 220 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像信号処理部220により行われる時分割処理を模式的に示す図である。It is a figure which shows typically the time division process performed by the image signal process part 220 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100の静止画記録動作についてデータバス204の動作周波数を決定するためのパラメータの一例を示す図である。It is a figure which shows an example of the parameter for determining the operating frequency of the data bus | bath about the still image recording operation | movement of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100の動画記録動作についてデータバス204の動作周波数を決定するためのパラメータの一例を示す図である。It is a figure which shows an example of the parameter for determining the operating frequency of the data bus 204 about the moving image recording operation | movement of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像バッファ211乃至219への書き込みタイミングと、DSP200内部へ取り込みタイミングとの様子を模式的に表すタイミングチャートである。6 is a timing chart schematically showing the timing of writing to the image buffers 211 to 219 and the timing of taking in the DSP 200 according to the first embodiment of the present invention. 本発明の第1の実施の形態における画像バッファ211乃至219への書き込みタイミングと、DSP200内部へ取り込みタイミングとの様子を模式的に表すタイミングチャートである。6 is a timing chart schematically showing the timing of writing to the image buffers 211 to 219 and the timing of taking in the DSP 200 according to the first embodiment of the present invention. 本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the imaging control process by the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順のうちの横長状態撮像処理を示すフローチャートである。It is a flowchart which shows a horizontal state imaging process in the process sequence of the imaging control process by the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順のうちの静止画撮像処理を示すフローチャートである。It is a flowchart which shows the still image imaging process in the process sequence of the imaging control process by the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順のうちの動画撮像処理を示すフローチャートである。It is a flowchart which shows the moving image imaging process in the process sequence of the imaging control process by the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順のうちの縦長状態撮像処理を示すフローチャートである。It is a flowchart which shows the vertically long state imaging process in the process sequence of the imaging control process by the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100の変形例を示す図である。It is a figure which shows the modification of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置100の変形例を示す図である。It is a figure which shows the modification of the mobile telephone apparatus 100 in the 1st Embodiment of this invention. 本発明の第2の実施の形態における撮像装置1000の外観構成を示す図である。It is a figure which shows the external appearance structure of the imaging device 1000 in the 2nd Embodiment of this invention.

以下、本発明を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(撮像制御:携帯電話装置において単眼撮像動作および複眼撮像動作を行う例)
2.第2の実施の形態(撮像制御:撮像装置において単眼撮像動作および複眼撮像動作を行う例)
Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. First Embodiment (Imaging Control: Example of Performing Monocular Imaging Operation and Compound Eye Imaging Operation in Cellular Phone Device)
2. Second Embodiment (Imaging Control: Example of Performing Monocular Imaging Operation and Compound Eye Imaging Operation in Imaging Apparatus)

<1.第1の実施の形態>
[携帯電話装置の外観構成例]
図1は、本発明の第1の実施の形態における携帯電話装置100の外観構成例を示す図である。図1(a)には、携帯電話装置100を使用する際における一態様の正面側を示し、図1(b)には、その態様における背面側を示す。また、図1(c)には、携帯電話装置100を使用する際における他の態様の正面側を示し、図1(d)には、その態様における背面側を示す。
<1. First Embodiment>
[External configuration example of mobile phone device]
FIG. 1 is a diagram illustrating an external configuration example of the mobile phone device 100 according to the first embodiment of the present invention. FIG. 1A shows a front side of one mode when the mobile phone device 100 is used, and FIG. 1B shows a back side of the mode. Further, FIG. 1C shows a front side of another mode when the mobile phone device 100 is used, and FIG. 1D shows a back side of the mode.

携帯電話装置100は、第1の筐体110および第2の筐体120を備える。また、第1の筐体110および第2の筐体120は、回動部材101を回動基準として回動可能に連結されている。携帯電話装置100は、例えば、複数の撮像機能を備える携帯電話装置(いわゆる、カメラ付き携帯電話装置)により実現される。なお、図1では、説明の容易のため、携帯電話装置100を簡略化して示し、携帯電話装置100の外側面に備えられている電源スイッチ等の図示を省略する。   The mobile phone device 100 includes a first housing 110 and a second housing 120. Further, the first casing 110 and the second casing 120 are coupled so as to be rotatable with the rotation member 101 as a rotation reference. The mobile phone device 100 is realized by, for example, a mobile phone device having a plurality of imaging functions (so-called camera-equipped mobile phone device). In FIG. 1, for ease of explanation, the mobile phone device 100 is illustrated in a simplified manner, and illustration of a power switch and the like provided on the outer surface of the mobile phone device 100 is omitted.

第1の筐体110は、撮像範囲切替スイッチ111と、静止画/動画切替スイッチ112と、テンキー113と、決定キー114と、十字キー115と、撮像部130とを備える。ここで、ユーザが手に持って携帯電話装置100を使用する場合に、携帯電話装置100の何れかの部分を手で握ることが必要となる。例えば、通常時には、第1の筐体110(いわゆる、本体筐体)の何れかの部分をユーザが手で握った状態で携帯電話装置100が使用されることが多い。   The first housing 110 includes an imaging range changeover switch 111, a still image / moving picture changeover switch 112, a numeric keypad 113, an enter key 114, a cross key 115, and an imaging unit 130. Here, when the user uses the cellular phone device 100 by holding it in his hand, it is necessary to hold any part of the cellular phone device 100 with his / her hand. For example, in normal times, the mobile phone device 100 is often used in a state where a user holds any part of the first housing 110 (so-called main body housing) with a hand.

撮像範囲切替スイッチ111は、撮像部130により画像データを生成する際における撮像範囲を切り替えるための操作部材であり、ユーザ操作により押下される毎に、撮像範囲が順次切替えられる。なお、この撮像範囲の切り替えについては、図28乃至図42を参照して詳細に説明する。また、撮像範囲切替スイッチ111は、操作受付部の一例である。   The imaging range changeover switch 111 is an operation member for switching the imaging range when image data is generated by the imaging unit 130, and the imaging range is sequentially switched every time it is pressed by a user operation. The switching of the imaging range will be described in detail with reference to FIGS. 28 to 42. The imaging range changeover switch 111 is an example of an operation reception unit.

静止画/動画切替スイッチ112は、静止画を記録するための静止画撮像モードと、動画を記録するための動画撮像モードとの何れかの撮像モードに切替える際に用いられる操作部材である。撮像範囲切替スイッチ111および静止画/動画切替スイッチ112は、いわゆる、トグルスイッチである。   The still image / moving image switching switch 112 is an operation member used when switching between a still image capturing mode for recording a still image and a moving image capturing mode for recording a moving image. The imaging range switch 111 and the still image / moving image switch 112 are so-called toggle switches.

テンキー113は、数字や記号等を入力するための操作部材である。   The numeric keypad 113 is an operation member for inputting numbers and symbols.

決定キー114は、ユーザによる各種機能を設定する際等に押下される操作部材である。例えば、静止画撮像モードが設定されている場合に押下されると、シャッターボタンとして機能する。   The enter key 114 is an operation member that is pressed when setting various functions by the user. For example, when pressed when the still image capturing mode is set, it functions as a shutter button.

十字キー115は、表示画面に表示されている各項目の選択状態を変更する場合や表示画面に表示されている対象物を上下左右方向に移動させる場合等に押下される操作キーである。   The cross key 115 is an operation key that is pressed when the selection state of each item displayed on the display screen is changed, or when the object displayed on the display screen is moved in the vertical and horizontal directions.

撮像部130は、被写体を撮像して画像データを生成するものである。なお、図1(a)では、図1(b)に示す撮像部130に対応する正面側の位置に点線を付して示す。また、図1(b)に示す撮像部130における丸は、撮像部130が備える複数の撮像系の各レンズを模式的に表すものである。すなわち、本発明の第1の実施の形態では、3個のレンズ群が特定方向に並べて配置されている撮像部130を例にして説明する。ここで、特定方向は、例えば、第1の筐体110の長手方向を垂直方向と一致させた場合における水平方向とすることができる。   The imaging unit 130 captures a subject and generates image data. In FIG. 1A, the position on the front side corresponding to the imaging unit 130 shown in FIG. Moreover, the circle in the imaging unit 130 illustrated in FIG. 1B schematically represents each lens of a plurality of imaging systems included in the imaging unit 130. That is, in the first embodiment of the present invention, the imaging unit 130 in which three lens groups are arranged in a specific direction will be described as an example. Here, the specific direction can be, for example, the horizontal direction when the longitudinal direction of the first casing 110 is matched with the vertical direction.

第2の筐体120は表示部140を備える。表示部140は、各種画像を表示する表示装置である。表示部140には、例えば、撮像動作により生成された画像が、モニタリング画像として表示される。表示部140として、例えば、LCD(Liquid Crystal Display)パネル、有機EL(Electro Luminescence)パネル等を用いることができる。ここで、カメラ付き携帯電話装置や一般的な撮像装置が備える表示装置の横対縦の比は、4:3または16:9であることが多い。そこで、本発明の第1の形態では、第2の筐体120の長手方向を水平方向と一致させた場合における表示部140の横対縦の比を4:3とする例について説明する。   The second housing 120 includes a display unit 140. The display unit 140 is a display device that displays various images. For example, an image generated by an imaging operation is displayed on the display unit 140 as a monitoring image. As the display unit 140, for example, an LCD (Liquid Crystal Display) panel, an organic EL (Electro Luminescence) panel, or the like can be used. Here, the horizontal to vertical ratio of a display device included in a camera-equipped mobile phone device or a general imaging device is often 4: 3 or 16: 9. Therefore, in the first embodiment of the present invention, an example will be described in which the horizontal to vertical ratio of the display unit 140 is 4: 3 when the longitudinal direction of the second casing 120 is aligned with the horizontal direction.

上述したように、第1の筐体110および第2の筐体120は回動可能に連結されている。すなわち、回動部材101(点線で示す)を回動基準として、第1の筐体110に対して第2の筐体120を回動させることができる。これにより、第1の筐体110に対する第2の筐体120の相対的な位置関係を変化させることができる。例えば、図1(a)および(b)に示す矢印102方向に第2の筐体120を90度回動させた場合における態様を図1(c)および(d)に示す。   As described above, the first casing 110 and the second casing 120 are rotatably connected. That is, the second casing 120 can be rotated with respect to the first casing 110 with the rotation member 101 (indicated by a dotted line) as a rotation reference. Thereby, the relative positional relationship of the 2nd housing | casing 120 with respect to the 1st housing | casing 110 can be changed. For example, FIGS. 1C and 1D show a mode in which the second casing 120 is rotated 90 degrees in the direction of the arrow 102 shown in FIGS.

なお、図1(c)および(d)に示す携帯電話装置100は、回動部材101を回動基準として、第1の筐体110に対して第2の筐体120を90度回動させた点以外は、図1(a)および(b)に示す例と同一である。また、図1(c)および(d)に示す状態で、第2の筐体120を矢印103方向にさらに90度回動させると、未使用状態(いわゆる、閉じた状態)となる。このように、第1の筐体110に対して第2の筐体120を回動させることにより、第1の筐体110に対する第2の筐体120の相対的な位置関係として、少なくとも2以上の位置関係を取り得ることができる。なお、回動部材101を回動基準として、矢印102方向の反対方向に第2の筐体120を回動させることも可能であるが、本発明の第1の実施の形態では、これらの各形態の図示および説明は省略する。   1C and 1D, the mobile phone device 100 rotates the second housing 120 by 90 degrees with respect to the first housing 110 with the rotation member 101 as a rotation reference. Except for these points, the example is the same as the example shown in FIGS. Further, in the state shown in FIGS. 1C and 1D, when the second casing 120 is further rotated 90 degrees in the direction of the arrow 103, it becomes an unused state (so-called closed state). As described above, by rotating the second casing 120 with respect to the first casing 110, the relative positional relationship of the second casing 120 with respect to the first casing 110 is at least two or more. The positional relationship can be obtained. Note that the second housing 120 can be rotated in the direction opposite to the direction of the arrow 102 with the rotation member 101 as a rotation reference. However, in the first embodiment of the present invention, Illustration and description of the form are omitted.

ここで、図1(a)および(b)に示すように、第1の筐体110の長手方向および第2の筐体120の長手方向を同一方向とし、表示部140およびテンキー113が回動部材101を挟んで対向する状態を、第2の筐体120の縦長状態と称する。また、この状態で、第1の筐体110および第2の筐体120の長手方向を垂直方向と一致させた場合における撮像動作を縦長撮像動作と称する。   Here, as shown in FIGS. 1A and 1B, the longitudinal direction of the first casing 110 and the longitudinal direction of the second casing 120 are set to the same direction, and the display unit 140 and the numeric keypad 113 are rotated. A state in which the members 101 are opposed to each other is referred to as a vertically long state of the second casing 120. In this state, the imaging operation in the case where the longitudinal direction of the first casing 110 and the second casing 120 is made to coincide with the vertical direction is referred to as a portrait imaging operation.

また、図1(c)および(d)に示すように、第1の筐体110の長手方向および第2の筐体120の長手方向が略直交する状態を、第2の筐体120の横長状態と称する。また、この状態で、第1の筐体110の長手方向を垂直方向と一致させ、第2の筐体120の長手方向を水平方向と一致させた場合における撮像動作を横長撮像動作と称する。   In addition, as shown in FIGS. 1C and 1D, a state in which the longitudinal direction of the first casing 110 and the longitudinal direction of the second casing 120 are substantially orthogonal to each other is set to be horizontally long. This is called a state. In this state, the imaging operation in the case where the longitudinal direction of the first casing 110 is matched with the vertical direction and the longitudinal direction of the second casing 120 is matched with the horizontal direction is referred to as a horizontally long imaging operation.

[携帯電話装置の内部構成例]
図2は、本発明の第1の実施の形態における携帯電話装置100の内部構成例を示す図である。携帯電話装置100は、アプリケーションプロセッサ11と、デジタルベースバンド処理部12と、アナログベースバンド処理部13と、RF(Radio Frequency)処理部14とを備える。また、携帯電話装置100は、電池15と、マイクロフォン16と、スピーカ17と、アンテナ18と、撮像範囲切替スイッチ111と、静止画/動画切替スイッチ112と、決定キー114と、撮像部130と、表示部140とを備える。また、携帯電話装置100は、回動状態検出部150と、プログラムメモリ160と、画像メモリ170と、記録媒体180と、DSP(Digital Signal Processor)200とを備える。なお、RF処理部14には、アンテナ18が備えられ、アナログベースバンド処理部13には、マイクロフォン16およびスピーカ17が備えられている。
[Example of internal configuration of mobile phone device]
FIG. 2 is a diagram illustrating an internal configuration example of the mobile phone device 100 according to the first embodiment of the present invention. The cellular phone device 100 includes an application processor 11, a digital baseband processing unit 12, an analog baseband processing unit 13, and an RF (Radio Frequency) processing unit 14. In addition, the mobile phone device 100 includes a battery 15, a microphone 16, a speaker 17, an antenna 18, an imaging range changeover switch 111, a still image / video changeover switch 112, a determination key 114, an imaging unit 130, And a display unit 140. In addition, the mobile phone device 100 includes a rotation state detection unit 150, a program memory 160, an image memory 170, a recording medium 180, and a DSP (Digital Signal Processor) 200. The RF processing unit 14 includes an antenna 18, and the analog baseband processing unit 13 includes a microphone 16 and a speaker 17.

アプリケーションプロセッサ11は、内蔵するメモリに記憶される各種プログラムに基づいて携帯電話装置100の各部を制御するものである。アプリケーションプロセッサ11は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)を備えて構成される。   The application processor 11 controls each unit of the mobile phone device 100 based on various programs stored in a built-in memory. The application processor 11 includes, for example, a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM).

例えば、受話動作が行われる場合には、アンテナ18により受信された電波が、RF処理部14およびアナログベースバンド処理部13を経由して、デジタルベースバンド処理部12により復調される。そして、デジタルベースバンド処理部12による復調結果が、アナログベースバンド処理部13を経由してスピーカ17から出力される。   For example, when a receiving operation is performed, the radio wave received by the antenna 18 is demodulated by the digital baseband processing unit 12 via the RF processing unit 14 and the analog baseband processing unit 13. Then, the demodulation result by the digital baseband processing unit 12 is output from the speaker 17 via the analog baseband processing unit 13.

また、送話動作が行われる場合には、マイクロフォン16から入力された音声が、アナログベースバンド処理部13を経由して、デジタルベースバンド処理部12により変調される。そして、復調された音声データが、アナログベースバンド処理部13およびRF処理部14を経由してアンテナ18から送信される。   When a transmission operation is performed, the voice input from the microphone 16 is modulated by the digital baseband processing unit 12 via the analog baseband processing unit 13. Then, the demodulated audio data is transmitted from the antenna 18 via the analog baseband processing unit 13 and the RF processing unit 14.

また、ユーザにより撮像動作の開始指示操作が行われると、携帯電話装置100において撮像動作が行われる。例えば、ユーザにより撮像動作の開始指示操作が行われると、アプリケーションプロセッサ11が撮像動作に関する各部(撮像部130、DSP200等)に撮像動作の開始を指示し、これらの各部を起動させる。そして、起動された各部により撮像動作が行われ、生成された画像が表示部140に表示される。ここで、ユーザにより画像の記録指示操作が行われると、生成された画像が記録媒体180に記録される。また、ユーザにより画像を無線伝送する指示操作が行われると、生成された画像が無線伝送される。例えば、生成された画像データがデジタルベースバンド処理部12により変調され、アナログベースバンド処理部13およびRF処理部14を経由してアンテナ18から送信される。なお、電池15は、携帯電話装置100に電源を供給する電池である。   Further, when the user performs an operation for instructing the start of an imaging operation, the imaging operation is performed in the mobile phone device 100. For example, when the user performs an imaging operation start instruction operation, the application processor 11 instructs each unit (imaging unit 130, DSP 200, etc.) related to the imaging operation to start the imaging operation, and activates each unit. Then, an imaging operation is performed by each activated unit, and the generated image is displayed on the display unit 140. Here, when an image recording instruction operation is performed by the user, the generated image is recorded on the recording medium 180. When the user performs an instruction operation for wirelessly transmitting an image, the generated image is wirelessly transmitted. For example, the generated image data is modulated by the digital baseband processing unit 12 and transmitted from the antenna 18 via the analog baseband processing unit 13 and the RF processing unit 14. The battery 15 is a battery that supplies power to the mobile phone device 100.

なお、スイッチ111および112、決定キー114、撮像部130、表示部140、回動状態検出部150、プログラムメモリ160、画像メモリ170、記録媒体180およびDSP200については、図3、図7等を参照して詳細に説明する。   Note that the switches 111 and 112, the determination key 114, the imaging unit 130, the display unit 140, the rotation state detection unit 150, the program memory 160, the image memory 170, the recording medium 180, and the DSP 200 are described with reference to FIGS. And will be described in detail.

[撮像部の内部構成例]
図3は、本発明の第1の実施の形態における撮像部130の内部構成例を示す図である。また、図3では、撮像部130と接続されるDSP200の一部を示す。なお、DSP200の全体構成については、図7および図8を参照して詳細に説明する。
[Example of internal configuration of imaging unit]
FIG. 3 is a diagram illustrating an internal configuration example of the imaging unit 130 according to the first embodiment of the present invention. FIG. 3 shows a part of the DSP 200 connected to the imaging unit 130. The overall configuration of the DSP 200 will be described in detail with reference to FIGS.

撮像部130は、3個の撮像系(第1の撮像系191乃至第3の撮像系193)と、電源制御部207と、電源供給部208および209とを備える。また、3つの撮像系は、特定方向に並べて配置される。すなわち、第1の撮像系191が中央に配置され、第1の撮像系191の両側に第2の撮像系192および第3の撮像系193が配置される。   The imaging unit 130 includes three imaging systems (first imaging system 191 to third imaging system 193), a power supply control unit 207, and power supply units 208 and 209. The three imaging systems are arranged side by side in a specific direction. That is, the first imaging system 191 is arranged in the center, and the second imaging system 192 and the third imaging system 193 are arranged on both sides of the first imaging system 191.

第1の撮像系191は、光学系131、撮像素子134およびDSPとのI/F(インターフェース)137を備える。また、第2の撮像系192は、光学系132、撮像素子135およびDSPとのI/F138を備える。また、第3の撮像系193は、光学系133、撮像素子136およびDSPとのI/F139を備える。なお、第1の撮像系191乃至第3の撮像系193の構成は略同一であるため、ここでは、主に第1の撮像系191の構成について説明し、第2の撮像系192および第3の撮像系193の説明を省略する。   The first imaging system 191 includes an optical system 131, an imaging element 134, and an I / F (interface) 137 with the DSP. The second imaging system 192 includes an I / F 138 with the optical system 132, the imaging element 135, and the DSP. The third imaging system 193 includes an I / F 139 with the optical system 133, the imaging element 136, and the DSP. Note that the configurations of the first imaging system 191 to the third imaging system 193 are substantially the same, so here, the configuration of the first imaging system 191 will be mainly described, and the second imaging system 192 and the third imaging system 193 will be described. The description of the imaging system 193 is omitted.

光学系131は、被写体からの光を集光する複数のレンズ(ズームレンズおよびフォーカスレンズを含む)により構成される。また、これらの各レンズを通過した光の量(すなわち、露出)が絞り(図示せず)により調整される。そして、集光された被写体からの光が撮像素子134に入射される。   The optical system 131 includes a plurality of lenses (including a zoom lens and a focus lens) that collect light from the subject. Further, the amount of light (that is, exposure) that has passed through each of these lenses is adjusted by a diaphragm (not shown). Then, the condensed light from the subject enters the image sensor 134.

撮像素子134は、光学系131を介して入射された被写体像を結像して画像信号を生成する撮像素子である。すなわち、撮像素子134は、光学系131を介して入射された被写体からの光を受光して光電変換を行うことにより、光の受光量に応じたアナログの画像信号を生成する。このように撮像素子134により生成されたアナログの画像信号がDSPとのI/F137を介してDSP200に供給される。なお、撮像素子として、例えば、CCD(Charge Coupled Device)型やCMOS(Complementary Metal Oxide Semiconductor)型の固体撮像素子を用いることができる。   The imaging device 134 is an imaging device that forms an image signal by forming a subject image incident via the optical system 131. That is, the image sensor 134 receives light from a subject incident through the optical system 131 and performs photoelectric conversion, thereby generating an analog image signal corresponding to the amount of received light. In this way, the analog image signal generated by the image sensor 134 is supplied to the DSP 200 via the I / F 137 with the DSP. For example, a CCD (Charge Coupled Device) type or CMOS (Complementary Metal Oxide Semiconductor) type solid-state imaging device can be used as the imaging device.

DSPとのI/F137は、撮像素子134と、DSP200とを接続するためのインターフェースである。   The DSP I / F 137 is an interface for connecting the image sensor 134 and the DSP 200.

電源制御部207は、DSP200の撮像制御部201(図7に示す)からの電源制御の指示に基づいて、電源供給部208および209を制御するものである。すなわち、電源制御部207は、撮像制御部201からの電源制御の指示を受け付けると、電源供給部208および209が制御信号の入力仕様として要求する信号の振幅と信号の立ち上がり速度および立ち下がり速度に準拠した信号を作成する。そして、この作成された信号を電源供給部208および209に出力し、電源供給部208および209を制御する。なお、撮像制御部201の出力信号が、電源供給部208および209の制御信号の入力仕様に準拠している場合には、撮像制御部201の出力信号を電源供給部208および209に直接入力するようにしてもよい。   The power control unit 207 controls the power supply units 208 and 209 based on a power control instruction from the imaging control unit 201 (shown in FIG. 7) of the DSP 200. In other words, when the power supply control unit 207 receives a power control instruction from the imaging control unit 201, the power supply units 208 and 209 adjust the signal amplitude, the signal rising speed and the signal falling speed required as the input specification of the control signal. Create a compliant signal. Then, the generated signal is output to the power supply units 208 and 209 to control the power supply units 208 and 209. In addition, when the output signal of the imaging control unit 201 conforms to the input specification of the control signal of the power supply units 208 and 209, the output signal of the imaging control unit 201 is directly input to the power supply units 208 and 209. You may do it.

電源供給部208は、電源制御部207の制御に基づいて、第1の撮像系191へ電源を供給するものである。また、電源供給部209は、電源制御部207の制御に基づいて、第2の撮像系192および第3の撮像系193へ電源を供給するものである。なお、電源供給部208および209は、例えば、市販の電源IC(Integrated Circuit)により実現される。   The power supply unit 208 supplies power to the first imaging system 191 based on the control of the power control unit 207. The power supply unit 209 supplies power to the second imaging system 192 and the third imaging system 193 based on the control of the power control unit 207. The power supply units 208 and 209 are realized by, for example, a commercially available power supply IC (Integrated Circuit).

また、第1の撮像系191乃至第3の撮像系193のそれぞれは、1つのデータ線と7種類の信号線とを介してDSP200と接続されている。ここで、第1の撮像系191およびDSP200を接続する1つのデータ線をL1とし、7種類の信号線を信号線L2乃至L8として説明する。なお、第2の撮像系192および第3の撮像系193のデータ線および信号線は、第1の撮像系191のデータ線および信号線と略同一である。このため、ここでは、主に第1の撮像系191のデータ線および信号線について説明し、第2の撮像系192および第3の撮像系193の説明を省略する。   Each of the first imaging system 191 to the third imaging system 193 is connected to the DSP 200 through one data line and seven types of signal lines. Here, one data line connecting the first imaging system 191 and the DSP 200 will be described as L1, and seven types of signal lines will be described as signal lines L2 to L8. The data lines and signal lines of the second imaging system 192 and the third imaging system 193 are substantially the same as the data lines and signal lines of the first imaging system 191. Therefore, here, mainly the data lines and signal lines of the first imaging system 191 will be described, and descriptions of the second imaging system 192 and the third imaging system 193 will be omitted.

データ線L1は、撮像素子134からDSP200へ画像データを伝送するデータ線である。このデータ線L1は、例えば、画像データの伝送レートを大きくするために複数本のデータ線により構成することが好ましい。また、画像データの伝送レートを大きくするため、および、伝送路上でのノイズ耐性を大きくするために、データ線L1として、高速かつ差動伝送方式のデータ線を用いることが好ましい。例えば、データ線L1として、LVDS(low voltage differential signaling)等を用いることが好ましい。   The data line L1 is a data line that transmits image data from the image sensor 134 to the DSP 200. For example, the data line L1 is preferably composed of a plurality of data lines in order to increase the transmission rate of image data. In order to increase the transmission rate of the image data and to increase the noise resistance on the transmission path, it is preferable to use a high-speed and differential transmission type data line as the data line L1. For example, it is preferable to use LVDS (low voltage differential signaling) or the like as the data line L1.

信号線L2は、撮像素子134とDSP200との間の双方向の通信線であり、例えば、4線構造シリアル通信線を用いることができる。信号線L2は、例えば、撮像素子134を使用するために必要となる各種の設定値をDSP200側から設定する際に使用される。一例として、撮像素子134からDSP200へ出力される画像データを間引いて出力するための設定値が、信号線L2を介してDSP200からレジスタ370および380(図12に示す)に書き込まれる。   The signal line L2 is a bidirectional communication line between the image sensor 134 and the DSP 200, and for example, a four-line serial communication line can be used. The signal line L2 is used, for example, when setting various setting values necessary for using the image sensor 134 from the DSP 200 side. As an example, setting values for thinning out and outputting image data output from the image sensor 134 to the DSP 200 are written from the DSP 200 to the registers 370 and 380 (shown in FIG. 12) via the signal line L2.

信号線L3は、DSP200から撮像素子134へクロックを供給するクロック信号線である。撮像素子134は、信号線L3を介して供給されるクロックを使用して、1クロック周期当り1画素の撮像動作を行う。また、撮像素子134内に逓倍器を搭載し、DSP200から供給されたクロックを撮像素子134内で逓倍して、逓倍後のクロック1周期当り1画素の撮像動作を行うようにしてもよい。   The signal line L3 is a clock signal line that supplies a clock from the DSP 200 to the image sensor 134. The imaging element 134 performs an imaging operation for one pixel per clock cycle using a clock supplied via the signal line L3. Alternatively, a multiplier may be mounted in the image sensor 134, and the clock supplied from the DSP 200 may be multiplied in the image sensor 134 to perform an imaging operation for one pixel per one cycle of the multiplied clock.

信号線L4は、DSP200から撮像素子134へリセット信号を供給するリセット信号線である。   The signal line L4 is a reset signal line that supplies a reset signal from the DSP 200 to the image sensor 134.

信号線L5は、DSP200から撮像素子134の撮像動作のオン/オフを制御する信号線である。すなわち、信号線L5は、DSP200から各撮像素子へ動作の停止と起動とを通知する信号線である。例えば、3つの撮像系のうち、1つの撮像素子のみを使用する撮像モードがユーザにより指示された場合には、使用しない2個の撮像素子の撮像動作を停止させることにより、消費電力を低減させることができる。   The signal line L5 is a signal line for controlling on / off of the imaging operation of the imaging element 134 from the DSP 200. That is, the signal line L5 is a signal line for notifying the stop and activation of the operation from the DSP 200 to each image sensor. For example, when an imaging mode in which only one image sensor is used among three imaging systems is instructed by the user, power consumption is reduced by stopping the imaging operation of two image sensors that are not used. be able to.

信号線L6は、垂直同期信号線である。すなわち、信号線L6は、DSP200から撮像素子134へ1フレーム毎の撮像タイミングを示唆する同期信号を通知するための信号線である。   The signal line L6 is a vertical synchronization signal line. That is, the signal line L6 is a signal line for notifying the synchronization signal indicating the imaging timing for each frame from the DSP 200 to the imaging device 134.

信号線L7は、水平同期信号線である。すなわち、信号線L7は、DSP200から撮像素子134へ1フレーム中の1ライン毎の撮像タイミングを示唆する同期信号を通知するための信号線である。   The signal line L7 is a horizontal synchronization signal line. That is, the signal line L7 is a signal line for notifying the synchronization signal indicating the imaging timing for each line in one frame from the DSP 200 to the imaging device 134.

信号線L8は、シャッター信号線である。例えば、携帯電話装置100において、ユーザにより撮像画像記録を行うための操作部材(例えば、決定キー114)が押下された場合には、この押下に応じたシャッター信号が信号線L8を介してDSP200から撮像素子134に通知される。   The signal line L8 is a shutter signal line. For example, in the cellular phone device 100, when an operation member (for example, the enter key 114) for recording a captured image is pressed by the user, a shutter signal corresponding to the press is sent from the DSP 200 via the signal line L8. The image sensor 134 is notified.

[撮像素子の配置構成例]
図4は、本発明の第1の実施の形態における撮像部130を構成する撮像素子134乃至136の配置構成例を示す図である。図4(a)には、撮像素子134乃至136の配置構成を示す。ここで、一般に、撮像素子における受光面において、画素が配列されている領域の形状は略長方形である。そこで、以下では、撮像素子134乃至136を長方形により模式的に表す。
[Example of image sensor arrangement]
FIG. 4 is a diagram illustrating an arrangement configuration example of the imaging elements 134 to 136 included in the imaging unit 130 according to the first embodiment of the present invention. FIG. 4A shows an arrangement configuration of the image sensors 134 to 136. Here, in general, the shape of the region in which the pixels are arranged on the light receiving surface of the image sensor is substantially rectangular. Therefore, in the following, the image sensors 134 to 136 are schematically represented by rectangles.

図4(a)には、回動部材101側が上側となるように、第1の筐体110の長手方向を垂直方向と一致させた場合における配置構成例を示す。具体的には、撮像素子134が中央に配置され、撮像素子134の両側に撮像素子135および136が配置される。また、中央に配置される撮像素子134については、その長手方向が配列方向と直交する方向と一致するように配置される。一方、撮像素子134の両側に配置される撮像素子135および136については、その長手方向が配列方向と一致するように配置される。また、撮像素子134乃至136における中心位置が同一平面上となるように配置される。すなわち、配列方向において、撮像素子135および136が横長に配置されるとともに、撮像素子134が縦長に配置される。また、図4(a)では、各画素を読み出すことが可能な画素データ読出可能領域400乃至402を撮像素子134乃至136内に長方形で模式的に示す。例えば、撮像素子134により、被写体の特定方向を長手方向とする第1の撮像画像が生成される。また、撮像素子135により、その特定方向に直交する直交方向を長手方向とし、第1の撮像画像に含まれる被写体の直交方向の一方に隣接する被写体を含む第2の撮像画像が生成される。また、撮像素子136により、直交方向を長手方向とし、第1の撮像画像に含まれる被写体の直交方向の他方に隣接する被写体を含む第3の撮像画像が生成される。このように、本発明の第1の実施の形態では、中央の撮像素子134のアスペクト比(横/縦)を、その両側に配置されている撮像素子135および136のアスペクト比よりも小さくする。これにより、例えば、撮像素子134のみを用いて縦長画像を生成する場合でも、十分な解像度を維持することができる。一方、撮像素子134乃至136を用いて生成される広角画像(例えば、パノラマ画像)については、撮像素子134の画枠を有効活用することができる。   FIG. 4A shows an arrangement configuration example in the case where the longitudinal direction of the first casing 110 is aligned with the vertical direction so that the rotating member 101 side is on the upper side. Specifically, the image sensor 134 is disposed in the center, and the image sensors 135 and 136 are disposed on both sides of the image sensor 134. Further, the image sensor 134 disposed at the center is disposed such that the longitudinal direction thereof coincides with the direction orthogonal to the arrangement direction. On the other hand, the image sensors 135 and 136 disposed on both sides of the image sensor 134 are disposed such that the longitudinal direction thereof coincides with the arrangement direction. Further, the image sensors 134 to 136 are arranged so that the center positions thereof are on the same plane. That is, in the arrangement direction, the image sensors 135 and 136 are arranged horizontally and the image sensor 134 is arranged vertically. In FIG. 4A, pixel data readable areas 400 to 402 from which each pixel can be read are schematically shown as rectangles in the image sensors 134 to 136. For example, the imaging element 134 generates a first captured image whose longitudinal direction is the specific direction of the subject. In addition, the imaging element 135 generates a second captured image including a subject adjacent to one of the orthogonal directions of the subject included in the first captured image, with the orthogonal direction orthogonal to the specific direction as the longitudinal direction. In addition, the imaging element 136 generates a third captured image including a subject adjacent to the other of the orthogonal directions of the subject included in the first captured image with the orthogonal direction as the longitudinal direction. As described above, in the first embodiment of the present invention, the aspect ratio (horizontal / vertical) of the central image sensor 134 is made smaller than the aspect ratios of the image sensors 135 and 136 arranged on both sides thereof. Thereby, for example, even when a vertically long image is generated using only the image sensor 134, a sufficient resolution can be maintained. On the other hand, for wide-angle images (for example, panoramic images) generated using the image sensors 134 to 136, the image frame of the image sensor 134 can be used effectively.

図4(b)には、第2の筐体120が縦長状態である場合において、画像データを生成する場合における画素データ読出領域の一例を示す。画素データ読出領域403乃至405は、画素データ読出可能領域400乃至402において、表示または記録に用いられる画像データを生成する際に各画素を読み出す領域の一例であり、図4(b)ではその輪郭を太線で示す。画素データ読出領域404および405は、例えば、画素データ読出可能領域401および402と同一とすることができる。また、画素データ読出領域403は、例えば、垂直方向の長さV10を、画素データ読出可能領域401および402の垂直方向の長さV11と同一とし、水平方向の長さH10を、画素データ読出可能領域400の水平方向の長さと同一とすることができる。   FIG. 4B shows an example of a pixel data reading area when image data is generated when the second casing 120 is in the vertically long state. The pixel data reading areas 403 to 405 are examples of areas for reading out each pixel when generating image data used for display or recording in the pixel data readable areas 400 to 402. In FIG. Is indicated by a bold line. The pixel data reading areas 404 and 405 can be the same as the pixel data reading areas 401 and 402, for example. The pixel data read area 403 has, for example, the same vertical length V10 as the vertical length V11 of the pixel data readable areas 401 and 402, and the horizontal length H10 can be read. The length of the region 400 in the horizontal direction can be the same.

図4(c)には、第2の筐体120が横長状態である場合において、画像データを生成する場合における画素データ読出領域の一例を示す。この例では、撮像素子134乃至136のうち、撮像素子134のみにより画像データを生成する場合における画素データ読出領域406を示す。画素データ読出領域406は、画素データ読出可能領域400乃至402において、表示または記録に用いられる合成画像を生成する際に各画素を読み出す領域の一例であり、図4(c)ではその輪郭を太線で示す。画素データ読出領域406は、例えば、画素データ読出可能領域400と同一とすることができる。なお、これらの画像生成例については、図28乃至図42を参照して詳細に説明する。   FIG. 4C shows an example of a pixel data reading area when image data is generated when the second casing 120 is in the landscape state. In this example, a pixel data reading area 406 in the case where image data is generated only by the image sensor 134 among the image sensors 134 to 136 is shown. The pixel data reading area 406 is an example of an area from which each pixel is read out when generating a composite image used for display or recording in the pixel data readable areas 400 to 402. In FIG. It shows with. The pixel data read area 406 can be the same as the pixel data readable area 400, for example. Note that these image generation examples will be described in detail with reference to FIGS.

ここで、例えば、撮像素子134乃至136の各長手方向が特定方向と一致するように、撮像素子134乃至136が配置された撮像装置を想定する。すなわち、図4(a)に示す状態で、撮像素子134が90度回転して配置され、撮像素子134乃至136の長手方向と配列方向とが同一となる場合を想定する。この場合において、通常の縦長の静止画を撮影する場合には、垂直方向の画素数は最大でも撮像素子134の短辺方向の画素数しか取れない。また、垂直方向の画角についても撮像素子134の短辺方向に入射される領域に制限されてしまう。このため、垂直方向の画角を大きくし、垂直方向の画素数を大きくして撮像するためには、ユーザが撮像装置を90度回転させて、撮影を行う必要がある。   Here, for example, an imaging apparatus is assumed in which the imaging elements 134 to 136 are arranged so that the longitudinal directions of the imaging elements 134 to 136 coincide with the specific direction. That is, in the state shown in FIG. 4A, it is assumed that the image sensor 134 is rotated 90 degrees and the longitudinal direction and the arrangement direction of the image sensors 134 to 136 are the same. In this case, when shooting a normal vertically long still image, the maximum number of pixels in the vertical direction can be taken only in the short side direction of the image sensor 134. Further, the angle of view in the vertical direction is also limited to a region incident in the short side direction of the image sensor 134. For this reason, in order to increase the angle of view in the vertical direction and increase the number of pixels in the vertical direction, it is necessary for the user to perform imaging by rotating the imaging apparatus 90 degrees.

これに対して、本発明の第1の実施の形態によれば、通常の縦長の静止画を撮影する場合でも、1個の撮像系を備える携帯電話装置をユーザが横倒しして撮影を行う場合と同じ画素数、同じ画角で撮影することが可能である。このため、ユーザが撮像装置を横に向ける手間を省略することができる。   On the other hand, according to the first embodiment of the present invention, even when a normal vertically long still image is captured, the user lays down and shoots a mobile phone device including one imaging system. It is possible to shoot with the same number of pixels and the same angle of view. For this reason, it is possible to save the user from having to turn the imaging device to the side.

次に、撮像素子134乃至136における1ラインのデータを読み出す読出方法について説明する。例えば、撮像素子134乃至136における1ラインのデータを読み出すデータ読出方法としては、以下の2つの方法を用いることができる。   Next, a reading method for reading out one line of data in the image sensors 134 to 136 will be described. For example, the following two methods can be used as a data reading method for reading out one line of data in the imaging elements 134 to 136.

第1のデータ読出方法は、撮像素子134について1ラインのデータを読出す場合において、その1ラインの方向を撮像素子134に対応する長方形の領域の短辺方向とする方法である。第1のデータ読出方法では、撮像素子135および136について1ラインのデータを読出す場合には、その1ラインの方向を撮像素子135および136に対応する長方形の領域の長辺方向とする。この例を図6(a)に示す。第1のデータ読出方法では、3個の撮像素子134乃至136から読み出された画像データを読み出された順番で画像メモリ170に書き込むことができる。また、このデータを読み出して画像信号処理を行う場合でも、同じ順番で読み出すことができるため、メモリへのデータの書き込みおよび読出しを容易に行うことができる。ただし、一般に、撮像素子は読出しライン方向が長辺方向であるため、読出しライン方向が短辺方向の撮像素子を新たに用意する必要がある。   The first data reading method is a method in which when one line of data is read from the image sensor 134, the direction of the one line is set to the short side direction of a rectangular region corresponding to the image sensor 134. In the first data reading method, when one line of data is read from the image sensors 135 and 136, the direction of the one line is set to the long side direction of the rectangular region corresponding to the image sensors 135 and 136. An example of this is shown in FIG. In the first data reading method, the image data read from the three image pickup devices 134 to 136 can be written in the image memory 170 in the read order. Further, even when the image signal processing is performed by reading out this data, the data can be read out in the same order, so that the data can be easily written into and read out from the memory. However, in general, since the readout line direction of the image sensor is the long side direction, it is necessary to prepare a new image sensor whose readout line direction is the short side direction.

第2のデータ読出方法は、撮像素子134の1ラインのデータを読出す場合において、その1ラインの方向を、撮像素子135および136と同様に長辺方向とする方法である。この場合、読出し方向が短辺方向の撮像素子を新たに用意する必要がない。ただし、撮像素子134の画像データの読出し方向が撮像素子135および136の画像データの読出し方向から90°回転している。このため、撮像素子134から読み出された画像データを用いて画像信号処理を行う場合には、その画像を90°回転させて、撮像素子135および136により生成された画像と同じ向きしてから画像信号処理を行うことが好ましい。なお、本発明の第1の実施の形態では、第1のデータ読出方法を用いる例を示す。すなわち、以下では、撮像素子134における1ラインの画素データを読出す際のライン方向を、撮像素子134乃至136の配列方向とする例を示す。また、撮像素子135および136における1ラインの画素データを読出す際のライン方向についても同様に、撮像素子134乃至136の配列方向とする例を示す。   The second data reading method is a method in which when one line of data of the image sensor 134 is read, the direction of the one line is set to the long side direction like the image sensors 135 and 136. In this case, it is not necessary to newly prepare an image sensor whose reading direction is the short side direction. However, the image data reading direction of the image sensor 134 is rotated by 90 ° from the image data reading direction of the image sensors 135 and 136. For this reason, when image signal processing is performed using image data read from the image sensor 134, the image is rotated by 90 ° and oriented in the same direction as the images generated by the image sensors 135 and 136. It is preferable to perform image signal processing. In the first embodiment of the present invention, an example using the first data reading method is shown. That is, in the following, an example in which the line direction when reading out one line of pixel data in the image sensor 134 is the arrangement direction of the image sensors 134 to 136 will be described. Similarly, an example in which the line direction when reading out one line of pixel data in the image sensors 135 and 136 is the arrangement direction of the image sensors 134 to 136 is shown.

図5および図6は、本発明の第1の実施の形態における撮像素子134乃至136に結像される像と、画像データの読出方法との関係を示す図である。一般に、撮像素子には、いわゆる、倒立像が結像される。   FIGS. 5 and 6 are diagrams showing the relationship between the image formed on the image sensors 134 to 136 and the image data reading method according to the first embodiment of the present invention. In general, a so-called inverted image is formed on the image sensor.

図5には、撮像素子に結像される像として倒立像が生成される場合における被写体409と光学系131と撮像素子134に結像される撮像画像410との関係を模式的に示す。図5に示すように、光学系131を介して入射された被写体409からの光が撮像素子134に結像され、撮像画像410が生成される。この場合に、被写体409の上下方向と、撮像画像410の上下方向とが反転された状態となる。   FIG. 5 schematically illustrates the relationship between the subject 409, the optical system 131, and the captured image 410 formed on the image sensor 134 when an inverted image is generated as an image formed on the image sensor. As shown in FIG. 5, the light from the subject 409 that has entered through the optical system 131 is imaged on the image sensor 134, and a captured image 410 is generated. In this case, the vertical direction of the subject 409 and the vertical direction of the captured image 410 are reversed.

図6(a)には、撮像素子134乃至136から画素データを読み出す場合における読出開始位置411乃至413および読出し方向を模式的に示す。この例では、図4(b)に示す画素データ読出領域403乃至405において画素データを読み出す例を示す。また、以下では、画素データ読出領域における読出開始位置を矩形で模式的に示す。例えば、画素データ読出領域403乃至405の右下隅の読出開始位置411乃至413から順次読出しが開始され、矢印方向に画素データが読み出される。例えば、画素データ読出領域403において、読出開始位置411から画素データの読出しが開始され、矢印方向に1画素ずつシフトされながら画素データの読出しが順次行われる。そして、水平方向の1ラインにおける端部(図6(a)に示す画素データ読出領域403内の左端)に位置する画素の読出しが行われた場合には、読出し対象となるラインを1画素上側にシフトして他の端部に位置する画素の読出しが行われる。以下、同様に画素の読み出しが順次行われる。そして、画素データ読出領域403における上端のラインにおける端部に位置する画素の読出しが行われた場合には、撮像素子134の読出し処理を終了する。また、撮像素子135および136についても同時に読み出し処理が行われる。   FIG. 6A schematically shows reading start positions 411 to 413 and a reading direction when pixel data is read from the imaging elements 134 to 136. In this example, pixel data is read out in the pixel data reading areas 403 to 405 shown in FIG. In the following, the reading start position in the pixel data reading area is schematically shown by a rectangle. For example, reading is sequentially started from reading start positions 411 to 413 at the lower right corners of the pixel data reading areas 403 to 405, and pixel data is read in the direction of the arrow. For example, in the pixel data readout region 403, readout of pixel data is started from the readout start position 411, and readout of pixel data is sequentially performed while shifting one pixel at a time in the arrow direction. When a pixel located at the end of one horizontal line (the left end in the pixel data reading area 403 shown in FIG. 6A) is read, the line to be read is moved up by one pixel. The pixel located at the other end is read out after shifting to. Thereafter, pixel readout is sequentially performed in the same manner. When the pixel located at the end of the uppermost line in the pixel data reading area 403 is read, the reading process of the image sensor 134 is terminated. Further, readout processing is also performed on the image sensors 135 and 136 at the same time.

図6(b)には、撮像素子134乃至136から読み出された画素データが合成された場合における画像メモリ170上における合成画像414を模式的に示す。この例では、図6(a)に示す読出方法により読み出された画素データを合成する例を示す。なお、合成画像414内における矢印方向は、画像メモリ170上における画像データの並び方向であるものとする。   FIG. 6B schematically shows a composite image 414 on the image memory 170 when the pixel data read from the image sensors 134 to 136 are combined. In this example, an example in which pixel data read by the reading method shown in FIG. It is assumed that the arrow direction in the composite image 414 is the arrangement direction of the image data on the image memory 170.

図6(c)には、撮像素子134乃至136から読み出された画素データを表示部140に表示する場合における合成画像の表示例を示す。この例では、図6(b)に示す合成画像414を表示する例を示す。例えば、撮像画像表示領域415に合成画像414が表示され、その上下の余白画像表示領域416および417には一色画像(例えば、黒色や白色)が表示される。なお、表示部140内における矢印方向は、表示部140における走査方向であるものとする。   FIG. 6C shows a display example of a composite image when the pixel data read from the imaging elements 134 to 136 is displayed on the display unit 140. In this example, an example in which the composite image 414 shown in FIG. 6B is displayed is shown. For example, the composite image 414 is displayed in the captured image display area 415, and one-color images (for example, black and white) are displayed in the upper and lower margin image display areas 416 and 417. Note that the arrow direction in the display unit 140 is the scanning direction in the display unit 140.

[DSPの構成例]
図7は、本発明の第1の実施の形態におけるDSP200の内部構成例を示すブロック図である。DSP200は、撮像制御部201と、CPU202と、DMA(Direct Memory Access)コントローラ203と、データバス204と、プログラムメモリとのI/F205と、画像メモリとのI/F206とを備える。また、DSP200は、撮像素子とのI/F210と、画像バッファ211乃至219と、画像信号処理部220と、解像度変換部231、241、251と、画像回転処理部232、242とを備える。また、DSP200は、表示部とのI/F233と、外部表示装置とのI/F243と、符号化部252と、記録媒体とのI/F253と、発振回路264乃至266と、クロック生成回路270とを備える。データバス204には、CPU202、DMAコントローラ203、画像メモリとのI/F206、画像バッファ211乃至219、画像信号処理部220等が接続されている。また、撮像制御部201には、撮像範囲切替スイッチ111、静止画/動画切替スイッチ112、決定キー114および回動状態検出部150からの各信号が入力される。
[DSP configuration example]
FIG. 7 is a block diagram showing an example of the internal configuration of the DSP 200 in the first embodiment of the present invention. The DSP 200 includes an imaging control unit 201, a CPU 202, a DMA (Direct Memory Access) controller 203, a data bus 204, an I / F 205 for a program memory, and an I / F 206 for an image memory. The DSP 200 also includes an I / F 210 for the image sensor, image buffers 211 to 219, an image signal processing unit 220, resolution conversion units 231, 241, and 251, and image rotation processing units 232 and 242. The DSP 200 also includes an I / F 233 for a display unit, an I / F 243 for an external display device, an encoding unit 252, an I / F 253 for a recording medium, oscillation circuits 264 to 266, and a clock generation circuit 270. With. The data bus 204 is connected to a CPU 202, a DMA controller 203, an I / F 206 with an image memory, image buffers 211 to 219, an image signal processing unit 220, and the like. In addition, the imaging control unit 201 receives signals from the imaging range switch 111, the still image / moving image switch 112, the enter key 114, and the rotation state detection unit 150.

回動状態検出部150は、第1の筐体110に対する第2の筐体120の回動状態を検出するものであり、検出結果を撮像制御部201に出力する。回動状態検出部150は、第1の筐体110に対する第2の筐体120の回動状態として、例えば、第1の筐体110および第2の筐体120のなす角度を検出し、検出結果を撮像制御部201に出力する。例えば、第1の筐体110に対する第2の筐体120の回動角度が一定値未満である場合には押下されず、その回動角度が一定値以上となった場合に押下される角度検出スイッチを回動部材101の何れかに設ける。そして、角度検出スイッチにより、回動状態検出部150は、第1の筐体110および第2の筐体120のなす角度を検出する。なお、回動状態検出部150は、検出部の一例である。   The rotation state detection unit 150 detects the rotation state of the second housing 120 with respect to the first housing 110 and outputs a detection result to the imaging control unit 201. The rotation state detection unit 150 detects, for example, an angle formed by the first case 110 and the second case 120 as the rotation state of the second case 120 with respect to the first case 110 and detects the angle. The result is output to the imaging control unit 201. For example, when the rotation angle of the second housing 120 with respect to the first housing 110 is less than a certain value, the angle detection is not performed and is depressed when the rotation angle becomes a certain value or more. A switch is provided on any of the rotating members 101. And the rotation state detection part 150 detects the angle which the 1st housing | casing 110 and the 2nd housing | casing 120 make by an angle detection switch. The rotation state detection unit 150 is an example of a detection unit.

撮像制御部201は、撮像処理に関する各部を制御するものである。例えば、撮像制御部201は、回動状態検出部150からの検出結果に基づいて、第1の筐体110に対する第2の筐体120の回動状態を判断し、この判断結果に基づいて、各部の撮像制御を行う。例えば、撮像制御部201は、撮像素子134乃至136により生成される画像データのうち、表示または記録の対象となる対象画像の範囲を、その判断結果に基づいて決定する。また、撮像制御部201は、撮像範囲切替スイッチ111、静止画/動画切替スイッチ112および決定キー114からの入力信号に基づいて各部の撮像制御を行う。なお、これらの撮像制御については、図28乃至図42等を参照して詳細に説明する。また、撮像制御部201は、特許請求の範囲に記載の制御部の一例である。   The imaging control unit 201 controls each unit related to imaging processing. For example, the imaging control unit 201 determines the rotation state of the second housing 120 relative to the first housing 110 based on the detection result from the rotation state detection unit 150, and based on the determination result, The imaging control of each part is performed. For example, the imaging control unit 201 determines the range of the target image to be displayed or recorded among the image data generated by the imaging elements 134 to 136 based on the determination result. In addition, the imaging control unit 201 performs imaging control of each unit based on input signals from the imaging range switch 111, the still image / moving image switch 112, and the enter key 114. These imaging controls will be described in detail with reference to FIGS. 28 to 42 and the like. The imaging control unit 201 is an example of a control unit described in the claims.

ここで、本発明の第1の実施の形態では、撮像部130により生成された画像を記録する際の撮像モード(画像サイズ等)をユーザが予め設定することができる。例えば、撮像モードを設定するためのメニュー画面を表示部140に表示させ、メニュー画面において決定キー114および十字キー115を用いて、ユーザが所望する設定内容を入力する。なお、撮像モードには、例えば、撮像時に使用する撮像素子の個数と、記録時における画像の垂直方向画像サイズおよび水平方向画像サイズとを含む。また、撮像モードには、例えば、画像の有効領域と垂直同期信号との間隔を表す垂直バックポーチおよび垂直フロントポーチと、画像の有効領域と水平同期信号との間隔を表す水平バックポーチと水平フロントポーチとを含む。また、撮像制御部201と、DSP200内の各部と、撮像素子134乃至136とは、撮像モードを保持するレジスタを備える。   Here, in the first embodiment of the present invention, the user can set in advance an imaging mode (image size or the like) for recording an image generated by the imaging unit 130. For example, a menu screen for setting the imaging mode is displayed on the display unit 140, and the setting content desired by the user is input using the enter key 114 and the cross key 115 on the menu screen. Note that the imaging mode includes, for example, the number of imaging elements used during imaging, and the vertical image size and horizontal image size of the image during recording. In addition, the imaging mode includes, for example, a vertical back porch and a vertical front porch that represent the interval between the effective area of the image and the vertical synchronizing signal, and a horizontal back porch and a horizontal front that represent the interval between the effective area of the image and the horizontal synchronizing signal. Including pouch. In addition, the imaging control unit 201, each unit in the DSP 200, and the imaging elements 134 to 136 each include a register that holds an imaging mode.

ここで、撮像制御部201は、ユーザにより撮像モードが設定された場合には、この設定された撮像モードをDSP200内の各部および撮像素子134乃至136に通知し、各部が備えるレジスタに保持させる。このように、各部が備えるレジスタに、ユーザにより設定された撮像モードの設定内容を保持させることにより、複数の撮影条件をユーザが容易に切り替えて使用することができる。   Here, when the imaging mode is set by the user, the imaging control unit 201 notifies each of the units in the DSP 200 and the imaging elements 134 to 136 of the set imaging mode, and stores them in a register included in each unit. As described above, by causing the register included in each unit to hold the setting content of the imaging mode set by the user, the user can easily switch and use a plurality of shooting conditions.

撮像制御部201は、例えば、内蔵するレジスタに保持されている撮像モードの設定内容に基づいて、垂直同期信号、水平同期信号およびクロック信号を、DSP200内の各部および撮像素子134乃至136に通知する。また、撮像制御部201は、例えば、内蔵するレジスタに保持されている撮像モードの設定内容に基づいて、垂直同期信号、水平同期信号およびクロック信号を、DSP200内の表示に関する各部および表示部140に通知する。また、撮像制御部201は、例えば、電源制御部207に対して、電源のオン/オフを制御する信号を出力する。   For example, the imaging control unit 201 notifies each unit in the DSP 200 and the imaging elements 134 to 136 of the vertical synchronization signal, the horizontal synchronization signal, and the clock signal based on the setting contents of the imaging mode held in the built-in register. . In addition, the imaging control unit 201 sends, for example, a vertical synchronization signal, a horizontal synchronization signal, and a clock signal to each display-related unit in the DSP 200 and the display unit 140 based on the setting contents of the imaging mode held in the built-in register. Notice. In addition, the imaging control unit 201 outputs a signal for controlling power on / off to the power control unit 207, for example.

CPU202は、プログラムメモリ160に記憶されている各種プログラムに基づいて、DSP200全体を制御するものである。   The CPU 202 controls the entire DSP 200 based on various programs stored in the program memory 160.

DMAコントローラ203は、CPU202の制御に基づいて、各メモリ間におけるデータの転送を制御するものである。   The DMA controller 203 controls data transfer between the memories based on the control of the CPU 202.

プログラムメモリとのI/F205は、プログラムメモリ160と、DSP200とを接続するためのインターフェースである。   The program memory I / F 205 is an interface for connecting the program memory 160 and the DSP 200.

画像メモリとのI/F206は、画像メモリ170と、DSP200とを接続するためのインターフェースである。   An I / F 206 with the image memory is an interface for connecting the image memory 170 and the DSP 200.

撮像素子とのI/F210は、撮像素子134乃至136と、DSP200とを接続するためのインターフェースである。すなわち、撮像素子134乃至136により生成された画像データが撮像素子とのI/F210に入力される。例えば、撮像素子134乃至136から画像データを伝送するデータ線L1が、微小振幅のLVDS方式である場合には、DSPとのI/F137乃至139において、撮像素子134乃至136からの画像データがGND電位または電源電位に変換される。また、撮像素子とのI/F210の後段には、撮像素子134乃至136に対応する3系統の画像バッファ211乃至219を備える。   An I / F 210 with the image sensor is an interface for connecting the image sensors 134 to 136 and the DSP 200. That is, image data generated by the image sensors 134 to 136 is input to the I / F 210 with the image sensor. For example, when the data line L1 for transmitting image data from the image sensors 134 to 136 is a LVDS system with a small amplitude, the image data from the image sensors 134 to 136 is GND in the I / Fs 137 to 139 with the DSP. It is converted into a potential or a power supply potential. Further, three systems of image buffers 211 to 219 corresponding to the image sensors 134 to 136 are provided in the subsequent stage of the I / F 210 with the image sensor.

画像バッファ211乃至219は、撮像素子134乃至136から出力された画像データを保持する画像バッファであり、保持されている画像データがデータバス204を介して画像メモリ170に書き込まれる。例えば、各撮像素子について3個の画像バッファを備え、これらの各画像バッファは、データバス204に接続されている。例えば、撮像素子134については、3個の画像バッファ211乃至213が備えられる。また、撮像素子135については、3個の画像バッファ214乃至216が備えられる。また、撮像素子136については、3個の画像バッファ217乃至219が備えられる。ここで、本発明の第1の実施の形態では、画像データを画像メモリ170に書込むため、画像バッファ211乃至219から画像データを読み出している間でも、撮像素子134乃至136からの新たに入力された画像データを順次保持させる。このため、画像バッファ211乃至219として、撮像素子134乃至136のそれぞれについて2個以上の画像バッファを備えていることが好ましい。   The image buffers 211 to 219 are image buffers that hold the image data output from the image sensors 134 to 136, and the held image data is written to the image memory 170 via the data bus 204. For example, each image sensor includes three image buffers, and these image buffers are connected to the data bus 204. For example, the image sensor 134 includes three image buffers 211 to 213. The image sensor 135 is provided with three image buffers 214 to 216. Further, the image sensor 136 is provided with three image buffers 217 to 219. Here, in the first embodiment of the present invention, since image data is written to the image memory 170, new input from the image sensors 134 to 136 is made even while the image data is being read from the image buffers 211 to 219. The obtained image data is sequentially held. For this reason, it is preferable that two or more image buffers are provided for each of the image sensors 134 to 136 as the image buffers 211 to 219.

画像バッファ211乃至219の1個の容量は、データバス204のビット(bit)幅よりも大きいことが好ましい。例えば、データバス204が128ビット幅である場合には、各画像バッファは128ビット以上の容量であることが好ましい。また、画像バッファ211乃至219の1個の容量は、データバス204のビット幅の2倍以上であることがより好ましい。例えば、データバス204が128ビット幅である場合には、各画像バッファは256ビット以上の容量であることがより好ましい。   One capacity of the image buffers 211 to 219 is preferably larger than the bit width of the data bus 204. For example, when the data bus 204 is 128 bits wide, each image buffer preferably has a capacity of 128 bits or more. Further, it is more preferable that one capacity of the image buffers 211 to 219 is at least twice the bit width of the data bus 204. For example, when the data bus 204 is 128 bits wide, it is more preferable that each image buffer has a capacity of 256 bits or more.

一方、画像バッファ211乃至219の1個の容量は、1つの撮像素子により生成される1枚の画像の画像データ量以下とすることができる。例えば、画像バッファ211乃至219の1個の容量は、撮像素子134の1ライン分の画素により生成される画像データのデータ量以下であることが好ましい。   On the other hand, one capacity of the image buffers 211 to 219 can be equal to or less than the image data amount of one image generated by one image sensor. For example, one capacity of the image buffers 211 to 219 is preferably equal to or less than the data amount of image data generated by pixels for one line of the image sensor 134.

本発明の第1の実施の形態では、撮像素子134乃至136と、DSP200とを接続するデータ線のビット幅は、例えば、12ビットとする。また、例えば、DSP200のデータバス204のビット幅は、128ビット幅とし、画像バッファ211乃至219の1個の容量は、それぞれ128ビットとする。   In the first embodiment of the present invention, the bit width of the data line connecting the image sensors 134 to 136 and the DSP 200 is, for example, 12 bits. For example, the bit width of the data bus 204 of the DSP 200 is 128 bits, and the capacity of one of the image buffers 211 to 219 is 128 bits.

画像信号処理部220は、撮像制御部201の制御に基づいて、画像バッファ211乃至219、データバス204を介して入力された画像データについて、各種の画像信号処理を行うものである。なお、画像信号処理部220の内部構成については、図8を参照して詳細に説明する。   The image signal processing unit 220 performs various image signal processes on the image data input via the image buffers 211 to 219 and the data bus 204 based on the control of the imaging control unit 201. The internal configuration of the image signal processing unit 220 will be described in detail with reference to FIG.

解像度変換部231は、撮像制御部201の制御に基づいて、各画像を表示部140に表示させるための解像度変換を行うものであり、解像度変換が施された画像データを画像回転処理部232に出力する。   The resolution conversion unit 231 performs resolution conversion for displaying each image on the display unit 140 based on the control of the imaging control unit 201, and the image data subjected to the resolution conversion is supplied to the image rotation processing unit 232. Output.

解像度変換部241は、撮像制御部201の制御に基づいて、各画像を外部表示装置245に表示させるための解像度変換を行うものであり、解像度変換が施された画像データを画像回転処理部242に出力する。   The resolution conversion unit 241 performs resolution conversion for displaying each image on the external display device 245 based on the control of the imaging control unit 201, and the image rotation processing unit 242 converts the image data subjected to the resolution conversion. Output to.

画像回転処理部232は、撮像制御部201の制御に基づいて、解像度変換が施された画像データについて回転処理を行うものであり、回転処理が施された画像データを表示部とのI/F233に出力する。   The image rotation processing unit 232 performs rotation processing on the image data that has undergone resolution conversion based on the control of the imaging control unit 201, and the image data that has been subjected to the rotation processing is an I / F 233 with the display unit. Output to.

画像回転処理部242は、撮像制御部201の制御に基づいて、解像度変換が施された画像データについて回転処理を行うものであり、回転処理が施された画像データを外部表示装置とのI/F243に出力する。   The image rotation processing unit 242 performs rotation processing on the image data subjected to resolution conversion based on the control of the imaging control unit 201. The image data subjected to the rotation processing is subjected to I / O with an external display device. Output to F243.

表示部とのI/F233は、表示部140と、DSP200とを接続するためのインターフェースである。   The I / F 233 with the display unit is an interface for connecting the display unit 140 and the DSP 200.

外部表示装置とのI/F243は、外部表示装置245と、DSP200とを接続するためのインターフェースである。外部表示装置245は、例えば、テレビジョンである。   The I / F 243 with the external display device is an interface for connecting the external display device 245 and the DSP 200. The external display device 245 is, for example, a television.

解像度変換部251は、撮像制御部201の制御に基づいて、各画像について記録用に解像度を変換するものであり、解像度変換が施された画像データを符号化部252に出力する。例えば、解像度変換部251は、ユーザが希望する記録画像サイズに解像度を変換する解像度変換処理や、サムネイル画像を生成するための解像度変換処理を行う。   The resolution conversion unit 251 converts the resolution of each image for recording based on the control of the imaging control unit 201, and outputs the image data subjected to the resolution conversion to the encoding unit 252. For example, the resolution conversion unit 251 performs a resolution conversion process for converting the resolution to a recording image size desired by the user and a resolution conversion process for generating a thumbnail image.

符号化部252は、解像度変換部251から出力された画像データを圧縮するための符号化を行うものであり、符号化された画像データを記録媒体とのI/F253に出力する。   The encoding unit 252 performs encoding for compressing the image data output from the resolution conversion unit 251 and outputs the encoded image data to the I / F 253 with the recording medium.

記録媒体とのI/F253は、記録媒体180と、DSP200とを接続するためのインターフェースである。   The I / F 253 with the recording medium is an interface for connecting the recording medium 180 and the DSP 200.

記録媒体180は、記録媒体とのI/F253を介して供給された画像データを記録する記録媒体である。記録媒体180は、携帯電話装置100に内蔵するようにしてもよく、着脱可能に携帯電話装置100に装着されるようにしてもよい。記録媒体180として、例えば、テープ(例えば、磁気テープ)、光ディスク(例えば、記録可能なDVD(Digital Versatile Disc))を用いることができる。また、記録媒体180として、例えば、磁気ディスク(例えば、ハードディスク)、半導体メモリ(例えば、メモリカード)、光磁気ディスク(例えば、MD(MiniDisc))を用いるようにしてもよい。   The recording medium 180 is a recording medium that records image data supplied via the I / F 253 with the recording medium. The recording medium 180 may be built in the mobile phone device 100 or may be detachably attached to the mobile phone device 100. As the recording medium 180, for example, a tape (for example, a magnetic tape) or an optical disk (for example, a recordable DVD (Digital Versatile Disc)) can be used. Further, as the recording medium 180, for example, a magnetic disk (for example, hard disk), a semiconductor memory (for example, memory card), or a magneto-optical disk (for example, MD (MiniDisc)) may be used.

なお、発振回路264乃至266およびクロック生成回路270については、図9乃至図11を参照して詳細に説明する。   Note that the oscillation circuits 264 to 266 and the clock generation circuit 270 will be described in detail with reference to FIGS.

[画像信号処理部220の内部構成例]
図8は、本発明の第1の実施の形態における画像信号処理部220の内部構成例を示すブロック図である。画像信号処理部220は、画素加算処理部221と、デモザイク処理部222と、YC変換処理部223と、画像合成処理部224と、シャープネス処理部225と、色調整処理部226と、RGB変換処理部227とを備える。
[Example of Internal Configuration of Image Signal Processing Unit 220]
FIG. 8 is a block diagram illustrating an internal configuration example of the image signal processing unit 220 according to the first embodiment of the present invention. The image signal processing unit 220 includes a pixel addition processing unit 221, a demosaic processing unit 222, a YC conversion processing unit 223, an image composition processing unit 224, a sharpness processing unit 225, a color adjustment processing unit 226, and an RGB conversion process. Part 227.

画素加算処理部221は、撮像素子134乃至136により生成された画像データについて、画素加算処理および画素間引き処理を行うものである。なお、画素加算処理部221については、図43等を参照して詳細に説明する。   The pixel addition processing unit 221 performs pixel addition processing and pixel thinning processing on the image data generated by the imaging elements 134 to 136. The pixel addition processing unit 221 will be described in detail with reference to FIG.

デモザイク処理部222は、撮像素子134乃至136により生成された画像データ(モザイク画像)の各画素位置にR、G、Bの全てのチャネルの強度が揃うようにデモザイク処理(補間処理)を行うものである。そして、デモザイク処理部222は、デモザイク処理が施されたRGB画像をYC変換処理部223に供給する。すなわち、デモザイク処理部222は、1画素につき1色分の画素データのみを有するベイヤーデータを補間して1画素についてRGBの3個の画素データを算出する。   The demosaic processing unit 222 performs demosaic processing (interpolation processing) so that the intensities of all the R, G, and B channels are aligned at each pixel position of the image data (mosaic image) generated by the imaging elements 134 to 136. It is. Then, the demosaic processing unit 222 supplies the RGB image subjected to the demosaic processing to the YC conversion processing unit 223. That is, the demosaic processing unit 222 interpolates Bayer data having only pixel data for one color per pixel, and calculates three pixel data of RGB for one pixel.

YC変換処理部223は、デモザイク処理部222により生成されたRGB画像にYCマトリックス処理およびクロマ成分に対する帯域制限を行うことにより、輝度信号(Y)および色差信号(Cr,Cb)を生成するものである。そして、生成された輝度信号(Y画像)および色差信号(C画像)が画像合成処理部224に供給される。   The YC conversion processing unit 223 generates a luminance signal (Y) and a color difference signal (Cr, Cb) by performing YC matrix processing and band limitation on chroma components on the RGB image generated by the demosaic processing unit 222. is there. Then, the generated luminance signal (Y image) and color difference signal (C image) are supplied to the image composition processing unit 224.

画像合成処理部224は、YC変換処理部223により生成された画像データについて、画像合成を行うものであり、合成された画像データをシャープネス処理部225に出力する。なお、この画像合成処理については、図18乃至図26を参照して詳細に説明する。また、画像合成処理部224は、画像合成部の一例である。   The image composition processing unit 224 performs image composition on the image data generated by the YC conversion processing unit 223, and outputs the synthesized image data to the sharpness processing unit 225. This image composition processing will be described in detail with reference to FIGS. The image composition processing unit 224 is an example of an image composition unit.

シャープネス処理部225は、画像合成処理部224により生成された画像データについて、信号変化の大きい部分を取り出して強調するシャープネス処理(被写体の輪郭を強調する処理)を行うものである。そして、シャープネス処理部225は、シャープネス処理が施された画像データを色調整処理部226に供給する。   The sharpness processing unit 225 performs sharpness processing (processing for enhancing the contour of a subject) that extracts and emphasizes a portion with a large signal change in the image data generated by the image composition processing unit 224. Then, the sharpness processing unit 225 supplies the image data subjected to the sharpness processing to the color adjustment processing unit 226.

色調整処理部226は、シャープネス処理部225によりシャープネス処理が施された画像データについて、色相および彩度の調整を行うものである。   The color adjustment processing unit 226 adjusts the hue and saturation of the image data that has been sharpened by the sharpness processing unit 225.

RGB変換処理部227は、色調整処理部226により色相および彩度の調整が施された画像データについて、YCbCrデータからRGBデータへ変換するものである。   The RGB conversion processing unit 227 converts the image data that has been adjusted in hue and saturation by the color adjustment processing unit 226 from YCbCr data to RGB data.

ここで、画像信号処理部220の信号の画像データの流れについて説明する。例えば、画像信号処理部220における各信号処理部が画像メモリ170からデータバス204を経由して画像データを直接読み込み、信号処理後の画像データをデータバス204経由で画像メモリ170に書き込む場合を想定する。この場合には、画像信号処理部220が、画像データ中の所望の位置の画像データを所望のタイミングで読み込むことができる点で有利である。しかし、データバス204を経由して伝送する必要があるデータ量が大きくなるため、データバス204の動作周波数を大きくする必要がある。このため、データバス204の設計が難しくなるとともに消費電力が大きくなるおそれがある。   Here, the flow of the image data of the signal of the image signal processing unit 220 will be described. For example, assume that each signal processing unit in the image signal processing unit 220 directly reads image data from the image memory 170 via the data bus 204 and writes the image data after signal processing to the image memory 170 via the data bus 204. To do. In this case, it is advantageous in that the image signal processing unit 220 can read image data at a desired position in the image data at a desired timing. However, since the amount of data that needs to be transmitted via the data bus 204 increases, the operating frequency of the data bus 204 needs to be increased. This makes it difficult to design the data bus 204 and may increase power consumption.

また、例えば、画像信号処理部220における各信号処理部が画像データを前段の信号処理部からデータバス204を経由せずに受け取り、信号処理後の画像データを後段の信号処理部へデータバス204を経由せずに受け渡す場合を想定する。この場合には、データバス204を使用しないため、LSIの設計が容易であり、消費電力を小さくすることができる点で有利である。しかし、各信号処理部が画像データ中の所望の位置の画像データを所望のタイミングで読み込むことができないおそれがある。   Further, for example, each signal processing unit in the image signal processing unit 220 receives image data from the preceding signal processing unit without passing through the data bus 204, and the image data after the signal processing is sent to the subsequent signal processing unit in the data bus 204. Assume a case of passing without going through. In this case, since the data bus 204 is not used, it is advantageous in that LSI design is easy and power consumption can be reduced. However, each signal processing unit may not be able to read image data at a desired position in the image data at a desired timing.

そこで、本発明の第1の実施の形態では、画像サイズが略一定であるデモザイク処理部222から色調整処理部226までの間は、データバス204の動作周波数と、消費電力の低減のため、画像データを各信号処理部間で直接受け渡す。また、解像度変換のように、大量の画像データを使用する信号処理部の前段では、画像メモリ170へ画像データを書き込み、解像度変換を行う際は、画像メモリ170から所望の画像データを読み出す例を示す。   Therefore, in the first embodiment of the present invention, between the demosaic processing unit 222 and the color adjustment processing unit 226 whose image size is substantially constant, in order to reduce the operating frequency of the data bus 204 and power consumption, The image data is directly transferred between the signal processing units. In addition, an example in which image data is written to the image memory 170 in the previous stage of a signal processing unit that uses a large amount of image data, such as resolution conversion, and desired image data is read from the image memory 170 when performing resolution conversion. Show.

[クロック生成回路の構成例]
図9は、本発明の第1の実施の形態におけるクロック生成回路270の内部構成例を示すブロック図である。クロック生成回路270は、高周波クロック用逓倍器20、24と、高周波クロック用分周器21、25と、低周波クロック用逓倍器22、26と、低周波クロック用分周器23、27とを備える。また、クロック生成回路270は、クロック用逓倍器28、30と、クロック用分周器29、31とを備える。ここで、各逓倍器は、入力されたクロックの周波数を逓倍するものである。また、各分周器は、入力されたクロックの周波数を1/n(nは任意の整数)にするものである。なお、この例では、クロック生成回路270が、図7に示すDSP200における各部の接続先に応じて少なくとも6種類のクロックを発生させる場合を例にして示す。
[Configuration example of clock generation circuit]
FIG. 9 is a block diagram illustrating an internal configuration example of the clock generation circuit 270 according to the first embodiment of the present invention. The clock generation circuit 270 includes high-frequency clock multipliers 20 and 24, high-frequency clock dividers 21 and 25, low-frequency clock multipliers 22 and 26, and low-frequency clock dividers 23 and 27. Prepare. The clock generation circuit 270 includes clock multipliers 28 and 30 and clock frequency dividers 29 and 31. Here, each multiplier multiplies the frequency of the input clock. Each frequency divider makes the frequency of the input clock 1 / n (n is an arbitrary integer). In this example, the case where the clock generation circuit 270 generates at least six types of clocks according to the connection destination of each unit in the DSP 200 shown in FIG. 7 is shown as an example.

発振子261乃至263は、DSP200内に供給されるクロック信号を発生させるための振動源であり、例えば、水晶発振子が用いられる。   The oscillators 261 to 263 are vibration sources for generating a clock signal supplied to the DSP 200. For example, crystal oscillators are used.

発振回路264乃至266は、DSP200内に供給されるクロック信号を生成するものであり、生成されたクロック信号をクロック生成回路270に出力する。   The oscillation circuits 264 to 266 generate a clock signal supplied to the DSP 200, and output the generated clock signal to the clock generation circuit 270.

クロック生成回路270が生成する6種類のクロックのうち2種類は、撮像素子134乃至136に供給されるクロックである。この撮像素子134乃至136に供給されるクロックのうち1種類は、画素数が比較的大きい画像を生成するための比較的大きい周波数のクロックである。このクロックは、発振回路264から出力されたクロックが高周波クロック用逓倍器20に入力されて逓倍され、この逓倍されたクロックが高周波クロック用分周器21に入力されて分周されることにより生成される。また、他の1種類は、画素数が比較的小さい画像を生成するための比較的小さい周波数のクロックである。このクロックは、発振回路264から出力されたクロックが低周波クロック用逓倍器22に入力されて逓倍され、この逓倍されたクロックが低周波クロック用分周器23に入力されて分周されることにより生成される。そして、高周波クロック用分周器21および低周波クロック用分周器23により分周されたクロックが、クロック生成回路270において生成されたクロックとして出力され、DSP200内部を経由して撮像素子134乃至136に供給される。ここで、撮像素子134乃至136に供給するクロックは、この例で示した2種類に限らず、撮像動作により生成される画像サイズに応じて、さらに多くの種類を生成して用いることが好ましい。   Two of the six types of clocks generated by the clock generation circuit 270 are clocks supplied to the image sensors 134 to 136. One of the clocks supplied to the image sensors 134 to 136 is a clock having a relatively large frequency for generating an image having a relatively large number of pixels. This clock is generated by the clock output from the oscillation circuit 264 being input to the high-frequency clock multiplier 20 and multiplied, and the multiplied clock being input to the high-frequency clock divider 21 and being divided. Is done. Another type is a clock having a relatively low frequency for generating an image having a relatively small number of pixels. The clock output from the oscillation circuit 264 is input to the low-frequency clock multiplier 22 and multiplied, and the multiplied clock is input to the low-frequency clock divider 23 and divided. Is generated by The clocks divided by the high-frequency clock divider 21 and the low-frequency clock divider 23 are output as clocks generated by the clock generation circuit 270, and the imaging elements 134 to 136 are passed through the DSP 200. To be supplied. Here, the clocks supplied to the imaging elements 134 to 136 are not limited to the two types shown in this example, and it is preferable to generate and use more types according to the image size generated by the imaging operation.

クロック生成回路270が生成する6種類のクロックのうち他の2種類は、DSP200内部で使用されるクロックである。このDSP200内部で使用されるクロックのうち1種類は、画素数が比較的大きい画像を生成するための比較的大きい周波数のクロックである。このクロックは、発振回路264から出力されたクロックが高周波クロック用逓倍器24に入力されて逓倍され、この逓倍されたクロックが高周波クロック用分周器25に入力されて分周されることにより生成される。また、他の1種類は、画素数が比較的小さい画像を生成するための比較的小さい周波数のクロックである。このクロックは、発振回路264から出力されたクロックが低周波クロック用逓倍器26に入力されて逓倍され、この逓倍されたクロックが低周波クロック用分周器27に入力されて分周されることにより生成される。そして、高周波クロック用分周器25および低周波クロック用分周器27により分周されたクロックが、クロック生成回路270において生成されたクロックとして出力され、DSP200内部に供給される。ここで、DSP200内部で使用されるクロックは、この例で示した2種類に限らず、撮像動作により生成される画像サイズに応じて、さらに多くの種類を生成して用いることが好ましい。   The other two types of the six types of clocks generated by the clock generation circuit 270 are clocks used in the DSP 200. One type of clock used in the DSP 200 is a clock having a relatively large frequency for generating an image having a relatively large number of pixels. This clock is generated by the clock output from the oscillation circuit 264 being input to the high-frequency clock multiplier 24 and being multiplied, and the multiplied clock being input to the high-frequency clock divider 25 for frequency division. Is done. Another type is a clock having a relatively low frequency for generating an image having a relatively small number of pixels. The clock output from the oscillation circuit 264 is input to the low frequency clock multiplier 26 and multiplied, and the multiplied clock is input to the low frequency clock divider 27 and divided. Is generated by Then, the clock divided by the high frequency clock divider 25 and the low frequency clock divider 27 is output as a clock generated in the clock generation circuit 270 and supplied to the DSP 200. Here, the clocks used in the DSP 200 are not limited to the two types shown in this example, and it is preferable to generate and use more types according to the image size generated by the imaging operation.

クロック生成回路270が生成する6種類のクロックのうち残りの2種類は、表示部140に画像を表示するための画素クロックと、携帯電話装置100外部の表示装置(例えば、外部表示装置245)に画像を表示するための画素クロックである。表示部140に画像を表示するための画素クロックは、発振回路265から出力されたクロックがクロック用逓倍器28に入力されて逓倍され、この逓倍されたクロックがクロック用分周器29に入力されて分周されることにより生成される。また、携帯電話装置100外部の表示装置に画像を表示するための画素クロックは、発振回路266から出力されたクロックがクロック用逓倍器30により逓倍され、この逓倍されたクロックがクロック用分周器31に入力されて分周されることにより生成される。そして、クロック用分周器29により分周されたクロックが、クロック生成回路270において生成されたクロックとして出力され、DSP200内部を経由して表示部140に供給される。また、クロック用分周器31により分周されたクロックが、クロック生成回路270において生成されたクロックとして出力され、DSP200内部を経由して携帯電話装置100外部の表示装置に供給される。ここで、これらの画像表示のためのクロックは、この例で示した2種類に限らず、接続する表示装置の仕様に応じて、さらに多くの種類を生成して用いることが好ましい。   The remaining two types of the six types of clocks generated by the clock generation circuit 270 are a pixel clock for displaying an image on the display unit 140 and a display device (for example, the external display device 245) outside the mobile phone device 100. This is a pixel clock for displaying an image. The pixel clock for displaying an image on the display unit 140 is multiplied by the clock output from the oscillation circuit 265 being input to the clock multiplier 28, and the multiplied clock is input to the clock divider 29. Generated by frequency division. Further, the pixel clock for displaying an image on a display device outside the mobile phone device 100 is multiplied by the clock multiplier 30 by the clock output from the oscillation circuit 266, and this multiplied clock is the clock divider. It is generated by being inputted to 31 and divided. The clock divided by the clock divider 29 is output as a clock generated by the clock generation circuit 270 and supplied to the display unit 140 via the DSP 200. Further, the clock frequency-divided by the clock frequency divider 31 is output as a clock generated by the clock generation circuit 270 and supplied to the display device outside the mobile phone device 100 via the DSP 200. Here, the clocks for displaying these images are not limited to the two types shown in this example, and it is preferable to generate and use more types according to the specifications of the connected display device.

図10および図11は、本発明の第1の実施の形態におけるクロック生成回路270の変形例を示すブロック図である。   10 and 11 are block diagrams showing modifications of the clock generation circuit 270 according to the first embodiment of the present invention.

図10には、撮像素子134乃至136に供給される2種類のクロックが1つの逓倍器(クロック用逓倍器32)を共有して使用し、DSP200内部に供給される2種類のクロックが1つの逓倍器(クロック用逓倍器33)を共有して使用する例を示す。   In FIG. 10, two types of clocks supplied to the imaging devices 134 to 136 share one multiplier (clock multiplier 32), and two types of clocks supplied to the DSP 200 are one. An example of sharing and using a multiplier (clock multiplier 33) is shown.

図11には、撮像素子134乃至136に供給される複数種類のクロックと、DSP200内部に供給される複数種類のクロックとが、1つの逓倍器(クロック用逓倍器34)を共有して使用する例を示す。   In FIG. 11, a plurality of types of clocks supplied to the imaging devices 134 to 136 and a plurality of types of clocks supplied to the DSP 200 share one multiplier (clock multiplier 34). An example is shown.

[撮像素子の構成例および画素読出例]
図12は、本発明の第1の実施の形態における撮像素子の内部構成例を示す図である。ここで、撮像素子134乃至136の内部構成は略同一であるため、図12では、撮像素子134のみを示し、他の撮像素子の図示および説明を省略する。また、図12では、撮像素子134として、CMOS型撮像素子を例にして説明する。
[Configuration Example of Image Sensor and Pixel Reading Example]
FIG. 12 is a diagram illustrating an example of the internal configuration of the image sensor according to the first embodiment of the present invention. Here, since the internal configurations of the image sensors 134 to 136 are substantially the same, only the image sensor 134 is shown in FIG. 12, and illustration and description of other image sensors are omitted. In FIG. 12, a CMOS type image sensor will be described as an example of the image sensor 134.

撮像素子134は、画素40乃至47と、垂直走査回路340と、水平走査回路345とを備える。また、撮像素子134は、ADC(A/D(Analog/Digital)コンバータ)350乃至353と、加算器354乃至357、366と、カラムラッチ358乃至361とを備える。また、撮像素子134は、スイッチ362乃至365と、出力ラッチ367と、出力回路368と、レジスタ370、380と、逓倍器/分周器391、392とを備える。なお、一般的に、撮像素子の縦方向の並びをカラムと称し、横方向の並びをロウと称する。このため、以下では、カラムおよびロウの名称を適宜用いて説明する。また、この例では、撮像素子134において、一部の画素(画素40乃至47)と、これに関連する各部とを代表して示し、他の構成についての図示および説明を省略する。   The image sensor 134 includes pixels 40 to 47, a vertical scanning circuit 340, and a horizontal scanning circuit 345. The image sensor 134 includes ADCs (A / D (Analog / Digital) converters) 350 to 353, adders 354 to 357 and 366, and column latches 358 to 361. The image sensor 134 includes switches 362 to 365, an output latch 367, an output circuit 368, registers 370 and 380, and multipliers / dividers 391 and 392. In general, the vertical arrangement of image sensors is referred to as a column, and the horizontal arrangement is referred to as a row. For this reason, in the following description, the names of columns and rows are used as appropriate. Further, in this example, in the image sensor 134, some pixels (pixels 40 to 47) and respective parts related thereto are shown as representatives, and illustration and description of other configurations are omitted.

撮像素子134において、ロウ方向に垂直制御線341乃至344が配線されており、同一ライン上にある画素が1つおきに同一の垂直制御線に接続される。また、カラム方向にデータ読出線346乃至349が配線されており、同一ライン上にある画素が1つの読み出し線を共有する。   In the image sensor 134, vertical control lines 341 to 344 are wired in the row direction, and every other pixel on the same line is connected to the same vertical control line. Further, data readout lines 346 to 349 are wired in the column direction, and pixels on the same line share one readout line.

垂直走査回路340は、ロウ方向に配線されている垂直制御線341乃至344により、画素40乃至47と、データ読出線346乃至349との間のスイッチをオン/オフするものである。すなわち、ロウ方向の各画素において、1本の垂直制御線により、ロウ方向の同一ライン上にある画素のうち、1つおきの画素が共通にオン/オフされる。また、画素40乃至47の画像データが、各画素とこれに対応するデータ読出線との間のスイッチを経由して、データ読出線346乃至349に出力される。   The vertical scanning circuit 340 turns on / off the switches between the pixels 40 to 47 and the data readout lines 346 to 349 by the vertical control lines 341 to 344 wired in the row direction. That is, in each pixel in the row direction, every other pixel among the pixels on the same line in the row direction is turned on / off in common by one vertical control line. Further, the image data of the pixels 40 to 47 is output to the data read lines 346 to 349 via the switches between the respective pixels and the corresponding data read lines.

水平走査回路345は、カラムラッチ358乃至361と、出力データ線369との間のスイッチ362乃至365をオン/オフするものである。垂直走査回路340によるスイッチのオン/オフと、水平走査回路345によるスイッチ362乃至365のオン/オフとの選択により、各画素を順次選択しながら時分割で全画素の信号を読み出すことができる。ここで、出力データ線369は、各カラムの出力結果を撮像素子134から出力するための出力データ線である。   The horizontal scanning circuit 345 turns on / off switches 362 to 365 between the column latches 358 to 361 and the output data line 369. By selecting ON / OFF of the switch by the vertical scanning circuit 340 and ON / OFF of the switches 362 to 365 by the horizontal scanning circuit 345, signals of all the pixels can be read out in time division while sequentially selecting each pixel. Here, the output data line 369 is an output data line for outputting the output result of each column from the image sensor 134.

ここで、撮像素子134には、画素40乃至47が2次元正方格子状に配置されている。なお、画素40乃至47の構成は同一であるため、ここでは、画素40を例にして説明する。画素40は、受光部であるフォトダイオード51と、アンプ52と、スイッチ53とにより構成されている。フォトダイオード51は、画素に照射された光をその光量に応じた電荷に変換するものである。アンプ52は、フォトダイオード51により変換された電荷の信号を増幅する増幅器である。スイッチ53は、垂直制御線342のオンオフに応じて、画素40の電荷転送を制御するスイッチである。   Here, in the image sensor 134, the pixels 40 to 47 are arranged in a two-dimensional square lattice. Since the configurations of the pixels 40 to 47 are the same, the pixel 40 will be described as an example here. The pixel 40 includes a photodiode 51 that is a light receiving unit, an amplifier 52, and a switch 53. The photodiode 51 converts light emitted to the pixel into electric charges corresponding to the amount of light. The amplifier 52 is an amplifier that amplifies the charge signal converted by the photodiode 51. The switch 53 is a switch that controls the charge transfer of the pixel 40 in accordance with on / off of the vertical control line 342.

また、各カラムには、ADC350乃至353と、加算器354乃至357と、カラムラッチ358乃至361とが備えられている。以下では、データ読出線346に接続されているADC350と、加算器354と、カラムラッチ358とを例にして説明する。   Each column includes ADCs 350 to 353, adders 354 to 357, and column latches 358 to 361. Hereinafter, the ADC 350, the adder 354, and the column latch 358 connected to the data read line 346 will be described as an example.

ADC350は、アナログ値である各画素からの画像データをデジタルデータ(デジタル値)に変換するADコンバータである。   The ADC 350 is an AD converter that converts image data from each pixel that is an analog value into digital data (digital value).

加算器354は、ADC350によりデジタルデータが変換される毎に、その変換後の新たなデジタルデータを、カラムラッチ358に保存されているデジタルデータに加算するものである。   Each time digital data is converted by the ADC 350, the adder 354 adds new digital data after the conversion to the digital data stored in the column latch 358.

カラムラッチ358は、ADC350により変換されたデジタルデータを順次保存するカラムラッチである。ここで、カラムラッチとは、AD変換後のデジタルデータを保存するデータ保存回路を示す名称である。このデータ保存回路として、線形回路により構成されたラッチ以外に、同期回路により構成されたフリップフロップ等のデジタルデータを保存することができる各回路を用いることができる。   The column latch 358 is a column latch that sequentially stores the digital data converted by the ADC 350. Here, the column latch is a name indicating a data storage circuit that stores digital data after AD conversion. As the data storage circuit, in addition to the latch configured by a linear circuit, each circuit capable of storing digital data such as a flip-flop configured by a synchronous circuit can be used.

例えば、画素40から出力された画像データは、ADC350、加算器354、カラムラッチ358を経由した後に、データ読出線346に接続されているスイッチ362を経由して、出力データ線390に出力される。ここで、本発明の第1の実施の形態では、各カラムのデータ読出線と同様に、出力データ線390にも加算器366と出力ラッチ367とを備え、画像データの加算と保存とを行う。また、出力ラッチ367に保存されている画像データが、出力回路368を経由して出力データ線369に出力される。なお、出力データ線369からの画像データは、上述したデータ線L1に出力される。   For example, the image data output from the pixel 40 passes through the ADC 350, the adder 354, and the column latch 358, and then is output to the output data line 390 via the switch 362 connected to the data read line 346. . Here, in the first embodiment of the present invention, the output data line 390 includes the adder 366 and the output latch 367 as well as the data read line of each column, and performs addition and storage of image data. . Further, the image data stored in the output latch 367 is output to the output data line 369 via the output circuit 368. Note that the image data from the output data line 369 is output to the data line L1 described above.

逓倍器/分周器391、392は、DSP200からの制御に基づいて、入力されたクロックの周波数の逓倍、または、入力されたクロックの周波数の分周を行うものである。そして、逓倍器/分周器391、392は、生成されたクロックを、垂直走査回路340、水平走査回路345および出力回路368に供給する。   The multipliers / dividers 391 and 392 perform frequency multiplication of the input clock or frequency division of the input clock based on control from the DSP 200. Then, the multiplier / dividers 391 and 392 supply the generated clock to the vertical scanning circuit 340, the horizontal scanning circuit 345, and the output circuit 368.

信号線393は、DSP200から垂直同期信号を供給する垂直同期信号線である。信号線394は、DSP200から水平同期信号を供給する水平同期信号線である。   The signal line 393 is a vertical synchronization signal line that supplies a vertical synchronization signal from the DSP 200. The signal line 394 is a horizontal synchronization signal line that supplies a horizontal synchronization signal from the DSP 200.

また、信号線395は、DSP200からクロック信号を供給するクロック信号線である。信号線396は、DSP200から撮像動作のオン/オフを制御するための信号線、および、画素間引きを制御するための信号線である。信号線397は、撮像素子134とDSP200との間の双方向の通信線である。信号線398は電源供給線である。   The signal line 395 is a clock signal line that supplies a clock signal from the DSP 200. The signal line 396 is a signal line for controlling on / off of the imaging operation from the DSP 200 and a signal line for controlling pixel thinning. A signal line 397 is a bidirectional communication line between the image sensor 134 and the DSP 200. A signal line 398 is a power supply line.

なお、レジスタ370、380は、撮像動作に関する各設定値が保持されているレジスタであり、保持内容の一例を図13に示す。   Note that the registers 370 and 380 are registers that hold setting values related to the imaging operation, and an example of the held contents is shown in FIG.

図13は、本発明の第1の実施の形態における撮像素子134が備えるレジスタ370および380の保持内容を模式的に示す図である。レジスタ370および380には、撮像動作に関する各設定値が保持され、垂直走査回路340および水平走査回路345に供給される。なお、これらの設定値は、ユーザ操作により変更可能としてもよい。これらの保持内容、および、これに基づいて行われる撮像動作については、図28および図42を参照して詳細に説明する。   FIG. 13 is a diagram schematically showing the contents held in the registers 370 and 380 included in the image sensor 134 according to the first embodiment of the present invention. The registers 370 and 380 hold setting values related to the imaging operation and are supplied to the vertical scanning circuit 340 and the horizontal scanning circuit 345. Note that these setting values may be changeable by a user operation. These holding contents and the imaging operation performed based on them will be described in detail with reference to FIG. 28 and FIG.

図14乃至図16は、本発明の第1の実施の形態における撮像素子134における各画素への制御信号と、これらの各画素から出力されるデータとの様子を模式的に表すタイミングチャートである。ここで、図14乃至図16に示す横軸は時間軸である。また、図14乃至図16に示す垂直制御線341乃至344、カラムラッチ358乃至361には、対応する図12と同一の符号を付して説明する。また、図14乃至図16に示すカラムラッチ読出し信号には、対応する図12に示すスイッチ362乃至365と同一の符号を付して説明する。   FIGS. 14 to 16 are timing charts schematically showing the state of the control signal to each pixel in the image sensor 134 and the data output from each pixel in the first embodiment of the present invention. . Here, the horizontal axis shown in FIGS. 14 to 16 is a time axis. Further, the vertical control lines 341 to 344 and the column latches 358 to 361 shown in FIGS. 14 to 16 will be described with the same reference numerals as those in FIG. Further, the column latch read signal shown in FIGS. 14 to 16 is described with the same reference numerals as the corresponding switches 362 to 365 shown in FIG.

図14に示す例では、撮像素子134における各画素のうち全画素を読出す場合における撮像動作について説明する。   In the example illustrated in FIG. 14, an imaging operation in the case where all the pixels in the imaging element 134 are read will be described.

垂直制御線341乃至344を使用して、あるロウ(例えば、画素40乃至43のライン)に接続された全ての撮像素子134の画素データを、各カラムのデータ読出線346乃至349に出力させる。続いて、データ読出線346乃至349に出力された画素データが、各カラムのADC350乃至353によりAD変換される。続いて、ADC350乃至353の出力が、各カラムのカラムラッチ358乃至361に保持される。例えば、図14に示すカラムラッチ358乃至361に画素データd1乃至d4が保持される。続いて、カラムラッチ358乃至361から出力データ線390への読出しスイッチ362乃至365を、水平走査回路345が1列ずつ順番にオンさせる。これにより1ライン中の各画素データを順番に読み出すことができる。例えば、図14に示す出力データ線390に画素データd1が出力された後に画素データd2乃至d3が順次出力される。   The vertical control lines 341 to 344 are used to output the pixel data of all the image sensors 134 connected to a certain row (for example, the lines of the pixels 40 to 43) to the data readout lines 346 to 349 of each column. Subsequently, the pixel data output to the data readout lines 346 to 349 are AD converted by the ADCs 350 to 353 of each column. Subsequently, the outputs of the ADCs 350 to 353 are held in the column latches 358 to 361 of the respective columns. For example, the pixel data d1 to d4 are held in the column latches 358 to 361 shown in FIG. Subsequently, the horizontal scanning circuit 345 sequentially turns on the readout switches 362 to 365 from the column latches 358 to 361 to the output data line 390 one column at a time. Thereby, each pixel data in one line can be read in order. For example, the pixel data d2 to d3 are sequentially output after the pixel data d1 is output to the output data line 390 shown in FIG.

以降も同様に、水平方向の1ラインの読出しが終了する毎に、各画素から垂直信号線への読出しスイッチを、垂直走査回路340が1行ずつ順番にオンさせる。これにより各行の画素データがADC350乃至353に入力される。この入力された画素データがADC350乃至353によりAD変換された後は、各画素データが、各カラムのカラムラッチ358乃至361に保持される。例えば、図14に示すカラムラッチ358乃至361に画素データd5乃至d8が保持される。続いて、カラムラッチ358乃至361から出力データ線390への読出しスイッチ362乃至365を、水平走査回路345が1列ずつ順番にオンさせ、1ライン中の各画素データを順番に読み出す。例えば、図14に示す出力データ線390に画素データd5乃至d8が順次出力される。   Similarly, every time readout of one line in the horizontal direction is completed, the vertical scanning circuit 340 sequentially turns on the readout switch from each pixel to the vertical signal line one row at a time. As a result, the pixel data of each row is input to the ADCs 350 to 353. After the input pixel data is AD-converted by the ADCs 350 to 353, each pixel data is held in the column latches 358 to 361 of each column. For example, the pixel data d5 to d8 are held in the column latches 358 to 361 shown in FIG. Subsequently, the horizontal scanning circuit 345 sequentially turns on the read switches 362 to 365 from the column latches 358 to 361 to the output data line 390 one column at a time, and sequentially reads each pixel data in one line. For example, the pixel data d5 to d8 are sequentially output to the output data line 390 shown in FIG.

図15に示す例では、撮像素子134における各画素のうち、画素間引き読出しの一例として水平間引きして読出す場合における撮像動作について説明する。   In the example illustrated in FIG. 15, an imaging operation in the case of performing horizontal thinning and reading out as an example of pixel thinning out of each pixel in the image sensor 134 will be described.

各画素から垂直信号線346乃至349への読出しスイッチを、垂直走査回路340が所望の列のみオンさせる。これにより特定の行の画素データのみがADC350乃至353に入力され、ADC350乃至353によりAD変換される。そして、ADC350乃至353の出力が、各カラムのカラムラッチ358乃至361に保持される。例えば、垂直制御線342および344に接続されている読出しスイッチをオンさせることにより、図15に示すカラムラッチ358および360に画素データd1およびd3が保持される。この1行の読出しが終了した後に、例えば、垂直制御線342および344に接続されている読出しスイッチをオンさせることにより、図15に示すカラムラッチ358および360に画素データd5およびd7が保持される。   The vertical scanning circuit 340 turns on the readout switch from each pixel to the vertical signal lines 346 to 349 only in a desired column. As a result, only pixel data of a specific row is input to the ADCs 350 to 353, and AD conversion is performed by the ADCs 350 to 353. The outputs of the ADCs 350 to 353 are held in the column latches 358 to 361 of the respective columns. For example, by turning on the readout switch connected to the vertical control lines 342 and 344, the pixel data d1 and d3 are held in the column latches 358 and 360 shown in FIG. After the readout of one row is completed, for example, by turning on the readout switch connected to the vertical control lines 342 and 344, the pixel data d5 and d7 are held in the column latches 358 and 360 shown in FIG. .

また、カラムラッチ358乃至361から出力データ線390への読出しスイッチを、水平走査回路345が所望の列のみオンさせる。これにより1ライン中の特定の画素データのみを順番に読み出すことができる。   In addition, the horizontal scanning circuit 345 turns on a read switch from the column latches 358 to 361 to the output data line 390 only in a desired column. Thereby, only specific pixel data in one line can be read in order.

例えば、水平方向において、N個の画素データの中から1個の画素データを読み出す場合には、水平方向に1/N間引き読出しとなる。例えば、2個中に1個の画素データを読み出す場合には、水平方向に1/2間引き読出しとなり、4個中に1個の画素データを読み出す場合には、水平方向に1/4間引き読出しとなる。   For example, when one pixel data is read out from N pieces of pixel data in the horizontal direction, 1 / N thinning-out reading is performed in the horizontal direction. For example, when one pixel data is read out of two pixels, 1/2 thinning readout is performed in the horizontal direction, and when one pixel data is read out of four pixels, 1/4 thinning out reading is performed in the horizontal direction. It becomes.

水平方向(すなわち、ロウ方向)への間引き動作と同時に、垂直方向(すなわち、カラム方向)への間引き動作も行うことができる。例えば、垂直方向において、M本のラインの中からに1本のラインの画素データを読み出す場合には、垂直方向に1/M間引き読出しとなる。例えば、2本中に1本のロウの画素データを読み出す場合には、垂直方向に1/2間引き読出しとなり、4本中に1本のロウの画素データを読み出す場合には、垂直方向に1/4間引き読出しとなる。   A thinning operation in the vertical direction (that is, the column direction) can be performed simultaneously with a thinning operation in the horizontal direction (that is, the row direction). For example, when reading pixel data of one line out of M lines in the vertical direction, 1 / M decimation reading is performed in the vertical direction. For example, when reading out pixel data of one row in two lines, 1/2 decimation reading is performed in the vertical direction, and when reading out pixel data of one row in four lines, 1 is read out in the vertical direction. / 4 thinning out reading.

図16に示す例では、撮像素子134における各画素のうち、画素加算読出を行う場合における撮像動作について説明する。この例では、画素加算読出として、水平方向の1/2の画素加算読出し、および、垂直方向の1/2の画素加算読出しの場合における撮像動作について説明する。   In the example illustrated in FIG. 16, an imaging operation in a case where pixel addition reading is performed among the pixels in the imaging element 134 will be described. In this example, an imaging operation in the case of pixel addition readout of 1/2 in the horizontal direction and pixel addition readout of 1/2 in the vertical direction will be described as pixel addition readout.

全画素読出しを行う場合と同様に、垂直制御線を使用して、あるロウに接続された全ての撮像素子134のデータを、各カラムに備わるデータ読出線へ出力させ、AD変換してカラムラッチに保持させる。ここで、全画素読出しを行う場合とは異なり、別の垂直制御線を使用して、別のロウに接続された全ての撮像素子134のデータを、各カラムに備わるデータ読出線へ出力させ、AD変換する。そして、加算器を用いて、カラムラッチのデータに加算する。垂直方向に所望の本数分だけ、この方法により各画素データの値を加算し、各カラムラッチに加算後のデータを保持させる。例えば、画素データd1+d5、d2+d6、d3+d7、d4+d8がカラムラッチ358乃至361に保持される。このように、垂直方向にN個の画素データを加算した後に、加算結果を1個の画素データとして出力することにより、垂直方向の1/Nの画素加算読出しとなる。   As in the case of all pixel readout, the vertical control lines are used to output the data of all the image sensors 134 connected to a certain row to the data readout lines provided in each column, AD conversion, and column latch To hold. Here, unlike the case of performing all-pixel readout, using another vertical control line, the data of all the image sensors 134 connected to different rows are output to the data readout line provided in each column, A / D conversion is performed. And it adds to the data of a column latch using an adder. The value of each pixel data is added by this method for the desired number in the vertical direction, and the added data is held in each column latch. For example, the pixel data d1 + d5, d2 + d6, d3 + d7, d4 + d8 are held in the column latches 358 to 361. As described above, after adding N pieces of pixel data in the vertical direction, the addition result is output as one piece of pixel data, whereby 1 / N pixel addition reading in the vertical direction is performed.

次に、カラムラッチから出力データ線390への読出しスイッチを、水平走査回路345が1列ずつ順番にオンさせる。この場合に、各カラムラッチから出力データ線390に読み出されたデータを、出力データ線390の加算器366により加算し、出力ラッチ367に保持させる。そして、水平方向に所望のカラム数分だけ加算処理を繰り返し、加算後のデータを撮像素子134に出力する。例えば、画素データd1+d5と、画素データd2+d6とが加算されたデータd1+d5+d2+d6が、出力データ線369を介して撮像素子134に出力される。このように、水平方向にM本のロウの画素データを加算することにより、水平方向に1/Mの画素加算読出しとなる。以上の処理を行うことにより、水平方向(ロウ方向)の加算処理と垂直方向(カラム方向)との加算処理が可能となる。   Next, the horizontal scanning circuit 345 turns on the readout switch from the column latch to the output data line 390 one by one in order. In this case, the data read from each column latch to the output data line 390 is added by the adder 366 of the output data line 390 and held in the output latch 367. Then, the addition process is repeated for the desired number of columns in the horizontal direction, and the added data is output to the image sensor 134. For example, data d1 + d5 + d2 + d6 obtained by adding the pixel data d1 + d5 and the pixel data d2 + d6 is output to the image sensor 134 via the output data line 369. Thus, by adding M row pixel data in the horizontal direction, 1 / M pixel addition reading is performed in the horizontal direction. By performing the above processing, addition processing in the horizontal direction (row direction) and addition processing in the vertical direction (column direction) can be performed.

ここで、図15に示す間引き読出し、および、図16に示す画素加算の読出しを行う場合には、複数種類の間引き率、画素加算率に対応して撮像素子を動作させることが望ましい。そこで、以下では、複数種類の間引き率および画素加算率に対応して撮像素子を動作させる走査回路について説明する。   Here, in the case of performing the decimation readout shown in FIG. 15 and the pixel addition readout shown in FIG. 16, it is desirable to operate the image sensor corresponding to a plurality of types of decimation rates and pixel addition rates. Therefore, hereinafter, a scanning circuit that operates the image sensor corresponding to a plurality of types of thinning rates and pixel addition rates will be described.

図17は、本発明の第1の実施の形態における撮像素子134の間引きを行うための走査回路の一例を模式的に示す図である。図17(a)には、3種類の走査回路104乃至106を示し、図17(b)には、1/N間引き走査回路の構成例を示す。また、図17に示す例では、全画素読み出し、1/2間引き読み出し、1/4間引き読み出しの3種類の画素間引き率に対応するための撮像素子の走査回路について、撮像素子の横方向画素数が1024個の場合を例にして説明する。   FIG. 17 is a diagram schematically illustrating an example of a scanning circuit for thinning out the image sensor 134 in the first embodiment of the present invention. FIG. 17A shows three types of scanning circuits 104 to 106, and FIG. 17B shows a configuration example of the 1 / N thinning scanning circuit. In the example shown in FIG. 17, the number of pixels in the horizontal direction of the image sensor for the scanning circuit of the image sensor for supporting three types of pixel decimation rates of all pixel readout, 1/2 thinning readout, and 1/4 thinning readout. A case where there are 1024 will be described as an example.

図17(a)に示すように、走査回路104は、1024本の出力信号線(scan_a[n(0≦n≦1023:nは整数)])を備え、各信号線を1本ずつenable状態にした後にdisable状態にする1024to1走査回路である。また、走査回路105は、512本の出力信号線(scan_b[n(0≦n≦511:nは整数)])を備え、各信号線を1本ずつenable状態にした後にdisable状態にする512to1走査回路である。また、走査回路106は、256本の出力信号線(scan_c[n(0≦n≦255:nは整数)])を備え、各信号線を1本ずつenable状態にした後にdisable状態にする256to1走査回路である。   As shown in FIG. 17A, the scanning circuit 104 includes 1024 output signal lines (scan_a [n (0 ≦ n ≦ 1023: n is an integer)]), and each signal line is in an enable state. This is a 1024 to 1 scanning circuit that is placed in a disabled state after being turned on. In addition, the scanning circuit 105 includes 512 output signal lines (scan_b [n (0 ≦ n ≦ 511: n is an integer)]), and each signal line is set to the disable state after being set to the disable state. This is a scanning circuit. The scanning circuit 106 includes 256 output signal lines (scan_c [n (0 ≦ n ≦ 255: n is an integer)]). Each signal line is set to the disable state after being set to the disable state one by one. This is a scanning circuit.

図17(b)に示すように、走査回路104の1024本の出力信号線のうち、4の倍数の番号の信号線には、走査回路105の出力信号線と、走査回路106の出力信号線と、3種類の画素間引き率の何れを選択しているのかを示す制御線とが接続される。この3種類の制御線は、全画素読み出し(sel_1per1)、1/2間引き読み出し(sel_1per2)、および、1/4間引き読み出し(sel_1per4)に対応する制御線である。   As shown in FIG. 17B, among the 1024 output signal lines of the scanning circuit 104, the signal line having a number that is a multiple of 4 includes the output signal line of the scanning circuit 105 and the output signal line of the scanning circuit 106. And a control line indicating which of the three types of pixel thinning rates is selected. These three types of control lines are control lines corresponding to all pixel readout (sel_1per1), 1/2 decimation readout (sel_1per2), and 1/4 decimation readout (sel_1per4).

また、走査回路104の1024本の出力信号線のうち、4の倍数ではなく、かつ、2の倍数の番号の信号線には、走査回路105の出力信号線と、2種類の画素間引き率の何れを選択しているのかを示す制御線とが接続される。この2種類の制御線は、全画素読み出し、および、1/2間引き読み出しに対応する制御線である。   Further, out of the 1024 output signal lines of the scanning circuit 104, the signal lines having a number that is not a multiple of 4 and that is a multiple of 2 include the output signal line of the scanning circuit 105 and two types of pixel decimation rates. A control line indicating which one is selected is connected. These two types of control lines are control lines corresponding to all pixel readout and 1/2 thinning readout.

また、走査回路104の1024本の出力信号線のうち、上述した信号線以外の信号線には、全画素読み出しが選択されているのかを示す制御線が接続される。   In addition, among the 1024 output signal lines of the scanning circuit 104, a control line indicating whether all pixel readout is selected is connected to signal lines other than the signal lines described above.

図17(b)に示す走査回路からの出力(scan_out[n(0≦n≦1023:nは整数)])により、撮像素子134において、全画素読み出し、1/2間引き読み出し、1/4間引き読み出しのそれぞれの間引き処理を行うことが可能となる。   With the output from the scanning circuit shown in FIG. 17B (scan_out [n (0 ≦ n ≦ 1023: n is an integer)]), the image sensor 134 reads out all pixels, reads out 1/2, and extracts 1/4. It is possible to perform a thinning process for each reading.

[撮像系の配置構成例]
図18は、本発明の第1の実施の形態における撮像部130および被写体との関係を示す図である。なお、図18では、図3に示す撮像部130における第1の撮像系191乃至第3の撮像系193のうち、光学系131乃至133、撮像素子134乃至136のみを示し、他の構成については省略する。また、図18では、撮像対象となる被写体を被写体面300とし、第1の撮像系191の光軸194が被写体面300と直交するように、携帯電話装置100が配置されている場合を模式的に示す。
[Imaging system layout configuration example]
FIG. 18 is a diagram illustrating a relationship between the imaging unit 130 and the subject in the first embodiment of the present invention. 18 shows only the optical systems 131 to 133 and the imaging elements 134 to 136 among the first imaging system 191 to the third imaging system 193 in the imaging unit 130 shown in FIG. Omitted. Also, in FIG. 18, a case is schematically shown in which the mobile phone device 100 is arranged such that the subject to be imaged is the subject surface 300 and the optical axis 194 of the first imaging system 191 is orthogonal to the subject surface 300. Shown in

撮像部130において、第1の撮像系191の光軸194と、第2の撮像系192の光軸195とのなす角をθ0とする。同様に、第1の撮像系191の光軸194と、第3の撮像系193の光軸196とのなす角をθ0とする。なお、第3の撮像系193は、第1の撮像系191の光軸194を挟んで、第2の撮像系192と線対象の位置となるように配置される。   In the imaging unit 130, an angle formed by the optical axis 194 of the first imaging system 191 and the optical axis 195 of the second imaging system 192 is θ0. Similarly, an angle formed by the optical axis 194 of the first imaging system 191 and the optical axis 196 of the third imaging system 193 is θ0. Note that the third imaging system 193 is arranged so as to be in the position of the line target with the second imaging system 192 across the optical axis 194 of the first imaging system 191.

また、第1の撮像系191において、撮像素子134に入射される入射光路の最も外側の線と、光軸194とがなす角度をθ1とする。また、第2の撮像系192において、撮像素子135に入射される入射光路の最も外側の線と、光軸195とがなす角度をθ2とする。同様に、第3の撮像系193において、撮像素子136に入射される入射光路の最も外側の線と、光軸196とがなす角度をθ2とする。例えば、図18に示すように、撮像素子134における受光面の水平方向の幅が、撮像素子135および136における受光面の水平方向の幅よりも小さい。このため、撮像素子134に入射される画角2×θ1は、撮像素子135および136に入射される画角2×θ2よりも小さい。   In the first imaging system 191, an angle formed by the outermost line of the incident optical path incident on the imaging element 134 and the optical axis 194 is θ1. In the second imaging system 192, the angle formed by the outermost line of the incident optical path incident on the imaging device 135 and the optical axis 195 is θ2. Similarly, in the third imaging system 193, the angle formed by the outermost line of the incident optical path incident on the imaging device 136 and the optical axis 196 is θ2. For example, as shown in FIG. 18, the horizontal width of the light receiving surface of the image sensor 134 is smaller than the horizontal width of the light receiving surfaces of the image sensors 135 and 136. Therefore, the angle of view 2 × θ1 incident on the image sensor 134 is smaller than the angle of view 2 × θ2 incident on the image sensors 135 and 136.

ここで、撮像素子134に入射される画角2×θ1により、被写体面300の撮像範囲301が特定される。同様に、撮像素子135に入射される画角2×θ2により、被写体面300の撮像範囲302が特定され、撮像素子136に入射される画角2×θ2により、被写体面300の撮像範囲303が特定される。本発明の第1の実施の形態では、撮像素子134乃至136により生成される画像を合成し、パノラマ画像を生成する。このため、被写体面300の撮像範囲301と、被写体面300の撮像範囲302との一部が重なるように、各光軸のなす角が設定される。具体的には、撮像範囲301および302の一部が重なるように、第1の撮像系191の光軸194と、第2の撮像系192の光軸195とのなす角θ0と、第1の撮像系191の光軸194と、第3の撮像系193の光軸196とのなす角θ0とが設定される。なお、光軸194乃至196は同一平面に含まれる。また、光軸194乃至196が1点(交点P0)で交わるように、第1の撮像系191乃至第3の撮像系193が配置される。   Here, the imaging range 301 of the subject plane 300 is specified by the angle of view 2 × θ1 incident on the imaging element 134. Similarly, the imaging range 302 of the subject plane 300 is specified by the angle of view 2 × θ2 incident on the imaging element 135, and the imaging range 303 of the subject plane 300 is determined by the angle of view 2 × θ2 incident on the imaging element 136. Identified. In the first embodiment of the present invention, images generated by the imaging elements 134 to 136 are combined to generate a panoramic image. For this reason, the angle formed by each optical axis is set so that the imaging range 301 of the subject plane 300 and the imaging range 302 of the subject plane 300 partially overlap. Specifically, the angle θ0 formed by the optical axis 194 of the first imaging system 191 and the optical axis 195 of the second imaging system 192 is set so that a part of the imaging ranges 301 and 302 overlap with each other. An angle θ0 formed by the optical axis 194 of the imaging system 191 and the optical axis 196 of the third imaging system 193 is set. The optical axes 194 to 196 are included in the same plane. Further, the first imaging system 191 to the third imaging system 193 are arranged so that the optical axes 194 to 196 intersect at one point (intersection point P0).

ここで、第1の撮像系191のレンズ中心をR1とし、第2の撮像系192のレンズ中心をR2とし、第3の撮像系193のレンズ中心をR3とする。また、レンズ中心R1と交点P0との間の距離をL11とし、レンズ中心R2と交点P0との間の距離をL21とし、レンズ中心R3と交点P0との間の距離をL31とする。この場合に、第1の撮像系191乃至第3の撮像系193は、距離L11、L21およびL31が等しくなるように配置することが好ましい。   Here, the lens center of the first imaging system 191 is R1, the lens center of the second imaging system 192 is R2, and the lens center of the third imaging system 193 is R3. Further, the distance between the lens center R1 and the intersection point P0 is L11, the distance between the lens center R2 and the intersection point P0 is L21, and the distance between the lens center R3 and the intersection point P0 is L31. In this case, it is preferable to arrange the first imaging system 191 to the third imaging system 193 so that the distances L11, L21, and L31 are equal.

[台形歪みの補正例]
図19および図20は、本発明の第1の実施の形態における撮像部130における撮像系と、これらの撮像対象となる被写体との関係を模式的に示す図である。図19(a)には、撮像部130による撮像対象となる被写体310を模式的に示す。この被写体310は、図18に示す被写体面300に対応する被写体であるものとする。また、被写体310に対応する範囲を矩形で示し、この矩形内を格子状にして模式的に示す。
[Example of keystone correction]
19 and 20 are diagrams schematically illustrating the relationship between the imaging system in the imaging unit 130 and the subjects to be imaged in the first embodiment of the present invention. FIG. 19A schematically shows a subject 310 to be imaged by the imaging unit 130. The subject 310 is assumed to be a subject corresponding to the subject plane 300 shown in FIG. In addition, a range corresponding to the subject 310 is indicated by a rectangle, and the inside of the rectangle is schematically shown as a lattice.

図20(a)には、撮像部130による撮像対象となる被写体311乃至313を模式的に示す。被写体311は、図19(a)に示す被写体310のうち第1の撮像系191に対応する被写体であるものとする。同様に、被写体312は、被写体310のうち第2の撮像系192に対応する被写体であり、被写体313は、被写体310のうち第3の撮像系193に対応する被写体であるものとする。また、被写体311乃至313のうち、被写体311の水平方向における両方の端部と、被写体312および313の水平方向における一の端部とが重複する。   FIG. 20A schematically shows subjects 311 to 313 to be imaged by the imaging unit 130. The subject 311 is assumed to be a subject corresponding to the first imaging system 191 in the subject 310 shown in FIG. Similarly, it is assumed that the subject 312 is a subject corresponding to the second imaging system 192 of the subject 310 and the subject 313 is a subject corresponding to the third imaging system 193 of the subject 310. Of the subjects 311 to 313, both ends in the horizontal direction of the subject 311 overlap with one end in the horizontal direction of the subjects 312 and 313.

図19(b)および図20(b)には、撮像部130における撮像系を示す。なお、図19(b)および図20(b)に示す例は、符号等を省略した点以外の点は、図18に示す例と同一である。   FIG. 19B and FIG. 20B show an imaging system in the imaging unit 130. The example shown in FIGS. 19B and 20B is the same as the example shown in FIG. 18 except that the reference numerals and the like are omitted.

図21は、本発明の第1の実施の形態における撮像部130における撮像系と、これらにより生成される撮像画像との関係を模式的に示す図である。図21(a)には、撮像部130により生成される撮像画像314乃至316を模式的に示す。これらの撮像画像314乃至316は、図20(a)に示す被写体311乃至313に対応する撮像画像であり、被写体311乃至313内に示す格子状の矩形を模式的に示す。   FIG. 21 is a diagram schematically illustrating a relationship between the imaging system in the imaging unit 130 and the captured image generated by the imaging unit 130 according to the first embodiment of the present invention. FIG. 21A schematically shows captured images 314 to 316 generated by the imaging unit 130. These captured images 314 to 316 are captured images corresponding to the subjects 311 to 313 shown in FIG. 20A, and schematically show a grid-like rectangle shown in the subjects 311 to 313.

図21(a)に示すように、第2の撮像系192および第3の撮像系193の光軸195および196が被写体面300に対して直交していないため、撮像画像315および316には、台形歪みが発生する。この台形歪みについては、図22を参照して詳細に説明する。   As shown in FIG. 21A, since the optical axes 195 and 196 of the second imaging system 192 and the third imaging system 193 are not orthogonal to the subject plane 300, the captured images 315 and 316 include Trapezoidal distortion occurs. This trapezoidal distortion will be described in detail with reference to FIG.

図22は、本発明の第1の実施の形態における撮像部130における撮像系と、これらの撮像対象となる被写体との関係を模式的に示す図である。なお、図22では、説明の容易のため、第3の撮像系193に関する構成を省略して、第1の撮像系191および第2の撮像系192のみを示す。また、図22に示す例は、第3の撮像系193に関する構成を省略した点以外の点は、図18に示す例と略同一である。また、交点P0、角θ0、θ1およびθ2、レンズ中心R1およびR2、距離L11については、図18に示す例と同一であるため、同一の符号を付して示す。   FIG. 22 is a diagram schematically illustrating the relationship between the imaging system in the imaging unit 130 and the subject to be imaged in the first embodiment of the present invention. In FIG. 22, for ease of explanation, the configuration relating to the third imaging system 193 is omitted, and only the first imaging system 191 and the second imaging system 192 are shown. The example shown in FIG. 22 is substantially the same as the example shown in FIG. 18 except that the configuration relating to the third imaging system 193 is omitted. Further, the intersection point P0, angles θ0, θ1 and θ2, lens centers R1 and R2, and distance L11 are the same as those shown in FIG.

図22において、第1の撮像系191の光軸194と、被写体面300との交点をS11とする。また、第1の撮像系191の画角の右側外形線と、被写体面300との交点をS12とし、第1の撮像系191の画角の左側外形線と、被写体面300との交点をS13とする。   In FIG. 22, the intersection of the optical axis 194 of the first imaging system 191 and the subject plane 300 is defined as S11. Further, the intersection point between the right outline of the angle of view of the first imaging system 191 and the object plane 300 is S12, and the intersection of the left outline of the angle of view of the first imaging system 191 and the object plane 300 is S13. And

また、交点S11を含み、かつ、光軸194と直交する平面であって、第1の撮像系191に入射される平面状の被写体領域を被写体面S10とする。   A planar subject region that includes the intersection S11 and is orthogonal to the optical axis 194 and is incident on the first imaging system 191 is defined as a subject surface S10.

また、第2の撮像系192の光軸195と、被写体面300との交点をS21とし、第2の撮像系192の画角の右側外形線と、被写体面300との交点をS32とし、第2の撮像系192の画角の左側外形線と、被写体面300との交点をS43とする。   The intersection of the optical axis 195 of the second imaging system 192 and the object plane 300 is S21, the intersection of the right outline of the angle of view of the second imaging system 192 and the object plane 300 is S32, and the second Let S43 be the intersection of the left outline of the angle of view of the second imaging system 192 and the subject plane 300.

また、交点S21を含み、かつ、光軸195と直交する平面であって、第2の撮像系192に入射される平面状の被写体領域を被写体面S20とする。   A planar subject area that includes the intersection S21 and is orthogonal to the optical axis 195 and is incident on the second imaging system 192 is defined as a subject surface S20.

また、交点S32を含み、かつ、光軸195と直交する平面であって、第2の撮像系192に入射される平面状の被写体領域を被写体面S30とする。   A planar subject region that includes the intersection S32 and is orthogonal to the optical axis 195 and is incident on the second imaging system 192 is referred to as a subject surface S30.

また、交点S43を含み、かつ、光軸195と直交する平面であって、第2の撮像系192に入射される平面状の被写体領域を被写体面S40とする。   A planar subject region that includes the intersection S43 and is orthogonal to the optical axis 195 and is incident on the second imaging system 192 is referred to as a subject surface S40.

また、被写体面S30と光軸195との交点をS31とし、被写体面S40と光軸195との交点をS41とする。   Further, an intersection point between the subject surface S30 and the optical axis 195 is set as S31, and an intersection point between the subject surface S40 and the optical axis 195 is set as S41.

また、第2の撮像系192の画角の右側外形線と、被写体面S20との交点をS22とし、第2の撮像系192の画角の右側外形線と、被写体面S40との交点をS42とする。   Further, the intersection point between the right outline of the angle of view of the second imaging system 192 and the subject surface S20 is S22, and the intersection point of the right outline of the angle of view of the second imaging system 192 and the subject plane S40 is S42. And

また、第2の撮像系192の画角の左側外形線と、被写体面S20との交点をS23とし、第2の撮像系192の画角の右側外形線と、被写体面S30との交点をS33とする。   Further, the intersection point between the left outline of the field angle of the second imaging system 192 and the subject surface S20 is S23, and the intersection point between the right outline of the field angle of the second imaging system 192 and the subject surface S30 is S33. And

また、第2の撮像系192のレンズ中心R2を通りかつ被写体面300に垂直な線分197と、被写体面300との交点をS51とする。   In addition, an intersection of a line segment 197 that passes through the lens center R2 of the second imaging system 192 and is perpendicular to the subject surface 300 and the subject surface 300 is defined as S51.

例えば、画角の左端の点S43を含む被写体面S40と、画角の右端の点S32を含む被写体面S30とを比較すると、被写体面S40は被写体面S30よりもレンズ中心R2から遠い位置に存在する。このため、被写体面S40が撮像される場合には、被写体面S30が撮像される場合よりも広い領域が撮像される。例えば、被写体面S40上と、被写体面S30上に同じ長さの線分を被写体として配置した場合を想定する。この場合には、被写体面S30について生成された撮像画像と、被写体面S40について生成された撮像画像とを比較すると、被写体面S40について生成された撮像画像に含まれる線分の方が短くなる。   For example, when comparing the subject surface S40 including the leftmost point S43 of the angle of view with the subject surface S30 including the rightmost point S32 of the angle of view, the subject surface S40 is located farther from the lens center R2 than the subject surface S30. To do. For this reason, when the subject surface S40 is imaged, a wider area is imaged than when the subject surface S30 is imaged. For example, a case is assumed where line segments having the same length are arranged as subjects on the subject surface S40 and on the subject surface S30. In this case, when the captured image generated for the subject surface S30 is compared with the captured image generated for the subject surface S40, the line segment included in the captured image generated for the subject surface S40 is shorter.

このため、例えば、図20(a)に示す被写体312が第2の撮像系192により撮像される場合には、図21(a)に示す撮像画像315のように、被写体312に対応する領域が台形の形状となる。すなわち、図21(a)に示す例では、撮像画像315において、被写体312に対応する矩形のうち、左側の辺が右側の辺よりも短くなる。   For this reason, for example, when the subject 312 shown in FIG. 20A is imaged by the second imaging system 192, an area corresponding to the subject 312 is present as in the captured image 315 shown in FIG. It has a trapezoidal shape. In other words, in the example illustrated in FIG. 21A, in the captured image 315, the left side of the rectangle corresponding to the subject 312 is shorter than the right side.

同様に、図20(a)に示す被写体313が第3の撮像系193により撮像される場合には、図21(a)に示す撮像画像316のように、被写体313に対応する領域が台形の形状となる。このように、3眼の撮像部により生成された撮像画像には、台形歪みが発生する。そこで、以下では、撮像画像の台形歪みを補正する台形歪み補正方法について説明する。   Similarly, when the subject 313 shown in FIG. 20A is imaged by the third imaging system 193, the area corresponding to the subject 313 is trapezoidal like the captured image 316 shown in FIG. It becomes a shape. In this way, trapezoidal distortion occurs in the captured image generated by the three-lens imaging unit. Therefore, a trapezoidal distortion correction method for correcting the trapezoidal distortion of the captured image will be described below.

ここで、交点S11とレンズ中心R1との距離をL12とし、交点S13とレンズ中心R1との距離、および、交点S12とレンズ中心R1との距離をL13とする。   Here, the distance between the intersection S11 and the lens center R1 is L12, the distance between the intersection S13 and the lens center R1, and the distance between the intersection S12 and the lens center R1 is L13.

また、交点S21とレンズ中心R2との距離をL22とし、交点S31とレンズ中心R2との距離をL30とし、交点S41とレンズ中心R2との距離をL40とする。   The distance between the intersection S21 and the lens center R2 is L22, the distance between the intersection S31 and the lens center R2 is L30, and the distance between the intersection S41 and the lens center R2 is L40.

また、交点S32とレンズ中心R2との距離をL23とし、交点S43とレンズ中心R2との距離をL24とし、交点S51とレンズ中心R2との距離をL51とする。なお、距離L61乃至L66については、図24を参照して説明する。   The distance between the intersection S32 and the lens center R2 is L23, the distance between the intersection S43 and the lens center R2 is L24, and the distance between the intersection S51 and the lens center R2 is L51. The distances L61 to L66 will be described with reference to FIG.

ここで、三角関数の公式により次式が成り立つ。
L21+L22=L11+L22=(L11+L12)/cosθ0
この式により、次の式1が求められる。なお、L11=L21である。
L22={(L11+L12)/cosθ0}−L11 …式1
Here, the following formula is established by the formula of the trigonometric function.
L21 + L22 = L11 + L22 = (L11 + L12) / cos θ0
From this equation, the following equation 1 is obtained. Note that L11 = L21.
L22 = {(L11 + L12) / cos θ0} −L11 Formula 1

また、距離L51については、三角関数の公式と式1により、次の式2が求められる。
L51=L22×cosθ0
For the distance L51, the following formula 2 is obtained from the trigonometric formula and formula 1.
L51 = L22 × cos θ0

=[{(L11+L12)/cosθ0}−L11)]×cosθ0 …式2           = [{(L11 + L12) / cos θ0} −L11)] × cos θ0 Equation 2

また、距離L23については、三角関数の公式と式2により、次の式3が求められる。
L23=L51/cos(θ2−θ0)
=(L22×cosθ0)/cos(θ2−θ0) …式3
As for the distance L23, the following formula 3 is obtained from the trigonometric formula and formula 2.
L23 = L51 / cos (θ2-θ0)
= (L22 × cos θ0) / cos (θ2−θ0) Equation 3

また、距離L30については、三角関数の公式と式3により、次の式4が求められる。
L30=L23×cosθ2
={(L22×cosθ0)/cos(θ2−θ0)}×cosθ2
=([({(L11+L12)/cosθ0}−L11)×cosθ0]/cos(θ2−θ0)])×cosθ2 …式4
As for the distance L30, the following formula 4 is obtained from the trigonometric formula and formula 3.
L30 = L23 × cos θ2
= {(L22 × cos θ0) / cos (θ2−θ0)} × cos θ2
= ([({(L11 + L12) / cos θ0} −L11) × cos θ0] / cos (θ2−θ0)]) × cos θ2 Formula 4

ここで、第1の撮像系191の光軸194における距離L11およびL12が決定されると、式4を用いることにより、距離L30を求めることができる。このように距離L30を求めることにより、距離L12に対する距離L30の比の値XR(=L12/L30)を求めることができる。なお、XR<1である。   Here, when the distances L11 and L12 on the optical axis 194 of the first imaging system 191 are determined, the distance L30 can be obtained by using Expression 4. Thus, by determining the distance L30, the value XR (= L12 / L30) of the ratio of the distance L30 to the distance L12 can be determined. Note that XR <1.

また、距離L24については、三角関数の公式と式2により、次の式5が求められる。
L24=L51/cos(θ2+θ0)
=(L22×cosθ0)/cos(θ2+θ0) …式5
Further, for the distance L24, the following formula 5 is obtained from the trigonometric formula and formula 2.
L24 = L51 / cos (θ2 + θ0)
= (L22 × cos θ0) / cos (θ2 + θ0) Equation 5

また、距離L40については、三角関数の公式と式1および式5により、次の式6が求められる。
L40=L24×cosθ2
={(L22×cosθ0)/cos(θ2+θ0)}×cosθ2
=[[{(L11+L12)/cosθ0−L11}×cosθ0]/cos(θ2+θ0)]×cosθ2 …式6
Further, for the distance L40, the following formula 6 is obtained from the trigonometric formula and formulas 1 and 5.
L40 = L24 × cos θ2
= {(L22 × cos θ0) / cos (θ2 + θ0)} × cos θ2
= [[{(L11 + L12) / cos θ0−L11} × cos θ0] / cos (θ2 + θ0)] × cos θ2 Formula 6

ここで、第1の撮像系191の光軸194における距離L11およびL12が決定されると、式6を用いることにより、距離L40を求めることができる。このように距離L40を求めることにより、距離L12に対する距離L40の比の値XL(=L12/L40)を求めることができる。なお、XL>1である。   Here, when the distances L11 and L12 on the optical axis 194 of the first imaging system 191 are determined, the distance L40 can be obtained by using Expression 6. Thus, by determining the distance L40, the value XL (= L12 / L40) of the ratio of the distance L40 to the distance L12 can be determined. Note that XL> 1.

次に、比の値XRおよびXLを用いて、台形歪みを補正する補正方法について説明する。   Next, a correction method for correcting trapezoidal distortion using the ratio values XR and XL will be described.

図21(a)に示す撮像画像315について、右辺の長さがXR倍となり、左辺の長さがXL倍となるように各座標を変換する。すなわち、撮像画像315における右辺側については、右辺の長さがXR倍となるように、矢印321方向に縮小される。一方、撮像画像315における左辺側については、左辺の長さがXL倍となるように、矢印322方向に拡大される。このように、補正がされた補正画像317を図23(a)に示す。   In the captured image 315 shown in FIG. 21A, each coordinate is converted so that the length of the right side is XR times and the length of the left side is XL times. That is, the right side in the captured image 315 is reduced in the direction of the arrow 321 so that the length of the right side is XR times. On the other hand, the left side in the captured image 315 is enlarged in the direction of the arrow 322 so that the length of the left side is XL times. FIG. 23A shows the corrected image 317 corrected in this way.

図23は、本発明の第1の実施の形態における撮像部130における撮像系と、これらにより生成された撮像画像および補正後の補正画像との関係を模式的に示す図である。図23(a)には、撮像部130により生成される撮像画像314と、図21(a)に示す撮像画像315および316が補正された補正画像317および318とを模式的に示す。なお、図23(b)に示す例は、符号等を省略した点以外の点は、図18に示す例と同一である。   FIG. 23 is a diagram schematically illustrating a relationship between the imaging system in the imaging unit 130 according to the first embodiment of the present invention, the captured image generated by these, and the corrected image after correction. FIG. 23A schematically illustrates a captured image 314 generated by the imaging unit 130 and corrected images 317 and 318 obtained by correcting the captured images 315 and 316 illustrated in FIG. Note that the example shown in FIG. 23B is the same as the example shown in FIG. 18 except that the reference numerals and the like are omitted.

上述したように、図21(a)に示す撮像画像315について、右辺の長さがXR倍となり、左辺の長さがXL倍となるように各座標を変換することにより、図23(a)に示す補正画像317が生成される。このように生成された補正画像317は、外形が台形の画像になる。そこで、補正画像317における中央部を長方形に切り出すことにより、台形歪みが補正された画像325(太線で示す)を取得することができる。   As described above, in the captured image 315 shown in FIG. 21A, by converting each coordinate so that the length of the right side is XR times and the length of the left side is XL times, FIG. A corrected image 317 shown in FIG. The corrected image 317 generated in this way is an image having a trapezoidal outer shape. Therefore, an image 325 (indicated by a thick line) in which the trapezoidal distortion is corrected can be acquired by cutting out the central portion of the corrected image 317 into a rectangle.

同様に、図21(a)に示す撮像画像316について、左辺の長さがXR倍となり、右辺の長さがXL倍となるように各座標を変換することにより、図23(a)に示す補正画像318が生成される。そして、補正画像318における中央部を長方形に切り出すことにより、台形歪みが補正された画像326(太線で示す)を取得することができる。なお、撮像画像の台形歪み補正処理は、画像合成処理部224により行われる。   Similarly, for the captured image 316 shown in FIG. 21A, the coordinates are converted so that the length of the left side is XR times and the length of the right side is XL times, which is shown in FIG. A corrected image 318 is generated. Then, an image 326 (indicated by a thick line) in which the trapezoidal distortion is corrected can be acquired by cutting out the central portion of the corrected image 318 into a rectangle. Note that the trapezoidal distortion correction processing of the captured image is performed by the image composition processing unit 224.

また、このような台形歪み補正を行う場合には、例えば、台形に歪んだ撮像画像における各画素の座標を計測し、比の値XRおよびXLを予め求めておく。そして、予め求められた比の値XRおよびXLを用いて、台形歪み補正処理を携帯電話装置100に内蔵されているCPU等の演算装置を用いてソフトウエア的に求めることができる。   When performing such trapezoidal distortion correction, for example, the coordinates of each pixel in a captured image distorted in a trapezoid are measured, and the ratio values XR and XL are obtained in advance. Then, using the ratio values XR and XL obtained in advance, the trapezoidal distortion correction process can be obtained by software using an arithmetic device such as a CPU built in the mobile phone device 100.

なお、この例では、3眼撮像動作により発生する撮像画像の台形歪みを補正する補正方法の一例について説明したが、他の台形歪み補正方法(例えば、特開平08−307770号公報参照。)により補正を行うようにしてもよい。   In this example, an example of the correction method for correcting the trapezoidal distortion of the captured image generated by the trinocular imaging operation has been described. However, other trapezoidal distortion correction methods (for example, see Japanese Patent Application Laid-Open No. 08-307770). Correction may be performed.

[撮像画像の合成例]
図24は、本発明の第1の実施の形態における画像合成処理部224が合成画像を生成する場合における合成の流れを模式的に示す図である。この例では、3つの撮像系の光軸がなす角度(輻輳角)に基づいて、3つの撮像系により生成された3つの撮像画像を合成する例を示す。すなわち、2つの撮像系により生成された2つの撮像画像のうち、重なり合う部分については輻輳角に基づいて何れか一方を切除し、この切除後に2つの撮像画像を合成する。
[Example of composition of captured images]
FIG. 24 is a diagram schematically showing a composition flow when the image composition processing unit 224 generates a composite image according to the first embodiment of the present invention. In this example, an example in which three captured images generated by three imaging systems are synthesized based on an angle (convergence angle) formed by optical axes of the three imaging systems. That is, of the two captured images generated by the two imaging systems, one of the overlapping portions is excised based on the convergence angle, and the two captured images are synthesized after the excision.

図24(a)には、撮像部130における第1の撮像系191乃至第3の撮像系193により生成された撮像画像314、補正画像317および318と示す。なお、撮像画像314、補正画像317および318は、図23に示すものと同一である。図24(a)に示すように、台形歪みの補正処理により、台形歪みが補正された撮像画像314、補正画像317および318が取得される。   FIG. 24A shows a captured image 314 and corrected images 317 and 318 generated by the first imaging system 191 to the third imaging system 193 in the imaging unit 130. The captured image 314 and the corrected images 317 and 318 are the same as those shown in FIG. As shown in FIG. 24A, the captured image 314 and the corrected images 317 and 318 in which the trapezoidal distortion is corrected are acquired by the trapezoidal distortion correction process.

ここで、上述したように、補正画像317の右端部の領域と、撮像画像314の左端部の領域とには同一の被写体が含まれる。また、補正画像318の左端部の領域と、撮像画像314の右端部の領域とには同一の被写体が含まれる。そこで、以下では、これらの同一の被写体が含まれる領域の算出方法について説明する。   Here, as described above, the same subject is included in the right end area of the corrected image 317 and the left end area of the captured image 314. Further, the same subject is included in the left end area of the corrected image 318 and the right end area of the captured image 314. Therefore, in the following, a method for calculating a region including these same subjects will be described.

ここで、図22において、交点S11と交点S21との距離をL61とし、交点S11と交点S13との距離をL62とし、交点S51と交点S21との距離をL63とする。また、交点S13と交点S51との距離をL64とし、交点S32と交点S51との距離をL65とし、交点S32と交点S13との距離をL66とする。なお、距離L66は、第1の撮像系191により生成された撮像画像と、第2の撮像系192により生成された撮像画像とのうち、同一の被写体が含まれる領域を特定するための距離である。第1の撮像系191により生成された撮像画像の左端部の領域と、第2の撮像系192により生成された撮像画像の右端部の領域との共通領域である。   Here, in FIG. 22, the distance between the intersection S11 and the intersection S21 is L61, the distance between the intersection S11 and the intersection S13 is L62, and the distance between the intersection S51 and the intersection S21 is L63. The distance between the intersection S13 and the intersection S51 is L64, the distance between the intersection S32 and the intersection S51 is L65, and the distance between the intersection S32 and the intersection S13 is L66. The distance L66 is a distance for specifying a region including the same subject among the captured image generated by the first imaging system 191 and the captured image generated by the second imaging system 192. is there. This is a common area between the left end area of the captured image generated by the first imaging system 191 and the right end area of the captured image generated by the second imaging system 192.

ここで、三角関数の公式により、次の式7および式8が成立する。
L61=(L11+L12)×tanθ0 …式7
L62=L12×tanθ1 …式8
Here, the following formulas 7 and 8 are established by the formula of the trigonometric function.
L61 = (L11 + L12) × tan θ0 Equation 7
L62 = L12 × tan θ1 Equation 8

また、三角関数の公式と式2により、次の式9が求められる。
L63=L51×tanθ0
=[{(L11+L12)/cosθ0}−L11]×cosθ0×tanθ0 …式9
Further, the following formula 9 is obtained from the trigonometric function formula and formula 2.
L63 = L51 × tan θ0
= [{(L11 + L12) / cos θ0} −L11] × cos θ0 × tan θ0 (Equation 9)

また、式7乃至式8を用いて、次の式10が求められる。
L64=L61−L62−L63
={(L11+L12)×tanθ0}−(L12×tanθ1)−{(L11+L12)/cosθ0}−L11)×cosθ0×tanθ0 …式10
Further, using Expression 7 to Expression 8, the following Expression 10 is obtained.
L64 = L61−L62−L63
= {(L11 + L12) × tan θ0} − (L12 × tan θ1) − {(L11 + L12) / cos θ0} −L11) × cos θ0 × tan θ0 (Equation 10)

また、三角関数の公式と式2により、次の式11が求められる。
L65=L51×tan(θ2−θ0)
=[{(L11+L12)/cosθ0}−L11]×cosθ0×tan(θ2−θ0) …式11
Further, the following formula 11 is obtained from the trigonometric function formula and formula 2.
L65 = L51 × tan (θ2−θ0)
= [{(L11 + L12) / cos θ0} −L11] × cos θ0 × tan (θ2−θ0) Equation 11

以上で求められた式10および式11を用いて、次の式12が求められる。
L66=L65−L64
={[{(L11+L12)/cosθ0}−L11]×cosθ0×tan(θ2−θ0)}−{{(L11+L12)×tanθ0}−(L12×tanθ1)−{(L11+L12)/cosθ0}−L11)×cosθ0×tanθ0} …式12
The following equation 12 is obtained using the equations 10 and 11 obtained above.
L66 = L65-L64
= {[{(L11 + L12) / cos θ0} −L11] × cos θ0 × tan (θ2−θ0)} − {{(L11 + L12) × tan θ0} − (L12 × tan θ1) − {(L11 + L12) / cos θ0} −L11) × cos θ0 × tan θ0} Equation 12

ここで、第1の撮像系191の光軸194における距離L11およびL12が決定されると、式12を用いることにより、距離L66を求めることができる。また、第1の撮像系191により生成された撮像画像の右端部の領域と、第3の撮像系193により生成された撮像画像の左端部の領域との共通領域についても同様に求めることができる。   Here, when the distances L11 and L12 on the optical axis 194 of the first imaging system 191 are determined, the distance L66 can be obtained by using Expression 12. Further, a common area between the right end area of the captured image generated by the first image capturing system 191 and the left end area of the captured image generated by the third image capturing system 193 can be obtained in the same manner. .

図24(b)には、撮像画像314、補正画像317および318のうち、合成対象となる領域を示す。例えば、第1の撮像系191により生成された撮像画像314について、式12を用いて算出された距離L66に相当する領域を削除する。同様に、撮像画像314について、撮像画像314の右端部について算出された共通領域を削除する。図24(b)では、両端部の共通領域が削除された後の画像327の外形を太線で示す。   FIG. 24B shows a region to be synthesized among the captured image 314 and the corrected images 317 and 318. For example, an area corresponding to the distance L66 calculated using Expression 12 is deleted from the captured image 314 generated by the first imaging system 191. Similarly, for the captured image 314, the common area calculated for the right end of the captured image 314 is deleted. In FIG. 24B, the outer shape of the image 327 after the common area at both ends is deleted is indicated by a bold line.

図24(c)には、撮像画像314、補正画像317および318を用いて生成されたパノラマ画像330を示す。図24(b)に示すように、撮像画像314において両端部の画像が削除された後に、この削除後の画像327と、補正画像317および318とを用いてパノラマ画像が生成される。例えば、画像327の左端に補正画像317が連結され、画像327の右端に補正画像318が連結されてパノラマ画像330が生成される。   FIG. 24C shows a panoramic image 330 generated using the captured image 314 and the corrected images 317 and 318. As shown in FIG. 24B, after the images at both ends of the captured image 314 are deleted, a panoramic image is generated using the deleted image 327 and the corrected images 317 and 318. For example, the correction image 317 is connected to the left end of the image 327 and the correction image 318 is connected to the right end of the image 327 to generate the panoramic image 330.

図25は、本発明の第1の実施の形態における画像合成処理部224が合成画像を生成する場合における合成の流れを模式的に示す図である。図25に示す例は、図24の変形であり、画像合成の際に削除される領域を含む画像が異なる。すなわち、図25(b)に示すように、第2の撮像系192により生成された撮像画像に対応する補正画像317について、式12を用いて算出された距離L66に相当する領域(右端部の領域)を削除する。同様に、補正画像318について、その左端部について算出された共通領域を削除する。図25(b)では、共通領域が削除された後の画像332および333の外形を太線で示す。   FIG. 25 is a diagram schematically showing a composition flow when the image composition processing unit 224 generates a composite image according to the first embodiment of the present invention. The example shown in FIG. 25 is a modification of FIG. 24, and an image including a region to be deleted at the time of image composition is different. That is, as shown in FIG. 25B, for the corrected image 317 corresponding to the captured image generated by the second imaging system 192, an area corresponding to the distance L66 calculated using Expression 12 (at the right end) Area). Similarly, the common area calculated for the left end of the corrected image 318 is deleted. In FIG. 25B, the outlines of the images 332 and 333 after the common area is deleted are indicated by bold lines.

図25(c)には、画像331乃至333を用いて生成されたパノラマ画像330を示す。図25(b)に示すように、例えば、画像331の左端に画像332が連結され、画像331の右端に画像333が連結され、パノラマ画像330が生成される。   FIG. 25C shows a panoramic image 330 generated using the images 331 to 333. As shown in FIG. 25B, for example, the image 332 is connected to the left end of the image 331, and the image 333 is connected to the right end of the image 331, so that a panoramic image 330 is generated.

図26は、本発明の第1の実施の形態における画像合成処理部224が合成画像を生成する場合における合成の流れを模式的に示す図である。図26に示す例は、図24の変形であり、画像合成の際に削除される領域を含む画像が異なる。すなわち、図26(b)に示すように、第1の撮像系191により生成された撮像画像314について、式12を用いて算出された距離L66の半分に相当する領域を削除する。また、第2の撮像系192により生成された撮像画像に対応する補正画像317について、式12を用いて算出された距離L66の半分に相当する領域(右端部の領域)を削除する。   FIG. 26 is a diagram schematically illustrating a composition flow when the image composition processing unit 224 generates a composite image according to the first embodiment of the present invention. The example shown in FIG. 26 is a modification of FIG. 24, and an image including a region to be deleted at the time of image composition is different. That is, as shown in FIG. 26B, an area corresponding to half of the distance L66 calculated using Expression 12 is deleted from the captured image 314 generated by the first imaging system 191. In addition, an area corresponding to half of the distance L66 calculated by using Expression 12 (right end area) is deleted from the corrected image 317 corresponding to the captured image generated by the second imaging system 192.

同様に、撮像画像314について、撮像画像314の右端部について算出された共通領域の半分を削除し、第3の撮像系193により生成された撮像画像に対応する補正画像318について、共通領域の半分に相当する領域(左端部の領域)を削除する。図26(b)では、共通領域が削除された後の画像334乃至336の外形を太線で示す。   Similarly, for the captured image 314, half of the common area calculated for the right end of the captured image 314 is deleted, and for the corrected image 318 corresponding to the captured image generated by the third imaging system 193, half of the common area. The area corresponding to (the area at the left end) is deleted. In FIG. 26B, the outlines of the images 334 to 336 after the common area is deleted are indicated by bold lines.

図26(c)には、画像334乃至336を用いて生成されたパノラマ画像330を示す。図26(b)に示すように、例えば、画像334の左端に画像335が連結され、画像334の右端に画像336が連結され、パノラマ画像330が生成される。このように、各画像の一部を削除することにより、適切に画像を合成することができる。   FIG. 26C shows a panoramic image 330 generated using the images 334 to 336. As shown in FIG. 26B, for example, the image 335 is connected to the left end of the image 334, and the image 336 is connected to the right end of the image 334, so that a panoramic image 330 is generated. In this way, by deleting a part of each image, it is possible to appropriately combine the images.

なお、これらの画像合成処理は、画像合成処理部224により行われる。また、図8では、画像信号処理部220において、画像合成処理部224がYC変換処理部223の後段、かつ、シャープネス処理部225の前段に配置されている例を示す。ただし、画像信号処理部220の他の段階で画像合成処理を行うようにしてもよい。例えば、台形歪み補正処理および画像合成処理については、デモザイク処理部222の前段で行うようにしてもよい。また、例えば、台形歪み補正処理および画像合成処理については、デモザイク処理部222の後段、かつ、YC変換処理部223の前段で行うようにしてもよい。また、例えば、台形歪み補正処理および画像合成処理については、色調整処理部226の後段で行うようにしてもよい。   Note that these image composition processes are performed by the image composition processing unit 224. Further, FIG. 8 shows an example in which the image composition processing unit 224 is arranged after the YC conversion processing unit 223 and before the sharpness processing unit 225 in the image signal processing unit 220. However, the image composition processing may be performed at another stage of the image signal processing unit 220. For example, the trapezoidal distortion correction process and the image composition process may be performed before the demosaic processing unit 222. Further, for example, the trapezoidal distortion correction process and the image composition process may be performed after the demosaic processing unit 222 and before the YC conversion processing unit 223. Further, for example, the trapezoidal distortion correction process and the image composition process may be performed after the color adjustment processing unit 226.

また、このような画像合成処理を行う場合には、例えば、台形歪み補正後の画像について、各画像の重複領域を予め計測しておく。そして、この計測された値を用いて、画像の重複領域の削除処理を携帯電話装置100に内蔵されているCPU等の演算装置を用いてソフトウエア的に求めることができる。   In addition, when performing such image composition processing, for example, for an image after trapezoidal distortion correction, an overlapping area of each image is measured in advance. Then, using this measured value, it is possible to obtain the deletion processing of the overlapping region of the image by software using an arithmetic device such as a CPU built in the mobile phone device 100.

この例では、輻輳角に基づいて3つの撮像画像を合成する例について説明したが、例えば、他の画像合成方法を用いて、画像合成処理を行うようにしてもよい。例えば、2つの撮像系により生成された2つの画像のうち、重複する部分については、2つの画像をパターンマッチングさせ、このパターンマッチングにより2つの画像を合成する画像合成方法を用いることができる。また、2つの撮像系により生成された2つの画像における濃度レベルの変化を求め、この濃度レベルの変化に基づいて重複する部分を求めて2つの画像を合成する画像合成方法を用いることができる。   In this example, an example in which three captured images are combined based on the convergence angle has been described. However, for example, an image combining process may be performed using another image combining method. For example, for two overlapping images generated by two imaging systems, an image combining method can be used in which two images are pattern-matched and two images are combined by pattern matching. Further, it is possible to use an image composition method in which a change in density level in two images generated by two imaging systems is obtained, and an overlapping portion is obtained based on the change in density level and the two images are synthesized.

[撮像モードの制御例]
次に、撮像素子134乃至136から画像データを読出し、その画像を表示部140に表示する例について説明する。
[Image mode control example]
Next, an example in which image data is read from the imaging elements 134 to 136 and the image is displayed on the display unit 140 will be described.

図27は、本発明の第1の実施の形態における携帯電話装置100による撮像処理の撮像対象となる被写体500を示す図である。被写体500は、例えば、山を背景にして立っている人501、502やその周辺の車503、家504等を含む被写体である。   FIG. 27 is a diagram illustrating a subject 500 that is an imaging target of imaging processing by the mobile phone device 100 according to the first embodiment of the present invention. The subject 500 is a subject including, for example, people 501 and 502 standing in the background of mountains, cars 503 and a house 504 in the vicinity thereof.

[第2の筐体の横長状態における撮像モードの制御例]
最初に、第2の筐体120を横長状態とした場合における各撮像素子からの画像データの読出方法および読み出された画像データの表示方法について説明する。また、本発明の第1の実施の形態では、第2の筐体120を横長状態とした場合における撮像モードとして5種類の撮像モードを示す。
[Example of control of imaging mode in landscape orientation of second casing]
First, a method for reading image data from each image sensor and a method for displaying the read image data when the second casing 120 is in the horizontally long state will be described. In the first embodiment of the present invention, five types of imaging modes are shown as imaging modes when the second casing 120 is in the horizontally long state.

[3眼横長広角画像撮像モードの制御例]
図28は、本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第1の読出方法)を模式的に示す図である。
[Control example of three-lens landscape image mode]
FIG. 28 is a diagram schematically showing an example (first reading method) of reading image data in the imaging devices 134 to 136 according to the first embodiment of the present invention.

図28(a)には、撮像素子134乃至136において、画素データが読み出される画素データ読出領域403乃至405を示す。この画素データ読出領域403乃至405は、図4(b)に示す画素データ読出領域403乃至405と同様である。このため、同一の符号を付して共通する部分についての説明を省略する。また、以下では、撮像素子134乃至136における画素データ読出領域についてはその輪郭を太線で示す。ここで、画素データ読出領域403乃至405は、図13に示すレジスタ370および380に保持されている設定内容に基づいて決定される領域である。また、この例では、画素データ読出領域403乃至405に含まれる各画素のうち、全画素を読み出す例について説明する。   FIG. 28A shows pixel data reading areas 403 to 405 from which pixel data is read in the image sensors 134 to 136. The pixel data reading areas 403 to 405 are the same as the pixel data reading areas 403 to 405 shown in FIG. For this reason, the description about the common part which attaches | subjects the same code | symbol is abbreviate | omitted. In the following, the outline of the pixel data readout region in the image sensors 134 to 136 is indicated by a bold line. Here, the pixel data reading areas 403 to 405 are areas determined based on the setting contents held in the registers 370 and 380 shown in FIG. In this example, an example in which all pixels are read out from the pixels included in the pixel data reading areas 403 to 405 will be described.

ここで、本発明の第1の実施の形態では、例えば、撮像素子134として、横1440画素×縦1920画素の画素数を有し、画素の横対縦比が3:4となる撮像素子を用いる例を示す。また、撮像素子135および136として、横1920画素×縦1440画素の画素数を有し、画素の横対縦比が4:3となる撮像素子を用いる例を示す。   Here, in the first embodiment of the present invention, for example, as the image sensor 134, an image sensor having the number of pixels of horizontal 1440 pixels × vertical 1920 pixels and the horizontal to vertical ratio of the pixels being 3: 4 is used. An example of use will be shown. In addition, an example is shown in which as the imaging devices 135 and 136, imaging devices having a number of pixels of horizontal 1920 pixels × vertical 1440 pixels and a horizontal to vertical ratio of the pixels of 4: 3 are used.

この読出し動作を行う場合における撮像素子134乃至136の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、次の(11)乃至(17)の設定値が、複眼全画素読出し撮像時の縦方向撮像領域設定レジスタ374および複眼全画素読出し撮像時の横方向撮像領域設定レジスタ384に保持されている。
(11)撮像素子134において読み出す領域(画素データ読出領域403)の水平方向の画素数H10
(12)撮像素子134において読み出す領域(画素データ読出領域403)の垂直方向の画素数V11
(13)撮像素子135および136において読み出す領域(画素データ読出領域404および405)の水平方向の画素数H11
(14)撮像素子135および136において読み出す領域(画素データ読出領域404および405)の垂直方向の画素数V11
(15)撮像素子134乃至136において、画素が配列されているアレイ端から読出開始位置までの水平方向の画素数および垂直方向までの画素数
(16)撮像素子134乃至136において、垂直同期信号から垂直方向の画素読み出し開始までの垂直バックポーチ期間
(17)撮像素子134乃至136において、水平同期信号から水平方向の画素読み出し開始までの水平バックポーチ期間
Each set value relating to the reading of the pixel data of the image sensors 134 to 136 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the following setting values (11) to (17) are held in the vertical direction imaging region setting register 374 at the time of compound-eye all-pixel readout imaging and the horizontal direction imaging region setting register 384 at the time of compound-eye all-pixel readout imaging. Has been.
(11) The number of pixels H10 in the horizontal direction of the area (pixel data reading area 403) to be read by the image sensor 134
(12) Number of pixels V11 in the vertical direction of the area (pixel data reading area 403) to be read by the image sensor 134
(13) The number of pixels H11 in the horizontal direction of the area (pixel data reading areas 404 and 405) to be read by the image sensors 135 and 136
(14) Number of pixels V11 in the vertical direction of the area (pixel data reading areas 404 and 405) to be read by the image sensors 135 and 136
(15) In the imaging devices 134 to 136, the number of pixels in the horizontal direction and the number of pixels in the vertical direction from the array end where the pixels are arranged to the reading start position. (16) In the imaging devices 134 to 136, from the vertical synchronization signal. Vertical back porch period until start of pixel readout in vertical direction (17) Horizontal back porch period from start of horizontal sync signal to start of pixel readout in horizontal direction in image sensors 134 to 136

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して、複眼全画素読出し撮像時の縦方向撮像領域設定レジスタ374および複眼全画素読出し撮像時の横方向撮像領域設定レジスタ384に設定されるようにしてもよい。   These set values may be set in advance, and by a user operation, the vertical direction imaging region setting register 374 at the time of compound-eye all-pixel reading and imaging and the compound-eye all-pixel reading and imaging at the time of compound eye reading and imaging through a signal line L2. It may be set in the horizontal imaging area setting register 384.

図28(b)には、画素データ読出領域403乃至405における読出開始位置411乃至413および読出走査方向を示す。この読出開始位置411乃至413および読出走査方向は、図6(a)に示す読出開始位置411乃至413および読出走査方向と同様である。このため、同一の符号を付して共通する部分についての説明を省略する。   FIG. 28B shows readout start positions 411 to 413 and readout scanning directions in the pixel data readout areas 403 to 405. The readout start positions 411 to 413 and the readout scanning direction are the same as the readout start positions 411 to 413 and the readout scanning direction shown in FIG. For this reason, the description about the common part which attaches | subjects the same code | symbol is abbreviate | omitted.

このように、撮像素子134乃至136から読み出された画像データについては、上述したように、各画像の重複部分を合成して合成画像を生成する。しかしながら、以下では、説明の容易のため、各画像の重複部分については考慮せずに説明する。この例では、横1440画素×縦1920画素の撮像素子134から、その一部の画像データ(横1440画素×縦1440画素)が読み出され、横1920画素×縦1440画素の撮像素子135および136から、その全部の画像データが読み出される。このように読み出された画像データを合成する場合には、横対縦の比が11:3の約760万画素(横5280画素×縦1440画素)の画像が生成される。このように生成された合成画像の表示例を図29に示す。   As described above, the image data read from the image sensors 134 to 136 are combined to generate overlapping images of the images as described above. However, in the following, for ease of explanation, explanation will be made without considering overlapping portions of each image. In this example, a part of the image data (horizontal 1440 pixels × vertical 1440 pixels) is read out from the imaging device 134 of horizontal 1440 pixels × vertical 1920 pixels, and the imaging devices 135 and 136 of horizontal 1920 pixels × vertical 1440 pixels. All of the image data is read out. When the image data read out in this way are combined, an image of approximately 7.6 million pixels (5280 pixels × 1440 pixels) having a horizontal to vertical ratio of 11: 3 is generated. A display example of the composite image generated in this way is shown in FIG.

図29は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図29に示す例は、図28に示す第1の読出方法により読み出された画像データを表示する表示例である。   FIG. 29 is a diagram illustrating a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 29 is a display example for displaying the image data read by the first reading method shown in FIG.

図29(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。なお、被写体500は、図27に示すものと同一である。ここで、被写体500における撮像範囲511乃至513は、図4(a)に示す撮像素子134乃至136の画素データ読出可能領域400乃至402に対応する撮像範囲であるものとする。すなわち、撮像範囲511は、撮像素子134の画素データ読出可能領域400に対応し、撮像範囲512は、撮像素子135の画素データ読出可能領域401に対応し、撮像範囲513は、撮像素子136の画素データ読出可能領域402に対応するものとする。また、撮像範囲511乃至513のうち、図28に示す画素データ読出領域403乃至404に対応する領域の輪郭を太線で示す。   FIG. 29A shows a subject 500 that is an imaging target of an imaging process by the mobile phone device 100. The subject 500 is the same as that shown in FIG. Here, it is assumed that the imaging ranges 511 to 513 in the subject 500 are imaging ranges corresponding to the pixel data readable areas 400 to 402 of the imaging elements 134 to 136 shown in FIG. That is, the imaging range 511 corresponds to the pixel data readable area 400 of the imaging element 134, the imaging range 512 corresponds to the pixel data readable area 401 of the imaging element 135, and the imaging range 513 is the pixel of the imaging element 136. It corresponds to the data readable area 402. In addition, the outlines of the areas corresponding to the pixel data reading areas 403 to 404 shown in FIG. 28 in the imaging ranges 511 to 513 are indicated by bold lines.

図29(b)には、被写体500を撮像対象とした場合に、図28に示す第1の読出方法により読み出された画像データを表示部140に表示する表示例を示す。なお、図29(b)には、携帯電話装置100を構成する第1の筐体110および第2の筐体120のうち、第1の筐体110を省略して示す。また、以下に示す表示例でも、第1の筐体110を省略して示す。   FIG. 29B shows a display example in which the image data read out by the first reading method shown in FIG. 28 is displayed on the display unit 140 when the subject 500 is an imaging target. Note that, in FIG. 29B, the first casing 110 is omitted from the first casing 110 and the second casing 120 included in the mobile phone device 100. In the following display examples, the first housing 110 is omitted.

上述したように、表示部140の横対縦の比は4:3であるため、横対縦の比が11:3である画像を表示部140の全画面に表示させることができない。そこで、表示部140における各画素が正方格子である場合には、例えば、図28に示す第1の読出方法により読み出されて生成された横対縦の比が11:3の画像を解像度変換して表示させる。例えば、その画像の横方向の画素数が表示部140の横方向の画素数と略同一となり、横対縦の比が11:3となるように、画像を水平方向および垂直方向に解像度変換する。   As described above, since the horizontal to vertical ratio of the display unit 140 is 4: 3, an image having a horizontal to vertical ratio of 11: 3 cannot be displayed on the entire screen of the display unit 140. Therefore, when each pixel in the display unit 140 is a square lattice, for example, resolution conversion is performed on an image having a horizontal to vertical ratio of 11: 3 that is read and generated by the first reading method illustrated in FIG. To display. For example, the resolution of the image is converted in the horizontal direction and the vertical direction so that the number of pixels in the horizontal direction of the image is substantially the same as the number of pixels in the horizontal direction of the display unit 140 and the horizontal to vertical ratio is 11: 3. .

図29(b)に示すように、解像度変換がされた合成画像を、表示部140における垂直方向の中央部分(撮像画像表示領域521)に表示させる。ここで、表示された画像の上下の余白部分(余白画像表示領域522および523)には、例えば、単一色の画像を表示させることができる。   As shown in FIG. 29 (b), the composite image after the resolution conversion is displayed on the central portion (captured image display area 521) in the vertical direction of the display unit 140. Here, for example, a single color image can be displayed in the upper and lower margin portions (margin image display areas 522 and 523) of the displayed image.

なお、表示部140の各画素が正方格子でない場合には、表示部140に表示させた時に画像の形状が異常とならないように、表示部140の画素の縦横の長さの比を用いて解像度変換の倍率を変換し、この変換された画像を表示させることができる。   In addition, when each pixel of the display unit 140 is not a square lattice, the resolution is determined by using the ratio of the vertical and horizontal lengths of the pixels of the display unit 140 so that the shape of the image does not become abnormal when displayed on the display unit 140. The conversion magnification can be converted, and the converted image can be displayed.

図29(c)には、撮像素子134乃至136から読み出された画素データを表示する場合における表示部140における走査方向を示す。この走査方向については、図6(c)に示す例と同様であるため、ここでの説明を省略する。   FIG. 29C shows a scanning direction in the display unit 140 when displaying pixel data read from the image sensors 134 to 136. Since this scanning direction is the same as the example shown in FIG. 6C, description thereof is omitted here.

[3眼横長狭角画像撮像モードの制御例]
図30は、本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第2の読出方法)を模式的に示す図である。
[Control example of three-lens horizontal long-angle imaging mode]
FIG. 30 is a diagram schematically illustrating an example (second reading method) of reading image data in the image sensors 134 to 136 according to the first embodiment of the present invention.

図30(a)には、撮像素子134乃至136において、画素データが読み出される画素データ読出領域421乃至423を示す。第2の読出方法は、デジタルスチルカメラ等の撮像装置のユーザが広く慣れ親しんでいる横長の画像を読み出す方法であり、例えば、撮像素子134の一部の領域を読み出すとともに、撮像素子135および136の一部の領域を読み出す。   FIG. 30A shows pixel data readout areas 421 to 423 from which pixel data is read out in the image sensors 134 to 136. The second reading method is a method of reading a horizontally long image that is widely used by users of image pickup apparatuses such as digital still cameras. For example, a part of the image pickup element 134 is read and the image pickup elements 135 and 136 are read out. Read some area.

画素データ読出領域421は、例えば、図28に示す画素データ読出領域403と同一とする(例えば、横1440画素×縦1440画素の領域)。また、画素データ読出領域422および423は、例えば、垂直方向の長さV21を、画素データ読出可能領域401および402の垂直方向の長さV20と同一とする。また、画素データ読出領域422および423は、例えば、水平方向の長さH21を、画素データ読出可能領域401および402の水平方向の長さの1/6とする。すなわち、画素データ読出領域422および423は、例えば、横240画素×縦1440画素の領域とする。また、画素データ読出領域421乃至423は、図13に示すレジスタ370および380に保持されている設定内容に基づいて決定される領域である。また、この例では、画素データ読出領域421乃至423に含まれる各画素のうち、全画素を読み出す例について説明する。ここで、撮像素子134乃至136には、いわゆる、倒立像が結像されるため、撮像素子135および136の画素データ読出領域422および423は、撮像素子134の反対側の領域となる。   The pixel data reading area 421 is, for example, the same as the pixel data reading area 403 shown in FIG. 28 (for example, an area of 1440 pixels wide × 1440 pixels high). In addition, the pixel data read areas 422 and 423 have, for example, the same vertical length V21 as the vertical length V20 of the pixel data readable areas 401 and 402. Further, for example, the pixel data reading areas 422 and 423 have a horizontal length H21 that is 1/6 of the horizontal length of the pixel data readable areas 401 and 402. That is, the pixel data reading areas 422 and 423 are, for example, areas of horizontal 240 pixels × vertical 1440 pixels. Further, the pixel data readout areas 421 to 423 are areas determined based on the setting contents held in the registers 370 and 380 shown in FIG. In this example, an example in which all pixels are read out from the pixels included in the pixel data reading areas 421 to 423 will be described. Here, since so-called inverted images are formed on the image sensors 134 to 136, the pixel data reading areas 422 and 423 of the image sensors 135 and 136 are areas opposite to the image sensor 134.

この読出し動作を行う場合における撮像素子134乃至136の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、次の(21)乃至(27)の設定値が、複眼全画素読出し撮像時の縦方向撮像領域設定レジスタ374および複眼全画素読出し撮像時の横方向撮像領域設定レジスタ384に保持されている。
(21)撮像素子134において読み出す領域(画素データ読出領域421)の水平方向の画素数H20
(22)撮像素子134において読み出す領域(画素データ読出領域421)の垂直方向の画素数V21
(23)撮像素子135および136において読み出す領域(画素データ読出領域422および423)の水平方向の画素数H21
(24)撮像素子135および136において読み出す領域(画素データ読出領域422および423)の垂直方向の画素数V21
(25)撮像素子134乃至136において、画素が配列されているアレイ端から読出開始位置までの水平方向の画素数および垂直方向までの画素数
(26)撮像素子134乃至136において、垂直同期信号から垂直方向の画素読み出し開始までの垂直バックポーチ期間
(27)撮像素子134乃至136において、水平同期信号から水平方向の画素読み出し開始までの水平バックポーチ期間
Each set value relating to the reading of the pixel data of the image sensors 134 to 136 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the following setting values (21) to (27) are held in the vertical direction imaging region setting register 374 at the time of compound-eye all-pixel readout imaging and the horizontal direction imaging region setting register 384 at the time of compound-eye all-pixel readout imaging. Has been.
(21) The number H20 of pixels in the horizontal direction of the area (pixel data reading area 421) to be read by the image sensor 134
(22) The number of pixels V21 in the vertical direction of the area (pixel data reading area 421) to be read by the image sensor 134
(23) The number of pixels H21 in the horizontal direction of the area (pixel data reading areas 422 and 423) to be read by the image sensors 135 and 136
(24) Number of pixels V21 in the vertical direction of the area (pixel data reading areas 422 and 423) to be read by the image sensors 135 and 136
(25) In the image sensors 134 to 136, the number of pixels in the horizontal direction and the number of pixels in the vertical direction from the array end where the pixels are arranged to the reading start position. (26) In the image sensors 134 to 136, from the vertical synchronization signal. Vertical back porch period until start of pixel readout in vertical direction (27) Horizontal back porch period from horizontal synchronization signal to start of pixel readout in horizontal direction in imaging devices 134 to 136

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して、複眼全画素読出し撮像時の縦方向撮像領域設定レジスタ374および複眼全画素読出し撮像時の横方向撮像領域設定レジスタ384に設定されるようにしてもよい。   These set values may be set in advance, and by a user operation, the vertical direction imaging region setting register 374 at the time of compound-eye all-pixel reading and imaging and the compound-eye all-pixel reading and imaging at the time of compound eye reading and imaging through a signal line L2. It may be set in the horizontal imaging area setting register 384.

図30(b)には、画素データ読出領域421乃至423における読出開始位置424乃至426および読出走査方向を示す。この例では、横1440画素×縦1920画素の撮像素子134から、その一部の画像データ(横1440画素×縦1440画素)が読み出される。また、横1920画素×縦1440画素の撮像素子135および136から、その一部の画像データ(横240画素×縦1440画素)が読み出される。このように読み出された画像データを合成する場合には、横対縦の比が4:3の約276万画素(横1920画素×縦1440画素)の画像が生成される。このように生成された合成画像の表示例を図29に示す。   FIG. 30B shows the reading start positions 424 to 426 and the reading scanning direction in the pixel data reading areas 421 to 423. In this example, a part of the image data (horizontal 1440 pixels × vertical 1440 pixels) is read from the imaging device 134 of horizontal 1440 pixels × vertical 1920 pixels. A part of the image data (240 horizontal pixels × 1440 vertical pixels) is read from the imaging elements 135 and 136 of 1920 horizontal × 1440 vertical pixels. When the image data read in this way are combined, an image of approximately 2.76 million pixels (1920 pixels × 1440 pixels) having a horizontal to vertical ratio of 4: 3 is generated. A display example of the composite image generated in this way is shown in FIG.

このように、画素データ読出領域421乃至423は、撮像素子135および136における読出領域の大きさを、第1の読出方法よりも小さくした例である。そして、第2の読出方法により読み出された画像データを合成して生成される合成画像は、横対縦の比が4:3(16:9等とするようにしてもよい)となる。このため、現在、市販されている撮像装置における記録用画像の横対縦の比と同じ横対縦比の合成画像を生成して表示させることができる。   As described above, the pixel data reading areas 421 to 423 are an example in which the size of the reading area in the imaging elements 135 and 136 is smaller than that in the first reading method. The combined image generated by combining the image data read by the second reading method has a horizontal to vertical ratio of 4: 3 (16: 9 or the like may be used). For this reason, it is possible to generate and display a composite image having the same aspect ratio as the aspect ratio of the recording image in a currently available imaging apparatus.

図31は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図31に示す例は、図30に示す第2の読出方法により読み出された画像データを表示する表示例である。   FIG. 31 is a diagram showing a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 31 is a display example for displaying the image data read by the second reading method shown in FIG.

図31(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。図31(a)に示す例は、画素データ読出領域が変更された点以外は、図29(a)に示す例と略同様である。このため、図29(a)と共通する部分には同一の符号を付して、その部分についての説明を省略する。なお、撮像範囲511乃至513のうち、図30に示す画素データ読出領域421乃至423に対応する領域の輪郭を太線で示す。   FIG. 31A shows a subject 500 that is an imaging target of imaging processing by the mobile phone device 100. The example shown in FIG. 31A is substantially the same as the example shown in FIG. 29A except that the pixel data readout region is changed. For this reason, the same code | symbol is attached | subjected to the part which is common in Fig.29 (a), and description about the part is abbreviate | omitted. Of the imaging ranges 511 to 513, the outlines of the areas corresponding to the pixel data reading areas 421 to 423 shown in FIG.

図31(b)には、被写体500を撮像対象とした場合に、図30に示す第2の読出方法により読み出された画像データを表示部140に表示する表示例を示す。   FIG. 31B shows a display example in which image data read out by the second reading method shown in FIG. 30 is displayed on the display unit 140 when the subject 500 is set as an imaging target.

上述したように、表示部140の横対縦の比は4:3であり、横対縦の比が4:3であるため、合成画像を表示部140の全画面に表示させることができる。例えば、合成画像のサイズが表示部140の画素数と同一となるように解像度変換し、表示部140に表示させる。また、この場合には、図29(b)に示す余白画像表示領域522および523が不要となる。   As described above, since the horizontal to vertical ratio of the display unit 140 is 4: 3 and the horizontal to vertical ratio is 4: 3, the composite image can be displayed on the entire screen of the display unit 140. For example, the resolution is converted so that the size of the composite image is the same as the number of pixels of the display unit 140 and the display unit 140 displays the composite image. In this case, the blank image display areas 522 and 523 shown in FIG.

なお、図30に示す第2の読出方法により読み出されて生成された合成画像の横対縦の比が、表示装置の横対縦の比と同じでない場合には、第1の読出方法と同様に表示させることができる。この場合に、例えば、表示された合成画像の上下の余白部分(余白画像表示領域)には、例えば、単一色を表示させる。   If the horizontal to vertical ratio of the composite image read and generated by the second reading method shown in FIG. 30 is not the same as the horizontal to vertical ratio of the display device, the first reading method and It can be displayed similarly. In this case, for example, a single color is displayed in the upper and lower margin portions (margin image display area) of the displayed composite image, for example.

図31(c)には、撮像素子134乃至136から読み出された画素データを表示する場合における表示部140における走査方向を示す。この走査方向については、図6(c)に示す例と同様であるため、ここでの説明を省略する。   FIG. 31C shows a scanning direction in the display unit 140 when displaying pixel data read from the image sensors 134 to 136. Since this scanning direction is the same as the example shown in FIG. 6C, description thereof is omitted here.

[単眼横長画像撮像モードの制御例]
図32は、本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第3の読出方法)を模式的に示す図である。
[Control example of monocular landscape image capture mode]
FIG. 32 is a diagram schematically illustrating an example (third reading method) of reading image data in the imaging devices 134 to 136 according to the first embodiment of the present invention.

図32(a)には、撮像素子134乃至136において、画素データが読み出される画素データ読出領域431を示す。第3の読出方法は、デジタルスチルカメラ等の撮像装置のユーザが広く慣れ親しんでいる横長の画像を読み出す方法であり、例えば、撮像素子134の横方向の略全ての領域を読み出すとともに、縦方向では横方向よりも画素数の少ない領域を読み出す。なお、撮像素子135および136からの読出しは行わない。   FIG. 32A shows a pixel data reading area 431 from which pixel data is read in the imaging elements 134 to 136. The third reading method is a method of reading a horizontally long image that is widely used by users of image pickup apparatuses such as a digital still camera. For example, substantially all the region in the horizontal direction of the image sensor 134 is read, and in the vertical direction, An area having a smaller number of pixels than in the horizontal direction is read out. Note that reading from the image sensors 135 and 136 is not performed.

画素データ読出領域431は、例えば、水平方向の長さH30を、画素データ読出可能領域400の水平方向の長さと同一とし、垂直方向の長さV30を、画素データ読出可能領域400の垂直方向の長さの半分程度とする。画素データ読出領域431は、例えば、横1440画素×縦1080画素の領域とする。また、画素データ読出領域431は、図13に示すレジスタ370および380に保持されている設定内容に基づいて決定される領域である。また、この例では、画素データ読出領域431に含まれる各画素のうち、全画素を読み出す例について説明する。   The pixel data reading area 431 has, for example, a horizontal length H30 that is the same as the horizontal length of the pixel data readable area 400, and a vertical length V30 that is the vertical length of the pixel data readable area 400. About half of the length. The pixel data reading area 431 is, for example, an area of horizontal 1440 pixels × vertical 1080 pixels. Further, the pixel data reading area 431 is an area determined based on setting contents held in the registers 370 and 380 shown in FIG. In this example, an example in which all the pixels are read out from each pixel included in the pixel data reading area 431 will be described.

この読出し動作を行う場合における撮像素子134の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、次の(31)乃至(35)の設定値が、単眼全画素読出し撮像時の縦方向撮像領域設定レジスタ371および単眼全画素読出し撮像時の横方向撮像領域設定レジスタ381に保持されている。
(31)撮像素子134において読み出す領域(画素データ読出領域431)の水平方向の画素数H30
(32)撮像素子134において読み出す領域(画素データ読出領域431)の垂直方向の画素数V30
(33)撮像素子134において、画素が配列されているアレイ端から読出開始位置までの水平方向の画素数および垂直方向までの画素数
(34)撮像素子134において、垂直同期信号から垂直方向の画素読み出し開始までの垂直バックポーチ期間
(35)撮像素子134において、水平同期信号から水平方向の画素読み出し開始までの水平バックポーチ期間
Each set value relating to the reading of the pixel data of the image sensor 134 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the following setting values (31) to (35) are held in the vertical direction imaging region setting register 371 during monocular all-pixel readout imaging and the horizontal direction imaging region setting register 381 during monocular all-pixel readout imaging. Has been.
(31) The number H30 of pixels in the horizontal direction of the area (pixel data reading area 431) to be read by the image sensor 134
(32) The number of pixels V30 in the vertical direction of the area (pixel data reading area 431) to be read by the image sensor 134
(33) In the image sensor 134, the number of pixels in the horizontal direction and the number of pixels in the vertical direction from the array end where the pixels are arranged to the reading start position. (34) In the image sensor 134, the pixels in the vertical direction from the vertical synchronization signal. Vertical back porch period until start of reading (35) In image sensor 134, horizontal back porch period from horizontal synchronizing signal to start of pixel reading in horizontal direction

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して、単眼全画素読出し撮像時の縦方向撮像領域設定レジスタ371および単眼全画素読出し撮像時の横方向撮像領域設定レジスタ381に設定されるようにしてもよい。   These set values may be set in advance, and by a user operation, the vertical direction imaging region setting register 371 at the time of monocular all-pixel readout imaging and the monocular all-pixel readout imaging via the signal line L2. It may be set in the horizontal imaging area setting register 381.

図32(b)には、画素データ読出領域431における読出開始位置432および読出走査方向を示す。この例では、横1440画素×縦1920画素の撮像素子134から、その一部の画像データ(横1440画素×縦1080画素)が読み出される。また、撮像素子135および136からの読出は行われない。このように読み出された画像データを用いて、横対縦の比が4:3の約156万画素(横1440画素×縦1080画素)の画像が生成される。このように生成された画像の表示例を図33に示す。   FIG. 32B shows the reading start position 432 and the reading scanning direction in the pixel data reading area 431. In this example, a part of the image data (horizontal 1440 pixels × vertical 1080 pixels) is read out from the imaging device 134 of horizontal 1440 pixels × vertical 1920 pixels. Further, reading from the image sensors 135 and 136 is not performed. Using the image data read out in this way, an image of about 1560,000 pixels (horizontal 1440 pixels × vertical 1080 pixels) having a horizontal to vertical ratio of 4: 3 is generated. A display example of the image generated in this way is shown in FIG.

このように、画素データ読出領域431は、撮像素子134のみから読出しを行い、撮像素子135および136からの読出しを行わない例である。そして、第3の読出方法により読み出された画像データに基づいて生成される画像は、第2の読出方法と同様に、横対縦の比が4:3(16:9等とするようにしてもよい)となる。このため、現在、市販されている撮像装置における記録用画像の横対縦の比と同じ横対縦比の画像を生成して表示させることができる。また、例えば、一般に広く普及しているVGA(Video Graphics Array)画像(横640画素×縦480画素)よりも高精細な画像を、撮像素子135および136を動作させずに生成することができる。これにより、消費電力を低減させることができる。   As described above, the pixel data reading area 431 is an example in which reading is performed only from the image sensor 134 and reading is not performed from the image sensors 135 and 136. Then, the image generated based on the image data read by the third reading method is set to have a horizontal to vertical ratio of 4: 3 (16: 9, etc.) as in the second reading method. May be). For this reason, it is possible to generate and display an image having the same aspect ratio as the aspect ratio of the recording image in a currently available imaging apparatus. Further, for example, it is possible to generate a higher definition image than a VGA (Video Graphics Array) image (horizontal 640 pixels × vertical 480 pixels) that has been widely spread without operating the image sensors 135 and 136. Thereby, power consumption can be reduced.

図33は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図33に示す例は、図32に示す第3の読出方法により読み出された画像データを表示する表示例である。   FIG. 33 is a diagram showing a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 33 is a display example for displaying the image data read by the third reading method shown in FIG.

図33(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。図33(a)に示す例は、画素データ読出領域が変更された点以外は、図29(a)に示す例と略同様である。このため、図29(a)と共通する部分には同一の符号を付して、その部分についての説明を省略する。なお、撮像範囲511乃至513のうち、図32に示す画素データ読出領域431に対応する領域の輪郭を太線で示す。   FIG. 33A shows a subject 500 that is an imaging target of an imaging process performed by the mobile phone device 100. The example shown in FIG. 33A is substantially the same as the example shown in FIG. 29A except that the pixel data readout area is changed. For this reason, the same code | symbol is attached | subjected to the part which is common in Fig.29 (a), and description about the part is abbreviate | omitted. Of the imaging ranges 511 to 513, the outline of the area corresponding to the pixel data reading area 431 shown in FIG.

図33(b)には、被写体500を撮像対象とした場合に、図30に示す第2の読出方法により読み出された画像データを表示部140に表示する表示例を示す。   FIG. 33B shows a display example in which image data read out by the second reading method shown in FIG. 30 is displayed on the display unit 140 when the subject 500 is set as an imaging target.

上述したように、表示部140の横対縦の比は4:3であり、生成された画像の横対縦の比が4:3であるため、画像を表示部140の全画面に表示させることができる。例えば、画像のサイズが表示部140の画素数と同一となるように解像度変換し、表示部140に表示させる。また、この場合には、図29(b)に示す余白画像表示領域522および523が不要となる。   As described above, since the horizontal to vertical ratio of the display unit 140 is 4: 3 and the horizontal to vertical ratio of the generated image is 4: 3, the image is displayed on the entire screen of the display unit 140. be able to. For example, the resolution is converted so that the image size is the same as the number of pixels of the display unit 140, and the image is displayed on the display unit 140. In this case, the blank image display areas 522 and 523 shown in FIG.

なお、図32に示す第3の読出方法により読み出されて生成された画像の横対縦の比が、表示装置の横対縦の比と同じでない場合には、第1の読出方法と同様に表示させることができる。この場合に、例えば、表示された合成画像の上下の余白部分(余白画像表示領域)には、例えば、単一色を表示させる。   Note that, when the horizontal to vertical ratio of the image read and generated by the third reading method shown in FIG. 32 is not the same as the horizontal to vertical ratio of the display device, it is the same as the first reading method. Can be displayed. In this case, for example, a single color is displayed in the upper and lower margin portions (margin image display area) of the displayed composite image, for example.

図33(c)には、撮像素子134乃至136から読み出された画素データを表示する場合における表示部140における走査方向を示す。この走査方向については、図6(c)に示す例と同様であるため、ここでの説明を省略する。   FIG. 33C shows the scanning direction in the display unit 140 when displaying pixel data read from the image sensors 134 to 136. Since this scanning direction is the same as the example shown in FIG. 6C, description thereof is omitted here.

[単眼縦長画像撮像モードの制御例]
図34は、本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第4の読出方法)を模式的に示す図である。
[Control example of monocular portrait image capture mode]
FIG. 34 is a diagram schematically illustrating an example (fourth reading method) of reading image data in the imaging devices 134 to 136 according to the first embodiment of the present invention.

図34(a)には、撮像素子134乃至136において、画素データが読み出される画素データ読出領域435を示す。第4の読出方法は、携帯電話装置のユーザが広く慣れ親しんでいる縦長の画像を読み出す方法であり、例えば、撮像素子134の全ての領域を読み出す。なお、撮像素子135および136からの読出しは行わない。   FIG. 34A shows a pixel data reading area 435 from which pixel data is read in the image sensors 134 to 136. The fourth reading method is a method of reading a vertically long image that is widely used by users of mobile phone devices. For example, all regions of the image sensor 134 are read. Note that reading from the image sensors 135 and 136 is not performed.

画素データ読出領域435は、例えば、水平方向の長さH40を、画素データ読出可能領域400の水平方向の長さと同一とし、垂直方向の長さV40を、画素データ読出可能領域400の垂直方向の長さ同一とする。画素データ読出領域435は、例えば、横1440画素×縦1920画素の領域とする。また、画素データ読出領域435は、図13に示すレジスタ370および380に保持されている設定内容に基づいて決定される領域である。また、この例では、画素データ読出領域435に含まれる各画素のうち、全画素を読み出す例について説明する。   The pixel data reading area 435 has, for example, a horizontal length H40 that is the same as the horizontal length of the pixel data readable area 400 and a vertical length V40 that is the vertical length of the pixel data readable area 400. Same length. The pixel data reading area 435 is, for example, an area of 1440 horizontal pixels × 1920 vertical pixels. Further, the pixel data reading area 435 is an area determined based on setting contents held in the registers 370 and 380 shown in FIG. In this example, an example in which all the pixels are read out from each pixel included in the pixel data reading area 435 will be described.

この読出し動作を行う場合における撮像素子134の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、次の(41)乃至(45)の設定値が、単眼全画素読出し撮像時の縦方向撮像領域設定レジスタ371および単眼全画素読出し撮像時の横方向撮像領域設定レジスタ381に保持されている。
(41)撮像素子134において読み出す領域(画素データ読出領域435)の水平方向の画素数H40
(42)撮像素子134において読み出す領域(画素データ読出領域435)の垂直方向の画素数V40
(43)撮像素子134において、画素が配列されているアレイ端から読出開始位置までの水平方向の画素数および垂直方向までの画素数
(44)撮像素子134において、垂直同期信号から垂直方向の画素読み出し開始までの垂直バックポーチ期間
(45)撮像素子134において、水平同期信号から水平方向の画素読み出し開始までの水平バックポーチ期間
Each set value relating to the reading of the pixel data of the image sensor 134 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the following set values (41) to (45) are held in the vertical imaging area setting register 371 during monocular all-pixel readout imaging and the horizontal imaging area setting register 381 during monocular all-pixel readout imaging. Has been.
(41) The number of pixels H40 in the horizontal direction of the area (pixel data reading area 435) to be read by the image sensor 134
(42) The number of pixels V40 in the vertical direction of the area (pixel data reading area 435) to be read by the image sensor 134
(43) In the image sensor 134, the number of pixels in the horizontal direction and the number of pixels in the vertical direction from the array end where the pixels are arranged to the reading start position. Vertical back porch period until start of reading (45) Horizontal back porch period from horizontal synchronizing signal to start of horizontal pixel reading in image sensor 134

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して、単眼全画素読出し撮像時の縦方向撮像領域設定レジスタ371および単眼全画素読出し撮像時の横方向撮像領域設定レジスタ381に設定されるようにしてもよい。   These set values may be set in advance, and by a user operation, the vertical direction imaging region setting register 371 at the time of monocular all-pixel readout imaging and the monocular all-pixel readout imaging via the signal line L2. It may be set in the horizontal imaging area setting register 381.

図34(b)には、画素データ読出領域435における読出開始位置436および読出走査方向を示す。この例では、横1440画素×縦1920画素の撮像素子134から、その全部の画像データ(横1440画素×縦1920画素)が読み出される。また、撮像素子135および136からの読出は行われない。このように読み出された画像データを用いて、横対縦の比が3:4の約276万画素(横1440画素×縦1920画素)の画像が生成される。このように生成された画像の表示例を図35に示す。   FIG. 34B shows the reading start position 436 and the reading scanning direction in the pixel data reading area 435. In this example, all of the image data (horizontal 1440 pixels × vertical 1920 pixels) is read from the imaging device 134 of horizontal 1440 pixels × vertical 1920 pixels. Further, reading from the image sensors 135 and 136 is not performed. Using the image data read out in this way, an image of approximately 2.76 million pixels (1440 pixels × 1920 pixels) having a horizontal to vertical ratio of 3: 4 is generated. A display example of the image generated in this way is shown in FIG.

このように、画素データ読出領域435は、撮像素子134から読出しを行い、撮像素子135および136からの読出しを行わない例である。そして、第4の読出方法により読み出された画像データに基づいて生成される画像は、横対縦の比が3:4となる。このため、例えば、一般に広く普及している縦長のVGA画像(横640画素×縦480画素)よりも高精細な画像を、撮像素子135および136を動作させずに生成することができる。これにより、消費電力を低減させることができる。   As described above, the pixel data reading area 435 is an example in which reading from the image sensor 134 is performed and reading from the image sensors 135 and 136 is not performed. An image generated based on the image data read by the fourth reading method has a horizontal to vertical ratio of 3: 4. For this reason, for example, a higher-definition image can be generated without operating the image sensors 135 and 136 than a vertically long VGA image (horizontal 640 pixels × vertical 480 pixels) that is widely spread. Thereby, power consumption can be reduced.

図35は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図35に示す例は、図34に示す第4の読出方法により読み出された画像データを表示する表示例である。   FIG. 35 is a diagram showing a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 35 is a display example that displays the image data read by the fourth reading method shown in FIG.

図35(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。図35(a)に示す例は、画素データ読出領域が変更された点以外は、図29(a)に示す例と略同様である。このため、図29(a)と共通する部分には同一の符号を付して、その部分についての説明を省略する。なお、撮像範囲511乃至513のうち、図34に示す画素データ読出領域435に対応する領域の輪郭を太線で示す。   FIG. 35A shows a subject 500 that is an imaging target of imaging processing by the mobile phone device 100. The example shown in FIG. 35A is substantially the same as the example shown in FIG. 29A except that the pixel data readout region is changed. For this reason, the same code | symbol is attached | subjected to the part which is common in Fig.29 (a), and description about the part is abbreviate | omitted. Of the imaging ranges 511 to 513, the outline of the area corresponding to the pixel data reading area 435 shown in FIG. 34 is indicated by a bold line.

図35(b)には、被写体500を撮像対象とした場合に、図34に示す第4の読出方法により読み出された画像データを表示部140に表示する表示例を示す。   FIG. 35B shows a display example in which the image data read out by the fourth reading method shown in FIG. 34 is displayed on the display unit 140 when the subject 500 is the imaging target.

上述したように、表示部140の横対縦の比は4:3であるため、生成された画像の横対縦の比が3:4である画像を表示部140の全画面に表示させることができない。そこで、例えば、第1の読出方法と同様に、横対縦の比が3:4の画像を解像度変換して表示させる。例えば、その画像の縦方向の画素数が表示部140の縦方向の画素数と略同一となり、横対縦の比が3:4となるように、画像を水平方向および垂直方向に解像度変換する。   As described above, since the horizontal to vertical ratio of the display unit 140 is 4: 3, an image in which the horizontal to vertical ratio of the generated image is 3: 4 is displayed on the entire screen of the display unit 140. I can't. Therefore, for example, as in the first reading method, an image with a horizontal to vertical ratio of 3: 4 is converted in resolution and displayed. For example, the resolution of the image is converted in the horizontal direction and the vertical direction so that the number of pixels in the vertical direction of the image is substantially the same as the number of vertical pixels of the display unit 140 and the ratio of horizontal to vertical is 3: 4. .

図35(b)に示すように、解像度変換がされた画像を、表示部140における水平方向の中央部分(撮像画像表示領域527)に表示させる。ここで、表示された画像の左右の余白部分(余白画像表示領域528および529)には、例えば、単一色の画像を表示させることができる。   As shown in FIG. 35B, the resolution-converted image is displayed in the horizontal central portion (captured image display area 527) of the display unit 140. Here, for example, a single color image can be displayed in the left and right margin portions (margin image display areas 528 and 529) of the displayed image.

なお、第4の読出方法により読み出されて生成された画像の横対縦の比が、表示装置の横対縦の比と同じでない場合には、第1の読出方法と同様に表示させることができる。   If the horizontal to vertical ratio of the image read and generated by the fourth reading method is not the same as the horizontal to vertical ratio of the display device, the image is displayed in the same manner as the first reading method. Can do.

図35(c)には撮像素子134乃至136から読み出された画素データを表示する場合における表示部140における走査方向を示す。この走査方向については、図6(c)に示す例と同様であるため、ここでの説明を省略する。   FIG. 35C shows a scanning direction in the display unit 140 when displaying pixel data read from the image sensors 134 to 136. Since this scanning direction is the same as the example shown in FIG. 6C, description thereof is omitted here.

[単眼縦長小領域画像撮像モードの制御例]
図36は、本発明の第1の実施の形態における撮像素子134乃至136における画像データの読出方法の一例(第5の読出方法)を模式的に示す図である。
[Control example of monocular vertically long area imaging mode]
FIG. 36 is a diagram schematically showing an example (fifth reading method) of the image data reading method in the imaging devices 134 to 136 according to the first embodiment of the present invention.

図36(a)には、撮像素子134乃至136において、画素データが読み出される画素データ読出領域437を示す。第5の読出方法は、携帯電話装置のユーザが広く慣れ親しんでいる縦長の画像を読み出す方法であり、例えば、撮像素子134の一部の領域を読み出す。なお、撮像素子135および136からの読出しは行わない。   FIG. 36A shows a pixel data reading area 437 from which pixel data is read in the imaging elements 134 to 136. The fifth reading method is a method of reading a vertically long image that is widely used by users of mobile phone devices. For example, a partial region of the image sensor 134 is read. Note that reading from the image sensors 135 and 136 is not performed.

画素データ読出領域437は、例えば、水平方向の長さH50を、画素データ読出可能領域400の水平方向の長さよりも短くし、垂直方向の長さV50を、画素データ読出可能領域400の垂直方向の長さよりも短くする。画素データ読出領域437は、例えば、横480画素×縦640画素の領域とする。また、画素データ読出領域437は、図13に示すレジスタ370および380に保持されている設定内容に基づいて決定される領域である。また、この例では、画素データ読出領域437に含まれる各画素のうち、全画素を読み出す例について説明する。   For example, the pixel data reading area 437 has a horizontal length H50 shorter than a horizontal length of the pixel data readable area 400, and a vertical length V50 of the pixel data readable area 400 in the vertical direction. Shorter than the length of The pixel data reading area 437 is, for example, an area of horizontal 480 pixels × vertical 640 pixels. Further, the pixel data reading area 437 is an area determined based on setting contents held in the registers 370 and 380 shown in FIG. In this example, an example in which all the pixels are read out from each pixel included in the pixel data reading area 437 will be described.

この読出し動作を行う場合における撮像素子134の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、次の(51)乃至(55)の設定値が、単眼全画素読出し撮像時の縦方向撮像領域設定レジスタ371および単眼全画素読出し撮像時の横方向撮像領域設定レジスタ381に保持されている。
(51)撮像素子134において読み出す領域(画素データ読出領域437)の水平方向の画素数H50
(52)撮像素子134において読み出す領域(画素データ読出領域437)の垂直方向の画素数V50
(53)撮像素子134において、画素が配列されているアレイ端から読出開始位置までの水平方向の画素数および垂直方向までの画素数
(54)撮像素子134において、垂直同期信号から垂直方向の画素読み出し開始までの垂直バックポーチ期間
(55)撮像素子134において、水平同期信号から水平方向の画素読み出し開始までの水平バックポーチ期間
Each set value relating to the reading of the pixel data of the image sensor 134 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the following setting values (51) to (55) are held in the vertical direction imaging region setting register 371 at the time of monocular all pixel readout imaging and the horizontal direction imaging region setting register 381 at the time of monocular all pixel readout imaging. Has been.
(51) The number of pixels H50 in the horizontal direction of the area (pixel data reading area 437) to be read by the image sensor 134
(52) Number of pixels V50 in the vertical direction of the area (pixel data reading area 437) to be read out by the image sensor 134
(53) In the image sensor 134, the number of pixels in the horizontal direction and the number of pixels in the vertical direction from the array end where the pixels are arranged to the reading start position. Vertical back porch period until start of readout (55) Horizontal back porch period from horizontal synchronization signal to start of pixel readout in horizontal direction in image sensor 134

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して、単眼全画素読出し撮像時の縦方向撮像領域設定レジスタ371および単眼全画素読出し撮像時の横方向撮像領域設定レジスタ381に設定されるようにしてもよい。   These set values may be set in advance, and by a user operation, the vertical direction imaging region setting register 371 at the time of monocular all-pixel readout imaging and the monocular all-pixel readout imaging via the signal line L2. It may be set in the horizontal imaging area setting register 381.

図36(b)には、画素データ読出領域437における読出開始位置438および読出走査方向を示す。この例では、横1440画素×縦1920画素の撮像素子134から、その一部の画像データ(横480画素×縦640画素)が読み出される。また、撮像素子135および136からの読出は行われない。このように読み出された画像データを用いて、横対縦の比が3:4の約31万画素(横480画素×縦640画素)の画像が生成される。このように生成された画像の表示例を図37に示す。   FIG. 36B shows the reading start position 438 and the reading scanning direction in the pixel data reading area 437. In this example, a part of the image data (horizontal 480 pixels × vertical 640 pixels) is read from the imaging device 134 of horizontal 1440 pixels × vertical 1920 pixels. Further, reading from the image sensors 135 and 136 is not performed. Using the image data read out in this way, an image of about 310,000 pixels (480 pixels × 640 pixels) having a horizontal to vertical ratio of 3: 4 is generated. A display example of the image generated in this way is shown in FIG.

このように、画素データ読出領域437は、撮像素子134の一部から読出しを行い、撮像素子135および136からの読出しを行わない例である。また、第5の読出方法により読み出された画像データに基づいて生成される画像は、例えば、第4の読出方法により生成される画像よりも無線伝送に適する画像(すなわち、データ量が少ない画像)である。   Thus, the pixel data reading area 437 is an example in which reading is performed from a part of the image sensor 134 and reading from the image sensors 135 and 136 is not performed. Further, an image generated based on the image data read by the fifth reading method is, for example, an image suitable for wireless transmission (that is, an image having a small amount of data) than the image generated by the fourth reading method. ).

図37は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図37に示す例は、図36に示す第5の読出方法により読み出された画像データを表示する表示例である。   FIG. 37 is a diagram showing a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 37 is a display example for displaying the image data read by the fifth reading method shown in FIG.

図37(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。図37(a)に示す例は、画素データ読出領域が変更された点以外は、図29(a)に示す例と略同様である。このため、図29(a)と共通する部分には同一の符号を付して、その部分についての説明を省略する。なお、撮像範囲511乃至513のうち、図36に示す画素データ読出領域437に対応する領域の輪郭を太線で示す。   FIG. 37A shows a subject 500 that is an imaging target of imaging processing by the mobile phone device 100. The example shown in FIG. 37A is substantially the same as the example shown in FIG. 29A except that the pixel data readout region is changed. For this reason, the same code | symbol is attached | subjected to the part which is common in Fig.29 (a), and description about the part is abbreviate | omitted. Of the imaging ranges 511 to 513, the outline of the area corresponding to the pixel data reading area 437 shown in FIG.

図37(b)には、被写体500を撮像対象とした場合に、図36に示す第5の読出方法により読み出された画像データを表示部140に表示する表示例を示す。   FIG. 37B shows a display example in which image data read out by the fifth reading method shown in FIG. 36 is displayed on the display unit 140 when the subject 500 is set as an imaging target.

上述したように、表示部140の横対縦の比は4:3であるため、横対縦の比が3:4である画像を表示部140の全画面に表示させることができない。そこで、例えば、第4の読出方法と同様に、横対縦の比が3:4の画像を解像度変換して表示させる。例えば、その画像の縦方向の画素数が表示部140の縦方向の画素数と略同一となり、横対縦の比が3:4となるように、画像を水平方向および垂直方向に解像度変換する。   As described above, since the horizontal to vertical ratio of the display unit 140 is 4: 3, an image having a horizontal to vertical ratio of 3: 4 cannot be displayed on the entire screen of the display unit 140. Therefore, for example, as in the fourth reading method, an image having a horizontal to vertical ratio of 3: 4 is converted in resolution and displayed. For example, the resolution of the image is converted in the horizontal direction and the vertical direction so that the number of pixels in the vertical direction of the image is substantially the same as the number of vertical pixels of the display unit 140 and the ratio of horizontal to vertical is 3: 4. .

図37(b)に示すように、解像度変換がされた画像を、表示部140における水平方向の中央部分(撮像画像表示領域531)に表示させる。ここで、表示された画像の左右の余白部分(余白画像表示領域532および533)には、例えば、単一色の画像を表示させることができる。   As shown in FIG. 37B, the resolution-converted image is displayed in the horizontal central portion (captured image display area 531) of the display unit 140. Here, for example, a single color image can be displayed in the left and right margin portions (margin image display areas 532 and 533) of the displayed image.

なお、第5の読出方法により読み出されて生成された画像の横対縦の比が、表示装置の横対縦の比と同じでない場合には、第1の読出方法と同様に表示させることができる。   If the horizontal to vertical ratio of the image read and generated by the fifth reading method is not the same as the horizontal to vertical ratio of the display device, the image is displayed in the same manner as the first reading method. Can do.

図37(c)には、撮像素子134乃至136から読み出された画素データを表示する場合における表示部140における走査方向を示す。この走査方向については、図6(c)に示す例と同様であるため、ここでの説明を省略する。   FIG. 37C shows a scanning direction in the display unit 140 when displaying pixel data read from the image sensors 134 to 136. Since this scanning direction is the same as the example shown in FIG. 6C, description thereof is omitted here.

ここで、撮像素子134乃至136の画素データの読出に関する各設定値は、上述したように、図13に示すレジスタ370および380に保持されるとともに、撮像制御部201に保持される。そして、第2の筐体120が横長状態である場合には、図1等に示す撮像範囲切替スイッチ111がユーザが押下される毎に、第1の読出方法乃至第5の読出方法が切り替えられる。この場合に、撮像範囲切替スイッチ111が押下される毎に、撮像制御部201がその押下を検出し、第1の読出方法乃至第5の読出方法を順次切り替える。また、例えば、携帯電話装置100が起動した直後に、第2の筐体120が横長状態である場合には、第1の読出方法を設定することができる。   Here, as described above, each set value relating to reading of pixel data of the imaging elements 134 to 136 is held in the registers 370 and 380 shown in FIG. When the second casing 120 is in the horizontally long state, the first reading method to the fifth reading method are switched every time the user presses the imaging range switch 111 shown in FIG. . In this case, every time the imaging range changeover switch 111 is pressed, the imaging control unit 201 detects the pressing, and sequentially switches the first reading method to the fifth reading method. In addition, for example, when the second casing 120 is in the horizontally long state immediately after the mobile phone device 100 is activated, the first reading method can be set.

[画素間引きおよび画素加算の例]
以上では、第1の読出方法乃至第5の読出方法として、画素データ読出領域に含まれる全ての画素を読み出す例について説明した。しかしながら、使用目的に応じて、高精細な画像が必要でない場合も想定される。そこで、以下では、画素データ読出領域に含まれる各画素のうちの一部を読み出して消費電力を低減させる例について説明する。
[Example of pixel decimation and pixel addition]
In the above, as the first reading method to the fifth reading method, the example of reading all the pixels included in the pixel data reading region has been described. However, depending on the purpose of use, there may be a case where a high-definition image is not necessary. Therefore, in the following, an example in which a part of each pixel included in the pixel data reading area is read to reduce power consumption will be described.

以下で示す第6の読出方法乃至第10の読出方法は、撮像素子134乃至136において画素間引き処理を行うことにより、画素データ読出領域に含まれる各画素のうちの一部を読み出す例である。なお、以下での説明は省略するが、撮像素子134乃至136において画素加算処理を行うことにより、画素データ読出領域に含まれる各画素のうちの一部を読み出すようにしてもよい。   The following sixth to tenth readout methods are examples in which a part of each pixel included in the pixel data readout region is read out by performing pixel thinning processing in the imaging elements 134 to 136. Although not described below, a part of each pixel included in the pixel data reading area may be read out by performing pixel addition processing in the imaging elements 134 to 136.

[3眼横長広角画像撮像モードの間引き例]
最初に、第6の読出方法について、図28および図29を参照して説明する。第6の読出方法は、第1の読出方法に対応するものであり、図28に示す画素データ読出領域403乃至405において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。すなわち、横1440画素×縦1920画素の撮像素子134における画素データ読出領域403から、縦方向および横方向において1/2に間引きされた画像データ(横720画素×縦720画素)が読み出される。また、横1920画素×縦1440画素の撮像素子135および136における画素データ読出領域404および405から、縦方向および横方向において1/2に間引きされた画像データ(横960画素×縦720画素)が読み出される。このように読み出された画像データを合成する場合には、横対縦の比が11:3の約190万画素(横2640画素×縦720画素)の画像が生成される。この画像は、図29に示す例と同様に、水平方向に比較的広い画角であり、かつ、VGA画像よりも高精細な画像である。また、第1の読出方法よりも少ない消費電力により生成することができる。
[Thinning out the three-lens landscape image mode]
First, the sixth reading method will be described with reference to FIGS. The sixth reading method corresponds to the first reading method. In the pixel data reading regions 403 to 405 shown in FIG. 28, 1/2 pixel thinning readout is performed in the vertical direction, and 1 / This is an example in which two thinning-out reading is performed. That is, image data (horizontal 720 pixels × vertical 720 pixels) thinned out in half in the vertical direction and the horizontal direction is read from the pixel data reading region 403 in the image sensor 134 of horizontal 1440 pixels × vertical 1920 pixels. In addition, image data (960 pixels × 720 pixels) thinned in half in the vertical direction and the horizontal direction from the pixel data reading areas 404 and 405 in the imaging elements 135 and 136 of 1920 × 1440 pixels. Read out. When the image data read out in this way are combined, an image of about 1.9 million pixels (2640 pixels × 720 pixels) having a horizontal to vertical ratio of 11: 3 is generated. Similar to the example shown in FIG. 29, this image has a relatively wide angle of view in the horizontal direction and is a higher definition image than the VGA image. Further, it can be generated with less power consumption than the first reading method.

この読出し動作を行う場合における撮像素子134乃至136の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、上述した(11)乃至(17)の設定値が、複眼画素間引き読出し撮像時の縦方向撮像領域設定レジスタ375および複眼画素間引き読出し撮像時の横方向撮像領域設定レジスタ385に保持されている。また、水平方向および垂直方向の間引き間隔が、複眼画素間引き読出し撮像時の縦方向画素間引き間隔設定レジスタ376および複眼画素間引き読出し撮像時の横方向画素間引き間隔設定レジスタ386に保持されている。   Each set value relating to the reading of the pixel data of the image sensors 134 to 136 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the setting values (11) to (17) described above are held in the vertical direction imaging region setting register 375 at the time of compound eye pixel thinning readout imaging and the horizontal direction imaging region setting register 385 at the time of compound eye pixel thinning readout imaging. Has been. Further, the horizontal direction and vertical direction thinning intervals are held in the vertical pixel thinning interval setting register 376 during compound eye pixel thinning readout imaging and the horizontal direction pixel thinning interval setting register 386 during compound eye pixel thinning readout imaging.

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して設定されるようにしてもよい。   These set values may be set in advance, or may be set via the signal line L2 by a user operation.

[3眼横長狭角画像撮像モードの間引き例]
次に、第7の読出方法について、図30および図31を参照して説明する。第7の読出方法は、第2の読出方法に対応するものであり、図30に示す画素データ読出領域421乃至423において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。すなわち、横1440画素×縦1920画素の撮像素子134における画素データ読出領域421から、縦方向および横方向において1/2に間引きされた画像データ(横720画素×縦720画素)が読み出される。また、横1920画素×縦1440画素の撮像素子135および136における画素データ読出領域422および423から、縦方向および横方向において1/2に間引きされた画像データ(横240画素×縦720画素)が読み出される。このように読み出された画像データを合成する場合には、横対縦の比が4:3の約69万画素(横960画素×縦720画素)の画像が生成される。この画像は、図31に示す例と同様に、水平方向に比較的広い画角であり、かつ、VGA画像よりも高精細な画像である。また、第2の読出方法よりも少ない消費電力により生成することができる。
[Thinning out the three-lens landscape image mode]
Next, a seventh reading method will be described with reference to FIGS. 30 and 31. FIG. The seventh readout method corresponds to the second readout method, and in the pixel data readout regions 421 to 423 shown in FIG. 30, half pixel readout is performed in the vertical direction, and 1 / This is an example in which two thinning-out reading is performed. That is, image data (horizontal 720 pixels × vertical 720 pixels) thinned out in half in the vertical direction and the horizontal direction is read out from the pixel data reading area 421 in the image sensor 134 of horizontal 1440 pixels × vertical 1920 pixels. Also, image data (240 pixels wide × 720 pixels high) thinned out in half in the vertical direction and the horizontal direction from the pixel data reading areas 422 and 423 in the imaging elements 135 and 136 of horizontal 1920 pixels × vertical 1440 pixels. Read out. When the image data read in this way are combined, an image of about 690,000 pixels (960 pixels × 720 pixels) having a horizontal to vertical ratio of 4: 3 is generated. Similar to the example shown in FIG. 31, this image has a relatively wide angle of view in the horizontal direction and is a higher definition image than the VGA image. Further, it can be generated with less power consumption than the second reading method.

この読出し動作を行う場合における撮像素子134乃至136の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、上述した(11)乃至(27)の設定値が、複眼画素間引き読出し撮像時の縦方向撮像領域設定レジスタ375および複眼画素間引き読出し撮像時の横方向撮像領域設定レジスタ385に保持されている。また、水平方向および垂直方向の間引き間隔が、複眼画素間引き読出し撮像時の縦方向画素間引き間隔設定レジスタ376および複眼画素間引き読出し撮像時の横方向画素間引き間隔設定レジスタ386に保持されている。   Each set value relating to the reading of the pixel data of the image sensors 134 to 136 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the setting values (11) to (27) described above are held in the vertical direction imaging region setting register 375 at the time of compound eye pixel thinning readout imaging and the horizontal direction imaging region setting register 385 at the time of compound eye pixel thinning readout imaging. Has been. Further, the horizontal direction and vertical direction thinning intervals are held in the vertical pixel thinning interval setting register 376 during compound eye pixel thinning readout imaging and the horizontal direction pixel thinning interval setting register 386 during compound eye pixel thinning readout imaging.

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して設定されるようにしてもよい。   These set values may be set in advance, or may be set via the signal line L2 by a user operation.

[単眼横長画像撮像モードの間引き例]
次に、第8の読出方法について、図32および図33を参照して説明する。第8の読出方法は、第3の読出方法に対応するものであり、図32に示す画素データ読出領域431において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。すなわち、横1440画素×縦1920画素の撮像素子134における画素データ読出領域431から、縦方向および横方向において1/2に間引きされた画像データ(横720画素×縦540画素)が読み出される。このように読み出された画像データを合成する場合には、横対縦の比が4:3の約39万画素(横720画素×縦540画素)の画像が生成される。この画像は、図33に示す例と同一の画角であり、かつ、VGA画像よりも高精細な画像である。また、第3の読出方法よりも少ない消費電力により生成することができる。
[Example of thinning out monocular image capture mode]
Next, an eighth reading method will be described with reference to FIGS. 32 and 33. FIG. The eighth readout method corresponds to the third readout method. In the pixel data readout region 431 shown in FIG. 32, 1/2 pixel skipping readout is performed in the vertical direction, and 1/2 readout is performed in the horizontal direction. This is an example of performing thinning readout. That is, the image data (720 pixels × 540 pixels) thinned out in half in the vertical direction and the horizontal direction is read from the pixel data reading region 431 in the image sensor 134 of horizontal 1440 pixels × vertical 1920 pixels. When the image data read out in this way are combined, an image of about 390,000 pixels (720 × 540 pixels) having a horizontal to vertical ratio of 4: 3 is generated. This image has the same angle of view as the example shown in FIG. 33, and is a higher definition image than the VGA image. Further, it can be generated with less power consumption than the third reading method.

この読出し動作を行う場合における撮像素子134の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、上述した(31)乃至(35)の設定値が、単眼画素間引き読出し撮像時の縦方向撮像領域設定レジスタ372および単眼画素間引き読出し撮像時の横方向撮像領域設定レジスタ382に保持されている。また、水平方向および垂直方向の間引き間隔が、単眼画素間引き読出し撮像時の縦方向画素間引き間隔設定レジスタ373および単眼画素間引き読出し撮像時の横方向画素間引き間隔設定レジスタ383に保持されている。   Each set value relating to the reading of the pixel data of the image sensor 134 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the setting values (31) to (35) described above are held in the vertical direction imaging region setting register 372 during monocular pixel thinning readout imaging and the horizontal direction imaging region setting register 382 during monocular pixel thinning readout imaging. Has been. The horizontal and vertical thinning intervals are held in the vertical pixel thinning interval setting register 373 during monocular pixel thinning readout imaging and the horizontal pixel thinning interval setting register 383 during monocular pixel thinning readout imaging.

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して設定されるようにしてもよい。   These set values may be set in advance, or may be set via the signal line L2 by a user operation.

[単眼縦長画像撮像モードの間引き例]
次に、第9の読出方法について、図34および図35を参照して説明する。第9の読出方法は、第4の読出方法に対応するものであり、図34に示す画素データ読出領域435において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。すなわち、横1440画素×縦1920画素の撮像素子134における画素データ読出領域435から、縦方向および横方向において1/2に間引きされた画像データ(横720画素×縦960画素)が読み出される。このように読み出された画像データを合成する場合には、横対縦の比が3:4の約69万画素(横720画素×縦960画素)の画像が生成される。この画像は、図35に示す例と同一の画角であり、かつ、VGA画像よりも高精細な画像である。また、第4の読出方法よりも少ない消費電力により生成することができる。
[Example of thinning out monocular portrait image capture mode]
Next, a ninth reading method will be described with reference to FIGS. The ninth readout method corresponds to the fourth readout method. In the pixel data readout region 435 shown in FIG. 34, 1/2 pixel skipping readout is performed in the vertical direction, and 1/2 readout is performed in the horizontal direction. This is an example of performing thinning readout. That is, image data (720 pixels × 960 pixels) thinned out in half in the vertical direction and the horizontal direction is read out from the pixel data reading area 435 in the image sensor 134 of horizontal 1440 pixels × vertical 1920 pixels. When the image data read out in this way are combined, an image of about 690,000 pixels (720 pixels × 960 pixels) having a horizontal to vertical ratio of 3: 4 is generated. This image has the same angle of view as the example shown in FIG. 35, and is a higher definition image than the VGA image. Further, it can be generated with less power consumption than the fourth reading method.

この読出し動作を行う場合における撮像素子134の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、上述した(31)乃至(35)の設定値が、単眼画素間引き読出し撮像時の縦方向撮像領域設定レジスタ372および単眼画素間引き読出し撮像時の横方向撮像領域設定レジスタ382に保持されている。また、水平方向および垂直方向の間引き間隔が、単眼画素間引き読出し撮像時の縦方向画素間引き間隔設定レジスタ373および単眼画素間引き読出し撮像時の横方向画素間引き間隔設定レジスタ383に保持されている。   Each set value relating to the reading of the pixel data of the image sensor 134 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the setting values (31) to (35) described above are held in the vertical direction imaging region setting register 372 during monocular pixel thinning readout imaging and the horizontal direction imaging region setting register 382 during monocular pixel thinning readout imaging. Has been. The horizontal and vertical thinning intervals are held in the vertical pixel thinning interval setting register 373 during monocular pixel thinning readout imaging and the horizontal pixel thinning interval setting register 383 during monocular pixel thinning readout imaging.

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して設定されるようにしてもよい。   These set values may be set in advance, or may be set via the signal line L2 by a user operation.

[単眼縦長小領域画像撮像モードの間引き例]
次に、第10の読出方法について、図36および図37を参照して説明する。第10の読出方法は、第5の読出方法に対応するものであり、図36に示す画素データ読出領域437において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。すなわち、横1440画素×縦1920画素の撮像素子134における画素データ読出領域437から、縦方向および横方向において1/2に間引きされた画像データ(横240画素×縦320画素)が読み出される。このように読み出された画像データを合成する場合には、横対縦の比が3:4の約8万画素(横240画素×縦320画素)の画像が生成される。この画像は、図37に示す例と同一の画角である。また、第5の読出方法よりも少ない消費電力により生成することができる。
[Example of thinning out monocular portrait image mode]
Next, a tenth reading method will be described with reference to FIGS. The tenth readout method corresponds to the fifth readout method, and in the pixel data readout region 437 shown in FIG. 36, 1/2 pixel thinning readout is performed in the vertical direction and 1/2 in the horizontal direction. This is an example of performing thinning readout. That is, image data (240 horizontal pixels × 320 vertical pixels) thinned out in half in the vertical direction and the horizontal direction is read out from the pixel data reading region 437 in the image sensor 134 of horizontal 1440 pixels × vertical 1920 pixels. When the image data read out in this way are combined, an image of about 80,000 pixels (240 horizontal pixels × 320 vertical pixels) having a horizontal to vertical ratio of 3: 4 is generated. This image has the same angle of view as the example shown in FIG. Further, it can be generated with less power consumption than the fifth reading method.

この読出し動作を行う場合における撮像素子134の画素データの読出に関する各設定値が、図13に示すレジスタ370および380に保持されている。具体的には、上述した(51)乃至(55)の設定値が、単眼画素間引き読出し撮像時の縦方向撮像領域設定レジスタ372および単眼画素間引き読出し撮像時の横方向撮像領域設定レジスタ382に保持されている。また、水平方向および垂直方向の間引き間隔が、単眼画素間引き読出し撮像時の縦方向画素間引き間隔設定レジスタ373および単眼画素間引き読出し撮像時の横方向画素間引き間隔設定レジスタ383に保持されている。   Each set value relating to the reading of the pixel data of the image sensor 134 when performing this reading operation is held in the registers 370 and 380 shown in FIG. Specifically, the setting values (51) to (55) described above are held in the vertical direction imaging region setting register 372 during monocular pixel decimation readout imaging and the horizontal direction imaging region setting register 382 during monocular pixel decimation readout imaging. Has been. The horizontal and vertical thinning intervals are held in the vertical pixel thinning interval setting register 373 during monocular pixel thinning readout imaging and the horizontal pixel thinning interval setting register 383 during monocular pixel thinning readout imaging.

これらの設定値は、予め設定しておくようにしてもよく、ユーザ操作により、信号線L2を介して設定されるようにしてもよい。   These set values may be set in advance, or may be set via the signal line L2 by a user operation.

[第2の筐体の縦長状態における撮像モードの制御例]
次に、第2の筐体120を縦長状態とした場合における各撮像素子からの画像データの読出方法および読み出された画像データの表示方法について説明する。また、本発明の第1の実施の形態では、第2の筐体120を縦長状態とした場合における撮像モードとして4種類の撮像モードを示す。ここで、例えば、第2の筐体120を縦長状態として撮影が行われている場合には、ユーザには横長の広角画像を撮影する意思がないと想定される。そこで、本発明の第1の実施の形態では、第2の筐体120を縦長状態とされている場合には、水平方向に比較的狭い範囲の画像を生成する例を示す。
[Example of imaging mode control in the vertically long state of the second casing]
Next, a method for reading image data from each image sensor and a method for displaying the read image data when the second casing 120 is in the vertically long state will be described. In the first embodiment of the present invention, four types of imaging modes are shown as imaging modes when the second casing 120 is in the vertically long state. Here, for example, when shooting is performed with the second casing 120 in the vertically long state, it is assumed that the user does not intend to shoot a horizontally wide wide-angle image. Therefore, in the first embodiment of the present invention, an example of generating an image in a relatively narrow range in the horizontal direction when the second casing 120 is in the vertically long state is shown.

[3眼横長狭角画像撮像の制御例]
第11の読出方法は、上述した第2の読出方法と同様に、デジタルスチルカメラ等の撮像装置のユーザが広く慣れ親しんでいる横長の画像を読み出す方法である。例えば、撮像素子134の一部の領域を読み出すとともに、撮像素子135および136の一部の領域を読み出す。このため、第11の読出方法として、上述した第2の読出方法と同様の画素データ読出領域421乃至423(図30に示す)において、全画素を読み出す例について説明する。
[Example of control of three-lens horizontal long-angle imaging]
The eleventh reading method is a method of reading a horizontally long image that is widely used by users of imaging devices such as digital still cameras, as in the second reading method described above. For example, a partial area of the image sensor 134 is read, and a partial area of the image sensors 135 and 136 is read. Therefore, as an eleventh readout method, an example in which all pixels are read out in the pixel data readout regions 421 to 423 (shown in FIG. 30) similar to the above-described second readout method will be described.

なお、画素データ読出領域421乃至423、これに関連する各設定値のレジスタ370および380の保持内容については、図30(a)に示す例と同様であるため、ここでの説明を省略する。また、画素データ読出領域421乃至423における読出開始位置424乃至426および読出走査方向についても、図30(b)に示す例と同様であるため、ここでの説明を省略する。また、生成された合成画像の表示例を図38に示す。   Note that the pixel data read areas 421 to 423 and the contents stored in the registers 370 and 380 of the setting values related thereto are the same as in the example shown in FIG. 30A, and thus description thereof is omitted here. Further, the readout start positions 424 to 426 and the readout scanning direction in the pixel data readout areas 421 to 423 are the same as those in the example shown in FIG. 30B, and thus description thereof is omitted here. A display example of the generated composite image is shown in FIG.

図38は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図38に示す例は、第11の読出方法により読み出された画像データを表示する表示例である。   FIG. 38 is a diagram showing a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 38 is a display example in which image data read by the eleventh reading method is displayed.

図38(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。図38(a)に示す例は、画素データ読出領域が変更された点以外は、図29(a)に示す例と略同様である。このため、図29(a)と共通する部分には同一の符号を付して、その部分についての説明を省略する。なお、撮像範囲511乃至513のうち、図30に示す画素データ読出領域421乃至423に対応する領域の輪郭を太線で示す。   FIG. 38A shows a subject 500 that is an imaging target of imaging processing by the mobile phone device 100. The example shown in FIG. 38A is substantially the same as the example shown in FIG. 29A except that the pixel data readout region is changed. For this reason, the same code | symbol is attached | subjected to the part which is common in Fig.29 (a), and description about the part is abbreviate | omitted. Of the imaging ranges 511 to 513, the outlines of the areas corresponding to the pixel data reading areas 421 to 423 shown in FIG.

図38(b)には、被写体500を撮像対象とした場合に、第11の読出方法により読み出された画像データを表示部140に表示する表示例を示す。なお、図38(b)には、第1の筐体110を縦長状態にした場合を示す。また、第1の筐体110を縦長状態にした場合における表示部140の横対縦の比は3:4となる。   FIG. 38B shows a display example in which image data read by the eleventh reading method is displayed on the display unit 140 when the subject 500 is an imaging target. FIG. 38B shows a case where the first casing 110 is in a vertically long state. Further, when the first casing 110 is in the vertically long state, the horizontal to vertical ratio of the display unit 140 is 3: 4.

上述したように、表示部140の横対縦の比は3:4であるため、生成された画像の横対縦の比が4:3である画像を表示部140の全画面に表示させることができない。そこで、例えば、第1の読出方法と同様に、横対縦の比が4:3の画像を解像度変換して表示させる。例えば、その画像の横方向の画素数が表示部140の横方向の画素数と略同一となり、横対縦の比が4:3となるように、画像を水平方向および垂直方向に解像度変換する。   As described above, since the horizontal to vertical ratio of the display unit 140 is 3: 4, an image in which the horizontal to vertical ratio of the generated image is 4: 3 is displayed on the entire screen of the display unit 140. I can't. Therefore, for example, as in the first reading method, an image having a horizontal to vertical ratio of 4: 3 is converted in resolution and displayed. For example, the resolution of the image is converted in the horizontal direction and the vertical direction so that the number of pixels in the horizontal direction of the image is substantially the same as the number of pixels in the horizontal direction of the display unit 140 and the horizontal to vertical ratio is 4: 3. .

図38(b)に示すように、解像度変換がされた画像を、表示部140における垂直方向の中央部分(撮像画像表示領域541)に表示させる。ここで、表示された画像の上下の余白部分(余白画像表示領域542および543)には、例えば、単一色の画像を表示させることができる。   As shown in FIG. 38B, the resolution-converted image is displayed in the vertical central portion (captured image display area 541) of the display unit 140. Here, for example, a single color image can be displayed in the upper and lower margin portions (margin image display areas 542 and 543) of the displayed image.

図38(c)には、画像メモリ170に書き込まれた撮像画像および余白画像を表示する際の表示部140の走査方向を模式的に示す。   FIG. 38C schematically shows the scanning direction of the display unit 140 when the captured image and the blank image written in the image memory 170 are displayed.

[撮像画像の回転処理例]
ここで、第2の筐体120が縦長状態である場合において、撮像素子において読み出された画像を、上述した第2の筐体120の横長状態と同様に表示部140に表示させる場合を想定する。この場合には、第2の筐体120が90度回動しているため、第1の筐体110を基準とすると、90度回動された画像が表示部140に表示される。すなわち、ユーザにとっても、表示部140に表示された画像に含まれる被写体が、90度回転された状態となるため、違和感を覚えることになる。そこで、以下では、第2の筐体120の回動方向とは反対方向に画像を90度回転させて表示させる例について説明する。
[Example of image rotation processing]
Here, in the case where the second casing 120 is in the vertically long state, it is assumed that the image read by the image sensor is displayed on the display unit 140 in the same manner as the horizontally long state of the second casing 120 described above. To do. In this case, since the second casing 120 is rotated by 90 degrees, an image rotated by 90 degrees is displayed on the display unit 140 when the first casing 110 is used as a reference. That is, for the user, the subject included in the image displayed on the display unit 140 is rotated 90 degrees, so that the user feels uncomfortable. Therefore, in the following, an example in which an image is displayed by being rotated 90 degrees in the direction opposite to the rotation direction of the second casing 120 will be described.

図39は、本発明の第1の実施の形態における表示部140に表示される画像を回転させる回転処理を模式的に示す図である。この例では、撮像時における被写体の向きと、撮像素子における走査方向と、画像メモリ170への画像データの書き込み時および読出し時における方向と、表示部140における表示の走査方向と、表示部140に表示される被写体の向きとの関係を示す。なお、画像メモリ170への画像データの書き込みおよび読出しは、DSP200により行われる。   FIG. 39 is a diagram schematically showing a rotation process for rotating the image displayed on the display unit 140 according to the first embodiment of the present invention. In this example, the direction of the subject at the time of imaging, the scanning direction of the imaging device, the direction at the time of writing and reading image data to the image memory 170, the scanning direction of display on the display unit 140, and the display unit 140 The relationship with the direction of the displayed subject is shown. Note that the DSP 200 writes and reads image data to and from the image memory 170.

図39(a)には、撮像素子134乃至136において、走査方向に読み出された撮像画像545が、その走査方向でDSP200により画像メモリ170に書き込まれた状態を模式的に示す。図39(a)では、撮像素子134乃至136における走査方向を矢印で示す。   FIG. 39A schematically shows a state in which the picked-up images 545 read in the scanning direction in the image pickup devices 134 to 136 are written in the image memory 170 by the DSP 200 in the scanning direction. In FIG. 39A, the scanning direction of the image sensors 134 to 136 is indicated by arrows.

図39(b)には、画像メモリ170に書き込まれた撮像画像545について、撮像素子134乃至136の走査方向と直交する方向に走査しながら読み出す状態を模式的に示す。図39(b)では、画像メモリ170から読み出される撮像画像545の走査方向を矢印で示す。   FIG. 39B schematically shows a state in which the captured image 545 written in the image memory 170 is read while scanning in a direction orthogonal to the scanning direction of the imaging elements 134 to 136. In FIG. 39B, the scanning direction of the captured image 545 read from the image memory 170 is indicated by an arrow.

図39(c)には、図39(b)に示す走査方向で画像メモリ170から読み出された撮像画像545について、図39(a)に示す方向と同一の方向で走査しながら画像メモリ170へ書き戻す状態を模式的に示す。図39(c)では、画像メモリ170に書き込まれる撮像画像545の走査方向を矢印で示す。このように、撮像素子134乃至136の走査方向と直交する方向に走査しながら画像メモリ170から読み出された撮像画像545について、この読み出された方向で走査しながら画像メモリ170へ書き戻す。これにより、撮像素子134乃至136から読み出された撮像画像545を90°回転させた状態で、画像メモリ170に保持させることができる。   FIG. 39C shows the image memory 170 while scanning the captured image 545 read from the image memory 170 in the scanning direction shown in FIG. 39B in the same direction as the direction shown in FIG. The state of writing back to is schematically shown. In FIG. 39C, the scanning direction of the captured image 545 written to the image memory 170 is indicated by an arrow. In this way, the captured image 545 read from the image memory 170 while scanning in the direction orthogonal to the scanning direction of the image sensors 134 to 136 is written back to the image memory 170 while scanning in the read direction. Accordingly, the captured image 545 read from the imaging elements 134 to 136 can be held in the image memory 170 in a state where the captured image 545 is rotated by 90 °.

図39(d)には、図39(c)に示す走査方向で画像メモリ170に書き込まれた撮像画像545に余白画像546および547を付加した状態を模式的に示す。余白画像546および547は、図38(b)に示す余白画像表示領域542および543に表示される画像である。   FIG. 39D schematically shows a state in which blank images 546 and 547 are added to the captured image 545 written in the image memory 170 in the scanning direction shown in FIG. The margin images 546 and 547 are images displayed in the margin image display areas 542 and 543 shown in FIG.

図39(e)には、画像メモリ170に書き込まれた撮像画像545、余白画像546および547を、最初の書き込み時と同じ方向で走査しながら読み出す状態を模式的に示す。図39(e)に示す状態で読み出された撮像画像545、余白画像546および547を表示部140に表示させることにより、ユーザに違和感を与えない画像を表示させることができる。図39(e)に示す状態で読み出された撮像画像545、余白画像546および547を表示部140に表示させる表示例は、図38(b)に示す。   FIG. 39 (e) schematically shows a state in which the captured image 545 and blank images 546 and 547 written in the image memory 170 are read while scanning in the same direction as the first writing. By displaying the captured image 545 and the blank images 546 and 547 read in the state shown in FIG. 39E on the display unit 140, an image that does not give the user a sense of incongruity can be displayed. A display example in which the display unit 140 displays the captured image 545 and the blank images 546 and 547 read in the state illustrated in FIG. 39E is illustrated in FIG.

[単眼横長画像撮像モードの制御例]
第12の読出方法は、上述した第11の読出方法と同様に、デジタルスチルカメラ等の撮像装置のユーザが広く慣れ親しんでいる横長の画像を読み出す方法である。例えば、撮像素子134の横方向の略全ての領域を読み出すとともに、縦方向では横方向よりも画素数の少ない領域を読み出す。なお、撮像素子135および136からの読出しは行わない。このため、第12の読出方法として、上述した第3の読出方法と同様の画素データ読出領域431(図32に示す)において、全画素を読み出す例について説明する。
[Control example of monocular landscape image capture mode]
The twelfth reading method is a method of reading a horizontally long image that is widely used by users of imaging devices such as digital still cameras, as in the eleventh reading method described above. For example, substantially all the area in the horizontal direction of the image sensor 134 is read, and an area having a smaller number of pixels in the vertical direction than in the horizontal direction is read. Note that reading from the image sensors 135 and 136 is not performed. Therefore, as an twelfth readout method, an example in which all pixels are read out in the pixel data readout region 431 (shown in FIG. 32) similar to the above-described third readout method will be described.

なお、画素データ読出領域431、および、これに関連する各設定値のレジスタ370および380の保持内容については、図32(a)に示す例と同様であるため、ここでの説明を省略する。また、画素データ読出領域431における読出開始位置432および読出走査方向についても、図32(b)に示す例と同様であるため、ここでの説明を省略する。また、生成された合成画像の表示例を図40に示す。   Note that the pixel data read-out area 431 and the contents stored in the registers 370 and 380 associated with the setting values are the same as in the example shown in FIG. 32A, and thus the description thereof is omitted here. Further, the reading start position 432 and the reading scanning direction in the pixel data reading area 431 are the same as those in the example shown in FIG. 32B, and thus the description thereof is omitted here. A display example of the generated composite image is shown in FIG.

図40は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図40に示す例は、第12の読出方法により読み出された画像データを表示する表示例である。   FIG. 40 is a diagram illustrating a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 40 is a display example in which image data read by the twelfth reading method is displayed.

図40(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。図40(a)に示す例は、画素データ読出領域が変更された点以外は、図29(a)に示す例と略同様である。このため、図29(a)と共通する部分には同一の符号を付して、その部分についての説明を省略する。なお、撮像範囲511乃至513のうち、図32に示す画素データ読出領域431に対応する領域の輪郭を太線で示す。   FIG. 40A shows a subject 500 that is an imaging target of imaging processing by the mobile phone device 100. The example shown in FIG. 40A is substantially the same as the example shown in FIG. 29A except that the pixel data readout region is changed. For this reason, the same code | symbol is attached | subjected to the part which is common in Fig.29 (a), and description about the part is abbreviate | omitted. Of the imaging ranges 511 to 513, the outline of the area corresponding to the pixel data reading area 431 shown in FIG.

図40(b)には、被写体500を撮像対象とした場合に、第12の読出方法により読み出された画像データを表示部140に表示する表示例を示す。なお、図40(b)に表示例は、図39に示す回転処理により回転された撮像画像の表示例である。   FIG. 40B shows a display example in which image data read by the twelfth reading method is displayed on the display unit 140 when the subject 500 is the imaging target. Note that the display example in FIG. 40B is a display example of the captured image rotated by the rotation process shown in FIG.

上述したように、表示部140の横対縦の比は3:4であるため、生成された画像の横対縦の比が4:3である画像を表示部140の全画面に表示させることができない。そこで、例えば、第11の読出方法と同様に、横対縦の比が4:3の画像を解像度変換して表示させる。例えば、その画像の横方向の画素数が表示部140の横方向の画素数と略同一となり、横対縦の比が4:3となるように、画像を水平方向および垂直方向に解像度変換する。   As described above, since the horizontal to vertical ratio of the display unit 140 is 3: 4, an image in which the horizontal to vertical ratio of the generated image is 4: 3 is displayed on the entire screen of the display unit 140. I can't. Therefore, for example, as in the eleventh reading method, an image having a horizontal to vertical ratio of 4: 3 is converted in resolution and displayed. For example, the resolution of the image is converted in the horizontal direction and the vertical direction so that the number of pixels in the horizontal direction of the image is substantially the same as the number of pixels in the horizontal direction of the display unit 140 and the horizontal to vertical ratio is 4: 3. .

図40(b)に示すように、解像度変換がされた画像を、表示部140における垂直方向の中央部分(撮像画像表示領域551)に表示させる。ここで、表示された画像の上下の余白部分(余白画像表示領域552および553)には、例えば、単一色の画像を表示させることができる。   As shown in FIG. 40B, the image whose resolution has been converted is displayed on the central portion (captured image display area 551) of the display unit 140 in the vertical direction. Here, for example, a single color image can be displayed in the upper and lower margin portions (margin image display areas 552 and 553) of the displayed image.

図40(c)には、撮像素子134から読み出された画素データを表示する場合における表示部140における走査方向を示す。   FIG. 40C shows a scanning direction in the display unit 140 when displaying pixel data read from the image sensor 134.

[単眼縦長画像撮像モードの制御例]
第13の読出方法は、携帯電話装置のユーザが広く慣れ親しんでいる縦長の画像を読み出す方法であり、例えば、撮像素子134の全ての領域を読み出す。なお、撮像素子135および136からの読出しは行わない。このため、第13の読出方法として、上述した第4の読出方法と同様の画素データ読出領域435(図34に示す)において、全画素を読み出す例について説明する。
[Control example of monocular portrait image capture mode]
The thirteenth reading method is a method of reading a vertically long image that is widely used by users of mobile phone devices. For example, all regions of the image sensor 134 are read. Note that reading from the image sensors 135 and 136 is not performed. For this reason, as a thirteenth readout method, an example in which all pixels are read out in the pixel data readout region 435 (shown in FIG. 34) similar to the above-described fourth readout method will be described.

なお、画素データ読出領域435、および、これに関連する各設定値のレジスタ370および380の保持内容については、図34(a)に示す例と同様であるため、ここでの説明を省略する。また、画素データ読出領域435における読出開始位置436および読出走査方向についても、図34(b)に示す例と同様であるため、ここでの説明を省略する。また、生成された合成画像の表示例を図41に示す。   Note that the pixel data read-out area 435 and the contents stored in the registers 370 and 380 for the set values related thereto are the same as those in the example shown in FIG. 34A, and thus the description thereof is omitted here. Further, the reading start position 436 and the reading scanning direction in the pixel data reading area 435 are also the same as the example shown in FIG. 34B, and thus the description thereof is omitted here. A display example of the generated composite image is shown in FIG.

図41は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図41に示す例は、第13の読出方法により読み出された画像データを表示する表示例である。   FIG. 41 is a diagram showing a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 41 is a display example that displays image data read by the thirteenth reading method.

図41(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。図41(a)に示す例は、画素データ読出領域が変更された点以外は、図29(a)に示す例と略同様である。このため、図29(a)と共通する部分には同一の符号を付して、その部分についての説明を省略する。なお、撮像範囲511乃至513のうち、図32に示す画素データ読出領域435に対応する領域の輪郭を太線で示す。   FIG. 41A shows a subject 500 that is an imaging target of imaging processing by the mobile phone device 100. The example shown in FIG. 41A is substantially the same as the example shown in FIG. 29A except that the pixel data readout area is changed. For this reason, the same code | symbol is attached | subjected to the part which is common in Fig.29 (a), and description about the part is abbreviate | omitted. Of the imaging ranges 511 to 513, the outline of the area corresponding to the pixel data reading area 435 shown in FIG.

図41(b)には、被写体500を撮像対象とした場合に、第13の読出方法により読み出された画像データを表示部140に表示する表示例を示す。なお、図41(b)に表示例は、図39に示す回転処理により回転された撮像画像の表示例である。   FIG. 41B shows a display example in which the image data read out by the thirteenth reading method is displayed on the display unit 140 when the subject 500 is the imaging target. Note that the display example in FIG. 41B is a display example of the captured image rotated by the rotation process shown in FIG.

上述したように、表示部140の横対縦の比は3:4であり、生成された画像の横対縦の比が3:4であるため、その画像を表示部140の全画面に表示させることができる。例えば、画像のサイズが表示部140の画素数と同一となるように解像度変換し、表示部140に表示させる。また、この場合には、余白画像表示領域が不要となる。   As described above, since the horizontal to vertical ratio of the display unit 140 is 3: 4 and the horizontal to vertical ratio of the generated image is 3: 4, the image is displayed on the entire screen of the display unit 140. Can be made. For example, the resolution is converted so that the image size is the same as the number of pixels of the display unit 140, and the image is displayed on the display unit 140. In this case, a blank image display area is not necessary.

なお、第13の読出方法により読み出されて生成された画像の横対縦の比が、表示装置の横対縦の比と同じでない場合には、第12の読出方法と同様に表示させることができる。この場合に、例えば、表示された合成画像の上下の余白部分(余白画像表示領域)には、例えば、単一色を表示させる。   When the horizontal to vertical ratio of the image read and generated by the thirteenth reading method is not the same as the horizontal to vertical ratio of the display device, the image is displayed in the same manner as the twelfth reading method. Can do. In this case, for example, a single color is displayed in the upper and lower margin portions (margin image display area) of the displayed composite image, for example.

図41(c)には、撮像素子134から読み出された画素データを表示する場合における表示部140における走査方向を示す。   FIG. 41C shows the scanning direction of the display unit 140 when displaying pixel data read from the image sensor 134.

[単眼縦長小領域画像撮像モードの制御例]
第14の読出方法は、携帯電話装置のユーザが広く慣れ親しんでいる縦長の画像を読み出す方法であり、例えば、撮像素子134の一部の領域を読み出す。なお、撮像素子135および136からの読出しは行わない。このため、第14の読出方法として、上述した第5の読出方法と同様の画素データ読出領域437(図36に示す)において、全画素を読み出す例について説明する。
[Control example of monocular vertically long area imaging mode]
The fourteenth reading method is a method of reading a vertically long image that is widely used by users of mobile phone devices. For example, a partial region of the image sensor 134 is read. Note that reading from the image sensors 135 and 136 is not performed. Therefore, as the fourteenth readout method, an example in which all pixels are read out in the pixel data readout region 437 (shown in FIG. 36) similar to the fifth readout method described above will be described.

なお、画素データ読出領域437、および、これに関連する各設定値のレジスタ370および380の保持内容については、図36(a)に示す例と同様であるため、ここでの説明を省略する。また、画素データ読出領域437における読出開始位置438および読出走査方向についても、図36(b)に示す例と同様であるため、ここでの説明を省略する。また、生成された合成画像の表示例を図42に示す。   Note that the pixel data read area 437 and the contents stored in the registers 370 and 380 for the set values related thereto are the same as in the example shown in FIG. 36A, and thus the description thereof is omitted here. Further, the reading start position 438 and the reading scanning direction in the pixel data reading area 437 are the same as those in the example shown in FIG. A display example of the generated composite image is shown in FIG.

図42は、本発明の第1の実施の形態における表示部140における画像の表示例を示す図である。図42に示す例は、第14の読出方法により読み出された画像データを表示する表示例である。   FIG. 42 is a diagram illustrating a display example of an image on the display unit 140 according to the first embodiment of the present invention. The example shown in FIG. 42 is a display example in which image data read by the fourteenth reading method is displayed.

図42(a)には、携帯電話装置100による撮像処理の撮像対象となる被写体500を示す。図42(a)に示す例は、画素データ読出領域が変更された点以外は、図29(a)に示す例と略同様である。このため、図29(a)と共通する部分には同一の符号を付して、その部分についての説明を省略する。なお、撮像範囲511乃至513のうち、図36に示す画素データ読出領域437に対応する領域の輪郭を太線で示す。   FIG. 42A shows a subject 500 that is an imaging target of imaging processing by the mobile phone device 100. The example shown in FIG. 42A is substantially the same as the example shown in FIG. 29A except that the pixel data readout area is changed. For this reason, the same code | symbol is attached | subjected to the part which is common in Fig.29 (a), and description about the part is abbreviate | omitted. Of the imaging ranges 511 to 513, the outline of the area corresponding to the pixel data reading area 437 shown in FIG.

図42(b)には、被写体500を撮像対象とした場合に、第14の読出方法により読み出された画像データを表示部140に表示する表示例を示す。なお、図42(b)に表示例は、図39に示す回転処理により回転された撮像画像の表示例である。   FIG. 42B shows a display example in which image data read out by the fourteenth reading method is displayed on the display unit 140 when the subject 500 is set as an imaging target. Note that the display example in FIG. 42B is a display example of the captured image rotated by the rotation process shown in FIG.

上述したように、表示部140の横対縦の比は3:4であり、生成された画像の横対縦の比が3:4であるため、その画像を表示部140の全画面に表示させることができる。例えば、画像のサイズが表示部140の画素数と同一となるように解像度変換し、表示部140に表示させる。また、この場合には、余白画像表示領域が不要となる。   As described above, since the horizontal to vertical ratio of the display unit 140 is 3: 4 and the horizontal to vertical ratio of the generated image is 3: 4, the image is displayed on the entire screen of the display unit 140. Can be made. For example, the resolution is converted so that the image size is the same as the number of pixels of the display unit 140, and the image is displayed on the display unit 140. In this case, a blank image display area is not necessary.

なお、第14の読出方法により読み出されて生成された画像の横対縦の比が、表示装置の横対縦の比と同じでない場合には、第12の読出方法と同様に表示させることができる。この場合に、例えば、表示された合成画像の上下の余白部分(余白画像表示領域)には、例えば、単一色を表示させる。   When the horizontal to vertical ratio of the image read and generated by the fourteenth reading method is not the same as the horizontal to vertical ratio of the display device, the image is displayed in the same manner as the twelfth reading method. Can do. In this case, for example, a single color is displayed in the upper and lower margin portions (margin image display area) of the displayed composite image, for example.

図42(c)には、撮像素子134から読み出された画素データを表示する場合における表示部140における走査方向を示す。   FIG. 42C shows a scanning direction in the display unit 140 when displaying pixel data read from the image sensor 134.

ここで、撮像素子134乃至136の画素データの読出に関する各設定値は、上述したように、図13に示すレジスタ370および380に保持されるとともに、撮像制御部201に保持される。そして、第2の筐体120が縦長状態である場合には、図1等に示す撮像範囲切替スイッチ111がユーザが押下される毎に、第11の読出方法乃至第14の読出方法が切り替えられる。この場合に、撮像範囲切替スイッチ111が押下される毎に、撮像制御部201がその押下を検出し、第11の読出方法乃至第14の読出方法を順次切り替える。また、例えば、携帯電話装置100が起動した直後に、第2の筐体120が縦長状態である場合には、第14の読出方法を設定することができる。   Here, as described above, each set value relating to reading of pixel data of the imaging elements 134 to 136 is held in the registers 370 and 380 shown in FIG. When the second casing 120 is in the vertically long state, the eleventh reading method to the fourteenth reading method are switched every time the user presses the imaging range switch 111 shown in FIG. . In this case, every time the imaging range switching switch 111 is pressed, the imaging control unit 201 detects the pressing and sequentially switches the eleventh reading method to the fourteenth reading method. In addition, for example, if the second casing 120 is in the vertically long state immediately after the mobile phone device 100 is activated, the fourteenth reading method can be set.

[画素間引きおよび画素加算の例]
以上では、第11の読出方法乃至第14の読出方法として、画素データ読出領域に含まれる全ての画素を読み出す例について説明した。しかしながら、使用目的に応じて、高精細な画像が必要でない場合も想定される。そこで、以下では、画素データ読出領域に含まれる各画素のうちの一部を読み出して消費電力を低減させる例について説明する。
[Example of pixel decimation and pixel addition]
In the above, as the eleventh reading method to the fourteenth reading method, the example of reading all the pixels included in the pixel data reading region has been described. However, depending on the purpose of use, there may be a case where a high-definition image is not necessary. Therefore, in the following, an example in which a part of each pixel included in the pixel data reading area is read to reduce power consumption will be described.

以下で示す第15の読出方法乃至第18の読出方法は、撮像素子134乃至136において画素間引き処理を行うことにより、画素データ読出領域に含まれる各画素のうちの一部を読み出す例である。なお、以下での説明は省略するが、撮像素子134乃至136において画素加算処理を行うことにより、画素データ読出領域に含まれる各画素のうちの一部を読み出すようにしてもよい。   The fifteenth to eighteenth reading methods described below are examples in which a part of each pixel included in the pixel data reading region is read by performing pixel thinning processing in the imaging elements 134 to 136. Although not described below, a part of each pixel included in the pixel data reading area may be read out by performing pixel addition processing in the imaging elements 134 to 136.

[3眼横長狭角画像撮像モードの間引き例]
最初に、第15の読出方法について、図38を参照して説明する。第15の読出方法は、第11の読出方法に対応するものであり、図30に示す画素データ読出領域421乃至423において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。なお、これらの間引き処理については、第7の読出方法に示す例と同様であるため、ここでの詳細な説明を省略する。また、これらの間引き処理における撮像素子134乃至136の画素データの読出に関する各設定値のレジスタ370および380の保持内容についても、第7の読出方法に示す例と同様であるため、ここでの詳細な説明を省略する。
[Thinning out the three-lens landscape image mode]
First, the fifteenth reading method will be described with reference to FIG. The fifteenth readout method corresponds to the eleventh readout method. In the pixel data readout regions 421 to 423 shown in FIG. 30, half-pixel skip readout is performed in the vertical direction and 1 / th in the horizontal direction. This is an example in which two thinning-out reading is performed. Note that these thinning-out processes are the same as the example shown in the seventh reading method, and thus detailed description thereof is omitted here. In addition, the contents stored in the registers 370 and 380 for the setting values relating to the reading of the pixel data of the image sensors 134 to 136 in these thinning-out processes are the same as the example shown in the seventh reading method. The detailed explanation is omitted.

[単眼横長画像撮像モードの間引き例]
次に、第16の読出方法について、図40を参照して説明する。第16の読出方法は、第12の読出方法に対応するものであり、図32に示す画素データ読出領域431において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。なお、これらの間引き処理については、第8の読出方法に示す例と同様であるため、ここでの詳細な説明を省略する。また、これらの間引き処理における撮像素子134乃至136の画素データの読出に関する各設定値のレジスタ370および380の保持内容についても、第8の読出方法に示す例と同様であるため、ここでの詳細な説明を省略する。
[Example of thinning out monocular image capture mode]
Next, a sixteenth reading method will be described with reference to FIG. The sixteenth readout method corresponds to the twelfth readout method. In the pixel data readout region 431 shown in FIG. 32, half pixel readout is performed in the vertical direction and half in the horizontal direction. This is an example of performing thinning readout. Note that these thinning-out processes are the same as in the example shown in the eighth reading method, and thus detailed description thereof is omitted here. In addition, since the contents held in the registers 370 and 380 for the setting values relating to the reading of the pixel data of the image sensors 134 to 136 in these thinning-out processes are the same as the example shown in the eighth reading method, the details here The detailed explanation is omitted.

[単眼縦長画像撮像モードの間引き例]
次に、第17の読出方法について、図41を参照して説明する。第17の読出方法は、第13の読出方法に対応するものであり、図34に示す画素データ読出領域435において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。なお、これらの間引き処理については、第9の読出方法に示す例と同様であるため、ここでの詳細な説明を省略する。また、これらの間引き処理における撮像素子134乃至136の画素データの読出に関する各設定値のレジスタ370および380の保持内容についても、第9の読出方法に示す例と同様であるため、ここでの詳細な説明を省略する。
[Example of thinning out monocular portrait image capture mode]
Next, a seventeenth reading method will be described with reference to FIG. The seventeenth readout method corresponds to the thirteenth readout method, and in the pixel data readout region 435 shown in FIG. 34, half pixel readout is performed in the vertical direction and half in the horizontal direction. This is an example of performing thinning readout. Since these thinning-out processes are the same as the example shown in the ninth reading method, detailed description thereof is omitted here. In addition, the contents stored in the registers 370 and 380 for the setting values relating to the reading of the pixel data of the image sensors 134 to 136 in these thinning-out processes are the same as the example shown in the ninth reading method. The detailed explanation is omitted.

[単眼縦長小領域画像撮像モードの間引き例]
次に、第18の読出方法について、図42を参照して説明する。第18の読出方法は、第14の読出方法に対応するものであり、図36に示す画素データ読出領域437において、縦方向で1/2の画素間引き読み出しを行い、横方向で1/2の間引き読出しを行う例である。なお、これらの間引き処理については、第10の読出方法に示す例と同様であるため、ここでの詳細な説明を省略する。また、これらの間引き処理における撮像素子134乃至136の画素データの読出に関する各設定値のレジスタ370および380の保持内容についても、第10の読出方法に示す例と同様であるため、ここでの詳細な説明を省略する。
[Example of thinning out monocular portrait image mode]
Next, the eighteenth reading method will be described with reference to FIG. The eighteenth readout method corresponds to the fourteenth readout method, and in the pixel data readout region 437 shown in FIG. 36, half-pixel thinning readout is performed in the vertical direction and half in the horizontal direction. This is an example of performing thinning readout. Note that these thinning-out processes are the same as the example shown in the tenth reading method, and thus detailed description thereof is omitted here. Further, the contents held in the registers 370 and 380 for the setting values relating to the reading of the pixel data of the image sensors 134 to 136 in these thinning-out processes are the same as the example shown in the tenth reading method. The detailed explanation is omitted.

[モニタリング動作時における読出例]
次に、モニタリング動作が行われている場合における画素データの読出方法について説明する。例えば、静止画を記録するための静止画記録モードが設定されている場合には、静止画の記録指示操作が行われるまでの間、モニタリング動作が行われる。このモニタリング動作は、例えば、静止画の記録指示操作を行う前に、携帯電話装置100の向きや被写体の大きさが適切であるか否かを確認するためのモニタリング画像を表示部140に表示させる動作である。このモニタリング画像は、携帯電話装置100の向きや被写体の大きさが適切であるか否かをユーザが確認するための画像であり、記録するための画像ではない。このため、記録するための画像と比較して、高精細な画像としなくてもよい。
[Reading example during monitoring operation]
Next, a method for reading pixel data when the monitoring operation is performed will be described. For example, when a still image recording mode for recording a still image is set, a monitoring operation is performed until a still image recording instruction operation is performed. In this monitoring operation, for example, before a still image recording instruction operation is performed, a monitoring image for confirming whether the orientation of the mobile phone device 100 and the size of the subject are appropriate is displayed on the display unit 140. Is the action. This monitoring image is an image for the user to confirm whether the orientation of the mobile phone device 100 and the size of the subject are appropriate, and is not an image for recording. For this reason, it is not necessary to make a high-definition image compared with the image for recording.

また、一般に、撮像装置が備える表示装置の画素数は、撮像装置が備える撮像素子の画素数の数十分の一であることが多い。このため、モニタリング動作が行われている場合において、画像の記録動作時よりも撮像素子から読み出す画素数を削減することができる。一方、モニタリング画像は、携帯電話装置100の向きや被写体の大きさを確認するための画像であるため、モニタリング画像の画角は、記録動作の場合と同一であることが好ましい。そこで、以下では、モニタリング動作が行われている場合において、記録動作の場合と画角を同一とし、読み出す画素数を削減するモニタリング画像の読出し方法について説明する。   In general, the number of pixels of the display device included in the imaging device is often one tenth of the number of pixels of the imaging element included in the imaging device. For this reason, when the monitoring operation is performed, the number of pixels read from the image sensor can be reduced as compared with the image recording operation. On the other hand, since the monitoring image is an image for confirming the orientation of the mobile phone device 100 and the size of the subject, the angle of view of the monitoring image is preferably the same as that in the recording operation. Therefore, in the following, a monitoring image reading method in which the angle of view is the same as that in the recording operation and the number of pixels to be read is reduced when the monitoring operation is performed will be described.

例えば、第1の読出方法乃至第5の読出方法の何れかが設定されている場合において、モニタリング動作が行われている場合には、上述した第6の読出方法乃至第10の読出方法と同様に、画素間引き処理を行うことにより、読み出す画素数を削減する。この場合に、上述した第6の読出方法乃至第10の読出方法で示した間引き率(1/2)よりも大きい間引き率とすることができる。   For example, when any of the first reading method to the fifth reading method is set and the monitoring operation is performed, the same as the sixth reading method to the tenth reading method described above. In addition, the number of pixels to be read is reduced by performing pixel thinning processing. In this case, a thinning rate larger than the thinning rate (1/2) shown in the sixth to tenth reading methods described above can be obtained.

また、例えば、第6の読出方法乃至第10の読出方法の何れかが設定されている場合において、モニタリング動作が行われている場合についても同様に、画素間引き処理を行うことにより、読み出す画素数を削減する。この場合に、上述した間引き率(1/2)よりもさらに大きい間引き率(例えば、1/2に1/M(:M>1(Mは整数))を乗算した値)とすることができる。なお、第11の読出方法乃至第18の読出方法の何れかが設定され、モニタリング動作が行われている場合についても同様に、読み出す画素数を削減することができる。なお、画素間引き処理の代わりに、画素加算処理を行うことにより、読み出す画素数を削減するようにしてもよい。また、モニタリング画像の表示については、読み出された画素数が異なる以外は、第1の読出方法乃至第5の読出方法の表示例と同様であるため、ここでの説明を省略する。   Further, for example, when any of the sixth reading method to the tenth reading method is set, the number of pixels to be read out by performing the pixel thinning process similarly when the monitoring operation is performed. To reduce. In this case, a thinning rate (for example, a value obtained by multiplying 1/2 by 1 / M (: M> 1 (M is an integer)) can be set to be larger than the thinning rate (1/2) described above. . Note that the number of pixels to be read can be reduced in the same manner when any of the eleventh reading method to the eighteenth reading method is set and the monitoring operation is performed. Note that the number of pixels to be read may be reduced by performing pixel addition processing instead of pixel thinning processing. The display of the monitoring image is the same as the display examples of the first reading method to the fifth reading method except that the number of read pixels is different, and thus the description thereof is omitted here.

[画素間引きおよび画素加算の変形例]
以上では、撮像素子134乃至136において画素間引きおよび画素加算を行うことにより画像データの画素数を少なくする例を示した。この例では、DSP200において画素間引きおよび画素加算を行う例を示す。
[Modified example of pixel decimation and pixel addition]
The example in which the number of pixels of the image data is reduced by performing pixel thinning and pixel addition in the imaging elements 134 to 136 has been described above. In this example, the DSP 200 performs pixel thinning and pixel addition.

図8に示す画素加算処理部221は、画素加算処理および画素間引き処理を行うものであり、DSP200内部において、画像バッファ211乃至219の後段の位置、および、デモザイク処理部222の前段の位置に配置されている。なお、画素加算処理部221の構成は、撮像素子134乃至136の加算器354乃至357、366と略同様とすることができる。   The pixel addition processing unit 221 illustrated in FIG. 8 performs pixel addition processing and pixel thinning processing, and is disposed in the DSP 200 at a position after the image buffers 211 to 219 and a position before the demosaic processing unit 222. Has been. Note that the configuration of the pixel addition processing unit 221 can be substantially the same as that of the adders 354 to 357 and 366 of the imaging elements 134 to 136.

画素加算処理部221は、例えば、垂直方向の画素加算を行うため、少なくとも画像データの2本以上の水平ラインに含まれる一定量の画像データを保存するデータメモリを有する。また、画素加算処理部221は、画像データ上で同一カラムに位置する画像データを画像メモリ170から読み出し、読み出された画像データを加算器により加算する加算処理(すなわち、垂直画素の加算処理)を行う。   For example, the pixel addition processing unit 221 includes a data memory that stores a predetermined amount of image data included in at least two horizontal lines of image data in order to perform pixel addition in the vertical direction. Also, the pixel addition processing unit 221 reads out image data located in the same column on the image data from the image memory 170, and adds the read image data with an adder (that is, vertical pixel addition processing). I do.

また、例えば、水平画素の加算処理を行う場合には、画素加算処理部221は、複数カラムの画像データをそれぞれ読み出し、読み出された画像データを加算器により加算する加算処理(すなわち、水平画素の加算処理)を行う。   Further, for example, when performing horizontal pixel addition processing, the pixel addition processing unit 221 reads out image data of a plurality of columns, and adds the read image data with an adder (that is, horizontal pixel). Addition process).

また、例えば、垂直画素の加算処理および水平画素の加算処理の双方を行う場合には、複数カラムにおいて垂直画素の加算処理を行い、この加算処理により得られた画像データについて水平画素の加算処理をさらに行う。   Also, for example, when both vertical pixel addition processing and horizontal pixel addition processing are performed, vertical pixel addition processing is performed in a plurality of columns, and horizontal pixel addition processing is performed on the image data obtained by this addition processing. Do more.

これらの加算処理後に、画素加算処理部221は、加算処理後の画像データを後段のデモザイク処理部222に出力する。または、画素加算処理部221は、加算処理後の画像データを画像メモリ170に書き込む。   After these addition processing, the pixel addition processing unit 221 outputs the image data after the addition processing to the demosaic processing unit 222 at the subsequent stage. Alternatively, the pixel addition processing unit 221 writes the image data after the addition processing in the image memory 170.

また、例えば、画素加算処理部221は、加算処理において入力される2つの画像データのうちの1つの画像データを加算器に入力するデータ線は選択信号線を備え、このデータ線とこの選択信号線とのAND結果が加算器に入力される。また、画素加算処理部221は、他の1つの画像データを保持する。例えば、選択信号線が選択されている場合には、データ線の値が加算器に入力されて画素加算処理が行われる。一方、選択信号線が選択されていない場合には、データ線から加算器に入力される値が0となり、画素加算処理が行われない。この場合には、画素間引き処理となり、加算器の選択信号線を備えていない側のデータ線から入力された画像データが出力される。   Further, for example, the pixel addition processing unit 221 includes a selection signal line as a data line for inputting one image data of two image data input in the addition process to the adder, and the data line and the selection signal The AND result with the line is input to the adder. The pixel addition processing unit 221 holds another piece of image data. For example, when the selection signal line is selected, the value of the data line is input to the adder, and pixel addition processing is performed. On the other hand, when the selection signal line is not selected, the value input from the data line to the adder is 0, and the pixel addition process is not performed. In this case, the pixel thinning process is performed, and the image data input from the data line on the side not provided with the selection signal line of the adder is output.

[画素間引きおよび画素加算の画像データの流れを示す例]
図43は、本発明の第1の実施の形態における撮像素子134により画素間引きおよび画素加算が行われた場合における画像データの流れを模式的に示す図である。図43に示す太線の矢印付近に配置された添え字は、画像データの画素数を表す。図43に示す例では、画素数が横1920画素×縦1440画素の撮像素子134を用いて、画素データ数を水平方向において1/2を間引きし、垂直方向において1/2を間引きする例を示す。なお、撮像素子134を用いて、画素データ数を水平方向において1/2を画素加算し、垂直方向において1/2を画素加算する場合についても同様に表すことができる。図43に示すように、撮像素子134から出力される画像データの画素数(横960画素×縦720画素)は、撮像素子134が有する画素数(横1920画素×縦1440画素の)よりも小さくなっている。
[Example of the flow of image data for pixel decimation and pixel addition]
FIG. 43 is a diagram schematically illustrating the flow of image data when pixel thinning and pixel addition are performed by the image sensor 134 according to the first embodiment of the present invention. A subscript arranged in the vicinity of the thick arrow shown in FIG. 43 represents the number of pixels of the image data. In the example shown in FIG. 43, an example in which the number of pixel data is thinned by 1/2 in the horizontal direction and 1/2 is thinned in the vertical direction by using the image sensor 134 having 1920 × 1440 pixels. Show. Note that the case where the image sensor 134 is used to add ½ pixel in the horizontal direction and ½ pixel in the vertical direction can be similarly expressed. As shown in FIG. 43, the number of pixels of image data output from the image sensor 134 (horizontal 960 pixels × vertical 720 pixels) is smaller than the number of pixels of the image sensor 134 (horizontal 1920 pixels × vertical 1440 pixels). It has become.

図44は、本発明の第1の実施の形態における画素加算処理部221により画素数を変更する場合における画像データの流れを模式的に示す図である。図44に示す太線の矢印付近に配置された添え字は、画像データの画素数を表す。図44に示す例では、画素数が横1920画素×縦1440画素の撮像素子134から出力された画像データについて、画素加算処理部221が、水平方向における画素データ数を1/2とし、垂直方向における画素データ数を1/2とする例を示す。図44に示すように、画素加算処理部221から出力される画像データの画素数(横960画素×縦720画素)が、撮像素子134が有する画素数および画素加算処理部221に入力される画像データの画素数よりも小さくなっている。   FIG. 44 is a diagram schematically showing the flow of image data when the number of pixels is changed by the pixel addition processing unit 221 according to the first embodiment of the present invention. A subscript arranged in the vicinity of the thick arrow shown in FIG. 44 represents the number of pixels of the image data. In the example shown in FIG. 44, the pixel addition processing unit 221 sets the number of pixel data in the horizontal direction to ½ for the image data output from the image sensor 134 having the number of pixels of 1920 × 1440 pixels in the vertical direction. An example in which the number of pixel data in is ½ is shown. As shown in FIG. 44, the number of pixels (960 pixels × 720 pixels) of the image data output from the pixel addition processing unit 221 is the number of pixels of the image sensor 134 and the image input to the pixel addition processing unit 221. It is smaller than the number of pixels of data.

図45は、本発明の第1の実施の形態における画像メモリ170から画像データを読み出す際に画素数を変更する場合における画像データの流れを模式的に示す図である。図45に示す太線の矢印付近に配置された添え字は、画像データの画素数を表す。図45に示す例では、画像メモリ170から画像データを読み出す際に、画像データ上で一定の画素数毎に間隔を開けて画像データを読み出すことにより、画像データの画素数を小さくする例を示す。すなわち、画素数が横1920画素×縦1440画素の撮像素子134から出力された画像データが画像メモリ170に保持される。この画像メモリ170に保持されている画像データをデモザイク処理部222が読み出す際に、水平方向における画素データ数を1/2とし、垂直方向における画素データ数を1/2として、画像データを読み出す。図45に示すように、画像メモリ170から読み出されデモザイク処理部222に入力される画像データの画素数が、撮像素子134の画素数と画像バッファ211乃至213から画像メモリ170に書き込まれた画像データの画素数よりも小さくなっている。   FIG. 45 is a diagram schematically showing the flow of image data when the number of pixels is changed when image data is read from the image memory 170 according to the first embodiment of the present invention. Subscripts arranged in the vicinity of the thick arrow shown in FIG. 45 represent the number of pixels of the image data. In the example shown in FIG. 45, when image data is read from the image memory 170, an example is shown in which the number of pixels of the image data is reduced by reading the image data at intervals of a certain number of pixels on the image data. . That is, the image data output from the image sensor 134 having the number of pixels of 1920 × 1440 pixels is held in the image memory 170. When the demosaic processing unit 222 reads the image data held in the image memory 170, the image data is read by setting the number of pixel data in the horizontal direction to ½ and the number of pixel data in the vertical direction to ½. As shown in FIG. 45, the number of pixels of image data read from the image memory 170 and input to the demosaic processing unit 222 is the number of pixels of the image sensor 134 and the image written to the image memory 170 from the image buffers 211 to 213. It is smaller than the number of pixels of data.

[画像データの領域を変化させる場合の変形例]
この例では、DSP200を用いて画素データを読み出す領域を変化させ、画像データの画素数を小さくする例を示す。
[Modified example of changing the image data area]
In this example, an area in which pixel data is read using the DSP 200 is changed to reduce the number of pixels of the image data.

図46は、本発明の第1の実施の形態における撮像素子134により読出領域を変化させる場合における画像データの流れを模式的に示す図である。図46に示す太線の矢印付近に配置された添え字は、画像データの画素数を表す。図46に示す例では、画素数が横1920画素×縦1440画素の撮像素子134を用いて、画素数が横480画素×縦640画素の画像データを読み出す例を示す。図46に示すように、撮像素子134が有する画素数が横1920画素×縦1440画素であるのに対し、撮像素子134から出力される画像データの画素数が横480画素×縦640画素となっている。   FIG. 46 is a diagram schematically showing the flow of image data when the reading area is changed by the image sensor 134 according to the first embodiment of the present invention. A subscript arranged in the vicinity of the thick arrow shown in FIG. 46 represents the number of pixels of the image data. The example illustrated in FIG. 46 illustrates an example in which image data having a pixel number of 480 pixels by 640 pixels is read using the imaging device 134 having a pixel number of 1920 pixels × 1440 pixels. As shown in FIG. 46, the number of pixels of the image sensor 134 is 1920 pixels × 1440 pixels, whereas the number of pixels of image data output from the image sensor 134 is 480 pixels × 640 pixels. ing.

図47は、本発明の第1の実施の形態における画像メモリ170から画像データを読み出す際に読出領域を変化させる場合における画像データの流れを模式的に示す図である。図47に示す太線の矢印付近に配置された添え字は、画像データの画素数を表す。図47に示す例では、画像メモリ170から画像データを読み出す際に、画像データ上で一部の領域の画像データを読み出すことにより、画像データの領域を変化させて画像データの画素数を小さくする例を示す。すなわち、画素数が横1920画素×縦1440画素の撮像素子134から出力された画像データが画像メモリ170に保持される。この画像メモリ170に保持されている画像データをデモザイク処理部222が読み出す際に、画素数が横480画素×縦640画素の領域に対応する画像データを読み出す。図47に示すように、撮像素子134の画素数および画像バッファ211乃至213から画像メモリ170に書き込まれた画像データの画素数が横1920画素×縦1440画素である。これに対して、画像メモリ170から読み出されてデモザイク処理部222に入力される画像データの画素数が横480画素×縦640画素となる。   FIG. 47 is a diagram schematically showing the flow of image data when the read area is changed when image data is read from the image memory 170 according to the first embodiment of the present invention. A subscript arranged in the vicinity of the thick arrow shown in FIG. 47 represents the number of pixels of the image data. In the example shown in FIG. 47, when image data is read from the image memory 170, the image data in a part of the area is read out on the image data, thereby changing the area of the image data and reducing the number of pixels of the image data. An example is shown. That is, the image data output from the image sensor 134 having the number of pixels of 1920 × 1440 pixels is held in the image memory 170. When the demosaic processing unit 222 reads out the image data held in the image memory 170, the image data corresponding to the area of 480 pixels wide × 640 pixels high is read out. As shown in FIG. 47, the number of pixels of the image sensor 134 and the number of pixels of image data written from the image buffers 211 to 213 to the image memory 170 are 1920 pixels × 1440 pixels. On the other hand, the number of pixels of the image data read from the image memory 170 and input to the demosaic processing unit 222 is horizontal 480 pixels × vertical 640 pixels.

[単眼撮像動作時における2つの撮像系の停止例]
以上では、3つの撮像系のうち、少なくとも1つの撮像系を用いて撮像画像を生成する例について説明した。ここで、例えば、消費電力を低減させるため、撮像画像を生成しない撮像系については、その動作の停止等を行うことが好ましい。そこで、以下では、撮像画像を生成する場合に、撮像画像を生成しない撮像系についてその動作の停止等を行う例を示す。
[Example of stopping two imaging systems during monocular imaging]
The example in which the captured image is generated using at least one of the three imaging systems has been described above. Here, for example, in order to reduce power consumption, it is preferable to stop the operation of an imaging system that does not generate a captured image. Therefore, in the following, an example of stopping the operation of an imaging system that does not generate a captured image when generating a captured image will be described.

[携帯電話装置の構成例]
図48は、本発明の第1の実施の形態における携帯電話装置100の機能構成例を示すブロック図である。なお、図48に示す構成例は、図3に示す構成のうち、第1の撮像系191乃至第3の撮像系193への電源供給に関する構成以外の構成を省略し、撮像制御部201を追加した例である。この例では、撮像系への電源を遮断することにより、撮像系の動作を停止させる例を示す(図50に示す制御方法1)。なお、電源制御部207、電源供給部208および電源供給部209は、図3に示すものと同一である。このため、以下では、撮像系の動作停止に関する部分を中心に説明し、図3と共通する部分についての説明を省略する。
[Configuration example of mobile phone device]
FIG. 48 is a block diagram illustrating a functional configuration example of the mobile phone device 100 according to the first embodiment of the present invention. In the configuration example shown in FIG. 48, the configuration other than the configuration related to power supply to the first imaging system 191 to the third imaging system 193 is omitted from the configuration shown in FIG. 3, and the imaging control unit 201 is added. This is an example. In this example, the operation of the imaging system is stopped by shutting off the power supply to the imaging system (control method 1 shown in FIG. 50). The power control unit 207, the power supply unit 208, and the power supply unit 209 are the same as those shown in FIG. For this reason, the following description will focus on the part related to stopping the operation of the imaging system, and the description of the part common to FIG. 3 will be omitted.

例えば、撮像制御部201は、撮像素子134により生成される画像データのみを使用する撮像動作(単眼撮像動作)が選択された場合には、電源供給部209に対して、第2の撮像系192および第3の撮像系193への電源供給の遮断を指示する。これにより、単眼撮像動作が行われている場合には、撮像動作に使用されていない第2の撮像系192および第3の撮像系193の動作を停止させることができ、消費電力を削減することができる。なお、第2の撮像系192および第3の撮像系193への電源供給を遮断する場合には、DSP200から第2の撮像系192および第3の撮像系193へのクロック信号、垂直同期信号、水平同期信号等の出力を停止することが好ましい。これにより、消費電力をさらに削減することができる。   For example, the imaging control unit 201 selects the second imaging system 192 for the power supply unit 209 when an imaging operation (monocular imaging operation) using only image data generated by the imaging element 134 is selected. And instructing the power supply to the third imaging system 193 to be cut off. Thereby, when the monocular imaging operation is performed, the operations of the second imaging system 192 and the third imaging system 193 that are not used for the imaging operation can be stopped, and power consumption can be reduced. Can do. Note that when the power supply to the second imaging system 192 and the third imaging system 193 is cut off, a clock signal, a vertical synchronization signal from the DSP 200 to the second imaging system 192 and the third imaging system 193, It is preferable to stop the output of the horizontal synchronization signal or the like. Thereby, power consumption can be further reduced.

図49は、本発明の第1の実施の形態における携帯電話装置100の機能構成例を示すブロック図である。なお、図49に示す各構成例は、撮像動作の停止処理に関する構成のみを簡略化して示す。すなわち、論理積演算回路801乃至807と、各信号線のみを示す。ここで、論理積演算回路801乃至807には、2つの入力信号線が接続され、これらの各入力信号線から「H」信号が入力されたときに「H」信号を出力信号線に出力する論理積演算(AND)を行う回路である。また、この例では、撮像系の動作を停止させる場合に、停止対象となる撮像系への電源は遮断せずに、停止対象となる撮像系へのクロック供給等を遮断する例を示す。   FIG. 49 is a block diagram illustrating a functional configuration example of the mobile phone device 100 according to the first embodiment of the present invention. Note that each configuration example illustrated in FIG. 49 shows only a configuration related to the stop processing of the imaging operation in a simplified manner. That is, only AND operation circuits 801 to 807 and each signal line are shown. Here, two input signal lines are connected to the AND circuits 801 to 807, and when an “H” signal is input from each of these input signal lines, an “H” signal is output to the output signal line. This is a circuit that performs an AND operation. In this example, when the operation of the imaging system is stopped, the power supply to the imaging system to be stopped is not shut off, and the clock supply to the imaging system to be stopped is shut off.

図49(a)には、撮像系へのクロック供給を停止させるためのDSP200における回路構成例を示す。ここで、信号線809は、撮像素子134へのクロック信号の信号線であり、信号線810は、撮像素子135へのクロック信号の信号線であり、信号線811は、撮像素子136へのクロック信号の信号線である。また、信号線812は、撮像素子134へのオン/オフ制御信号の信号線であり、信号線813は、撮像素子135へのオン/オフ制御信号の信号線であり、信号線814は、撮像素子136へのオン/オフ制御信号の信号線である。また、信号線815は、撮像素子134へ出力されるクロック信号の信号線であり、信号線816は、撮像素子135へ出力されるクロック信号の信号線であり、信号線817は、撮像素子136へ出力されるクロック信号の信号線である。例えば、単眼撮像動作が選択された場合には、撮像制御部201が信号線812乃至814のうち、信号線813および814の信号を「L」信号とする。これにより、撮像素子135および136へのクロック供給が停止される(図50に示す制御方法2)。   FIG. 49A shows a circuit configuration example in the DSP 200 for stopping the clock supply to the imaging system. Here, the signal line 809 is a signal line for a clock signal to the image sensor 134, the signal line 810 is a signal line for a clock signal to the image sensor 135, and the signal line 811 is a clock line to the image sensor 136. It is a signal line of a signal. The signal line 812 is a signal line for an on / off control signal to the image sensor 134, the signal line 813 is a signal line for an on / off control signal to the image sensor 135, and the signal line 814 is an image sensor. This is a signal line for an on / off control signal to the element 136. The signal line 815 is a signal line for a clock signal output to the image sensor 134, the signal line 816 is a signal line for a clock signal output to the image sensor 135, and the signal line 817 is an image sensor 136. This is a signal line of a clock signal output to. For example, when the monocular imaging operation is selected, the imaging control unit 201 sets the signals of the signal lines 813 and 814 out of the signal lines 812 to 814 to the “L” signal. Thereby, the clock supply to the image sensors 135 and 136 is stopped (control method 2 shown in FIG. 50).

図49(b)には、撮像系への電源供給およびクロック供給を遮断させずに、撮像素子134乃至136内のクロックを生成するための回路の動作を停止させる場合における回路構成例を示す。この例では、図12に示す逓倍器/分周器391、392のうちの逓倍器818を例にして示す。なお、この例で示す逓倍器818は、撮像素子135および136の逓倍器であるものとする。ここで、信号線819は、DSP200からのクロック信号の信号線であり、信号線820は、DSP200からの撮像オン/オフ信号の信号線である。また、信号線821は、逓倍後のクロック信号の信号線である。例えば、単眼撮像動作が選択された場合には、DSP200が信号線820の信号を「L」信号とする。これにより、撮像素子135および136内の逓倍器が停止される(図50に示す制御方法3)。   FIG. 49B shows a circuit configuration example in the case of stopping the operation of the circuit for generating the clock in the imaging elements 134 to 136 without interrupting the power supply and clock supply to the imaging system. In this example, the multiplier 818 of the multiplier / dividers 391 and 392 shown in FIG. 12 is shown as an example. Note that the multiplier 818 shown in this example is a multiplier of the imaging elements 135 and 136. Here, the signal line 819 is a signal line for a clock signal from the DSP 200, and the signal line 820 is a signal line for an imaging on / off signal from the DSP 200. The signal line 821 is a signal line for the clock signal after multiplication. For example, when the monocular imaging operation is selected, the DSP 200 sets the signal on the signal line 820 as the “L” signal. As a result, the multipliers in the image sensors 135 and 136 are stopped (control method 3 shown in FIG. 50).

図49(c)には、撮像系への電源供給およびクロック供給と、撮像素子内でのクロックの逓倍器とを遮断させずに、撮像素子134乃至136内の垂直走査回路および水平走査回路の動作を停止させる場合における回路構成例を示す。ここで、信号線823は、垂直走査回路822内部の1ライン目における垂直制御信号の信号線であり、信号線824は、垂直走査回路822内部の2ライン目における垂直制御信号の信号線である。また、信号線825および831は、DSP200からの撮像オン/オフ信号の信号線であり、信号線828および830は、撮像素子内の逓倍器/分周器からのクロック信号の信号線である。また、信号線826は、垂直走査回路822の外部に出力される1ライン目における垂直制御信号の信号線であり、信号線827は、垂直走査回路822の外部に出力される2ライン目における垂直制御信号の信号線である。また、信号線832は、水平走査回路829内部へのクロック信号の信号線である。また、信号線833は、水平走査回路829の外部に出力される1ライン目における水平制御信号の信号線であり、信号線834は、水平走査回路829の外部に出力される2ライン目における水平制御信号の信号線である。なお、この例では、1ライン目および2ライン目の信号線のみを示し、他のラインの信号線を省略する。例えば、単眼撮像動作が選択された場合には、DSP200が信号線825および831の信号を「L」信号とする。これにより、撮像素子135および136内の垂直走査回路および水平走査回路において、垂直走査信号および水平走査信号の出力が停止される(図50に示す制御方法4)。ここで、図49(c)に示す例では、上述した例と比較して、第2の撮像系192および第3の撮像系193の内部で動作している回路が多いため、上述した例と比較すると消費電力の削減の効果が少ない。しかしながら、撮像素子にクロックが供給され、撮像素子内部の逓倍器も動作しているため、単眼撮像動作から複眼撮像動作への切替操作が行われた場合には、第2の撮像系192および第3の撮像系193の動作を迅速に再開させることができる。   In FIG. 49C, the power supply and clock supply to the image pickup system and the clock multiplier in the image pickup device are not cut off, and the vertical scanning circuit and the horizontal scanning circuit in the image pickup devices 134 to 136 are disconnected. An example of a circuit configuration in the case of stopping the operation is shown. Here, the signal line 823 is a signal line for a vertical control signal in the first line inside the vertical scanning circuit 822, and the signal line 824 is a signal line for a vertical control signal in the second line inside the vertical scanning circuit 822. . Signal lines 825 and 831 are signal lines for imaging on / off signals from the DSP 200, and signal lines 828 and 830 are signal lines for clock signals from the multiplier / frequency divider in the image sensor. A signal line 826 is a signal line for a vertical control signal in the first line output to the outside of the vertical scanning circuit 822, and a signal line 827 is a vertical line in the second line output to the outside of the vertical scanning circuit 822. It is a signal line of a control signal. A signal line 832 is a signal line for a clock signal into the horizontal scanning circuit 829. The signal line 833 is a signal line for the horizontal control signal in the first line output to the outside of the horizontal scanning circuit 829, and the signal line 834 is the horizontal line in the second line output to the outside of the horizontal scanning circuit 829. It is a signal line of a control signal. In this example, only the signal lines of the first line and the second line are shown, and the signal lines of the other lines are omitted. For example, when the monocular imaging operation is selected, the DSP 200 sets the signals on the signal lines 825 and 831 to the “L” signal. Thereby, the output of the vertical scanning signal and the horizontal scanning signal is stopped in the vertical scanning circuit and the horizontal scanning circuit in the imaging devices 135 and 136 (control method 4 shown in FIG. 50). Here, in the example shown in FIG. 49C, since there are many circuits operating inside the second imaging system 192 and the third imaging system 193 as compared with the above-described example, In comparison, the effect of reducing power consumption is small. However, since the clock is supplied to the image sensor and the multiplier inside the image sensor is also operating, when the switching operation from the monocular imaging operation to the compound eye imaging operation is performed, the second imaging system 192 and the second imaging system 192 The operation of the third imaging system 193 can be resumed quickly.

また、DSP200から撮像系へ供給する垂直同期信号および水平同期信号を固定することにより、撮像系の動作を停止させるようにしてもよい(図50に示す制御方法5)。この場合には、各同期信号が入力されないため、撮像素子が画像データの読出動作を行えない状態となる。   Further, the operation of the imaging system may be stopped by fixing the vertical synchronization signal and the horizontal synchronization signal supplied from the DSP 200 to the imaging system (control method 5 shown in FIG. 50). In this case, since each synchronization signal is not input, the image pickup device cannot read image data.

図50は、本発明の第1の実施の形態における撮像系の動作を停止させるための制御方法と、各信号線との関係を示す図である。図50に示す一覧表は、上述した各制御方法と、各信号線との関係を示すものである。図50に示す各制御方法を行うことにより、撮像系の動作を停止させることができる。なお、制御方法1に対応する欄のうち斜線が付された欄の信号線は、出力なしにしておくことが好ましい。また、制御方法2乃至5に対応する欄のうち斜線が付された欄の信号線は、「L」固定または「H」固定することが好ましい。また、図50に示す一覧表に記載されていない信号線(DSP200から撮像系への信号線)については、「H」出力、「L」出力、出力不足、出力なしの何れの状態とするようにしてもよい。ただし、消費電力を低減させるため、出力なしの状態にしておくことが好ましい。   FIG. 50 is a diagram illustrating a relationship between the control method for stopping the operation of the imaging system and the signal lines in the first embodiment of the present invention. The list shown in FIG. 50 shows the relationship between each control method described above and each signal line. By performing each control method shown in FIG. 50, the operation of the imaging system can be stopped. Note that it is preferable that the signal lines in the shaded columns in the columns corresponding to the control method 1 are not output. Further, it is preferable that the signal lines in the hatched columns among the columns corresponding to the control methods 2 to 5 are fixed to “L” or “H”. Further, signal lines (signal lines from the DSP 200 to the imaging system) that are not listed in the list shown in FIG. 50 are set to any state of “H” output, “L” output, insufficient output, and no output. It may be. However, in order to reduce power consumption, it is preferable to leave no output.

[撮像系からDSPへの画像データの取り込み例]
図51は、本発明の第1の実施の形態における撮像素子からの出力タイミングと、画像バッファへの書込みの様子を模式的に表すタイミングチャートである。図51に示す横軸は、時間軸を示す。また、波形700は、DSP200から各撮像系への水平同期信号を示す。また、横軸701乃至703は、各撮像系からDSP200に出力される画像データの時間遷移を示す。また、横軸704乃至706は、画像バッファ211乃至219の書き込み状態の時間遷移を示す。なお、図51に示す例では、各撮像系に対応する1組の3つの画像バッファの書き込み状態を同一ライン上に示す。
[Example of capturing image data from imaging system to DSP]
FIG. 51 is a timing chart schematically showing the output timing from the image sensor and the state of writing to the image buffer in the first embodiment of the present invention. The horizontal axis shown in FIG. 51 indicates the time axis. A waveform 700 indicates a horizontal synchronization signal from the DSP 200 to each imaging system. In addition, horizontal axes 701 to 703 indicate time transitions of image data output from each imaging system to the DSP 200. In addition, horizontal axes 704 to 706 indicate time transitions in the writing state of the image buffers 211 to 219. In the example shown in FIG. 51, the writing state of a set of three image buffers corresponding to each imaging system is shown on the same line.

例えば、第1の撮像系191と対向する画像バッファ1A、1B、1Cを例にして説明する。例えば、1個目の画像バッファ1Aへの撮像素子134からの画像データの書込が終了すると、画像バッファ1Aは、DSP200内部への読み出しを待つ待機状態となる。この画像バッファ1Aの待機状態の間、2個目の画像バッファ1Bへの撮像素子134からの画像データの書込が行われる。そして、2個目の画像バッファ1Bへの撮像素子134からの画像データの書込が終了すると、画像バッファ1Bは、DSP200内部への読み出しを待つ待機状態となる。また、2個目の画像バッファ1Bへの画像データの書込が終了すると、1個目の画像バッファ1Aから、DSP200内部への画像データの読出しが行われる。そして、画像バッファ1Cの書込みが完了する前に、画像バッファ1Aからの画像データの読出しが終了し、画像バッファ1Aについては画像データを書き込める状態となる。続いて、これらの一連の動作が繰り返し行われる。また、画像バッファ2A乃至2C、画像バッファ3A乃至3Cについても同様に行われる。   For example, the image buffers 1A, 1B, and 1C facing the first imaging system 191 will be described as an example. For example, when the writing of the image data from the image sensor 134 to the first image buffer 1A is completed, the image buffer 1A enters a standby state waiting for reading into the DSP 200. During the standby state of the image buffer 1A, image data from the image sensor 134 is written into the second image buffer 1B. When the writing of the image data from the image sensor 134 to the second image buffer 1B is completed, the image buffer 1B enters a standby state waiting for reading into the DSP 200. When the writing of the image data to the second image buffer 1B is completed, the image data is read from the first image buffer 1A into the DSP 200. Then, before the writing of the image buffer 1C is completed, the reading of the image data from the image buffer 1A is completed, and the image buffer 1A can be written with the image data. Subsequently, a series of these operations are repeated. The same applies to the image buffers 2A to 2C and the image buffers 3A to 3C.

ここで、3個の画像バッファに書き込まれたデータを1本のデータバス204を用いて読み出す場合には、撮像素子が画像バッファへ書き込んだ時間の少なくとも1/3以下の時間で画像バッファ内の画像データを読み取ることが必要である。   Here, when data written in the three image buffers is read out using one data bus 204, the time in the image buffer is less than 1/3 of the time that the image sensor has written to the image buffer. It is necessary to read the image data.

以下では、撮像素子が各画素の画像データを読み出し、かつ、画像バッファ211乃至219に書き込むクロック周波数と、画像バッファ211乃至219の画像データをDSP200が読み出すためのクロック周波数との関係について説明する。また、複眼撮像動作の際に画像バッファ211乃至219の画像データをDSP200が読み出すためのクロック周波数と、単眼撮像記録の際に画像バッファ211乃至219の画像データをDSP200が読み出すためのクロック周波数との関係について説明する。   Hereinafter, the relationship between the clock frequency at which the image sensor reads out image data of each pixel and writes the image data into the image buffers 211 to 219 and the clock frequency at which the DSP 200 reads out the image data of the image buffers 211 to 219 will be described. Also, a clock frequency for the DSP 200 to read the image data of the image buffers 211 to 219 during the compound eye imaging operation and a clock frequency for the DSP 200 to read the image data of the image buffers 211 to 219 during the monocular imaging recording. The relationship will be described.

図52乃至図54は、本発明の第1の実施の形態における撮像素子における各画素の読み出しおよび画像バッファへの書き込むためのクロック周波数と、画像バッファから画像データを読み出すためのクロック周波数との関係を示す図である。ここで、図52乃至図54に示す横軸の関係は、1ライン中の時間経過を示すものとし、縦軸の関係は、1フレーム中のライン毎の時間経過を示すものとする。なお、図52に示す例は、図28に示す第1の読出方法に対応する例(3眼横長広角画像撮像モード)である。また、図53に示す例は、図32に示す第3の読出方法に対応する例(単眼横長画像撮像モード)である。また、図54に示す例は、図36に示す第5の読出方法に対応する例(単眼縦長小領域画像撮像モード)である。   52 to 54 show the relationship between the clock frequency for reading each pixel and writing to the image buffer in the image sensor according to the first embodiment of the present invention, and the clock frequency for reading image data from the image buffer. FIG. Here, the horizontal axis relationship shown in FIG. 52 to FIG. 54 represents the passage of time in one line, and the vertical axis relationship represents the passage of time for each line in one frame. Note that the example shown in FIG. 52 is an example corresponding to the first readout method shown in FIG. 28 (three-lens landscape image mode). Further, the example shown in FIG. 53 is an example (monocular landscape image capturing mode) corresponding to the third readout method shown in FIG. The example shown in FIG. 54 is an example corresponding to the fifth reading method shown in FIG. 36 (monocular vertically long small region image capturing mode).

図52(a)には、3眼横長広角画像撮像モードが設定されている場合において、撮像素子におけるクロック周波数と、撮像素子からの画像データの出力タイミングとの関係を示す。波形710は、3眼横長広角画像撮像モードが設定されている場合において、撮像素子134乃至136における全領域から全画素を読み出す際に用いられるクロックを示す。また、横軸713乃至718は、撮像素子134乃至136から読み出され、画像バッファ211乃至219に出力される画像データの時間遷移を矩形で模式的に示す。なお、ライン719には、画像バッファ211に出力される画像データを示し、ライン720には、画像バッファ212に出力される画像データを示し、ライン721には、画像バッファ213に出力される画像データを示す。この例では、横軸715においてのみ矩形内に異なる符号(D11乃至D1C等)を付し、他の横軸では矩形内における符号を省略する。また、横軸713に示す大きい破線の丸は垂直同期信号のタイミングを示し、横軸713乃至718に示す小さい点線の丸は水平同期信号のタイミングを示す。なお、以下の図52乃至図54に示す横軸についても、同様に、大きい破線の丸および小さい点線の丸を付して、垂直同期信号のタイミングおよび水平同期信号のタイミングを示すものとする。   FIG. 52A shows the relationship between the clock frequency in the image sensor and the output timing of image data from the image sensor when the three-lens landscape wide-angle image capturing mode is set. A waveform 710 indicates a clock used when reading out all pixels from the entire area of the imaging elements 134 to 136 when the three-lens landscape wide-angle image capturing mode is set. In addition, horizontal axes 713 to 718 schematically show, with rectangles, time transitions of image data read from the image sensors 134 to 136 and output to the image buffers 211 to 219. Note that line 719 indicates image data output to the image buffer 211, line 720 indicates image data output to the image buffer 212, and line 721 indicates image data output to the image buffer 213. Indicates. In this example, different symbols (D11 to D1C, etc.) are attached to the rectangle only on the horizontal axis 715, and the symbols in the rectangle are omitted on the other horizontal axes. Further, a large broken circle shown on the horizontal axis 713 indicates the timing of the vertical synchronization signal, and a small dotted circle shown on the horizontal axes 713 to 718 indicates the timing of the horizontal synchronization signal. Similarly, the horizontal axis shown in FIGS. 52 to 54 below also indicates the timing of the vertical synchronization signal and the timing of the horizontal synchronization signal by attaching a large dotted circle and a small dotted circle.

図52(b)には、3眼横長広角画像撮像モードが設定されている場合において、DSP200におけるクロック周波数と、画像バッファからの画像データの読出しタイミングとの関係を示す。波形722は、3眼横長広角画像撮像モードが設定されている場合において、DSP200が画像バッファ211乃至219から画像データを読み出す際に用いられるクロックを示す。また、横軸725乃至732は、画像バッファ211乃至219から読み出される画像データの時間遷移を矩形で模式的に示す。この例では、横軸729においてのみ矩形に異なる符号(D11乃至D1C等)を矢印で関連付けし、他の横軸では矩形における符号を省略する。なお、これらの各符号は、図52(a)に示す符号に対応する。また、区間733は、撮像素子134の読出し区間であり、区間734は、撮像素子135の読出し区間であり、区間735は、撮像素子136の読出し区間である。   FIG. 52B shows the relationship between the clock frequency in the DSP 200 and the timing for reading image data from the image buffer when the three-lens landscape image mode is set. A waveform 722 indicates a clock used when the DSP 200 reads out image data from the image buffers 211 to 219 in the case where the three-lens landscape wide-angle image capturing mode is set. In addition, the horizontal axes 725 to 732 schematically show the time transition of the image data read from the image buffers 211 to 219 in a rectangle. In this example, different symbols (D11 to D1C, etc.) are associated with rectangles only on the horizontal axis 729 by arrows, and symbols on the rectangles are omitted on the other horizontal axes. Each of these codes corresponds to the code shown in FIG. A section 733 is a reading section of the image sensor 134, a section 734 is a reading section of the image sensor 135, and a section 735 is a reading section of the image sensor 136.

ここで、3個の撮像素子134乃至136から3枚の画像データがDSP200に入力されると、この入力された画像データが画像バッファ211乃至219に書き込まれる。そして、画像バッファ211乃至219に書き込まれた画像データは、DSP200内の1本のデータバス204を介して読み出され、画像メモリとのI/F206を介して画像メモリ170へ書き込まれる。例えば、3眼横長広角画像撮像モードの設定されている場合を想定する。この場合には、図52(a)および(b)に示すように、撮像素子134乃至136が画像バッファ211乃至219へ画像データを書き込んだ時間の1/3以下の時間で各画像バッファ211乃至219の画像データを読み出す必要がある。   Here, when three pieces of image data are input from the three image sensors 134 to 136 to the DSP 200, the input image data is written to the image buffers 211 to 219. The image data written in the image buffers 211 to 219 is read through one data bus 204 in the DSP 200 and written to the image memory 170 via the I / F 206 with the image memory. For example, a case is assumed where the three-lens landscape image mode is set. In this case, as shown in FIGS. 52A and 52B, each of the image buffers 211 to 136 takes less than 1/3 of the time when the image sensors 134 to 136 write the image data into the image buffers 211 to 219. It is necessary to read out 219 image data.

図53(a)には、単眼横長画像撮像モードが設定されている場合において、撮像素子におけるクロック周波数と、撮像素子からの画像データの出力タイミングとの関係を示す。図53(b)には、単眼横長画像撮像モードが設定されている場合において、DSP200におけるクロック周波数と、画像バッファからの画像データの読出しタイミングとの関係を示す。波形736は、単眼横長画像撮像モードが設定されている場合において、DSP200が画像バッファ211乃至219から画像データを読み出す際に用いられるクロックを示す。なお、区間737は、撮像素子134の読出し区間である。また、図52に示す例と共通する部分には、同一の符号を付す。   FIG. 53A shows the relationship between the clock frequency in the image sensor and the output timing of the image data from the image sensor when the monocular landscape image capturing mode is set. FIG. 53B shows the relationship between the clock frequency in the DSP 200 and the timing for reading image data from the image buffer when the monocular landscape image capturing mode is set. A waveform 736 indicates a clock used when the DSP 200 reads image data from the image buffers 211 to 219 when the monocular landscape image capturing mode is set. A section 737 is a reading section of the image sensor 134. Also, parts common to the example shown in FIG.

ここで、図52および図53を比較すると、3眼横長広角画像撮像モードが設定されている場合には、単眼横長画像撮像モードが設定されている場合と比較して画像データ量が3倍であることが把握できる。このため、3眼横長広角画像撮像モードが設定されている場合には、画像バッファ211乃至219の画像データを読み出すためのクロック周波数として、3眼横長撮像動作の3倍のクロック周波数が必要となる。また、同様に、3眼横長広角画像撮像モードが設定されている場合に、DSP200内部の画像信号処理を行う場合には、単眼横長画像撮像モードが設定されている場合と比較して3倍のクロック周波数が必要となる。   Here, comparing FIG. 52 and FIG. 53, when the three-lens landscape image capturing mode is set, the amount of image data is three times that when the monocular landscape image capturing mode is set. I can understand that there is. For this reason, when the three-lens horizontal long-angle image capturing mode is set, a clock frequency three times that of the three-lens horizontal long imaging operation is required as a clock frequency for reading the image data of the image buffers 211 to 219. . Similarly, when the image signal processing in the DSP 200 is performed when the three-lens landscape image mode is set, the image size is three times that when the monocular landscape image capture mode is set. A clock frequency is required.

図54(a)には、単眼縦長小領域画像撮像モードが設定されている場合において、撮像素子におけるクロック周波数と、撮像素子からの画像データの出力タイミングとの関係を示す。波形738は、単眼縦長小領域画像撮像モードが設定されている場合において、撮像素子134乃至136における特定領域からのみ全画素を読み出す際に用いられるクロックを示す。図54(b)には、単眼縦長小領域画像撮像モードが設定されている場合において、DSP200におけるクロック周波数と、画像バッファからの画像データの読出しタイミングとの関係を示す。波形739は、単眼縦長小領域画像撮像モードが設定されている場合において、DSP200が画像バッファ211乃至219から画像データを読み出す際に用いられるクロックを示す。なお、区間740は、撮像素子134の読出し区間である。なお、図52に示す例と共通する部分には、同一の符号を付す。   FIG. 54A shows the relationship between the clock frequency in the image sensor and the output timing of the image data from the image sensor when the monocular vertically small region image capturing mode is set. A waveform 738 indicates a clock used when reading out all pixels only from a specific area in the imaging elements 134 to 136 in the case where the monocular vertically long small area imaging mode is set. FIG. 54B shows the relationship between the clock frequency in the DSP 200 and the timing for reading image data from the image buffer when the monocular vertically long small region imaging mode is set. A waveform 739 indicates a clock used when the DSP 200 reads out image data from the image buffers 211 to 219 in the case where the monocular vertically long small region image capturing mode is set. A section 740 is a reading section of the image sensor 134. Parts common to the example shown in FIG. 52 are denoted by the same reference numerals.

ここで、図53および図54を比較すると、単眼縦長小領域画像撮像モードが設定されている場合には、受光面の全画素を読み出す場合と比較して画像データのデータ量が少ないことが把握できる。このため、単眼縦長小領域画像撮像モードが設定されている場合には、画像バッファ211の画像データを読み出すためのクロック周波数として、全画素を読み出す場合と比較して小さいクロック周波数が必要となる。また、同様に、DSP200内部の画像信号処理を行う場合には、全画素を読み出す場合と比較して小さいクロック周波数とすることができる。   Here, comparing FIG. 53 and FIG. 54, it is understood that when the monocular vertically long small area image capturing mode is set, the data amount of the image data is smaller than when all the pixels on the light receiving surface are read. it can. For this reason, when the monocular vertically long small-area image capturing mode is set, a clock frequency for reading image data in the image buffer 211 is required to be smaller than that for reading all pixels. Similarly, when image signal processing inside the DSP 200 is performed, the clock frequency can be made smaller than when all pixels are read out.

[DSPのデータバスに要求される動作周波数例]
図55は、本発明の第1の実施の形態における撮像素子134により生成された画像データの流れを模式的に示す図である。図55に示す構成は、図43に示す構成例と同一であり、各部がデータバス204を経由して伝送する画像データのデータフォーマットを追記した点のみが異なる。また、この例では、DSP200における画素加算処理部221を使用しないものとし、画像出力は表示部140への出力のみとし、外部表示装置への出力は行わないものとする。
[Example of operating frequency required for DSP data bus]
FIG. 55 is a diagram schematically showing a flow of image data generated by the image sensor 134 according to the first embodiment of the present invention. The configuration shown in FIG. 55 is the same as the configuration example shown in FIG. 43, except that the data format of the image data transmitted by each unit via the data bus 204 is added. In this example, it is assumed that the pixel addition processing unit 221 in the DSP 200 is not used, the image output is only the output to the display unit 140, and the output to the external display device is not performed.

撮像素子134から画像バッファ211乃至213に書き込まれる画像データは、ベイヤーデータ750である。また、DSP200に入力された画像データは、ベイヤーデータをRGB(R(Red:赤)、G(Green:緑)、B(Blue:青))データへ補間するデモザイク処理部222の前段までは、ベイヤーデータフォーマットで伝送される。すなわち、画像バッファ211乃至213から画像メモリ170への画像データの書き込みと、デモザイク処理部222への画像データの読出しについては、画像データがベイヤーデータフォーマットで伝送される。   Image data written from the image sensor 134 to the image buffers 211 to 213 is Bayer data 750. Further, the image data input to the DSP 200 is up to the preceding stage of the demosaic processing unit 222 that interpolates Bayer data into RGB (R (Red: Red), G (Green: Green), B (Blue: Blue)) data, It is transmitted in the Bayer data format. That is, for writing image data from the image buffers 211 to 213 to the image memory 170 and reading image data to the demosaic processing unit 222, the image data is transmitted in the Bayer data format.

ここで、デモザイク処理部222によりデモザイク処理された画像データについては、解像度変換処理を行う前までの間、各処理部間を直接受け渡しされる。信号処理の際に扱うデータ量が大きい解像度変換の際には、所望の画像データを所望のタイミングで入力しやすいように画像データをデータバス204経由で画像メモリ170へ書き込んでおく。そして、解像度変換部231および251は、画像メモリ170から解像度変換処理に必要な画像データを読み込む。   Here, the image data demosaiced by the demosaic processing unit 222 is directly transferred between the processing units until the resolution conversion processing is performed. When performing resolution conversion with a large amount of data handled during signal processing, the image data is written to the image memory 170 via the data bus 204 so that the desired image data can be easily input at a desired timing. Then, the resolution conversion units 231 and 251 read image data necessary for resolution conversion processing from the image memory 170.

これにより、記録用画像の解像度変換前にRGBデータフォーマットの画像データがデータバス204経由で画像メモリ170に書き込まれる。また、画像記録用の解像度変換の際にRGBデータフォーマットの画像データがデータバス204経由で画像メモリ170から読み出される。   Thereby, the image data in the RGB data format is written into the image memory 170 via the data bus 204 before the resolution conversion of the recording image. Also, image data in the RGB data format is read from the image memory 170 via the data bus 204 at the time of resolution conversion for image recording.

また、表示部140に画像を表示させる場合には、一般的にYCbCrフォーマットで画像データを表示部140から要求される。このため、表示装置用の解像度変換の前にYCbCrデータフォーマットの画像データをデータバス204経由で画像メモリ170に書き込む。また、画像表示用の解像度変換の際にYCbCrデータフォーマットの画像データをデータバス204経由で画像メモリ170から読み出す。   When displaying an image on the display unit 140, the display unit 140 generally requests image data in the YCbCr format. Therefore, image data in the YCbCr data format is written into the image memory 170 via the data bus 204 before resolution conversion for the display device. Also, image data in the YCbCr data format is read from the image memory 170 via the data bus 204 at the time of resolution conversion for image display.

ここで、データバス204経由で伝送される1枚の画像データのデータ量について説明する。例えば、1枚の画像データが撮像素子134からDSP200に入力された場合に、この入力された画像データを記録媒体180に1枚の画像ファイルとして記録するとともに表示部140に表示させる場合を想定して説明する。この場合には、ベイヤーデータの画像データが2枚分と、YCbCrデータの画像データが2枚分と、RGBデータの画像データが2枚分とがデータバス204を経由して伝送される。すなわち、画像バッファ211乃至213からデモザイク処理部222までの間の2枚分の画像データがベイヤーデータフォーマットで伝送される(ベイヤー751および752)。また、色調整処理部226から解像度変換部231までの間の2枚分の画像データがYCbCrデータフォーマットで伝送される(YCbCr753および756)。また、RGB変換処理部227から解像度変換部251までの間の2枚分の画像データがRGBデータフォーマットで伝送される(RGB754および755)。   Here, the data amount of one piece of image data transmitted via the data bus 204 will be described. For example, assuming that one piece of image data is input from the image sensor 134 to the DSP 200, the input image data is recorded as one image file on the recording medium 180 and displayed on the display unit 140. I will explain. In this case, two pieces of image data of Bayer data, two pieces of image data of YCbCr data, and two pieces of image data of RGB data are transmitted via the data bus 204. That is, two pieces of image data between the image buffers 211 to 213 and the demosaic processing unit 222 are transmitted in the Bayer data format (Bayer 751 and 752). Also, two pieces of image data between the color adjustment processing unit 226 and the resolution conversion unit 231 are transmitted in the YCbCr data format (YCbCr 753 and 756). Also, two pieces of image data between the RGB conversion processing unit 227 and the resolution conversion unit 251 are transmitted in the RGB data format (RGB 754 and 755).

ここで、YCbCrデータフォーマットの画像データの1枚分のデータ量は、同一画像サイズのベイヤーフォーマットの画像データの略2倍である。また、RGBデータフォーマットの画像データの1枚分のデータ量は、同一画像サイズのベイヤーフォーマットの画像データの略3倍である。例えば、1枚分の画像データを、記録媒体180に1枚の画像ファイルとして記録するとともに表示部140に表示させる場合には、ベイヤーデータフォーマット換算で略12枚分の画像データをデータバス204経由で伝送する必要がある。この画像データの伝送に関する処理を図56に示す。   Here, the data amount of one piece of image data in the YCbCr data format is approximately twice that of image data in the Bayer format having the same image size. Further, the data amount of one piece of image data in the RGB data format is approximately three times that of the image data in the Bayer format having the same image size. For example, when image data for one sheet is recorded as one image file on the recording medium 180 and displayed on the display unit 140, approximately 12 image data in terms of Bayer data format are converted via the data bus 204. Need to be transmitted. The processing relating to the transmission of the image data is shown in FIG.

図56は、本発明の第1の実施の形態におけるデータバス204を占有する処理と時間との関係を模式的に示す図である。図56(a)には、上述した撮像素子134からDSP200に入力された1枚分の画像データを、記録媒体180に1枚の画像ファイルとして記録するとともに表示部140に表示させる場合におけるデータバス204を占有する処理と時間との関係を示す。図56では横軸を時間軸とし、1フレームを処理する場合における関係を示す。なお、図55に示す例において、対応する各処理については図55に示す符号と同一のものを付す。   FIG. 56 is a diagram schematically showing the relationship between the processing for occupying the data bus 204 and time in the first embodiment of this invention. FIG. 56A shows a data bus when one image data input from the image sensor 134 to the DSP 200 is recorded as one image file on the recording medium 180 and displayed on the display unit 140. The relationship between the process occupying 204 and time is shown. FIG. 56 shows the relationship when the horizontal axis is a time axis and one frame is processed. In the example shown in FIG. 55, the corresponding processes are denoted by the same reference numerals as those shown in FIG.

図56(b)には、撮像素子134からDSP200に入力された1枚分の画像データを、記録媒体180に記録せずに、表示部140に表示させる場合におけるデータバス204を占有する処理と時間との関係を示す。この例は、いわゆるモニタリング画像の表示動作が行われる場合の例である。ここで、モニタリング画像の表示動作が行われる場合には、画像を表示部140に表示するが、記録用の画像データを生成しない。すなわち、記録画像の解像度変換の前段で、RGBデータを画像メモリ170へ書き込む処理754と、記録画像の解像度変換の際にRGBデータを画像メモリ170から読み出す処理755とが不要となる。このため、モニタリング画像の表示動作において、撮像素子134からDSP200に入力された1枚分の画像データを表示部140に表示させる場合には、ベイヤーデータフォーマット換算で略6枚分の画像データをデータバス204経由で伝送するのみでよい。   FIG. 56B shows a process of occupying the data bus 204 when displaying one piece of image data input from the image sensor 134 to the DSP 200 on the display unit 140 without recording it on the recording medium 180. Shows the relationship with time. This example is an example where a so-called monitoring image display operation is performed. Here, when the monitoring image display operation is performed, the image is displayed on the display unit 140, but the image data for recording is not generated. That is, the process 754 for writing RGB data to the image memory 170 and the process 755 for reading the RGB data from the image memory 170 at the resolution conversion of the recorded image are not required before the resolution conversion of the recorded image. Therefore, in the display operation of the monitoring image, when displaying one piece of image data input from the image sensor 134 to the DSP 200 on the display unit 140, approximately six pieces of image data in terms of Bayer data format are converted into data. It only needs to be transmitted via the bus 204.

以上で示したように、データバス204経由で伝送される画像データのデータ量が算出することができる。以下では、データバス204に要求される動作周波数について説明する。   As described above, the data amount of image data transmitted via the data bus 204 can be calculated. Hereinafter, the operating frequency required for the data bus 204 will be described.

ここでは、データバス204に要求される動作周波数の算出に用いられる変数を示す。
H:撮像素子において画素データ読出しを行う領域の横方向画素数。
V:撮像素子において画素データ読出しを行う領域の縦方向画素数。
R:撮像素子において画素データ読出しを行う際に画素間引き読出しを行う場合の間引き率。
B:画像の各画素データのビット幅。
F:撮像素子から入力された画像をDSP200において1秒間に画像信号処理できる画像の枚数。
Kb:撮像素子から入力された1枚の画像を記録媒体180へ記録および表示部140へ表示するまで間にDSP200のデータバス204上をベイヤーデータ形式で伝送する必要がある画像の枚数。
Ky:撮像素子から入力された1枚の画像を記録媒体180へ記録および表示部140へ表示するまで間にDSP200のデータバス204上をYCbCrデータ形式で伝送する必要がある画像の枚数。
Kr:撮像素子から入力された1枚の画像を記録媒体180へ記録および表示部140へ表示するまで間にDSP200のデータバス204上をRGBデータ形式で伝送する必要がある画像の枚数。
K:撮像素子から入力された1枚の画像を記録媒体180へ記録および表示部140へ表示するまで間にDSP200のデータバス204上を伝送させる画像の枚数をベイヤー画像データ換算で換算した値。
なお、Kは次式で求められる。
K=Kb×1+Ky×2+Kr×3
D:DSP200のデータバス204のビット幅
Here, variables used for calculating the operating frequency required for the data bus 204 are shown.
H: The number of pixels in the horizontal direction of the area where pixel data is read in the image sensor.
V: The number of pixels in the vertical direction of the area where pixel data is read in the image sensor.
R: A thinning rate when performing pixel thinning readout when reading pixel data in the image sensor.
B: Bit width of each pixel data of the image.
F: The number of images that can be subjected to image signal processing per second by the DSP 200 on the image input from the image sensor.
Kb: The number of images that need to be transmitted on the data bus 204 of the DSP 200 in the Bayer data format before one image input from the image sensor is recorded on the recording medium 180 and displayed on the display unit 140.
Ky: The number of images that need to be transmitted in the YCbCr data format on the data bus 204 of the DSP 200 before one image input from the image sensor is recorded on the recording medium 180 and displayed on the display unit 140.
Kr: The number of images that need to be transmitted in the RGB data format on the data bus 204 of the DSP 200 before one image input from the image sensor is recorded on the recording medium 180 and displayed on the display unit 140.
K: A value obtained by converting the number of images to be transmitted on the data bus 204 of the DSP 200 before Bayer image data conversion until one image input from the image sensor is recorded on the recording medium 180 and displayed on the display unit 140.
Note that K is obtained by the following equation.
K = Kb × 1 + Ky × 2 + Kr × 3
D: Bit width of the data bus 204 of the DSP 200

これらの変数を用いて、1秒間にDSP200へ入力されるデータ量(単位:ビット)DD1は、式13により求められる。
DD1=H×V×R×B×F …式13
Using these variables, the amount of data (unit: bit) DD1 input to the DSP 200 per second is obtained by Equation 13.
DD1 = H × V × R × B × F Equation 13

また、1秒間にデータバス204で伝送すべきデータ量(単位:ビット)DD2は、式14により求められる。
DD2=H×V×R×B×F×K …式14
Further, the amount of data (unit: bit) DD2 to be transmitted on the data bus 204 per second is obtained by Expression 14.
DD2 = H × V × R × B × F × K (14)

また、画像データを伝送させるために必要なデータバス204のクロック周波数(単位:Hz)Fclkは、式15により求められる。
Fclk=H×V×R×B×F×K/(D−DmodB) …式15
Further, the clock frequency (unit: Hz) Fclk of the data bus 204 necessary for transmitting the image data is obtained by Expression 15.
Fclk = H × V × R × B × F × K / (D-DmodB) Equation 15

ここで、クロック周波数Fclkの好ましい範囲の下限値Fclk minは、式16により求めることができる。
Fclk min=(H×V×R×B×F×K×1.0)/(D−DmodB) …式16
Here, the lower limit value Fclk min of the preferable range of the clock frequency Fclk can be obtained by Expression 16.
Fclk min = (H × V × R × B × F × K × 1.0) / (D-DmodB) Equation 16

ここで、データバス204上では、データ間に一切の隙間が無く絶えずデータが伝送されているわけではない。このため、データバス204を使って伝送する必要があるデータ量に基づいて、データバス204の動作周波数を求める場合には、データバス204の転送能力に数十%の余裕を持たせておくことが当業者間では広く知られている。   Here, there is no gap between the data on the data bus 204, and the data is not constantly transmitted. For this reason, when determining the operating frequency of the data bus 204 based on the amount of data that needs to be transmitted using the data bus 204, allow a transfer capacity of the data bus 204 of several tens of percent. Is well known to those skilled in the art.

例えば、数%の余裕を持たせた場合には、持たせた余裕の量が少なすぎるおそれがある。一方、百数十%の余裕を持たせた場合には、余裕を持たせすぎである。これらについても当業者間では広く知られている。例えば、データバス204上のデータ伝送の間隔が空いてしまい、データバス204の伝送量が低下してしまうのは、数10%である。このため、データバス204の伝送能力として、最大で100%の余裕を持たせておけば、十分である。このため、クロック周波数Fclkの好ましい範囲の上限値は、以下のようになる。   For example, when a margin of several percent is provided, there is a possibility that the amount of the margin provided is too small. On the other hand, when a margin of one hundred and ten percent is given, the margin is too much. These are also well known among those skilled in the art. For example, the data transmission interval on the data bus 204 becomes vacant and the transmission amount of the data bus 204 decreases by several tens of percent. For this reason, it is sufficient if the transmission capacity of the data bus 204 has a maximum margin of 100%. For this reason, the upper limit value of the preferable range of the clock frequency Fclk is as follows.

ここで、クロック周波数Fclkの好ましい範囲の上限値Fclk maxは、式17により求めることができる。
Fclk max=(H×V×R×B×F×K×2.0)/(D−DmodB) …式17
Here, the upper limit value Fclk max of the preferable range of the clock frequency Fclk can be obtained by Expression 17.
Fclk max = (H × V × R × B × F × K × 2.0) / (D-DmodB) Equation 17

このように、クロック周波数Fclkの好ましい範囲の下限値Fclk minおよび上限値Fclk maxを求めることができるため、データバス204のクロック周波数Fclkの好ましい範囲については、式18により定義することができる。
(H×V×R×B×F×K×1.0)/(D−DmodB)≦Fclk≦(H×V×R×B×F×K×2.0)/(D−DmodB) …式18
Thus, since the lower limit value Fclk min and the upper limit value Fclk max of the preferable range of the clock frequency Fclk can be obtained, the preferable range of the clock frequency Fclk of the data bus 204 can be defined by Equation 18.
(H × V × R × B × F × K × 1.0) / (D-DmodB) ≦ Fclk ≦ (H × V × R × B × F × K × 2.0) / (D-DmodB) Equation 18

ここで、式16乃至式18に示す「D−DmodB」について説明する。   Here, “D-DmodB” shown in Expressions 16 to 18 will be described.

データバス204のビット幅が撮像素子の各画素のビット幅の整数倍になっていない場合には、画像メモリ170への書込み動作に無駄が生じる。例えば、データバス204のビット幅が128ビットであり、撮像素子の各画素のビット幅が12ビットである場合には、12ビットの画素データを11画素分転送することはできず、10画素分しか転送できない。このため、書込み動作として8ビット分の無駄が生じる。この無駄を示す量が、DmodBである。すなわち、データバス204のビット幅から、この無駄を示す量を減算した値(実効的なデータバス幅)が「D−DmodB」である。   When the bit width of the data bus 204 is not an integral multiple of the bit width of each pixel of the image sensor, the writing operation to the image memory 170 is wasted. For example, if the bit width of the data bus 204 is 128 bits and the bit width of each pixel of the image sensor is 12 bits, 12-bit pixel data cannot be transferred for 11 pixels, and 10 pixels Can only transfer. For this reason, a waste of 8 bits occurs as a write operation. The amount indicating this waste is DmodB. That is, a value (effective data bus width) obtained by subtracting this waste amount from the bit width of the data bus 204 is “D-DmodB”.

上述した式16乃至式18に示すように、データバス204の好ましい動作周波数の範囲を算出する場合には、H、V、R、B、F、K、Dにより算出することができる。しかしながら、H、V、R、B、F、K、Dの各値は、携帯電話装置100により行われる撮像動作の内容に応じて変化する。このため、各撮像動作において設定されているH、V、R、B、F、K、Dの各値に応じて、データバス204の動作周波数を変化させることが好ましい。このように、データバス204の動作周波数を変化させることにより、DSP200において、データバス204の動作周波数を必要十分な値にまで低減させることができ、消費電力を低減させることができる。   As shown in Equations 16 to 18, the preferable operating frequency range of the data bus 204 can be calculated using H, V, R, B, F, K, and D. However, the values of H, V, R, B, F, K, and D change according to the content of the imaging operation performed by the mobile phone device 100. For this reason, it is preferable to change the operating frequency of the data bus 204 according to each value of H, V, R, B, F, K, and D set in each imaging operation. In this manner, by changing the operating frequency of the data bus 204, the DSP 200 can reduce the operating frequency of the data bus 204 to a necessary and sufficient value, thereby reducing power consumption.

図57は、本発明の第1の実施の形態における携帯電話装置100の各撮像動作についてデータバス204の動作周波数を決定するためのパラメータを示す図である。図57に示す各パラメータ(H1sr、V1sr等)を設定しておくことにより、携帯電話装置100の各撮像動作についてデータバス204の動作周波数を決定することができる。これらの各パラメータの一例を図58に示す。   FIG. 57 is a diagram showing parameters for determining the operating frequency of the data bus 204 for each imaging operation of the mobile phone device 100 according to the first embodiment of the present invention. By setting the parameters (H1sr, V1sr, etc.) shown in FIG. 57, the operating frequency of the data bus 204 can be determined for each imaging operation of the mobile phone device 100. An example of each of these parameters is shown in FIG.

図58は、本発明の第1の実施の形態における携帯電話装置100の各撮像動作についてデータバス204の動作周波数を決定するためのパラメータの一例を示す図である。この例では、静止画記録動作を行う場合を例にして示す。また、各パラメータに基づいて、データバス204の動作周波数の下限値Fclk_minおよび上限値Fclk_maxが予め算出することができる。なお、図58に示す例では、1秒間に静止画記録処理を行う画像の枚数、および、1秒間にモニタリング動作を行う画像の枚数を、30枚とする場合を示す。   FIG. 58 is a diagram illustrating an example of parameters for determining the operating frequency of the data bus 204 for each imaging operation of the mobile phone device 100 according to the first embodiment of the present invention. In this example, a case where a still image recording operation is performed is shown as an example. Further, based on each parameter, the lower limit value Fclk_min and the upper limit value Fclk_max of the operating frequency of the data bus 204 can be calculated in advance. The example shown in FIG. 58 shows a case where the number of images for which still image recording processing is performed per second and the number of images for which monitoring operation is performed per second is 30.

[静止画記録動作の時分割処理例]
次に、静止画記録動作に関する時分割処理について説明する。この時分割処理は、例えば、静止画の撮像記録処理について、1フレームの期間内(すなわち、画像信号処理部220に供給される垂直同期信号1期間内)に終了させず、数フレームの期間に跨って各処理を行うことを意味するものとする。
[Example of time-sharing processing for still image recording]
Next, a time division process related to the still image recording operation will be described. For example, the time-division processing does not end within the period of one frame (that is, within one period of the vertical synchronization signal supplied to the image signal processing unit 220) in the imaging and recording process of a still image, but within a period of several frames It shall mean that each process is performed across.

例えば、近年、広く普及しているカメラ付き携帯電話装置を用いて、ユーザが比較的多くの静止画撮影を行う場合でも、数秒間に1枚程度であることが多い。このため、静止画記録動作を行う場合には、例えば、1枚の静止画の画像信号処理および記録処理等については、約1秒間かけて行うようにしても、ユーザの利便性を損なうおそれは少ないことが想定される。また、このように、1枚の静止画の画像信号処理および記録処理等を行うことにより、DSP200のデータバス204の動作周波数を低減させることができ、消費電力を削減させることができる。   For example, even when a user takes a relatively large number of still images using a mobile phone device with a camera that has become widespread in recent years, the number is often about one in a few seconds. For this reason, when a still image recording operation is performed, for example, even if image signal processing and recording processing of a single still image is performed for about one second, there is a possibility that the convenience of the user may be impaired. It is assumed that there are few. In addition, by performing image signal processing and recording processing of one still image in this way, the operating frequency of the data bus 204 of the DSP 200 can be reduced, and power consumption can be reduced.

なお、静止画を1枚記録した後に、その画像信号処理および記録処理等が終了するまでの間は、表示部140には「しばらくお待ちください」等のメッセージを表示して、静止画撮像処理を実行中であることを通知することができる。また、メッセージ以外に、静止画撮像処理を実行中であることを示すアイコンや標識を表示するようにしてもよく、モニタリング動作を並行して行い、モニタリング画像を表示するようにしてもよい。   In addition, after recording a single still image, until the image signal processing and recording processing are completed, a message such as “Please wait” is displayed on the display unit 140, and the still image capturing process is performed. Can be notified that it is running. In addition to the message, an icon or a sign indicating that the still image capturing process is being executed may be displayed, or a monitoring operation may be performed in parallel to display a monitoring image.

図59および図60は、本発明の第1の実施の形態における画像信号処理部220により行われる時分割処理を模式的に示す図である。図59および図60に示す例は、モニタリング動作が行われている間に、静止画の記録指示操作が行われた場合における時分割処理を示す。図59に示す横軸は時間軸を示す。また、波形760は垂直同期信号を示す。また、横軸795は、データバス204を占有する処理と時間との関係を示す。横軸795に示す白抜きの矩形は、各フレームのモニタリング処理に必要なデータバス204を占有する処理を表す。また、横軸795に示す内部に斜線を付した矩形は、静止画の記録処理に必要なデータバス204を占有する処理(時分割処理)を表す。   FIG. 59 and FIG. 60 are diagrams schematically showing the time division processing performed by the image signal processing unit 220 in the first embodiment of the present invention. The examples shown in FIGS. 59 and 60 show time-division processing when a still image recording instruction operation is performed while the monitoring operation is being performed. The horizontal axis shown in FIG. 59 represents the time axis. A waveform 760 represents a vertical synchronization signal. Also, the horizontal axis 795 shows the relationship between processing that occupies the data bus 204 and time. A white rectangle shown on the horizontal axis 795 represents a process of occupying the data bus 204 necessary for the monitoring process of each frame. In addition, a rectangle with an oblique line inside the abscissa 795 represents processing (time division processing) that occupies the data bus 204 necessary for still image recording processing.

上述したように、モニタリング動作が行われている場合には、静止画の撮像動作が行われている場合と比較して、データバス204を経由して伝送させることが必要なデータ量が少ない。ここで、例えば、区間796の何れかの時刻において、静止画の記録指示操作が行われた場合を想定する。この場合には、矢印797に示すフレーム3について静止画の記録動作が行われる。例えば、ユーザから記録指示操作が受け付けられた場合には、DSP200が、記録指示操作のタイミングに対応するフレーム(例えば、フレーム3)およびこれに続く複数フレーム(例えば、フレーム4乃至8)に跨って画像信号処理および記録処理を行う。この画像信号処理および記録処理が行われている間、撮像素子とDSP200は、モニタリング動作を並行して行う。そして、記録動作が終了した場合には(例えば、矢印798に示す時刻)、撮像素子とDSP200はモニタリング動作のみを行う。   As described above, when the monitoring operation is performed, the amount of data that needs to be transmitted via the data bus 204 is smaller than when the still image capturing operation is performed. Here, for example, a case is assumed where a still image recording instruction operation is performed at any time in the section 796. In this case, a still image recording operation is performed for frame 3 indicated by arrow 797. For example, when a recording instruction operation is received from the user, the DSP 200 straddles a frame (for example, frame 3) corresponding to the timing of the recording instruction operation and a plurality of subsequent frames (for example, frames 4 to 8). Perform image signal processing and recording processing. While the image signal processing and the recording processing are being performed, the image sensor and the DSP 200 perform the monitoring operation in parallel. When the recording operation ends (for example, the time indicated by the arrow 798), the image sensor and the DSP 200 perform only the monitoring operation.

なお、静止画の記録処理の時分割処理を行う場合に、時分割処理が行われている間はモニタリング動作を行わず、表示部140に単一色、または、予め用意されている画像を表示するようにしてもよい。また、これらの画像と、ユーザに画像記録処理中であることを知らせるメッセージ等とを表示するようにしてもよい。   When performing time-division processing of still image recording processing, a monitoring operation is not performed during the time-division processing, and a single color or a prepared image is displayed on the display unit 140. You may do it. Further, these images and a message for informing the user that the image recording process is being performed may be displayed.

図60には、上述した時分割処理において、垂直同期信号の期間内にモニタリング動作および記録処理の時分割処理を行うために、DSP200のデータバス204を経由して伝送させることが必要なデータ量を示す。なお、図60に示す例は、図56に示す例の一部を変形したものであり、図60(b)において記録動作時分割処理759を追加した点が異なる。なお、図56に示す例と共通する部分には、同一の符号を付す。   FIG. 60 shows the amount of data necessary to be transmitted via the data bus 204 of the DSP 200 in order to perform the time division processing of the monitoring operation and the recording processing within the period of the vertical synchronization signal in the time division processing described above. Indicates. The example shown in FIG. 60 is obtained by modifying a part of the example shown in FIG. 56, and is different in that a recording operation time division process 759 is added in FIG. In addition, the same code | symbol is attached | subjected to the part which is common in the example shown in FIG.

例えば、図60(a)に示す記録処理を12分割する。そして、図60(b)に示すように、モニタリング動作においては、1フレームについてベイヤー画像2枚分のデータ伝送を伴う量だけ各信号処理(例えば、記録動作時分割処理759)を行う。そして、記録処理が開始されたフレーム以降では、記録動作開始後のモニタリング動作を行いながら、記録処理のための信号処理を行う。ただし、最初の1つ目の処理は、画像メモリ170への画像データの書込みを完了させるため、必ずベイヤー画像1枚分と同等以上にする。なお、図60(b)に示す矩形751乃至753、756は、図59に示す横軸795における白抜きの矩形に対応し、図60(b)に示す矩形759は、図59に示す横軸795における内部に斜線を付した矩形に対応する。   For example, the recording process shown in FIG. Then, as shown in FIG. 60B, in the monitoring operation, each signal processing (for example, recording operation time division processing 759) is performed by an amount accompanying data transmission for two Bayer images for one frame. Then, after the frame in which the recording process is started, signal processing for the recording process is performed while performing the monitoring operation after the start of the recording operation. However, in the first process, in order to complete the writing of the image data to the image memory 170, the first process is always equal to or more than one Bayer image. Note that the rectangles 751 to 753 and 756 shown in FIG. 60B correspond to the white rectangles on the horizontal axis 795 shown in FIG. 59, and the rectangle 759 shown in FIG. 60B is the horizontal axis shown in FIG. 795 corresponds to a rectangle with a diagonal line inside.

図61は、本発明の第1の実施の形態における携帯電話装置100の静止画記録動作についてデータバス204の動作周波数を決定するためのパラメータの一例を示す図である。図61に示す例は、1秒間に静止画記録処理を行う画像の枚数を1枚とした点およびこれに関連する値を変更した点以外は、図58と同様である。このように、1秒間に静止画記録処理を行う画像の枚数を1枚とすることにより、データバス204の動作周波数の下限値Fclk_minおよび上限値Fclk_maxを低減させることができる。また、DSP200の消費電力を削減させることができる。   FIG. 61 is a diagram showing an example of parameters for determining the operating frequency of the data bus 204 for the still image recording operation of the mobile phone device 100 according to the first embodiment of the present invention. The example shown in FIG. 61 is the same as FIG. 58 except that the number of images to be subjected to the still image recording process per second is one and the value related thereto is changed. Thus, by setting the number of images to be subjected to still image recording processing per second to one, the lower limit value Fclk_min and the upper limit value Fclk_max of the operating frequency of the data bus 204 can be reduced. Further, the power consumption of the DSP 200 can be reduced.

ここで、上述したように、モニタリング動作において生成される画像は、観賞用の画像でないため、画素データを間引きして消費電力を削減することが好ましい。そこで、図58および図61に示す例でも、モニタリング動作の場合には、画素データの間引き率として1よりも小さい値を用いている。このため、DSP200のデータバス204に必要とされる動作周波数が、図58および図61に示す静止画記録動作において、データバス204に必要とされる動作周波数よりも小さくすることができ、消費電力を削減することができる。   Here, as described above, since the image generated in the monitoring operation is not an ornamental image, it is preferable to thin out pixel data to reduce power consumption. Therefore, also in the example shown in FIGS. 58 and 61, a value smaller than 1 is used as the thinning rate of the pixel data in the monitoring operation. For this reason, the operating frequency required for the data bus 204 of the DSP 200 can be made lower than the operating frequency required for the data bus 204 in the still image recording operation shown in FIGS. Can be reduced.

図62は、本発明の第1の実施の形態における携帯電話装置100の動画記録動作についてデータバス204の動作周波数を決定するためのパラメータの一例を示す図である。図62に示す例は、図57に示す各パラメータとして、動画記録動作の一例を示す。   FIG. 62 is a diagram showing an example of parameters for determining the operating frequency of the data bus 204 for the moving image recording operation of the mobile phone device 100 according to the first embodiment of the present invention. The example shown in FIG. 62 shows an example of a moving image recording operation as each parameter shown in FIG.

ここで、3眼横長広角画像撮像モードが設定されている場合には、単眼横長画像撮像モードが設定されている場合と比較して画像データ量が約3倍となる。このため、例えば、静止画記録動作を行う場合には、垂直同期信号の数個分の時間をかけて(すなわち、数フレーム分の時間をかけて)、大きな画像の信号処理を行うことができる。これにより、データバス204に必要とされる動作周波数が大きくなり過ぎることを抑制することができる。しかしながら、動画記録動作を行う場合には、フレーム毎に新たな画像が入力されるため、1フレームの期間内で3眼の画像データを信号処理することが必要となる。そこで、データバス204に必要とされる動作周波数が大きくなり過ぎることを抑制するため、図62に示すように、画像の間引き処理を行い、データ量を低減することが好ましい。   Here, when the three-lens landscape image capturing mode is set, the image data amount is about three times as compared with the case where the monocular landscape image capture mode is set. For this reason, for example, when a still image recording operation is performed, it is possible to perform signal processing of a large image by taking several minutes of vertical synchronization signals (that is, taking several frames). . Thereby, it is possible to prevent the operating frequency required for the data bus 204 from becoming too large. However, when a moving image recording operation is performed, since a new image is input for each frame, it is necessary to perform signal processing on image data for three eyes within a period of one frame. Therefore, in order to prevent the operating frequency required for the data bus 204 from becoming too large, it is preferable to reduce the amount of data by performing image thinning processing as shown in FIG.

[画像データの取り込み遅延の対策例]
本発明の第1の実施の形態では、3個の撮像素子からDSP200へ同時に入力される3枚の画像データをリングバッファ構造の画像バッファに一時的に保持させる。このリングバッファ構造の画像バッファを用いることにより、3個の撮像素子からDSP200へ同時に入力される3枚の画像データを、1本のデータバス204および画像メモリとのI/F205を介して、最小1個の画像メモリ170に書き込むことができる。しかしながら、リングバッファ構造の画像バッファ211乃至219を用いる場合には、以下で示すように、画像バッファ211乃至219から読み出されてDSP200内部へ取り込まれるまでに画像データの遅延が発生する。そこで、このように発生する遅延に対する処理を行うことが必要となる。
[Example of countermeasures for image data capture delay]
In the first embodiment of the present invention, three pieces of image data input simultaneously from three image sensors to the DSP 200 are temporarily stored in an image buffer having a ring buffer structure. By using the image buffer having the ring buffer structure, three pieces of image data input simultaneously from the three image pickup devices to the DSP 200 can be transmitted through the single data bus 204 and the I / F 205 with the image memory. A single image memory 170 can be written. However, in the case where the image buffers 211 to 219 having the ring buffer structure are used, a delay of image data occurs until the image data is read from the image buffers 211 to 219 and taken into the DSP 200 as described below. Therefore, it is necessary to perform processing for the delay generated in this way.

図63は、本発明の第1の実施の形態における画像バッファ211乃至219への書き込みタイミングと、DSP200内部へ取り込みタイミングとの様子を模式的に表すタイミングチャートである。図63に示す横軸は時間軸を示す。また、波形761は、DSP200から各撮像系への垂直同期信号を示し、波形762は、DSP200から各撮像系への水平同期信号を示す。なお、波形762におけるBP1は、2ライン分の垂直バックポーチを示す。なお、図63に示す例では、画像バッファ211乃至219の1つの容量が、撮像素子134乃至136からDSP200へ入力される画像データの1ライン分のデータ量と同じ場合を想定する。   FIG. 63 is a timing chart schematically showing the timing of writing to the image buffers 211 to 219 and the timing of fetching into the DSP 200 in the first embodiment of the present invention. The horizontal axis shown in FIG. 63 represents the time axis. A waveform 761 indicates a vertical synchronization signal from the DSP 200 to each imaging system, and a waveform 762 indicates a horizontal synchronization signal from the DSP 200 to each imaging system. Note that BP1 in the waveform 762 indicates a vertical back porch for two lines. In the example shown in FIG. 63, it is assumed that the capacity of one of the image buffers 211 to 219 is the same as the data amount for one line of image data input from the image sensors 134 to 136 to the DSP 200.

横軸763には、第1の撮像系191からDSP200に入力される画像データの時間遷移を示し、横軸764には、第2の撮像系192からDSP200に入力される画像データの時間遷移を示す。また、横軸765には、第3の撮像系193からDSP200に入力される画像データの時間遷移を示す。   The horizontal axis 763 shows the time transition of image data input from the first imaging system 191 to the DSP 200, and the horizontal axis 764 shows the time transition of image data input from the second imaging system 192 to the DSP 200. Show. A horizontal axis 765 shows time transition of image data input from the third imaging system 193 to the DSP 200.

また、横軸766には、画像バッファ211乃至213の書き込み状態の時間遷移を示し、横軸767には、画像バッファ214乃至216の書き込み状態の時間遷移を示し、横軸768には、画像バッファ217乃至219の書き込み状態の時間遷移を示す。なお、図63に示す例では、各撮像系に対応する1組の3つの画像バッファの書き込み状態を同一ライン上に示す。   The horizontal axis 766 shows the time transition of the writing state of the image buffers 211 to 213, the horizontal axis 767 shows the time transition of the writing state of the image buffers 214 to 216, and the horizontal axis 768 shows the image buffer. The time transition of the write state of 217 to 219 is shown. In the example shown in FIG. 63, the writing state of a set of three image buffers corresponding to each imaging system is shown on the same line.

また、横軸769には、DSP200の画像バッファ211乃至219からのデータ読出し、および、DSP200内部へのデータ送出の対象となる画像データを示す。   A horizontal axis 769 indicates image data to be read from the image buffers 211 to 219 of the DSP 200 and sent to the DSP 200.

また、波形770は、DSP200から各撮像系へ入力した垂直同期信号と同じタイミングの垂直同期信号を示し、波形771は、DSP200内部へ供給するために遅延させた垂直同期信号を示す。また、波形770におけるBP2は、4ライン分の垂直バックポーチを示し、波形771におけるBP3は、2ライン分の垂直バックポーチを示す。   A waveform 770 indicates a vertical synchronization signal having the same timing as the vertical synchronization signal input from the DSP 200 to each imaging system, and a waveform 771 indicates a vertical synchronization signal delayed for supply to the DSP 200. In addition, BP2 in the waveform 770 indicates a vertical back porch for four lines, and BP3 in the waveform 771 indicates a vertical back porch for two lines.

図63に示すように、画像バッファ211乃至219への画像の有効データの書込みが開始されてから、このデータが画像バッファから読み出されてDSP200内部へ取り込まれるまでに、2ライン分の遅延が発生する。   As shown in FIG. 63, there is a delay of two lines from the start of the writing of valid image data to the image buffers 211 to 219 until this data is read from the image buffer and taken into the DSP 200. Occur.

図64は、本発明の第1の実施の形態における画像バッファ211乃至219への書き込みタイミングと、DSP200内部へ取り込みタイミングとの様子を模式的に表すタイミングチャートである。図64に示す横軸は時間軸を示す。また、波形781は、DSP200から各撮像系への水平同期信号を示す。なお、波形781におけるBP4は、撮像素子134乃至136により生成された画像における水平バックポーチを示す。なお、図63に示す例では、画像バッファ211乃至219の1つの容量が、撮像素子134乃至136からDSP200へ入力される画像データの1ライン分のデータ量の1/3と同じ場合を想定する。   FIG. 64 is a timing chart schematically showing the timing of writing to the image buffers 211 to 219 and the timing of fetching into the DSP 200 in the first embodiment of the present invention. The horizontal axis shown in FIG. 64 represents the time axis. A waveform 781 indicates a horizontal synchronization signal from the DSP 200 to each imaging system. Note that BP4 in the waveform 781 indicates a horizontal back porch in an image generated by the imaging elements 134 to 136. In the example illustrated in FIG. 63, it is assumed that one capacity of the image buffers 211 to 219 is the same as one third of the data amount of one line of image data input from the imaging elements 134 to 136 to the DSP 200. .

横軸782には、第1の撮像系191からDSP200に入力される画像データの時間遷移を示し、横軸783には、第2の撮像系192からDSP200に入力される画像データの時間遷移を示す。また、横軸784には、第3の撮像系193からDSP200に入力される画像データの時間遷移を示す。   The horizontal axis 782 shows the time transition of the image data input from the first imaging system 191 to the DSP 200, and the horizontal axis 783 shows the time transition of the image data input from the second imaging system 192 to the DSP 200. Show. A horizontal axis 784 indicates time transition of image data input from the third imaging system 193 to the DSP 200.

また、横軸785には、画像バッファ211乃至213の書き込み状態の時間遷移を示し、横軸786には、画像バッファ214乃至216の書き込み状態の時間遷移を示し、横軸787には、画像バッファ217乃至219の書き込み状態の時間遷移を示す。なお、図64に示す例では、各撮像系に対応する1組の3つの画像バッファの書き込み状態を同一ライン上に示す。   Also, the horizontal axis 785 shows the time transition of the writing state of the image buffers 211 to 213, the horizontal axis 786 shows the time transition of the writing state of the image buffers 214 to 216, and the horizontal axis 787 shows the image buffer. The time transition of the write state of 217 to 219 is shown. In the example shown in FIG. 64, the writing state of a set of three image buffers corresponding to each imaging system is shown on the same line.

また、横軸789には、DSP200の画像バッファ211乃至219からのデータ読出し、および、DSP200内部へのデータ送出の対象となる画像データを示す。   Further, the horizontal axis 789 shows image data to be read from the image buffers 211 to 219 of the DSP 200 and transmitted to the DSP 200.

また、波形790は、DSP200から各撮像系へ入力した水平同期信号と同じタイミングの水平同期信号を示し、波形791は、DSP200内部へ供給するために遅延させた水平同期信号を示す。また、波形790におけるBP5は、水平バックポーチを示し、波形791におけるBP6は、水平バックポーチを示す。   A waveform 790 indicates a horizontal synchronization signal having the same timing as the horizontal synchronization signal input from the DSP 200 to each imaging system, and a waveform 791 indicates a horizontal synchronization signal delayed for supply to the DSP 200. In addition, BP5 in the waveform 790 indicates a horizontal back porch, and BP6 in the waveform 791 indicates a horizontal back porch.

図64に示すように、画像バッファ211乃至219への画像の有効データの書込みが開始されてから、このデータが画像バッファから読み出されてDSP200内部へ取り込まれるまでに、画像の有効データ領域の2/3ライン分の遅延が発生する。   As shown in FIG. 64, after the writing of the effective data of the image to the image buffers 211 to 219 is started, the effective data area of the image is read from the start of the image buffer until the data is read into the DSP 200. A delay of 2/3 lines occurs.

これらの遅延を取り除き、垂直同期信号と画像の有効データとの間隔、および、水平同期信号と画像の有効データとの間隔を、撮像素子134乃至136において画像データが生成された際の間隔と同じにすることが必要である。このために、本発明の第1の実施の形態では、少なくともDSP200内部の画像信号処理部220の一部には、DSP200から撮像素子134乃至136へ入力した同期信号と周期が同じで位相が遅れた信号を使用する。また、DSP200の撮像制御部201が、DSP200から撮像素子134乃至136へ入力する同期信号を生成して供給するとともに、撮像素子134乃至136へ入力した同期信号と周期が同じで位相が遅れた信号も生成する。そして、この生成された同期信号をDSP200内の各部に供給する。   By removing these delays, the interval between the vertical synchronization signal and the effective data of the image and the interval between the horizontal synchronization signal and the effective data of the image are the same as the intervals when the image data is generated by the image sensors 134 to 136. It is necessary to make it. For this reason, in the first embodiment of the present invention, at least a part of the image signal processing unit 220 in the DSP 200 has the same period and a delayed phase as the synchronization signal input from the DSP 200 to the imaging elements 134 to 136. Use the correct signal. In addition, the imaging control unit 201 of the DSP 200 generates and supplies a synchronization signal input from the DSP 200 to the imaging elements 134 to 136, and a signal whose phase is the same as that of the synchronization signal input to the imaging elements 134 to 136 and whose phase is delayed. Also generate. The generated synchronization signal is supplied to each part in the DSP 200.

[撮像装置の動作例]
図65は、本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順を示すフローチャートである。
[Operation example of imaging device]
FIG. 65 is a flowchart showing a processing procedure of imaging control processing by the mobile phone device 100 according to the first embodiment of the present invention.

最初に、携帯電話装置100において電源が投入される(ステップS901)。続いて、撮像動作の開始指示操作が受け付けられたか否かが判断される(ステップS902)。例えば、ユーザが、表示部140におけるメニュー画面において、撮像動作の開始を指示する指示操作を行うことにより、撮像動作を開始させることができる。撮像動作の開始指示操作が受け付けられていない場合には(ステップS902)、撮像動作の開始指示操作が受け付けられるまで、監視を継続する。   First, power is turned on in the mobile phone device 100 (step S901). Subsequently, it is determined whether or not an imaging operation start instruction operation has been accepted (step S902). For example, the user can start the imaging operation by performing an instruction operation for instructing the start of the imaging operation on the menu screen of the display unit 140. When the imaging operation start instruction operation is not accepted (step S902), the monitoring is continued until the imaging operation start instruction operation is accepted.

撮像動作の開始指示操作が受け付けられた場合には(ステップS902)、回動状態検出部150が、第2の筐体120の回動状態を検出する(ステップS903)。なお、ステップS903は、検出手順の一例である。続いて、撮像制御部201が、第2の筐体120の回動状態が横長状態であるか否かを判断し(ステップS904)、第2の筐体120の回動状態が横長状態である場合には、横長状態撮像処理が行われる(ステップS910)。なお、横長状態撮像処理については、図66を参照して詳細に説明する。一方、第2の筐体120の回動状態が縦長状態である場合には、縦長状態撮像処理が行われる(ステップS950)。なお、横長状態撮像処理については、図69を参照して詳細に説明する。また、ステップS904、S910およびS950は、制御手順の一例である。   When the imaging operation start instruction operation is accepted (step S902), the rotation state detection unit 150 detects the rotation state of the second casing 120 (step S903). Note that step S903 is an example of a detection procedure. Subsequently, the imaging control unit 201 determines whether or not the rotation state of the second housing 120 is the horizontally long state (step S904), and the rotation state of the second housing 120 is the horizontally long state. In such a case, the horizontally long state imaging process is performed (step S910). The landscape state imaging process will be described in detail with reference to FIG. On the other hand, when the rotation state of the second casing 120 is the vertically long state, the vertically long state imaging process is performed (step S950). The landscape state imaging process will be described in detail with reference to FIG. Steps S904, S910, and S950 are an example of a control procedure.

続いて、撮像動作の終了指示操作が受け付けられたか否かが判断される(ステップS905)。撮像動作の終了指示操作が受け付けられていない場合には(ステップS905)、ステップS903に戻る。一方、撮像動作の終了指示操作が受け付けられた場合には(ステップS905)、撮像制御処理の動作を終了する。   Subsequently, it is determined whether or not an imaging operation end instruction operation has been accepted (step S905). When the imaging operation end instruction operation is not accepted (step S905), the process returns to step S903. On the other hand, when an instruction to end the imaging operation is accepted (step S905), the operation of the imaging control process is ended.

図66は、本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順のうちの横長状態撮像処理(図65に示すステップS910の処理手順)を示すフローチャートである。   FIG. 66 is a flowchart showing the horizontally long state imaging process (the process procedure of step S910 shown in FIG. 65) in the process procedure of the imaging control process by the mobile phone device 100 according to the first embodiment of the present invention.

最初に、撮像制御部201が、初期設定として3眼横長広角画像撮像モードを設定する(ステップS911)。続いて、撮像制御部201が、静止画/動画撮像モードのうちの何れの撮像モードが設定されているかを判断する(ステップS912)。静止画撮像モードが設定されている場合には(ステップS912)、静止画撮像処理が行われる(ステップS920)。なお、静止画撮像処理については、図67を参照して詳細に説明する。一方、動画撮像モードが設定されている場合には(ステップS912)、動画撮像処理が行われる(ステップS930)。なお、動画撮像処理については、図68を参照して詳細に説明する。   First, the imaging control unit 201 sets a three-lens landscape image mode as an initial setting (step S911). Subsequently, the imaging control unit 201 determines which one of the still image / moving image imaging modes is set (step S912). When the still image capturing mode is set (step S912), still image capturing processing is performed (step S920). The still image capturing process will be described in detail with reference to FIG. On the other hand, when the moving image capturing mode is set (step S912), a moving image capturing process is performed (step S930). Note that the moving image capturing process will be described in detail with reference to FIG.

続いて、撮像範囲切替指示操作が受け付けられたか否かが判断される(ステップS913)。例えば、図1等に示す撮像範囲切替スイッチ111が押下されたか否かが判断される。撮像範囲切替指示操作が受け付けられていない場合には(ステップS913)、ステップS915に進む。一方、撮像範囲切替指示操作が受け付けられた場合には(ステップS913)、撮像制御部201が、受け付けられた撮像範囲切替指示操作に応じて撮像モードを切り替える(ステップS914)。例えば、撮像範囲切替スイッチ111が押下される毎に、(1)3眼横長広角画像撮像モード、(2)3眼横長狭角画像撮像モード、(3)単眼横長画像撮像モード、(4)単眼縦長画像撮像モード、(5)単眼縦長小領域画像撮像モードの順序で切替が行われる。   Subsequently, it is determined whether or not an imaging range switching instruction operation has been accepted (step S913). For example, it is determined whether or not the imaging range changeover switch 111 shown in FIG. When the imaging range switching instruction operation has not been received (step S913), the process proceeds to step S915. On the other hand, when the imaging range switching instruction operation is accepted (step S913), the imaging control unit 201 switches the imaging mode according to the accepted imaging range switching instruction operation (step S914). For example, every time the imaging range changeover switch 111 is pressed, (1) three-lens landscape image mode, (2) three-lens image image mode, (3) monocular image mode, (4) monocular image Switching is performed in the order of the vertically long image capturing mode, and (5) the monocular vertically long small region image capturing mode.

続いて、第2の筐体120の回動状態に変化があったか否かが判断され(ステップS915)、第2の筐体120の回動状態に変化がない場合には、ステップS912に戻る。一方、第2の筐体120の回動状態に変化があった場合には(ステップS915)、横長状態撮像処理の動作を終了する。   Subsequently, it is determined whether or not the rotation state of the second housing 120 has changed (step S915). If there is no change in the rotation state of the second housing 120, the process returns to step S912. On the other hand, when there is a change in the rotation state of the second casing 120 (step S915), the operation of the horizontally long state imaging process is ended.

図67は、本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順のうちの静止画撮像処理(図66に示すステップS920の処理手順)を示すフローチャートである。   FIG. 67 is a flowchart showing still image imaging processing (processing procedure in step S920 shown in FIG. 66) in the imaging control processing performed by the mobile phone device 100 according to the first embodiment of the present invention.

最初に、設定された撮像モードに応じて、モニタリング処理が行なわれる(ステップS921)。例えば、3眼横長広角画像撮像モードが設定されている場合には、図29(a)に示す太線の範囲内の画像が、図29(b)に示すように、モニタリング画像として表示部140に表示される。また、上述したように、モニタリング処理時には、画素間引き処理や画素加算処理を行うようにしてもよい。   First, a monitoring process is performed according to the set imaging mode (step S921). For example, when the three-lens horizontal wide-angle image capturing mode is set, the image within the thick line range shown in FIG. 29A is displayed on the display unit 140 as a monitoring image as shown in FIG. Is displayed. Further, as described above, during the monitoring process, a pixel thinning process or a pixel addition process may be performed.

続いて、静止画の記録指示操作が受け付けられたか否かが判断される(ステップS922)。例えば、モニタリング画像が表示部140に表示されている状態で、決定キー114が押下されたか否かが判断される。静止画の記録指示操作が受け付けられていない場合には(ステップS922)、ステップS924に進む。一方、静止画の記録指示操作が受け付けられた場合には(ステップS922)、設定された撮像モードに応じて、静止画記録処理が行われる(ステップS923)。例えば、3眼横長広角画像撮像モードが設定されている場合には、図29(a)に示す太線の範囲内の画像が、記録媒体180に記録される。   Subsequently, it is determined whether or not a still image recording instruction operation has been accepted (step S922). For example, it is determined whether or not the enter key 114 is pressed while the monitoring image is displayed on the display unit 140. If the still image recording instruction operation is not accepted (step S922), the process proceeds to step S924. On the other hand, when a still image recording instruction operation is accepted (step S922), still image recording processing is performed according to the set imaging mode (step S923). For example, when the three-lens landscape image mode is set, an image within the bold line range shown in FIG. 29A is recorded on the recording medium 180.

続いて、撮像範囲切替指示操作が受け付けられたか否かが判断される(ステップS924)。撮像範囲切替指示操作が受け付けられていない場合には(ステップS924)、第2の筐体120の回動状態に変化があったか否かが判断される(ステップS925)。第2の筐体120の回動状態に変化がない場合には(ステップS925)、静止画撮像モードから動画撮像モードへの切替操作が受け付けられたか否かが判断される(ステップS926)。例えば、静止画撮像モードが設定されている状態で、静止画/動画切替スイッチ112が押下されたか否かが判断される。撮像範囲切替指示操作の受け付け、第2の筐体120の回動状態変化、静止画撮像モードから動画撮像モードへの切替操作の受け付けの何れかがあった場合には(ステップS924乃至S926)、静止画撮像処理の動作を終了する。一方、撮像範囲切替指示操作の受け付け、第2の筐体120の回動状態変化、静止画撮像モードから動画撮像モードへの切替操作の受け付けの何れもなかった場合には(ステップS924乃至S926)、ステップS921に戻る。   Subsequently, it is determined whether or not an imaging range switching instruction operation has been accepted (step S924). If the imaging range switching instruction operation has not been received (step S924), it is determined whether or not the rotation state of the second casing 120 has changed (step S925). If there is no change in the rotation state of the second housing 120 (step S925), it is determined whether or not a switching operation from the still image capturing mode to the moving image capturing mode is accepted (step S926). For example, it is determined whether or not the still image / moving image switch 112 is pressed in a state where the still image capturing mode is set. When there is any one of reception of an imaging range switching instruction operation, a change in the rotation state of the second housing 120, and a switching operation from the still image capturing mode to the moving image capturing mode (steps S924 to S926), The operation of the still image capturing process is terminated. On the other hand, if none of the acceptance of the imaging range switching instruction operation, the change of the rotation state of the second casing 120, and the acceptance of the switching operation from the still image capturing mode to the moving image capturing mode (steps S924 to S926). Return to step S921.

図68は、本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順のうちの動画撮像処理(図66に示すステップS930の処理手順)を示すフローチャートである。   FIG. 68 is a flowchart showing moving image imaging processing (processing procedure of step S930 shown in FIG. 66) in the processing procedure of imaging control processing by the mobile phone device 100 according to the first embodiment of the present invention.

最初に、設定された撮像モードに応じて、モニタリング処理が行われる(ステップS931)。   First, a monitoring process is performed according to the set imaging mode (step S931).

続いて、動画の記録開始指示操作が受け付けられたか否かが判断される(ステップS932)。例えば、モニタリング画像が表示部140に表示されている状態で、決定キー114が押下されたか否かが判断される。動画の記録開始指示操作が受け付けられていない場合には(ステップS932)、ステップS935に進む。一方、動画の記録開始指示操作が受け付けられた場合には(ステップS932)、設定された撮像モードに応じて、動画記録処理が行われる(ステップS933)。続いて、動画の記録終了指示操作が受け付けられたか否かが判断される(ステップS934)。例えば、動画記録処理が行われている状態で、決定キー114が再押下されたか否かが判断される。動画の記録終了指示操作が受け付けられていない場合には(ステップS934)、動画記録処理が継続して行われる(ステップS933)。一方、動画の記録終了指示操作が受け付けられた場合には(ステップS934)、動画記録処理を終了してステップS935に進む。   Subsequently, it is determined whether or not a moving image recording start instruction operation has been accepted (step S932). For example, it is determined whether or not the enter key 114 is pressed while the monitoring image is displayed on the display unit 140. If the moving image recording start instruction operation is not accepted (step S932), the process proceeds to step S935. On the other hand, when a moving image recording start instruction operation is accepted (step S932), a moving image recording process is performed according to the set imaging mode (step S933). Subsequently, it is determined whether or not a moving image recording end instruction operation has been accepted (step S934). For example, it is determined whether or not the enter key 114 is pressed again while the moving image recording process is being performed. If the moving image recording end instruction operation has not been accepted (step S934), the moving image recording process is continued (step S933). On the other hand, when the moving image recording end instruction operation is accepted (step S934), the moving image recording process is ended and the process proceeds to step S935.

続いて、撮像範囲切替指示操作が受け付けられたか否かが判断される(ステップS935)。撮像範囲切替指示操作が受け付けられていない場合には(ステップS935)、第2の筐体120の回動状態に変化があったか否かが判断される(ステップS936)。第2の筐体120の回動状態に変化がない場合には(ステップS936)、動画撮像モードから静止画撮像モードへの切替操作が受け付けられたか否かが判断される(ステップS937)。撮像範囲切替指示操作の受け付け、第2の筐体120の回動状態変化、動画撮像モードから静止画撮像モードへの切替操作の受け付けの何れかがあった場合には(ステップS935乃至S937)、動画撮像処理の動作を終了する。一方、撮像範囲切替指示操作の受け付け、第2の筐体120の回動状態変化、動画撮像モードから静止画撮像モードへの切替操作の受け付けの何れもなかった場合には(ステップS935乃至S937)、ステップS931に戻る。なお、動画撮像モードが設定されている場合には、静止画撮像モードよりも間引き率を上げて動画記録処理を行うようにしてもよい。   Subsequently, it is determined whether or not an imaging range switching instruction operation has been accepted (step S935). If the imaging range switching instruction operation has not been received (step S935), it is determined whether or not the rotation state of the second casing 120 has changed (step S936). If there is no change in the rotation state of the second housing 120 (step S936), it is determined whether or not a switching operation from the moving image capturing mode to the still image capturing mode is accepted (step S937). When there is any one of acceptance of an imaging range switching instruction operation, a change in the rotation state of the second housing 120, and acceptance of a switching operation from the moving image capturing mode to the still image capturing mode (steps S935 to S937), The moving image capturing process is terminated. On the other hand, when none of the acceptance of the imaging range switching instruction operation, the change of the rotation state of the second housing 120, and the acceptance of the switching operation from the moving image capturing mode to the still image capturing mode (steps S935 to S937). Return to step S931. When the moving image capturing mode is set, the moving image recording process may be performed with a thinning rate higher than that in the still image capturing mode.

図69は、本発明の第1の実施の形態における携帯電話装置100による撮像制御処理の処理手順のうちの縦長状態撮像処理(図65に示すステップS950の処理手順)を示すフローチャートである。   FIG. 69 is a flowchart showing the vertically long imaging process (the process procedure of step S950 shown in FIG. 65) in the process procedure of the imaging control process by the mobile phone device 100 according to the first embodiment of the present invention.

最初に、撮像制御部201が、初期設定として単眼縦長画像撮像モードを設定する(ステップS951)。続いて、撮像制御部201が、静止画/動画撮像モードのうちの何れの撮像モードが設定されているかを判断する(ステップS952)。静止画撮像モードが設定されている場合には(ステップS952)、静止画撮像処理が行われる(ステップS960)。なお、静止画撮像処理については、表示部140に表示される画像が異なる点以外は、図67に示す処理手順と略同一である。このため、以下での説明を省略する。一方、動画撮像モードが設定されている場合には(ステップS952)、動画撮像処理が行われる(ステップS970)。なお、動画撮像処理については、表示部140に表示される画像が異なる点以外は、図68に示す処理手順と略同一である。このため、以下での説明を省略する。   First, the imaging control unit 201 sets a monocular vertically long image imaging mode as an initial setting (step S951). Subsequently, the imaging control unit 201 determines which imaging mode of the still image / moving image imaging mode is set (step S952). When the still image capturing mode is set (step S952), still image capturing processing is performed (step S960). The still image capturing process is substantially the same as the process procedure shown in FIG. 67 except that the image displayed on the display unit 140 is different. For this reason, the description below is omitted. On the other hand, when the moving image capturing mode is set (step S952), the moving image capturing process is performed (step S970). Note that the moving image imaging process is substantially the same as the processing procedure shown in FIG. 68 except that the image displayed on the display unit 140 is different. For this reason, the description below is omitted.

続いて、撮像範囲切替指示操作が受け付けられたか否かが判断される(ステップS953)。撮像範囲切替指示操作が受け付けられていない場合には(ステップS953)、ステップS955に進む。一方、撮像範囲切替指示操作が受け付けられた場合には(ステップS953)、撮像制御部201が、受け付けられた撮像範囲切替指示操作に応じて撮像モードを切り替える(ステップS954)。例えば、撮像範囲切替スイッチ111が押下される毎に、(1)単眼縦長画像撮像モード、(2)単眼縦長小領域画像撮像モード、(3)単眼横長画像撮像モード、(4)3眼横長狭角画像撮像モードの順序で切替が行われる。   Subsequently, it is determined whether or not an imaging range switching instruction operation has been accepted (step S953). If the imaging range switching instruction operation has not been received (step S953), the process proceeds to step S955. On the other hand, when the imaging range switching instruction operation is accepted (step S953), the imaging control unit 201 switches the imaging mode according to the accepted imaging range switching instruction operation (step S954). For example, every time the imaging range changeover switch 111 is pressed, (1) a monocular portrait image imaging mode, (2) a monocular portrait image area mode, (3) a monocular landscape image imaging mode, and (4) a trinocular image area narrowly Switching is performed in the order of the corner image capturing mode.

続いて、第2の筐体120の回動状態に変化があったか否かが判断され(ステップS955)、第2の筐体120の回動状態に変化がない場合には、ステップS952に戻る。一方、第2の筐体120の回動状態に変化があった場合には(ステップS955)、縦長状態撮像処理の動作を終了する。   Subsequently, it is determined whether or not the rotation state of the second housing 120 has changed (step S955). If there is no change in the rotation state of the second housing 120, the process returns to step S952. On the other hand, when there is a change in the rotation state of the second casing 120 (step S955), the operation of the vertically long state imaging process is ended.

以上で示したように、本発明の第1の実施の形態では、複数の撮像モードの切替を容易に行うことができる。ここで、例えば、携帯電話装置の通話操作、電子メールの文章作成や文章読み取り等の操作を行う場合には、筐体を縦長にして使用することが多い。このため、例えば、カメラ付き携帯電話装置を用いて撮影が行われる場合にも、筐体および表示装置を縦長の状態にして撮影し、縦長の画像を記録することが多い。また、このように記録された縦長の画像について、例えば、携帯電話装置のユーザの間で再生または伝送等が行われることも多い。   As described above, in the first embodiment of the present invention, it is possible to easily switch between a plurality of imaging modes. Here, for example, when performing operations such as a call operation of a mobile phone device, creation of e-mail text, and text reading, the casing is often used in a vertically long shape. For this reason, for example, even when shooting is performed using a camera-equipped mobile phone device, shooting is often performed with the casing and the display device in a vertically long state, and a vertically long image is recorded. In addition, the vertically long image thus recorded is often played back or transmitted, for example, between users of the mobile phone device.

しかしながら、人間の視野は横方向にもっと広い。このため、横縦比が大きい画像を記録することにより、人間の視野に入る領域に近い撮像範囲の画像を記録することができ、ユーザに与える違和感を軽減させることができると想定される。そこで、本発明の第1の実施の形態では、カメラ付き携帯電話装置のユーザが広く慣れ親しんでいる縦長画像と、人間の視野に比較的近い画角の大きな画像(例えば、パノラマ画像)との切替を第2の筐体120の回動操作のみで行うことができる。このように、比較的容易な操作により、縦長画像と画角の大きな画像とを切り替えることができるため、撮影タイミングを逃してしまうことを防止することができる。また、ユーザ好みの画像を容易に撮影することができる。   However, the human field of view is wider in the lateral direction. For this reason, it is assumed that by recording an image having a large aspect ratio, an image in an imaging range close to an area that falls within the human visual field can be recorded, and the uncomfortable feeling given to the user can be reduced. Therefore, in the first embodiment of the present invention, switching between a vertically long image widely used by users of camera-equipped mobile phone devices and an image with a large angle of view (for example, a panoramic image) that is relatively close to the human visual field. Can be performed only by rotating the second casing 120. As described above, since it is possible to switch between the vertically long image and the image having a large angle of view by a relatively easy operation, it is possible to prevent the shooting timing from being missed. In addition, it is possible to easily take a user-preferred image.

また、カメラ付き携帯電話装置のユーザが広く慣れ親しんでいる縦長画像については、単眼縦長画像撮像モードまたは単眼縦長小領域画像撮像モードにおいて表示または記録することができる。また、人間の視野に比較的近い画角の大きな画像(例えば、パノラマ画像)については、3眼横長広角撮像モード、3眼横長狭角撮像モード、単眼縦長画像撮像モードにおいて表示または記録することができる。また、これらの切替についても、撮像範囲切替スイッチ111により容易に行うことができる。このように、比較的容易な操作により、複数種類の画像を切り替えることができるため、撮影タイミングを逃してしまうことを防止することができる。また、ユーザ好みの画像を容易に撮影することができる。   In addition, a portrait image that is widely used by users of camera-equipped mobile phone devices can be displayed or recorded in the monocular portrait image capturing mode or the monocular portrait small region image capturing mode. In addition, an image having a large angle of view (for example, a panoramic image) that is relatively close to the human visual field can be displayed or recorded in the three-lens horizontal long wide-angle imaging mode, the three-lens horizontal long narrow-angle imaging mode, and the single-lens vertical image imaging mode. it can. Also, these switching operations can be easily performed by the imaging range switching switch 111. As described above, since a plurality of types of images can be switched by a relatively easy operation, it is possible to prevent the shooting timing from being missed. In addition, it is possible to easily take a user-preferred image.

[携帯電話装置の変形例]
図70および図71は、本発明の第1の実施の形態における携帯電話装置100の変形例を示す図である。
[Modification of mobile phone device]
70 and 71 are diagrams showing a modification of the mobile phone device 100 according to the first embodiment of the present invention.

図70には、表示部および撮像部が同一の筐体に備えられている携帯電話装置1040を示す。図70(a)には、携帯電話装置1040を使用する際における一態様の正面側を示し、図70(b)には、その態様における背面側を示す。また、図70(c)には、携帯電話装置1040を使用する際における他の態様の正面側を示し、図70(d)には、その態様における背面側を示す。   FIG. 70 shows a mobile phone device 1040 in which a display unit and an imaging unit are provided in the same housing. FIG. 70 (a) shows a front side of one mode when the mobile phone device 1040 is used, and FIG. 70 (b) shows a back side of the mode. FIG. 70 (c) shows the front side of another mode when the mobile phone device 1040 is used, and FIG. 70 (d) shows the back side of the mode.

携帯電話装置1040は、第1の筐体110および第2の筐体120を備える。また、第2の筐体120は、表示部140および撮像部1041を備える。なお、携帯電話装置1040は、表示部および撮像部が同一の筐体に備えられている点以外は、携帯電話装置100と略同一である。このため、携帯電話装置100と共通する部分には、同一の符号を付して、その説明を省略する。   The cellular phone device 1040 includes a first housing 110 and a second housing 120. The second housing 120 includes a display unit 140 and an imaging unit 1041. The mobile phone device 1040 is substantially the same as the mobile phone device 100 except that the display unit and the imaging unit are provided in the same housing. For this reason, the same code | symbol is attached | subjected to the part which is common in the mobile telephone apparatus 100, and the description is abbreviate | omitted.

撮像部1041は、配置されている位置が異なる点以外は、携帯電話装置100に備えられている撮像部130と略同一である。すなわち、撮像部1041において、3個の撮像系が所定の規則に従って並べて配置され、中央の撮像素子が縦長状態とされ、左右の撮像素子が横長状態とされて配置されている。   The imaging unit 1041 is substantially the same as the imaging unit 130 provided in the mobile phone device 100 except that the arranged position is different. That is, in the imaging unit 1041, three imaging systems are arranged side by side according to a predetermined rule, the center imaging element is in a vertically long state, and the left and right imaging elements are in a horizontally long state.

図71には、1つの筐体により構成されている携帯電話装置1050を示す。図71(a)には、携帯電話装置1050を使用する際における一態様の正面側を示し、図71(b)には、その態様における背面側を示す。また、図71(c)には、携帯電話装置1050を使用する際における他の態様の正面側を示す。   FIG. 71 shows a cellular phone device 1050 including a single housing. FIG. 71A shows a front side of one mode when the mobile phone device 1050 is used, and FIG. 71B shows a back side of the mode. FIG. 71 (c) shows the front side of another aspect when using the cellular phone device 1050.

携帯電話装置1050は、1つの筐体により構成され、表示部140、撮像部1051および姿勢検出部1052を備える。なお、携帯電話装置1050は、1つの筐体により構成されている点、回動状態検出部150の代わりに姿勢検出部1052を備える点、および、撮像部が配置されている位置が異なる点以外は、携帯電話装置100と略同一である。このため、携帯電話装置100と共通する部分には、同一の符号を付して、その説明を省略する。   The cellular phone device 1050 includes a single housing, and includes a display unit 140, an imaging unit 1051, and an attitude detection unit 1052. Note that the cellular phone device 1050 is configured by a single housing, has a posture detection unit 1052 instead of the rotation state detection unit 150, and has a different position at which the imaging unit is disposed. Is substantially the same as the mobile phone device 100. For this reason, the same code | symbol is attached | subjected to the part which is common in the mobile telephone apparatus 100, and the description is abbreviate | omitted.

撮像部1051は、配置されている位置が異なる以外の点は、携帯電話装置100に備えられている撮像部130と略同一である。すなわち、撮像部1051において、3個の撮像系が所定の規則に従って並べて配置され、中央の撮像素子が縦長状態とされ、左右の撮像素子が横長状態とされて配置されている。   The imaging unit 1051 is substantially the same as the imaging unit 130 provided in the mobile phone device 100 except that the position where the imaging unit 1051 is arranged is different. That is, in the imaging unit 1051, three imaging systems are arranged side by side according to a predetermined rule, the center imaging element is in a vertically long state, and the left and right imaging elements are in a horizontally long state.

姿勢検出部1052は、回動状態検出部150の代わりに、携帯電話装置1050に内蔵されているものであり、携帯電話装置1050に加えられた加速度、動き、傾き等を検出するものである。姿勢検出部は、例えば、ジャイロセンサ、転倒センサ、重力センサ等により実現される。そして、検出された各情報を姿勢情報として撮像制御部201に出力する。撮像制御部201は、検出された姿勢情報に基づいて、携帯電話装置1050が横長状態であるか縦長状態であるかを検出する。そして、検出された状態に基づいて、撮像動作の制御を行う。例えば、携帯電話装置100の第2の筐体が横長状態であるか、縦長状態であるかに応じて行われた制御と同様の撮像制御を行うことができる。また、所定の操作部材を用いた操作入力に応じて撮像範囲を変更する撮像制御を行うようにしてもよい。この操作入力として、例えば、操作ボタンやタッチパネルによる操作入力を想定することができる。なお、姿勢検出部1052は、検出部の一例である。   The posture detection unit 1052 is built in the mobile phone device 1050 instead of the rotation state detection unit 150, and detects acceleration, movement, inclination, and the like applied to the mobile phone device 1050. The posture detection unit is realized by, for example, a gyro sensor, a fall sensor, a gravity sensor, or the like. Then, each detected information is output to the imaging control unit 201 as posture information. The imaging control unit 201 detects whether the mobile phone device 1050 is in the horizontally long state or the vertically long state based on the detected posture information. Then, the imaging operation is controlled based on the detected state. For example, imaging control similar to the control performed depending on whether the second housing of the mobile phone device 100 is in the horizontally long state or the vertically long state can be performed. Moreover, you may make it perform the imaging control which changes an imaging range according to the operation input using a predetermined operation member. As this operation input, for example, an operation input by an operation button or a touch panel can be assumed. Note that the posture detection unit 1052 is an example of a detection unit.

このように、各態様の携帯電話装置に本発明の第1の実施の形態を適用することができる。   As described above, the first embodiment of the present invention can be applied to the mobile phone device of each aspect.

<2.第2の実施の形態>
本発明の第1の実施の形態では、複数の撮像系を備える携帯電話装置を例にして説明した。本発明の第2の実施の形態では、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置について説明する。
<2. Second Embodiment>
In the first embodiment of the present invention, the mobile phone device including a plurality of imaging systems has been described as an example. In the second embodiment of the present invention, an imaging apparatus such as a digital still camera or a digital video camera will be described.

[撮像装置の外観構成例]
図72は、本発明の第2の実施の形態における撮像装置1000の外観構成を示す図である。図72(a)には、撮像装置1000の正面側(被写体側)の斜視図を示し、図1(b)および(c)には、撮像装置1000の背面側(撮影者側)の斜視図を示す。撮像装置1000は、第1の筐体1010および第2の筐体1020が回動部材1001により回動可能に連結されて構成される。撮像装置1000は、例えば、3つの撮像系を備えるデジタルスチルカメラにより実現される。なお、図72では、説明の容易のため、撮像装置1000を簡略化して示し、撮像装置1000の外側面に備えられている電源スイッチ等の図示を省略する。
[External configuration example of imaging device]
FIG. 72 is a diagram showing an external configuration of the imaging apparatus 1000 according to the second embodiment of the present invention. 72A shows a perspective view of the front side (subject side) of the imaging apparatus 1000, and FIGS. 1B and 1C are perspective views of the back side (photographer side) of the imaging apparatus 1000. FIG. Indicates. The imaging apparatus 1000 includes a first housing 1010 and a second housing 1020 that are rotatably connected by a rotating member 1001. The imaging apparatus 1000 is realized by a digital still camera including three imaging systems, for example. In FIG. 72, for ease of explanation, the imaging apparatus 1000 is illustrated in a simplified manner, and illustration of a power switch and the like provided on the outer surface of the imaging apparatus 1000 is omitted.

第1の筐体1010は、撮像範囲切替スイッチ1011と、静止画/動画切替スイッチ1012と、シャッターボタン1013と、撮像部1030とを備える。撮像範囲切替スイッチ1011、静止画/動画切替スイッチ1012および撮像部1030については、図1等に示す撮像範囲切替スイッチ111、静止画/動画切替スイッチ112および撮像部130と略同一であるため、ここでの説明を省略する。なお、撮像範囲切替スイッチ1011は、操作受付部の一例である。   The first housing 1010 includes an imaging range changeover switch 1011, a still image / moving picture changeover switch 1012, a shutter button 1013, and an imaging unit 1030. The imaging range switch 1011, the still image / video switching switch 1012, and the imaging unit 1030 are substantially the same as the imaging range switching switch 111, the still image / video switching switch 112, and the imaging unit 130 shown in FIG. The description in is omitted. The imaging range changeover switch 1011 is an example of an operation reception unit.

シャッターボタン1013は、画像の記録開始を指示する操作部材である。例えば、静止画撮像モードが設定されている場合に、撮像部1030により生成された画像データを静止画ファイルとして記録媒体に記録する際に押下される。   The shutter button 1013 is an operation member that instructs the start of image recording. For example, when the still image capturing mode is set, the button is pressed when the image data generated by the image capturing unit 1030 is recorded on a recording medium as a still image file.

第2の筐体1020は、表示部1021を備える。表示部1021については、図1等に示す表示部140と略同一であるため、ここでの説明を省略する。また、撮像装置1000は、第1の筐体1010および第2の筐体1020が回動可能に接続されている。すなわち、回動部材1001(点線で示す)を回動基準として、第1の筐体1010に対して第2の筐体1020を回動させることができる。これにより、第1の筐体1010に対する第2の筐体1020の相対的な位置関係を変化させることができる。例えば、図72(b)に示す矢印1002方向に第2の筐体1020を90度回動させた場合における形態を図72(c)に示す。そして、本発明の第1の実施の形態と同様に、第2の筐体1020が横長状態であるか縦長状態であるかに基づいて、撮像動作の制御が行われる。   The second housing 1020 includes a display portion 1021. The display unit 1021 is substantially the same as the display unit 140 shown in FIG. In addition, in the imaging apparatus 1000, a first housing 1010 and a second housing 1020 are connected to be rotatable. That is, the second casing 1020 can be rotated with respect to the first casing 1010 using the rotating member 1001 (indicated by a dotted line) as a reference for rotation. Thereby, the relative positional relationship of the second housing 1020 with respect to the first housing 1010 can be changed. For example, FIG. 72 (c) shows a configuration in which the second housing 1020 is rotated 90 degrees in the direction of the arrow 1002 shown in FIG. 72 (b). Then, similarly to the first embodiment of the present invention, the imaging operation is controlled based on whether the second housing 1020 is in a horizontally long state or a vertically long state.

なお、本発明の実施の形態では、3つの撮像系を備える携帯電話装置および撮像装置を例にして説明したが、例えば、5つ以上の奇数個の撮像系を備える携帯電話装置および撮像装置等に本発明の実施の形態を適用することができる。すなわち、5つ以上の奇数個の撮像系を一定の規則で並べて配置し、中央の撮像素子を縦長状態とし、他の左右の撮像素子を横長状態として構成することにより、本発明の実施の形態を適用することができる。   In the embodiment of the present invention, the cellular phone device and the imaging device including three imaging systems have been described as an example. However, for example, the cellular phone device and the imaging device including five or more odd number imaging systems The embodiment of the present invention can be applied to. That is, an embodiment of the present invention is configured by arranging an odd number of five or more imaging systems side by side with a certain rule, and configuring the center imaging device in a vertically long state and the other left and right imaging devices in a horizontally long state. Can be applied.

なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、本発明の実施の形態において明示したように、本発明の実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本発明の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本発明は実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The embodiment of the present invention shows an example for embodying the present invention. As clearly shown in the embodiment of the present invention, the matters in the embodiment of the present invention and the claims Each invention-specific matter in the scope has a corresponding relationship. Similarly, the matters specifying the invention in the claims and the matters in the embodiment of the present invention having the same names as the claims have a corresponding relationship. However, the present invention is not limited to the embodiments, and can be embodied by making various modifications to the embodiments without departing from the gist of the present invention.

また、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray(登録商標) Disc)等を用いることができる。   The processing procedure described in the embodiment of the present invention may be regarded as a method having a series of these procedures, and a program for causing a computer to execute the series of procedures or a recording medium storing the program May be taken as As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disk), a memory card, a Blu-ray (registered trademark) disc, or the like can be used.

11 アプリケーションプロセッサ
12 デジタルベースバンド処理部
13 アナログベースバンド処理部
14 RF処理部
15 電池
16 マイクロフォン
17 スピーカ
18 アンテナ
100、1040、1050 携帯電話装置
101、1001 回動部材
110、1010 第1の筐体
111、1011 撮像範囲切替スイッチ
112、1012 静止画/動画切替スイッチ
113 テンキー
114 決定キー
115 十字キー
120、1020 第2の筐体
130、1030、1041、1051 撮像部
131〜133 光学系
134〜136 撮像素子
137〜139 DSPとのI/F
140、1021 表示部
150 回動状態検出部
160 プログラムメモリ
170 画像メモリ
180 記録媒体
191 第1の撮像系
192 第2の撮像系
193 第3の撮像系
201 撮像制御部
202 CPU
203 DMAコントローラ
204 データバス
205 プログラムメモリとのI/F
206 画像メモリとのI/F
207 電源制御部
208 電源供給部
209 電源供給部
210 撮像素子とのI/F
211〜219 画像バッファ
220 画像信号処理部
221 画素加算処理部
222 デモザイク処理部
223 YC変換処理部
224 画像合成処理部
225 シャープネス処理部
226 色調整処理部
227 RGB変換処理部
231、241、251 解像度変換部
232、242 画像回転処理部
233 表示部とのI/F
243 外部表示装置とのI/F
245 外部表示装置
252 符号化部
253 記録媒体とのI/F
261〜263 発振子
264〜266 発振回路
270 クロック生成回路
340 垂直走査回路
345 水平走査回路
1000 撮像装置
1013 シャッターボタン
1052 姿勢検出部
DESCRIPTION OF SYMBOLS 11 Application processor 12 Digital baseband process part 13 Analog baseband process part 14 RF process part 15 Battery 16 Microphone 17 Speaker 18 Antenna 100, 1040, 1050 Cell-phone apparatus 101, 1001 Rotating member 110, 1010 1st housing | casing 111 1011 Imaging range switch 112, 1012 Still image / moving image switch 113 Numeric keypad 114 Enter key 115 Cross key 120, 1020 Second casing 130, 1030, 1041, 1051 Imaging unit 131-133 Optical system 134-136 Imaging element 137-139 I / F with DSP
140, 1021 Display unit 150 Rotation state detection unit 160 Program memory 170 Image memory 180 Recording medium 191 First imaging system 192 Second imaging system 193 Third imaging system 201 Imaging control unit 202 CPU
203 DMA controller 204 Data bus 205 I / F with program memory
206 I / F with image memory
207 Power Control Unit 208 Power Supply Unit 209 Power Supply Unit 210 I / F with Image Sensor
211 to 219 Image buffer 220 Image signal processing unit 221 Pixel addition processing unit 222 Demosaicing processing unit 223 YC conversion processing unit 224 Image composition processing unit 225 Sharpness processing unit 226 Color adjustment processing unit 227 RGB conversion processing unit 231 241 251 Resolution conversion Unit 232, 242 Image rotation processing unit 233 I / F with display unit
243 I / F with external display
245 External display device 252 Encoding unit 253 I / F with recording medium
261 to 263 Oscillators 264 to 266 Oscillation circuit 270 Clock generation circuit 340 Vertical scanning circuit 345 Horizontal scanning circuit 1000 Imaging device 1013 Shutter button 1052 Posture detection unit

本発明は、上記課題を解決するためになされたものであり、その第1の側面は、複数の撮像部が筐体の1つの面上を上記筐体の短辺方向へ並べて配置されている撮像部群と、画像の範囲を制御する制御部とを具備し、上記画像の範囲は、上記撮像部群の少なくとも一部の撮像部を用いて撮像する画像の範囲、表示対象となる画像の範囲、記録対象となる画像の範囲、または、伝送対象となる画像の範囲のうちの少なくとも1つの範囲であり、上記撮像部群は、光軸が表示部の表示面と直交する第1撮像部と、光軸が、上記第1撮像部の光軸に対して所定角をなしかつ上記第1撮像部の光軸を対称軸として配置される、2つの第2撮像部とを備え、上記制御部は、上記画像の範囲として、略長方形の範囲であって、上記略長方形の短辺の長さに対する長辺の長さの比が異なる複数の範囲の中から1つを選択し、上記複数の範囲を構成する第1の範囲は、上記第1撮像部から得られる画像の範囲内であり、上記筐体の短辺方向と直交する方向に長い略長方形の範囲であり、上記複数の範囲を構成する第2の範囲は、上記第1撮像部と上記2つの第2撮像部とから得られる画像の範囲内であり、上記筐体の短辺方向に長い略長方形の範囲である撮像装置、電子機器およびそれらの制御方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、画像の範囲として、略長方形の短辺の長さに対する長辺の長さの比が異なる複数の範囲の中から1つを選択するという作用をもたらす。

The present invention has been made to solve the above problems, a first aspect of the imaging unit of the multiple is on one face of the housing are arranged to the short side of the housing An image pickup unit group, and a control unit that controls the image range. The image range includes an image range captured using at least a part of the image pickup unit group and an image to be displayed. , A range of images to be recorded, or a range of images to be transmitted, and the imaging unit group includes a first imaging unit whose optical axis is orthogonal to the display surface of the display unit. comprising a part, the optical axis, the are placed in the symmetry axis coincides with the optical axis of the at a predetermined angle and the first imaging unit with respect to the optical axis of the first imaging unit, two and a second imaging unit The control unit has a substantially rectangular range as the range of the image and has a length of a short side of the substantially rectangular shape. The ratio of the length of the long side selects one of the plurality of different ranges of, the first range which constitutes the plurality of ranges is in the range of an image obtained from the first imaging unit, It ranges direction of a long substantially rectangular perpendicular to the short side direction of the housing, a second range which constitutes the multiple ranges, obtained from the first imaging unit and the two second imaging unit An imaging apparatus, an electronic device, a control method thereof, and a program for causing a computer to execute the method are within a range of an image and within a substantially rectangular range extending in a short side direction of the casing. Thus, as the range of the image, an effect of the ratio of the length of the long side you 1 Tsuosen-option from among a plurality of different ranges for the length of the short side of the substantially rectangular.

Claims (15)

筐体の1つの面上において、複数の撮像部が前記筐体の短辺方向へ並べて配置されている撮像部群と、
画像の範囲を制御する制御部とを具備し、
前記画像の範囲は、前記撮像部群のうちの少なくとも一部の撮像部を用いて撮像する画像の範囲、表示対象となる画像の範囲、記録対象となる画像の範囲、または、伝送対象となる画像の範囲であり、
前記撮像部群は、
光軸が表示部の表示面と直交する第1撮像部と、
光軸が、前記第1撮像部の光軸に対して所定角をなしかつ前記第1撮像部の光軸を対称軸として線対称に配置される、2つの第2撮像部とを備え、
前記制御部は、前記画像の範囲として、略長方形の範囲であって、前記略長方形の短辺の長さに対する長辺の長さの比が異なる複数の範囲の中から1つを選択して設定し、
前記複数の範囲を構成する第1の範囲は、前記第1撮像部から得られる画像の範囲内であり、かつ、前記筐体の短辺方向と直交する方向に長い略長方形の範囲であり、
前記複数の範囲を構成する第2の範囲は、前記第1撮像部と前記2つの第2撮像部とから得られる画像の範囲内であり、前記筐体の短辺方向に長い略長方形の範囲である
撮像装置。
An imaging unit group in which a plurality of imaging units are arranged in the short side direction of the casing on one surface of the casing;
A control unit for controlling the range of the image,
The range of the image is a range of an image captured by using at least a part of the imaging unit group, a range of an image to be displayed, a range of an image to be recorded, or a transmission target. The range of the image,
The imaging unit group includes:
A first imaging unit whose optical axis is orthogonal to the display surface of the display unit;
An optical axis having a predetermined angle with respect to the optical axis of the first imaging unit and two second imaging units arranged in line symmetry with the optical axis of the first imaging unit as an axis of symmetry;
The control unit selects one of a plurality of ranges as a range of the image, the range being a substantially rectangular range, wherein the ratio of the long side length to the short side length of the substantially rectangular shape is different. Set,
The first range constituting the plurality of ranges is a substantially rectangular range that is within a range of an image obtained from the first imaging unit and that is long in a direction orthogonal to a short side direction of the housing,
The second range constituting the plurality of ranges is within a range of images obtained from the first imaging unit and the two second imaging units, and is a substantially rectangular range that is long in the short side direction of the housing. An imaging device.
前記第1の範囲の短辺の長さに対する前記第1の範囲の長辺の長さの比よりも前記第2の範囲の短辺の長さに対する前記第2の範囲の長辺の長さの比が大きい請求項1記載の撮像装置。   The length of the long side of the second range relative to the length of the short side of the second range than the ratio of the length of the long side of the first range to the length of the short side of the first range The imaging device according to claim 1, wherein the ratio of 前記第1の範囲は、前記第1の範囲の一辺であって前記筐体の短辺方向の辺の長さと、前記第1の範囲の一辺であって前記筐体の短辺方向と直交する方向の辺の長さとの比が、3:4もしくは9:16となる略長方形であり、
前記第2の範囲は、前記第2の範囲の一辺であって前記筐体の短辺方向の辺の長さと、前記第2の範囲の一辺であって前記筐体の短辺方向と直交する辺の長さとの比が、16:9よりも大きい略長方形である
請求項2記載の撮像装置。
The first range is one side of the first range and the length of the side in the short side direction of the housing, and is one side of the first range and is orthogonal to the short side direction of the housing. A ratio of the length of the side in the direction is a substantially rectangular shape of 3: 4 or 9:16;
The second range is one side of the second range and the length of the side in the short side direction of the casing, and one side of the second range and is orthogonal to the short side direction of the casing. The imaging apparatus according to claim 2, wherein the ratio of the side length is a substantially rectangular shape larger than 16: 9.
前記第2の範囲における前記筐体の短辺方向と直交する方向の範囲よりも、前記第1の範囲における前記筐体の短辺方向と直交する方向の範囲が広い請求項1乃至3の何れかに記載の撮像装置。   The range of the direction orthogonal to the short side direction of the said housing | casing in the said 1st range is wider than the range of the direction orthogonal to the short side direction of the said housing | casing in the said 2nd range. An imaging apparatus according to claim 1. 前記複数の撮像部は、それぞれが撮像素子を含み、
前記撮像素子は、撮像に用いる部位が略長方形であり、
前記第1撮像部が含む撮像素子は、前記部位が前記筐体の短辺方向と直交する方向に長い略長方形となるように配置され、
前記2つの第2撮像部が含む2つの撮像素子は、前記部位が前記筐体の短辺方向に長い略長方形となるように配置されている
請求項1乃至4の何れかに記載の撮像装置。
Each of the plurality of imaging units includes an imaging element;
The imaging device has a substantially rectangular part used for imaging,
The imaging device included in the first imaging unit is arranged so that the part is a substantially rectangular shape that is long in a direction orthogonal to the short side direction of the housing,
5. The imaging device according to claim 1, wherein the two imaging elements included in the two second imaging units are arranged such that the part is a substantially rectangular shape that is long in a short side direction of the housing. .
筐体の1つの面上において、複数の撮像部が前記筐体の短辺方向へ並べて配置されている撮像部群を用いた撮像動作を行う手順と、
画像の範囲を制御する制御手順とを具備し、
前記画像の範囲は、前記撮像部群のうちの少なくとも一部の撮像部を用いて撮像する画像の範囲、表示対象となる画像の範囲、記録対象となる画像の範囲、または、伝送対象となる画像の範囲であり、
前記撮像部群は、
光軸が表示部の表示面と直交する第1撮像部と、
光軸が、前記第1撮像部の光軸に対して所定角をなしかつ前記第1撮像部の光軸を対称軸として線対称に配置される、2つの第2撮像部とを備え、
前記制御手順は、前記画像の範囲として、略長方形の範囲であって、前記略長方形の短辺の長さに対する長辺の長さの比が異なる複数の範囲の中から1つを選択して設定し、
前記複数の範囲を構成する第1の範囲は、前記第1撮像部から得られる画像の範囲内であり、かつ、前記筐体の短辺方向と直交する方向に長い略長方形の範囲であり、
前記複数の範囲を構成する第2の範囲は、前記第1撮像部と前記2つの第2撮像部とから得られる画像の範囲内であり、前記筐体の短辺方向に長い略長方形の範囲である
撮像装置の制御方法。
A procedure for performing an imaging operation using an imaging unit group in which a plurality of imaging units are arranged in the short side direction of the casing on one surface of the casing;
A control procedure for controlling the range of the image,
The range of the image is a range of an image captured by using at least a part of the imaging unit group, a range of an image to be displayed, a range of an image to be recorded, or a transmission target. The range of the image,
The imaging unit group includes:
A first imaging unit whose optical axis is orthogonal to the display surface of the display unit;
An optical axis having a predetermined angle with respect to the optical axis of the first imaging unit and two second imaging units arranged in line symmetry with the optical axis of the first imaging unit as an axis of symmetry;
In the control procedure, as the range of the image, one of a plurality of ranges in which the ratio of the length of the long side to the length of the short side of the substantially rectangle is different is selected. Set,
The first range constituting the plurality of ranges is a substantially rectangular range that is within a range of an image obtained from the first imaging unit and that is long in a direction orthogonal to a short side direction of the housing,
The second range constituting the plurality of ranges is within a range of images obtained from the first imaging unit and the two second imaging units, and is a substantially rectangular range that is long in the short side direction of the housing. A control method for an imaging apparatus.
前記第1の範囲の短辺の長さに対する前記第1の範囲の長辺の長さの比よりも前記第2の範囲の短辺の長さに対する前記第2の範囲の長辺の長さの比が大きい請求項6記載の撮像装置の制御方法。   The length of the long side of the second range relative to the length of the short side of the second range than the ratio of the length of the long side of the first range to the length of the short side of the first range The method for controlling an imaging apparatus according to claim 6, wherein the ratio of the imaging device is large. 前記第1の範囲は、前記第1の範囲の一辺であって前記筐体の短辺方向の辺の長さと、前記第1の範囲の一辺であって前記筐体の短辺方向と直交する方向の辺の長さとの比が、3:4もしくは9:16となる略長方形であり、
前記第2の範囲は、前記第2の範囲の一辺であって前記筐体の短辺方向の辺の長さと、前記第2の範囲の一辺であって前記筐体の短辺方向と直交する辺の長さとの比が、16:9よりも大きい略長方形である
請求項7記載の撮像装置の制御方法。
The first range is one side of the first range and the length of the side in the short side direction of the housing, and is one side of the first range and is orthogonal to the short side direction of the housing. A ratio of the length of the side in the direction is a substantially rectangular shape of 3: 4 or 9:16;
The second range is one side of the second range and the length of the side in the short side direction of the casing, and one side of the second range and is orthogonal to the short side direction of the casing. The method of controlling an imaging apparatus according to claim 7, wherein the ratio of the side length is a substantially rectangular shape larger than 16: 9.
前記第2の範囲における前記筐体の短辺方向と直交する方向の範囲よりも、前記第1の範囲における前記筐体の短辺方向と直交する方向の範囲が広い請求項6乃至8の何れかに記載の撮像装置の制御方法。   The range of the direction orthogonal to the short side direction of the said housing | casing in the said 1st range is wider than the range of the direction orthogonal to the short side direction of the said housing | casing in the said 2nd range. A method for controlling the imaging apparatus according to claim 1. 前記複数の撮像部は、それぞれが撮像素子を含み、
前記撮像素子は、撮像に用いる部位が略長方形であり、
前記第1撮像部が含む撮像素子は、前記部位が前記筐体の短辺方向と直交する方向に長い略長方形となるように配置され、
前記2つの第2撮像部が含む2つの撮像素子は、前記部位が前記筐体の短辺方向に長い略長方形となるように配置されている
請求項6乃至9の何れかに記載の撮像装置の制御方法。
Each of the plurality of imaging units includes an imaging element;
The imaging device has a substantially rectangular part used for imaging,
The imaging device included in the first imaging unit is arranged so that the part is a substantially rectangular shape that is long in a direction orthogonal to the short side direction of the housing,
The image pickup apparatus according to claim 6, wherein the two image pickup elements included in the two second image pickup units are arranged so that the part is a substantially rectangular shape that is long in a short side direction of the casing. Control method.
筐体の1つの面上において、複数の撮像部が前記筐体の短辺方向へ並べて配置されている撮像部群と、
画像の範囲を制御する制御部とを具備し、
前記画像の範囲は、前記撮像部群のうちの少なくとも一部の撮像部を用いて撮像する画像の範囲、表示対象となる画像の範囲、記録対象となる画像の範囲、または、伝送対象となる画像の範囲であり、
前記撮像部群は、
光軸が表示部の表示面と直交する第1撮像部と、
光軸が、前記第1撮像部の光軸に対して所定角をなしかつ前記第1撮像部の光軸を対称軸として線対称に配置される、2つの第2撮像部とを備え、
前記制御部は、前記画像の範囲として、略長方形の範囲であって、前記略長方形の短辺の長さに対する長辺の長さの比が異なる複数の範囲の中から1つを選択して設定し、
前記複数の範囲を構成する第1の範囲は、前記第1撮像部から得られる画像の範囲内であり、かつ、前記筐体の短辺方向と直交する方向に長い略長方形の範囲であり、
前記複数の範囲を構成する第2の範囲は、前記第1撮像部と前記2つの第2撮像部とから得られる画像の範囲内であり、前記筐体の短辺方向に長い略長方形の範囲である
電子機器。
An imaging unit group in which a plurality of imaging units are arranged in the short side direction of the casing on one surface of the casing;
A control unit for controlling the range of the image,
The range of the image is a range of an image captured by using at least a part of the imaging unit group, a range of an image to be displayed, a range of an image to be recorded, or a transmission target. The range of the image,
The imaging unit group includes:
A first imaging unit whose optical axis is orthogonal to the display surface of the display unit;
An optical axis having a predetermined angle with respect to the optical axis of the first imaging unit and two second imaging units arranged in line symmetry with the optical axis of the first imaging unit as an axis of symmetry;
The control unit selects one of a plurality of ranges as a range of the image, the range being a substantially rectangular range, wherein the ratio of the long side length to the short side length of the substantially rectangular shape is different. Set,
The first range constituting the plurality of ranges is a substantially rectangular range that is within a range of an image obtained from the first imaging unit and that is long in a direction orthogonal to a short side direction of the housing,
The second range constituting the plurality of ranges is within a range of images obtained from the first imaging unit and the two second imaging units, and is a substantially rectangular range that is long in the short side direction of the housing. Is an electronic device.
前記第1の範囲の短辺の長さに対する前記第1の範囲の長辺の長さの比よりも前記第2の範囲の短辺の長さに対する前記第2の範囲の長辺の長さの比が大きい請求項11記載の電子機器。   The length of the long side of the second range relative to the length of the short side of the second range than the ratio of the length of the long side of the first range to the length of the short side of the first range The electronic device according to claim 11, wherein the ratio is large. 前記第1の範囲は、前記第1の範囲の一辺であって前記筐体の短辺方向の辺の長さと、前記第1の範囲の一辺であって前記筐体の短辺方向と直交する方向の辺の長さとの比が、3:4もしくは9:16となる略長方形であり、
前記第2の範囲は、前記第2の範囲の一辺であって前記筐体の短辺方向の辺の長さと、前記第2の範囲の一辺であって前記筐体の短辺方向と直交する辺の長さとの比が、16:9よりも大きい略長方形である
請求項12記載の電子機器。
The first range is one side of the first range and the length of the side in the short side direction of the housing, and is one side of the first range and is orthogonal to the short side direction of the housing. A ratio of the length of the side in the direction is a substantially rectangular shape of 3: 4 or 9:16;
The second range is one side of the second range and the length of the side in the short side direction of the casing, and one side of the second range and is orthogonal to the short side direction of the casing. The electronic device according to claim 12, wherein the ratio of the length to the side is a substantially rectangular shape larger than 16: 9.
前記第2の範囲における前記筐体の短辺方向と直交する方向の範囲よりも、前記第1の範囲における前記筐体の短辺方向と直交する方向の範囲が広い請求項11乃至13の何れかに記載の電子機器。   The range in the direction orthogonal to the short side direction of the casing in the first range is wider than the range in the direction orthogonal to the short side direction of the casing in the second range. The electronic device according to Crab. 前記複数の撮像部は、それぞれが撮像素子を含み、
前記撮像素子は、撮像に用いる部位が略長方形であり、
前記第1撮像部が含む撮像素子は、前記部位が前記筐体の短辺方向と直交する方向に長い略長方形となるように配置され、
前記2つの第2撮像部が含む2つの撮像素子は、前記部位が前記筐体の短辺方向に長い略長方形となるように配置されている
請求項11乃至14の何れかに記載の電子機器。
Each of the plurality of imaging units includes an imaging element;
The imaging device has a substantially rectangular part used for imaging,
The imaging device included in the first imaging unit is arranged so that the part is a substantially rectangular shape that is long in a direction orthogonal to the short side direction of the housing,
The electronic device according to claim 11, wherein the two image pickup devices included in the two second image pickup units are arranged so that the portion has a substantially rectangular shape that is long in a short side direction of the housing. .
JP2013244927A 2013-11-27 2013-11-27 Imaging apparatus and control method thereof Pending JP2014082768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013244927A JP2014082768A (en) 2013-11-27 2013-11-27 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013244927A JP2014082768A (en) 2013-11-27 2013-11-27 Imaging apparatus and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009190659A Division JP5423235B2 (en) 2009-08-20 2009-08-20 Imaging device

Publications (1)

Publication Number Publication Date
JP2014082768A true JP2014082768A (en) 2014-05-08

Family

ID=50786535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013244927A Pending JP2014082768A (en) 2013-11-27 2013-11-27 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP2014082768A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017106170A (en) * 2015-12-07 2017-06-15 西日本高速道路エンジニアリング四国株式会社 Bridge inspection support system and bridge inspection support method
KR20200057486A (en) * 2018-11-16 2020-05-26 한화테크윈 주식회사 Photographing apparatus
CN112270738A (en) * 2020-11-16 2021-01-26 上海通途半导体科技有限公司 Self-adaptive sub-pixel rendering method and device
US11290630B2 (en) 2018-11-09 2022-03-29 Hanwha Techwin Co.. Ltd. Imaging apparatus, imaging method, and computer program for capturing image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209469A (en) * 1999-01-18 2000-07-28 Fuji Photo Film Co Ltd Electronic still camera
JP2003333425A (en) * 2002-05-15 2003-11-21 Fuji Photo Film Co Ltd Camera
JP2004096258A (en) * 2002-08-29 2004-03-25 Omron Corp Apparatus and system for image pickup
JP2004159014A (en) * 2002-11-05 2004-06-03 Nec Corp Digital camera attached mobile communication terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209469A (en) * 1999-01-18 2000-07-28 Fuji Photo Film Co Ltd Electronic still camera
JP2003333425A (en) * 2002-05-15 2003-11-21 Fuji Photo Film Co Ltd Camera
JP2004096258A (en) * 2002-08-29 2004-03-25 Omron Corp Apparatus and system for image pickup
JP2004159014A (en) * 2002-11-05 2004-06-03 Nec Corp Digital camera attached mobile communication terminal

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017106170A (en) * 2015-12-07 2017-06-15 西日本高速道路エンジニアリング四国株式会社 Bridge inspection support system and bridge inspection support method
US11290630B2 (en) 2018-11-09 2022-03-29 Hanwha Techwin Co.. Ltd. Imaging apparatus, imaging method, and computer program for capturing image
KR20200057486A (en) * 2018-11-16 2020-05-26 한화테크윈 주식회사 Photographing apparatus
US11122201B2 (en) 2018-11-16 2021-09-14 Hanwha Techwin Co., Ltd. Imaging apparatus
KR102596490B1 (en) * 2018-11-16 2023-10-31 한화비전 주식회사 Photographing apparatus
CN112270738A (en) * 2020-11-16 2021-01-26 上海通途半导体科技有限公司 Self-adaptive sub-pixel rendering method and device
CN112270738B (en) * 2020-11-16 2024-01-26 上海通途半导体科技有限公司 Self-adaptive sub-pixel rendering method and device

Similar Documents

Publication Publication Date Title
JP5423235B2 (en) Imaging device
JP5526921B2 (en) IMAGING DEVICE, ELECTRONIC DEVICE, AND DISPLAY CONTROL METHOD
JP5593772B2 (en) Image processing apparatus, image processing method, and program
US20140160233A1 (en) Information processing apparatus, information processing method, and program
US9807303B2 (en) Information processing apparatus, information processing method, and program
JP5435104B2 (en) Information processing apparatus, display apparatus, and control method for information processing apparatus
JP5775977B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2014082768A (en) Imaging apparatus and control method thereof
JP5749409B2 (en) Imaging apparatus, image processing method, and program
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
WO2015076055A1 (en) Imaging module, electronic device, and method for driving imaging module
WO2018116824A1 (en) Control device, control method, and program
JP5637298B2 (en) Information processing apparatus, electronic apparatus, and display control method
WO2017086021A1 (en) Image processing device, image processing method, and computer program
JP2008131472A (en) Transfer apparatus, transfer control program, and imaging apparatus
JP2012090212A (en) Image processing device, personal digital assistance, image processing method, and program
JP2019110372A (en) camera

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150811