JP2007259155A - Camera, determination method thereof, and control method thereof - Google Patents

Camera, determination method thereof, and control method thereof Download PDF

Info

Publication number
JP2007259155A
JP2007259155A JP2006081785A JP2006081785A JP2007259155A JP 2007259155 A JP2007259155 A JP 2007259155A JP 2006081785 A JP2006081785 A JP 2006081785A JP 2006081785 A JP2006081785 A JP 2006081785A JP 2007259155 A JP2007259155 A JP 2007259155A
Authority
JP
Japan
Prior art keywords
image
imaging
unit
imaging unit
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006081785A
Other languages
Japanese (ja)
Other versions
JP2007259155A5 (en
JP4949709B2 (en
Inventor
Osamu Nonaka
修 野中
Kazuhiro Sato
和宏 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2006081785A priority Critical patent/JP4949709B2/en
Publication of JP2007259155A publication Critical patent/JP2007259155A/en
Publication of JP2007259155A5 publication Critical patent/JP2007259155A5/ja
Application granted granted Critical
Publication of JP4949709B2 publication Critical patent/JP4949709B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a determination method of a camera and a control method of the camera for taking pictures with different angles of field for one scene. <P>SOLUTION: A pixel signal of a first photography range 3w with a wide angle θw of field through a lens 2 is read out by a first AFE 4w. An image signal of a second photography range 3t with a narrow angle θt of field through the same lens 2 is read out by a second AFE 4t. After one-time exposure of an imaging element, the pixel signal of the first photography range 3w and the image signal of second photography range 3t are continuously read out. The image signal with the same exposure is used in common for two image signals. In a signal processing unit 5, each read-out image signal is subjected to predetermined image processing, such as compression. The first processed image Dw is recorded in a memory 9. The second processed image Dt is recorded in a back-up memory 9a. In this way, two moving video images are recorded at the same time. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、カメラ、特に鑑賞に適する画像撮影機能を有するカメラ等に関する。   The present invention relates to a camera, in particular, a camera having an image photographing function suitable for viewing.

通常のカメラでは1つの画面を記録するだけであるが、利便性や動画静止画を同時記録するために、異なる画角や方向の画像を表示させたり記録するカメラが、以下のように提案されている。   A normal camera only records one screen, but a camera that displays and records images with different angles and directions has been proposed as follows in order to record convenience and moving image still images simultaneously. ing.

まず、動画静止画で画角の変化が起きないようにするカメラが提案されている(特許文献1)。このカメラでは、動画に必要な画素数より多い画素数を備える撮像素子が搭載され、動画撮影時にはレンズをワイドにして全画素の一部の画素を切出して記録する。動画でモニタに表示される以上の画素数を記録しても無駄で、かつ高速での多画素記録が容易でないからである。そして静止画撮影時には、レンズをテレにして撮像素子の全画像を記録する。プリントにも耐えるようにするためである。これにより動画静止画で撮影される画角を統一する。   First, a camera that prevents a change in the angle of view of a moving image still image has been proposed (Patent Document 1). This camera is equipped with an image sensor having a larger number of pixels than that required for moving images, and when shooting a moving image, a lens is widened and a part of all pixels are cut out and recorded. This is because even if the number of pixels larger than that displayed on the monitor is recorded as a moving image, it is useless and multi-pixel recording at high speed is not easy. At the time of still image shooting, all the images on the image sensor are recorded with the lens set to tele. This is to withstand printing. This unifies the angle of view taken with moving image still images.

また、1つの画像を記録するだけでなく、2つの光学系を備え、それぞれの光学系から得られた画像を記録するカメラが提案されている。いろいろな状況において撮影者が被写体像を確認しながら撮影できるようにするためである(特許文献2)。   In addition, a camera has been proposed that not only records one image but also includes two optical systems and records images obtained from the respective optical systems. This is because the photographer can take a picture while confirming the subject image in various situations (Patent Document 2).

また、撮影対象の動きを予測して撮影できるようにするために、表示部に広い画角の画像を表示させ、記録にはそれよりも狭い画像を記録するカメラが提案されている(特許文献3)。記録エリアよりも広いエリアが表示され、これを見ながら記録するエリアを決めることができるので、動きの大きい撮影対象にも対応できる。   In addition, a camera that displays an image with a wide angle of view on a display unit and records a narrower image for recording is proposed in order to be able to predict and capture the movement of an object to be imaged (Patent Document). 3). Since an area larger than the recording area is displayed and the area to be recorded can be determined while looking at this, it is possible to deal with a subject to be photographed with a large amount of movement.

また、動画撮影中に静止画撮影できるカメラも提案されている(特許文献4)。動画像と静止画像を交互に読み出す。動画像は間引き読出しモードで読み出し、静止画像は全画素読出しモードで読み出す。1台のカメラで、同一画角の動画静止画が同時に記録出来る。   In addition, a camera that can capture a still image during moving image shooting has also been proposed (Patent Document 4). A moving image and a still image are read alternately. A moving image is read in the thinning-out reading mode, and a still image is read in the all-pixel reading mode. A single camera can record video still images with the same angle of view at the same time.

また、視野が異なる複数の画像を手軽に撮影することが可能な撮像装置が提案されている(特許文献5)。ここでは、CCD撮像素子の交互に異なるエリアから信号を読み出して、2つの動画像を作成している。
特開平11−187299号公報 特開2003−298884号公報 特開2004−343363号公報 特開2005−057378号公報 特開2006−042399号公報
In addition, an imaging apparatus that can easily capture a plurality of images with different fields of view has been proposed (Patent Document 5). Here, signals are read from alternately different areas of the CCD image sensor to create two moving images.
Japanese Patent Laid-Open No. 11-187299 JP 2003-29884 A JP 2004-343363 A JP 2005-057378 A JP 2006-042399 A

運動会やコンサート各種イベントあるいは旅行先の風景等を見る際には、人は注視点や視線の向きを無意識に変化させながら鑑賞している。つまり、全体を見たり、特定の一部を見たりして、ずっと同じ範囲を見続けることはしない。そして、カメラ撮影時にも、機械的なズームや方向指定によって、全体の撮影と、一部をズームしての撮影を適当に切換えながら撮影する。しかし、撮影の機会は一度だけなので、全体撮影または部分撮影それぞれのシャッターチャンスを逃すことも、少なくない。また、撮影後に鑑賞する際には、撮影者ではない者にはとっての興味あるポイントは、当然撮影者と違うので、撮影者ではない者には十分に満足できる画像とは言えないことが多い。   When watching athletic events, concert events, or travel destinations, people watch while changing their gaze points and gaze directions unconsciously. In other words, do not keep looking at the same range all the time, looking at the whole or a specific part. When shooting with the camera, shooting is performed while appropriately switching between the entire shooting and the zoomed shooting by mechanical zoom and direction designation. However, since there is only one opportunity to shoot, it is not uncommon to miss the chance of taking a picture of each of the whole or partial shots. Also, when viewing after shooting, the points of interest for those who are not photographers are naturally different from those for photographers, so it may not be an image that is sufficiently satisfactory for those who are not photographers. Many.

上記特許文献5に開示の撮像装置によれば、異なる画角での画像を同時に撮影したいという要望がかなえられ、かつ2台のカメラを用意するという手間もいらない。   According to the imaging apparatus disclosed in Patent Document 5, a request for simultaneously capturing images with different angles of view can be achieved, and there is no need to prepare two cameras.

しかし、2つの異なる画角の映像を最初から最後まで並行して撮影すると、メモリの消費量も倍近くなるという問題も出る。そして、単純に2倍の量になるわけだから、後で再生する際にも情報量が多すぎて手に負えなくなってしまう。   However, if two images with different angles of view are taken in parallel from the beginning to the end, there is a problem that the memory consumption is nearly doubled. And since the amount is simply doubled, the amount of information will be too much to handle in later playback.

本発明は上記課題に鑑み、1つのシーンを異なる画角で簡単に撮影するカメラおよびこのようなカメラの決定方法、カメラの制御方法を提供することを目的とする。   SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a camera that easily captures one scene at different angles of view, a method for determining such a camera, and a method for controlling the camera.

上記目的を達成するために、第1の発明によるカメラは、同じ被写体を含み撮像素子の異なる領域を対象とした複数の被写体像に基づく画像を形成する撮像部と、上記撮像部で上記複数の画像を形成させるか1つの画像のみを形成させるかを決定する決定部と、上記撮像部で上記複数の画像を形成するよう決定されたときに、上記撮像部で形成された複数の画像を同時に撮影した複数の動画像または静止画像としてメモリに記録する制御部と、を備えるものである。   In order to achieve the above object, a camera according to a first invention includes an imaging unit that forms an image based on a plurality of subject images that include the same subject and that covers different regions of an imaging device, and the imaging unit includes the plurality of imaging units. A determination unit that determines whether to form an image or only one image and a plurality of images formed by the imaging unit at the same time when the imaging unit is determined to form the plurality of images And a control unit that records a plurality of captured moving images or still images in a memory.

第2の発明によるカメラは、画像信号を出力する撮像素子と、この撮像素子の第1撮像範囲から画像を読み出す第1撮像部と、 この撮像素子の上記第1撮像範囲と異なる大きさの第2撮像範囲から画像を読み出す第2撮像部と、上記第1撮像部のみから読み出すか、または第1撮像部及び第2撮像部の両方から画像を読み出すかを決定する決定部と、上記第1撮像部及び第2撮像部の両方で画像を読み出すよう決定されたときには、1回の撮像素子の露光につき第1撮像部と第2撮像部による2回の画像読出しを、繰り返し行なわせ、第1撮像部により読み出された画像に基づく第1画像と第2撮像部により読み出された画像に基づく第2画像を2つの動画像としてそれぞれメモリに記録する制御部と、を備えるものである。   A camera according to a second aspect of the present invention is an image sensor that outputs an image signal, a first image capturing unit that reads an image from a first image capturing range of the image sensor, and a first image sensor having a size different from that of the first image capturing range of the image sensor. A second imaging unit that reads an image from two imaging ranges, a determination unit that determines whether to read from only the first imaging unit or from both the first imaging unit and the second imaging unit, and the first When it is determined that both the image pickup unit and the second image pickup unit read out the image, the first image pickup unit and the second image pickup unit repeatedly read out the image twice for each exposure of the image pickup element. And a control unit that records a first image based on the image read by the imaging unit and a second image based on the image read by the second imaging unit in the memory as two moving images.

第3の発明によるカメラの決定方法は、撮像素子への1回の露光に対して、選択的に撮像素子からの読み出し範囲の大きさを変えた読み出しを複数回行って1回の露光で複数の画像を得て、この操作を繰り返し行い読み出し範囲の異なる複数の動画像を記録する制御部を備えるカメラの決定方法において、撮影者の指示に基づいて、上記複数の画像を記録させるか1つの画像のみを記録させるかを決定するものである。   According to a third aspect of the present invention, there is provided a method for determining a camera, wherein a single exposure to an image sensor is selectively performed with a plurality of readouts with different sizes of a readout range from the image sensor, and a plurality of exposures are performed in a single exposure. In a method for determining a camera having a control unit that records a plurality of moving images having different readout ranges by repeating this operation, the plurality of images are recorded based on a photographer's instruction. It is determined whether to record only the image.

第4の発明によるカメラは、画像信号を出力する撮像素子と、この撮像素子の第1撮像範囲から画像を読み出す第1撮像部と、この撮像素子の上記第1撮像範囲と異なる大きさの第2撮像範囲から画像を読み出す第2撮像部と、上記第1撮像部及び第2撮像部を制御する制御部を備え、上記制御部は、第2撮像範囲の変更指示があったときは、上記第2撮像範囲変更前の領域と変更後の領域を含む領域の画像を第1撮像部又は第2撮像部に撮影させ、その後変更された第2撮像範囲を第2撮像部により撮影させるよう制御するものである。   According to a fourth aspect of the present invention, there is provided a camera according to a fourth aspect of the present invention, an image sensor that outputs an image signal, a first image capturing unit that reads an image from a first image capturing range of the image sensor, and a first image sensor having a size different from the first image capturing range of the image sensor. (2) a second imaging unit that reads an image from the imaging range, and a control unit that controls the first imaging unit and the second imaging unit, and the control unit, when instructed to change the second imaging range, Control is performed so that the first imaging unit or the second imaging unit captures an image of a region including the region before and after the second imaging range change, and the second imaging range is then captured by the second imaging unit. To do.

本発明によれば、1つのシーンを異なる画角の画像で撮影するカメラおよびこのようなカメラの決定方法、カメラの制御方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the camera which image | photographs one scene by the image of a different angle of view, the determination method of such a camera, and the control method of a camera can be provided.

以下本発明を実施するための最良の形態を図面を参照して説明する。
(第1実施形態)
図1から図8を用いて、第1実施形態を説明する。図1は、本発明が適用されるデジタルカメラ1の全体ブロック図である。
カメラ1には、撮影レンズ2、撮像素子3、第1AFE(アナログフロントエンド)4w、第2AFE(アナログフロントエンド)4t、信号処理部5、RAM6、ROM7やメモリ9が設けられる。撮影レンズ2は、入射した被写体20の像を撮像素子3に結像する。撮像素子3は、CCDやCMOSからなり、結像された被写体像を電気信号に変換する。第1AFE4w、第2AFE4tは、撮像素子3からの画像信号を読み出し、読み出した画像信号にAGC処理やCDS処理やAD変換等してデジタル画像データとして出力する。第1AFE4wは第1撮像部、第2AFE4tが第2撮像部とも呼び、その詳細は後述する。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(First embodiment)
The first embodiment will be described with reference to FIGS. FIG. 1 is an overall block diagram of a digital camera 1 to which the present invention is applied.
The camera 1 is provided with a photographic lens 2, an image sensor 3, a first AFE (analog front end) 4w, a second AFE (analog front end) 4t, a signal processing unit 5, a RAM 6, a ROM 7, and a memory 9. The taking lens 2 forms an image of the incident subject 20 on the image sensor 3. The image sensor 3 is composed of a CCD or a CMOS, and converts the formed subject image into an electrical signal. The first AFE 4w and the second AFE 4t read the image signal from the image sensor 3, and output the read image signal as digital image data by performing AGC processing, CDS processing, AD conversion, or the like. The first AFE 4w is also called a first imaging unit, and the second AFE 4t is also called a second imaging unit, details of which will be described later.

信号処理部5には、圧縮部や伸張部等が設けられ、画像データに対して色補正や信号圧縮、伸張などの処理を行う。圧縮部は、画像データをメモリ9に記録するための例えばJPEG圧縮やMPEG圧縮を行い、また音声圧縮の機能も有する。伸張部は、圧縮された画像データを元に戻す処理を行う。
信号処理部5内の補助ブロック5aは補正のかけ方を変更する。RAM6は、種々の演算データの一時的な格納や圧縮伸張時の画像データのワークエリアとして使用される。メモリ9は、画像データの保存用メモリで、例えば、フラッシュメモリやハードディスクで構成される。メモリ9に信号処理部5で処理された画像データが記録される。またメモリ9には、送信用メモリ9aの領域も設けられる。
The signal processing unit 5 includes a compression unit, an expansion unit, and the like, and performs processing such as color correction, signal compression, and expansion on the image data. The compression unit performs, for example, JPEG compression or MPEG compression for recording image data in the memory 9, and also has a sound compression function. The decompressing unit performs a process of restoring the compressed image data.
The auxiliary block 5a in the signal processing unit 5 changes the way of correction. The RAM 6 is used as a work area for temporary storage of various calculation data and image data during compression / decompression. The memory 9 is a memory for storing image data, and includes, for example, a flash memory or a hard disk. The image data processed by the signal processing unit 5 is recorded in the memory 9. The memory 9 is also provided with an area for a transmission memory 9a.

また、カメラ1には、画像表示用の表示部8、マイク12、スピーカ13が設けられる。撮影時には画像確認用として、表示部8に撮像素子3から出力される画像が逐次再生して表示される。また再生時には、メモリ9から読み出され伸張部で伸張された画像が表示部8に表示される。   The camera 1 is provided with a display unit 8 for displaying images, a microphone 12 and a speaker 13. At the time of shooting, the image output from the image sensor 3 is sequentially reproduced and displayed on the display unit 8 for image confirmation. At the time of reproduction, an image read from the memory 9 and expanded by the expansion unit is displayed on the display unit 8.

カメラ1には、MPU10が設けられる。MPU10は、撮影や再生等カメラ1の全体の制御を司る制御部である。上記、第1AFE4w、第2AFE4t、信号処理部5等はMPU10により制御される。   The camera 1 is provided with an MPU 10. The MPU 10 is a control unit that controls the entire camera 1 such as shooting and playback. The first AFE 4w, the second AFE 4t, the signal processing unit 5 and the like are controlled by the MPU 10.

MPU10には、ROM7、操作部16、時計部14、位置検出部15が接続される。ROM7は、不揮発性でかつ記録可能なメモリで例えばフラッシュROMからなり、カメラ処理を行う制御用のプログラムが格納される。また、操作部16は、撮影者の指示をMPU10に通知する。操作部16の代表例としてスイッチ16a、16b、16cが設けられ、その機能は例えばレリース、モード切替指示、電源のON/OFFスイッチである。時計部14は、撮影日時の記録用や露出時間や動画の撮影時間を記録したり、所定のタイミング間隔を測定するときに用いられる。位置検出部15は、GPSセンサーで構成され、撮影した位置を検出して位置データをMPU1に通知する。検出された撮影位置が画像データに付帯してメモリ9に記録される。   A ROM 7, an operation unit 16, a clock unit 14, and a position detection unit 15 are connected to the MPU 10. The ROM 7 is a non-volatile and recordable memory, for example, a flash ROM, and stores a control program for performing camera processing. Further, the operation unit 16 notifies the MPU 10 of the photographer's instruction. Switches 16a, 16b, and 16c are provided as representative examples of the operation unit 16, and their functions are, for example, a release, a mode switching instruction, and a power ON / OFF switch. The clock unit 14 is used for recording the shooting date and time, recording the exposure time and the shooting time of a moving image, and measuring a predetermined timing interval. The position detection unit 15 includes a GPS sensor, detects a captured position, and notifies the MPU 1 of position data. The detected shooting position is added to the image data and recorded in the memory 9.

さらに、カメラ1には、無線送信部11、プリント信号出力部12が設けられる。無線送信部11は、プリンタやPC(Personal Computer)に無線で画像データを送信するインターフェース部である。プリント信号出力部12は、接続されるプリンタに対して、撮影した画像データを出力させるインターフェース部である。例えば、USB(Universal Serial Bus)からなる。   Further, the camera 1 is provided with a wireless transmission unit 11 and a print signal output unit 12. The wireless transmission unit 11 is an interface unit that wirelessly transmits image data to a printer or a PC (Personal Computer). The print signal output unit 12 is an interface unit that outputs captured image data to a connected printer. For example, it consists of USB (Universal Serial Bus).

図2は、図1の全体ブロック図の中で、撮影範囲の異なる画像撮影を行う主要ブロックを説明する図である。撮影レンズ2により撮影される基本的な画角で、破線で示される画角が、第1の画角θwである。この第1の画角θwに対応する被写体像が撮像素子3に結像される。この第1の画角θwに対応して撮像素子3で撮影される範囲が、第1撮像範囲3wである。一方、第1の画角θwより狭い画角で、実線で示される画角が第2の画角θtである。この第2の画角θtに対応して撮像素子3で撮影される範囲が、第2撮像範囲3tである。第2撮像範囲3tは第1撮像範囲3wより狭い範囲である。   FIG. 2 is a diagram for explaining the main blocks for performing image shooting with different shooting ranges in the overall block diagram of FIG. A basic angle of view taken by the taking lens 2 and indicated by a broken line is the first angle of view θw. A subject image corresponding to the first angle of view θw is formed on the image sensor 3. A range captured by the imaging device 3 corresponding to the first angle of view θw is a first imaging range 3w. On the other hand, an angle of view narrower than the first angle of view θw and indicated by a solid line is the second angle of view θt. A range captured by the image sensor 3 corresponding to the second angle of view θt is a second imaging range 3t. The second imaging range 3t is a range narrower than the first imaging range 3w.

そして、第1AFE4wが第1撮像範囲3wの画素の読出し、AGC、A/D変換等処理を行う。第2AFE4tが第2撮像範囲3tの画素の読出し、AGCA/D変換等処理を行う。次に、信号処理部5が第1AFE4wから出力された第1撮像範囲3wの画像データと第2AFE4tから出力された第1撮像範囲3tの画像データに対して、γ変換や圧縮等の所定の画像処理を施す。   Then, the first AFE 4w performs processing such as reading of pixels in the first imaging range 3w, AGC, A / D conversion, and the like. The second AFE 4t performs processing such as readout of pixels in the second imaging range 3t and AGCA / D conversion. Next, the signal processing unit 5 performs a predetermined image such as γ conversion or compression on the image data of the first imaging range 3w output from the first AFE 4w and the image data of the first imaging range 3t output from the second AFE 4t. Apply processing.

画像処理された第1撮像範囲3wの画像データを、第1画像Dwとしてメモリ9に記録する。また画像処理された第2撮像範囲3tの画像データを、第2画像Dtとして補助メモリ9bに記録する。これで2つの動画が同時に記録される。なお、第1画像Dwの撮影時にあわせて第2画像Dtの撮影も行うか否かは、ユーザーの選択事項である。そして、撮影の途中で第2画像の撮影を開始したり、停止するのももちろん自由である。その切換えは、操作指示に基づきMPU10によって実行させる。
この意味では、MPU10は、複数撮影するか否かの決定部でもある。そして、指示に応じて、表示部8に、第1画像Dw、第2画像Dtを同時に表示させる。もちろん別々に表示させても良い。
The image data of the first imaging range 3w subjected to the image processing is recorded in the memory 9 as the first image Dw. Further, the image data of the second imaging range 3t subjected to the image processing is recorded in the auxiliary memory 9b as the second image Dt. Thus, two moving images are recorded simultaneously. Note that whether or not to shoot the second image Dt in conjunction with the shooting of the first image Dw is a user's choice. And, of course, it is free to start or stop shooting the second image in the middle of shooting. The switching is executed by the MPU 10 based on the operation instruction.
In this sense, the MPU 10 is also a determination unit for determining whether to shoot a plurality of images. And according to the instruction | indication, the 1st image Dw and the 2nd image Dt are displayed on the display part 8 simultaneously. Of course, they may be displayed separately.

図3は、撮像素子3への露光(積分)とその画像信号の読出しのタイミングを示す図である。
図3(A)は、撮像素子3で電荷の積分をしているタイミングを順次示す。ハイの部分が積分している期間である。図3(B)は、第1AFE4wが撮像素子3から、第1撮像範囲3wに属する画素の信号(または電荷)を1フレーム分読み出すタイミングを示す。図3(C)は、同様に第2AFE4tが第2撮像範囲3tに属する画素の信号(または電荷)を1フレーム分読み出すタイミングを示す。なお、「積分」とは、所定時間撮像素子3が入射光をその明るさに応じて、光電流を素子内のキャパシタにためていくことからこう呼ばれる。「蓄積」とも呼ばれる。
FIG. 3 is a diagram showing the timing of exposure (integration) to the image sensor 3 and reading of the image signal.
FIG. 3A sequentially shows the timing at which the charge is integrated in the image sensor 3. This is the period during which the high part is integrated. FIG. 3B shows a timing at which the first AFE 4w reads out signals (or charges) of pixels belonging to the first imaging range 3w for one frame from the imaging device 3. FIG. 3C similarly shows the timing at which the second AFE 4t reads out signals (or charges) of pixels belonging to the second imaging range 3t for one frame. Note that “integration” is referred to as the imaging element 3 accumulates incident light according to its brightness for a predetermined time and accumulates a photocurrent in a capacitor in the element. Also called “accumulation”.

撮像素子3で所定時間積分(露光)がなされる(同図(A))。積分時間は、図示なきAE回路で明るさに応じて自動的に設定される。この積分終了後に第1AFE4wが第1撮像範囲3wに属する画素の信号を1フレーム分読み出す(同図(B))。そしてこの第1撮像範囲3wの画素の信号読出し後に、第2AFE4tが第2撮像範囲3tに属する画素の信号を1フレーム分読み出す(同図(C))。第2撮像範囲3tの信号読出し後に次の積分(露光)を行わせる(同図(A))。そしてこの積分後に、第1撮像範囲3w(1フレーム)の読出しおよび第2撮像範囲3t(1フレーム)の読出しを実行させる。そして、この1回積分(露光)2回読み出しの一連の動作を繰り返す。   The image sensor 3 performs integration (exposure) for a predetermined time ((A) in the figure). The integration time is automatically set according to the brightness by an AE circuit not shown. After the integration is completed, the first AFE 4w reads out signals of pixels belonging to the first imaging range 3w for one frame ((B) in the figure). Then, after reading out the signals of the pixels in the first imaging range 3w, the second AFE 4t reads out the signals of the pixels belonging to the second imaging range 3t for one frame ((C) in the figure). The next integration (exposure) is performed after reading the signal of the second imaging range 3t ((A) in the figure). After this integration, reading of the first imaging range 3w (1 frame) and reading of the second imaging range 3t (1 frame) are executed. Then, a series of operations of reading once integration (exposure) twice is repeated.

これで読み出された信号は、図2で説明したように各種処理後に、メモリ9に別々に記録される。第1撮像範囲3wの信号は第1画像Dwとして、第2撮像範囲3tの信号は第2画像Dtとしてメモリ9に記録される。これにより、画角の異なる2つの動画が同時に記録される。なお、第1撮像範囲3aと第2撮像範囲3bから読み出す画素数を同じ画素数に設定しておくと良い。2つの画像をモニタに表示する際の表示処理等が簡便になるからである。なお、これら一連の制御処理はMPU10によって制御される。   The signals read out in this way are recorded separately in the memory 9 after various processing as described in FIG. The signal in the first imaging range 3w is recorded in the memory 9 as the first image Dw, and the signal in the second imaging range 3t is recorded in the memory 9 as the second image Dt. Thereby, two moving images with different angles of view are recorded simultaneously. Note that the number of pixels read from the first imaging range 3a and the second imaging range 3b may be set to the same number of pixels. This is because display processing and the like when displaying two images on a monitor are simplified. The series of control processes is controlled by the MPU 10.

図4は、撮影された2つの動画像の再生例を説明する図である。図4(A)は、左側が全体画像である第1画像Dw、右側が狭い範囲で全体画像の一部の画像である第2画像Dtである。再生時には、表示サイズを変えてもよい。同図(A)は、第1画像Dwと第2画像Dtを同じサイズでの再生を示すが、同図(B)は、向かって右側の第2画像Dtを第1画像Dwより大きなサイズで表示させたものである。表示サイズの変更処理は指示に応じて信号処理部5で行われる。   FIG. 4 is a diagram for explaining an example of reproduction of two captured moving images. FIG. 4A shows a first image Dw that is an entire image on the left side, and a second image Dt that is a partial image of the entire image in a narrow range on the right side. During playback, the display size may be changed. FIG. 5A shows reproduction of the first image Dw and the second image Dt with the same size, while FIG. 5B shows the second image Dt on the right side with a size larger than the first image Dw. It is displayed. The display size changing process is performed by the signal processing unit 5 in accordance with an instruction.

図5は、第2撮像範囲3tの位置の変更例を示す図である。図2では、第2撮像範囲3tである切出しの位置を第1撮像範囲3wの中心に位置してさせていたが、これに限られない。ここでは、第2撮像範囲3tの位置を図で見て上側にずらした例である。第2撮像範囲3tの位置の変更は、第2AFE4tが、撮像素子3の読み出し範囲を変更することで実現される。   FIG. 5 is a diagram illustrating a change example of the position of the second imaging range 3t. In FIG. 2, the cutout position that is the second imaging range 3t is positioned at the center of the first imaging range 3w, but the present invention is not limited to this. In this example, the position of the second imaging range 3t is shifted upward as viewed in the figure. The change of the position of the second imaging range 3t is realized by the second AFE 4t changing the reading range of the imaging element 3.

図6は、撮影時にこのように切出し部(第2撮像範囲3t)の位置を変化させる例である。図6は、撮影時のモニター画像で、画面左側が全体画像である第1画像Dwで、右側が切出し画像である第2画像Dtである。第1画像Dwには、全体画像に対する第2撮像範囲3tの相対的な位置と範囲を示すカーソル枠8cが重ねて表示される。ここでは第2撮像範囲3tが第1撮像範囲3wの中心ではなく、第1撮像範囲3w左寄りの位置に設定されている。   FIG. 6 is an example in which the position of the cutout portion (second imaging range 3t) is changed in this way during shooting. FIG. 6 is a monitor image at the time of photographing, and the left side of the screen is a first image Dw that is an entire image, and the right side is a second image Dt that is a cut-out image. In the first image Dw, a cursor frame 8c indicating the relative position and range of the second imaging range 3t with respect to the entire image is displayed in an overlapping manner. Here, the second imaging range 3t is set not to the center of the first imaging range 3w but to the left side of the first imaging range 3w.

図7は、撮影の途中で、第2撮像範囲3t(切出し部)を変更する場合の撮影を示す。撮影中に切出し部を急に変えると不自然になるため、切換えの間に全体画像を短時間撮影してから、切出し部を変更するようにする。図7(A)が、切出し部変更前後の撮影画像を示すもニタ画面である。まず変更前の切出し部である切出し部1が第2画像Dtとして記録(撮影)がされる(A−1)。そして、撮影者により切出し変更指示があると、すぐには画面を切換えずに、第2画像Dtとして第1撮像範囲3wの画像を短時間、例えば1秒、記録させる(A−2)。つまり第1画像Dwと同じ画像が短時間記録される。その後、変更指示に対応する切出し部2を第2画像Dtとして記録を開始させるようにする(A−3)。以上により、撮影中に切出し部を切換えることによる不自然な動きを防止できる。   FIG. 7 shows the shooting when the second imaging range 3t (cutout portion) is changed during shooting. If the cutout part is suddenly changed during photographing, it becomes unnatural. Therefore, the whole picture is taken for a short time during switching, and then the cutout part is changed. FIG. 7A is a nita screen showing the captured images before and after changing the cutout portion. First, the cutout part 1 which is the cutout part before the change is recorded (photographed) as the second image Dt (A-1). When the photographer instructs to change the cutout, the image of the first imaging range 3w is recorded as the second image Dt for a short time, for example, 1 second without switching the screen immediately (A-2). That is, the same image as the first image Dw is recorded for a short time. After that, the cutout unit 2 corresponding to the change instruction is started to be recorded as the second image Dt (A-3). As described above, it is possible to prevent unnatural movement caused by switching the cutout portion during photographing.

図7(B)は、上記で説明した切出し部(第2画像)変更の際に撮影画像を切換える手順を示すフローチャートである。指示された範囲で第2画像Dtの撮影を行う(ステップS51)。ユーザーによる第2画像(切出し部)の変更指示操作の有無を判断する(ステップS52)。変更操作がなければ(ステップS52NO)、ステップS57に進み、終了操作を判断する。終了操作があれば(ステップS57YES)、終了処理を行う。終了操作がなければ(ステップS57NO)、ステップS51に戻る。   FIG. 7B is a flowchart showing a procedure for switching the captured image when changing the cutout portion (second image) described above. The second image Dt is taken within the designated range (step S51). It is determined whether or not the user has instructed to change the second image (cutout unit) (step S52). If there is no change operation (NO in step S52), the process proceeds to step S57, and the end operation is determined. If there is an end operation (YES in step S57), end processing is performed. If there is no end operation (step S57 NO), the process returns to step S51.

一方、変更操作があったと判断するときは(ステップS52YES)、まず、変更前後の2つの第2画像を含むエリアの画像を短時間撮影する。例えば図A−2のように、全体画像である第1画像Dwを撮影しても良い。また、変更前後の画像が含まれればよいので、全体画像より小さいエリアでもよい。また、この小さいエリアを撮影する場合には、第2撮像部で撮影するようにしてもよい。そして所定時間(例えば1秒)このエリアの画像を撮影する。所定時間経過したかを判断して(ステップS54)、所定時間経過したら(ステップS54YES)、撮影領域を第2画像Dtとして新たに変更された領域に切換える。そして、新たな領域の撮影を開始する。また、あわせて第2画像領域を新たな領域への設定変更も行う-(ステップS56)。そして、ステップS51に戻る。   On the other hand, when it is determined that there has been a change operation (YES in step S52), first, an image of an area including the two second images before and after the change is taken for a short time. For example, as shown in FIG. A-2, the first image Dw that is the entire image may be taken. Moreover, since the image before and after a change should just be included, an area smaller than the whole image may be sufficient. Further, when shooting this small area, the second imaging unit may shoot. Then, an image of this area is taken for a predetermined time (for example, 1 second). It is determined whether a predetermined time has elapsed (step S54), and when the predetermined time has elapsed (YES in step S54), the imaging area is switched to the newly changed area as the second image Dt. Then, shooting of a new area is started. At the same time, the setting of the second image area is changed to a new area (step S56). Then, the process returns to step S51.

以上により、第2画像の位置を大きく変更したような場合でも、変更前後の画像をいったん撮影するようにするので、初めて見る者でも画面どこからどこへ飛んだか分からなくなるような事がなく、大きな変化に戸惑うことが少なくなる。   As described above, even if the position of the second image is greatly changed, the images before and after the change are once taken, so that even a first-time viewer does not lose sight of where the screen flew from. Less confused.

図8はカメラ1の撮影再生処理を示すフローチャートの1で、図9はそのフローチャートの2である。この処理は、主にMPU10によってプログラムに従って実行される。
まず、設定されている現在のカメラモードを判断する(ステップS1)。再生モードに設定されたと判断すると(ステップS1YES)、図9のステップS31に進む。ステップS31以降では、ユーザーの画像選択を受け付けるステップを実行する。
FIG. 8 is a flowchart 1 showing the photographing / reproducing process of the camera 1, and FIG. 9 is a flowchart 2 of the flowchart. This process is mainly executed by the MPU 10 according to a program.
First, the set current camera mode is determined (step S1). If it is determined that the playback mode has been set (YES in step S1), the process proceeds to step S31 in FIG. In step S31 and subsequent steps, a step of accepting the user's image selection is executed.

一方、再生モードではなく撮影モードに設定されたと判断すると(ステップS1NO)、ステップS2以降の撮影処理を実行する。まず時刻の計時を行うため時刻をカウントする(ステップS2)。2つの動画撮影時にそれぞれの画像に時刻データを合わせて記録するためである。   On the other hand, if it is determined that the shooting mode is set instead of the playback mode (NO in step S1), the shooting process after step S2 is executed. First, the time is counted to measure the time (step S2). This is because the time data is recorded together with each image when shooting two moving images.

まず第1画像Dwをモニタ画像として表示部8に表示させる(ステップS3)。第1AFE4wにより撮像素子3からリアルタイムで画像信号を読出し、信号処理部5で信号処理を行い第1画像Dwを形成させる。形成された第1画像Dwを表示部8に表示させる。   First, the first image Dw is displayed on the display unit 8 as a monitor image (step S3). An image signal is read from the image sensor 3 in real time by the first AFE 4w, and signal processing is performed by the signal processing unit 5 to form a first image Dw. The formed first image Dw is displayed on the display unit 8.

次に、撮影者の指示に応じて第2画像Dtの切出し位置を設定する(ステップS4)。図10は、撮影者による切出し位置設定操作を示す図である。図10(A)は、カメラ1の背面外観を示す図である。カメラ1の背面左側には表示部8が設けられる。そして背面右側には、ズームレンズ操作ボタン16−1、撮影範囲設定ボタン16−2、XY操作ボタン16−3が配置される。また、表示部8の画面には、第2画像Dtの範囲を示すカーソル8cが表示される。撮影範囲設定ボタン16−2の押下がされたときに、表示部8にカーソル8cを表示させる。そして第2画像Dtの位置は、XY操作ボタン16−3の操作で設定される。例えばXY操作ボタン16−3の一つである左ボタン16−3Lの押下を検出すると、カーソル8cを左に所定量移動させる(図(B))。ズームレンズ操作ボタン16−1は、通常撮影レンズのズーム制御操作に用いるが、このときは、第2画像8Tのサイズの拡大縮小を設定する操作部となる(図(C))。そして第2画像Dtのサイズと位置が設定された後、再度撮影範囲設定ボタン16−2の押下を検出すると、その状態での第2画像Dtのサイズと位置を確定する。以上のような操作で第2画像Dtのサイズと位置を確定する。   Next, the cut-out position of the second image Dt is set according to the photographer's instruction (step S4). FIG. 10 is a diagram illustrating a cutting position setting operation by the photographer. FIG. 10A is a view showing the rear appearance of the camera 1. A display unit 8 is provided on the rear left side of the camera 1. A zoom lens operation button 16-1, a shooting range setting button 16-2, and an XY operation button 16-3 are arranged on the right side of the rear surface. Further, a cursor 8c indicating the range of the second image Dt is displayed on the screen of the display unit 8. When the photographing range setting button 16-2 is pressed, the cursor 8c is displayed on the display unit 8. The position of the second image Dt is set by operating the XY operation button 16-3. For example, when the pressing of the left button 16-3L, which is one of the XY operation buttons 16-3, is detected, the cursor 8c is moved to the left by a predetermined amount (FIG. (B)). The zoom lens operation button 16-1 is used for the zoom control operation of the normal photographing lens. At this time, the zoom lens operation button 16-1 serves as an operation unit for setting the enlargement / reduction of the size of the second image 8T (FIG. (C)). Then, after the size and position of the second image Dt are set, when the pressing of the shooting range setting button 16-2 is detected again, the size and position of the second image Dt in that state are determined. The size and position of the second image Dt are determined by the operation as described above.

図8に戻る。切出し位置を設定後、撮影者によるレリース操作を待ち(ステップS5)、ステップS4を巡回する。レリース操作があったと判断すると(ステップS5YES)、次に、ユーザーによる第2画像撮影の指示がされているかを判断する(ステップS6)。第2画像撮影の指示がされていなければ(ステップS6NO)、ステップS10にジャンプする。第2画像撮影の指示がされていれば(ステップS6YES)、第2AFE4tによって撮像素子3から第2画像範囲3tの画像信号を読出す。第1画像のみの撮影かまたは第1および第2画像の両方の撮影のいずれにするかを、ユーザーの操作に応じて決定する。MPU10が、決定部に該当する。   Returning to FIG. After setting the cutout position, the camera waits for a release operation by the photographer (step S5), and goes to step S4. If it is determined that a release operation has been performed (step S5 YES), it is then determined whether or not the user has instructed the second image shooting (step S6). If the second image capturing instruction has not been given (step S6 NO), the process jumps to step S10. If the instruction to shoot the second image has been given (step S6 YES), the image signal of the second image range 3t is read from the image sensor 3 by the second AFE 4t. Whether to shoot only the first image or both the first and second images is determined according to the user's operation. The MPU 10 corresponds to the determination unit.

そして、読み出した画像信号からN個の画素を読み出す(ステップS7)。信号処理部5に読み出した画像を入力する(ステップS8)。信号処理部5によって読み出した画像の画像処理を行わせる。画像処理された画像データを第2画像Dtとして撮影時刻とともに補助メモリ9bに記録する(ステップS9)。加えて、第2画像があることを示す信号も記録する(ステップS10)。   Then, N pixels are read from the read image signal (step S7). The read image is input to the signal processing unit 5 (step S8). Image processing of the image read by the signal processing unit 5 is performed. The image processed image data is recorded in the auxiliary memory 9b as the second image Dt together with the photographing time (step S9). In addition, a signal indicating the presence of the second image is also recorded (step S10).

同様に、第1AFE4wによって撮像素子3から第1画像範囲3wの画像信号を読出す。N個の画素を読出す(ステップS11)。信号処理部5に読み出した画像を入力する(ステップS12)。信号処理部5に読み出した画像の画像処理を行わせる。画像処理された画像データを第1画像Dwとして撮影時刻とともにメモリ9に記録する(ステップS13)。その後、撮影終了の指示の有無を判断する(ステップS14)。撮影終了の指示がないとき(ステップS14NO)はステップS21に進み、撮影を継続する。撮影終了の指示があれば(ステップS14YES)、終了処理を実行して(ステップS15)、終了させる。   Similarly, an image signal in the first image range 3w is read from the image sensor 3 by the first AFE 4w. N pixels are read out (step S11). The read image is input to the signal processing unit 5 (step S12). The signal processing unit 5 is caused to perform image processing on the read image. Image-processed image data is recorded in the memory 9 as the first image Dw together with the shooting time (step S13). Thereafter, it is determined whether or not there is an instruction to end photographing (step S14). When there is no instruction to end shooting (NO in step S14), the process proceeds to step S21 to continue shooting. If there is an instruction to end shooting (YES in step S14), an end process is executed (step S15), and the process ends.

一方、ステップS21では、撮影者による撮影途中での切出し部(第2画像Dt)を変更指示の有無を判断する。変更指示があったときは(ステップS21YES)、それに従って設定を変更する。変更操作は上記図10で説明したのと同様であるので省略する。そして、この切出し部の変更設定の終了を判断して(ステップS22)、終了するまでは(ステップS22NO)、ステップS10に進む。変更操作途中の第2画像Dtは乱れた画像となるので、終了するまでは第2画像Dtの記録はせずに、第1画像Dwのみを記録するようにする。そして、この変更が終了したら(ステップS22YES)、ステップS6に進み、第2画像Dtの記録を開始する。ただし、上記変更中には、第1画像Dwのみの記録だけでなく、変更前の第2画像Dtを継続記録するようにしてもよい。乱れた画像の記録をしないようにすれば良いからである。   On the other hand, in step S21, it is determined whether or not there is an instruction to change the cutout part (second image Dt) during shooting by the photographer. When there is a change instruction (step S21 YES), the setting is changed accordingly. The change operation is the same as that described with reference to FIG. Then, the end of the change setting of the cut-out portion is determined (step S22), and the process proceeds to step S10 until the end (step S22 NO). Since the second image Dt in the middle of the changing operation is a disordered image, only the first image Dw is recorded without recording the second image Dt until the end. When this change is finished (YES in step S22), the process proceeds to step S6, and recording of the second image Dt is started. However, during the change, not only the first image Dw but also the second image Dt before the change may be continuously recorded. This is because it is sufficient not to record a disordered image.

また、撮影中に撮影者が動画だけでなく静止画を撮影したい場合には、静止画撮影も可能にする。切出し部(第2画像Dt)の変更操作がないときは(ステップS21NO)、静止画撮影の指示の有無を判断する(ステップS23)。静止画撮影の指示があったときは(ステップS23YES)、動画撮影時のN個より多いN1個の画素を撮像素子から取り出す(ステップS24)。ここでは、第2画像Dtに変えて静止画像を撮影するようにする。この画像データを撮影時刻とともにメモリ9に記録する(ステップS25)。また、第2画像Dtの撮影の代わりに静止画撮影を行っているので、静止画撮影中はステップS10に進み(ステップS26YES)、第1画像Dw撮影を行う。静止画撮影処理が終了すれば(ステップS26NO)、ステップS21に進む。第1画像Dw及び第2画像Dtを得る本来の撮影に戻す。静止画撮影中には記録される画素数を増やすようにするので、プリント時の画質を確保することができる。   If the photographer wants to shoot not only a moving image but also a still image during shooting, still image shooting is also possible. When there is no change operation of the cutout part (second image Dt) (NO in step S21), it is determined whether or not there is an instruction for still image shooting (step S23). When there is an instruction to shoot a still image (YES at step S23), N1 pixels, which are larger than N at the time of moving image shooting, are taken out from the image sensor (step S24). Here, a still image is taken instead of the second image Dt. This image data is recorded in the memory 9 together with the photographing time (step S25). Further, since still image shooting is performed instead of shooting the second image Dt, the process proceeds to step S10 during still image shooting (YES in step S26), and the first image Dw shooting is performed. If the still image shooting process is completed (NO in step S26), the process proceeds to step S21. The original imaging for obtaining the first image Dw and the second image Dt is restored. Since the number of recorded pixels is increased during still image shooting, the image quality at the time of printing can be ensured.

次に撮影終了後の、再生処理についてを図9、11,12を用いて説明する。図11は、図1のカメラブロック図の一部分で、再生機能に関するブロック図である。信号処理部5には、CPU5b、分離部5c、映像デコーダ5d、音声デコーダ5e、スーパーインポーズ部5fが設けられている。CPU5bは、MPU10と通信して、信号処理部の制御を行う。分離部5cは、同じファイルに含まれる音声データと画像データを分離する。映像デコーダ5dは、分離された画像データを表示部8に表示するに適した形態のアナログ信号に変換する。音声デコーダ5eは、分離された音声データをスピーカ13に出力可能な信号に変換する。スーパーインポーズ部5fは、表示部8に表示される画像に後述するサブ画像がある旨等の情報を重ねる。   Next, the reproduction process after the end of shooting will be described with reference to FIGS. FIG. 11 is a part of the camera block diagram of FIG. 1 and is a block diagram relating to the playback function. The signal processing unit 5 includes a CPU 5b, a separation unit 5c, a video decoder 5d, an audio decoder 5e, and a superimpose unit 5f. The CPU 5b communicates with the MPU 10 and controls the signal processing unit. The separation unit 5c separates audio data and image data included in the same file. The video decoder 5d converts the separated image data into an analog signal in a form suitable for display on the display unit 8. The audio decoder 5 e converts the separated audio data into a signal that can be output to the speaker 13. The superimposing unit 5f superimposes information indicating that there is a sub-image described later on the image displayed on the display unit 8.

メモリ9内のファイルの1つが、ファイル9bである。ファイル9bは、メイン領域とユーザー領域を有する。このメイン領域は、分離データ、第1画像データ、音声データ、付帯データから構成される。付帯データには、第1画像データに対応する第2画像データの有無が記録されている。ユーザー領域は、補助メモリ9aからファイル9bにコピーされたデータである第2画像データが入っている。   One of the files in the memory 9 is a file 9b. The file 9b has a main area and a user area. The main area is composed of separated data, first image data, audio data, and incidental data. In the incidental data, the presence or absence of the second image data corresponding to the first image data is recorded. The user area contains second image data which is data copied from the auxiliary memory 9a to the file 9b.

このブロック図で、複数画像の再生を行うプロセスを説明する。画像処理部5が画像ファイル9bのデータを再生する。CPU 5bは、この分離データの内容を見て、ファイル内のどのデータが第1画像を形成しているかを分離部5dに指示する。分離部はその指示に従って映像デコーダ5d、音声デコーダ5eを用いて、これらの再生を行わせる。このときCPU5bが、画像とは別に付帯データも分離部5cによって読み込む。CPU5bは、この付帯データをもとに、第1画像と同じタイミングで撮影された第2画像があるかどうかを、この付帯データにより判断する。   A process for reproducing a plurality of images will be described with reference to this block diagram. The image processing unit 5 reproduces the data of the image file 9b. The CPU 5b looks at the contents of the separated data and instructs the separating unit 5d which data in the file forms the first image. In accordance with the instruction, the separator uses the video decoder 5d and the audio decoder 5e to reproduce them. At this time, the CPU 5b reads the incidental data separately from the image by the separation unit 5c. The CPU 5b determines whether there is a second image taken at the same timing as the first image based on the accompanying data.

図12は、第2画像が存在するときに、第2画像が表示される画面例である。まず、順次表示される画像に重ねて第2画像(サブ画像)がある旨をスーパーインポーズ部5fにより、たとえば8dとして表示する(A−2)。また、ユーザーがサブ画像範囲を知りたいときは、ユーザーの操作に応じてどの部分が拡大表示されるかを枠8cを表示するようにしてもよい。ユーザーはこれを見て、第2画像表示操作を行ったとする。第2画像(サブ画像)をユーザー領域から読み出して、第1画像に変えて第2画像を再生する(A−3,4)。   FIG. 12 is an example of a screen on which the second image is displayed when the second image exists. First, the superimposing unit 5f displays, for example, as 8d that there is a second image (sub-image) superimposed on the sequentially displayed images (A-2). When the user wants to know the sub-image range, the frame 8c may be displayed to indicate which part is enlarged and displayed according to the user's operation. It is assumed that the user sees this and performs the second image display operation. The second image (sub-image) is read out from the user area, changed to the first image, and the second image is reproduced (A-3, 4).

図9により再生処理を説明する。図9のステップS31からステップS37が再生処理の手順である。ユーザーにより指定された画像を再生画像として選択する(ステップS31)。ユーザーにより選ばれた画像である第1画像Dwの再生を開始する(ステップS32)。選択された第1画像Dwをメモリ9から読み出し伸張して表示部8に再生する。   The reproduction process will be described with reference to FIG. Steps S31 to S37 in FIG. 9 are the procedure of the reproduction process. An image designated by the user is selected as a reproduced image (step S31). The reproduction of the first image Dw, which is the image selected by the user, is started (step S32). The selected first image Dw is read from the memory 9 and expanded and reproduced on the display unit 8.

ここで本発明の特徴たる同じ時刻に撮影された別の動画像、つまり第2画像Dtが補助メモリ9bに存在するかを判断する(ステップS33)。そして、現在再生中の第1画像に対応する第2画像Dtがあれば(ステップS33YES)、ステップS34に進む。ここで、直ちに第2画像を表示するのではなく、第2画像が存在する旨を表示する(ステップS34)。図12のA−2で示す8dのような表示である。なお、対応する第2画像Dtがなければ(ステップS33NO)、ステップS41に進む。   Here, it is determined whether another moving image taken at the same time as the feature of the present invention, that is, the second image Dt exists in the auxiliary memory 9b (step S33). If there is a second image Dt corresponding to the first image currently being reproduced (step S33 YES), the process proceeds to step S34. Here, instead of immediately displaying the second image, the fact that the second image exists is displayed (step S34). It is a display like 8d shown by A-2 of FIG. If there is no corresponding second image Dt (NO in step S33), the process proceeds to step S41.

そして、ユーザーによる、第2画像の範囲を確認する操作の有無を判断する(ステップS35)。確認操作がされれば(ステップS35YES)、第2画像の範囲を第1画像に重畳して指定する(ステップS36)。図12のA−2で示す枠8cのような表示である。   Then, it is determined whether or not the user has performed an operation for confirming the range of the second image (step S35). If a confirmation operation is performed (YES in step S35), the range of the second image is specified by being superimposed on the first image (step S36). It is a display like the frame 8c shown by A-2 in FIG.

続いて、ユーザーの画像切換え操作の有無を判断する(ステップS37)。切換え操作があったら(ステップS37YES)、第2画像Dtも同時に再生を開始する(ステップS38)。対応する第2画像Dtをメモリ9bから読み出し伸張して表示部8に再生する。第1画像Dwと第2画像Dtを表示部8に図4(A)で示したように並べて表示させる。そして、画像再生エリアの変更指示の有無を判断する(ステップS39)。図4(B)のように、変更指示があれば(ステップS39YES)サイズを変更して再生する(ステップS40)。表示部8にタッチパネルを設けてあるカメラでは、タッチ操作で表示位置やサイズを変更しても良い。以降、再生の終了指示を判断し(ステップS41)、終了指示があるまでは(ステップS41NO)、ステップS33に戻り巡回する。また、切換え操作がないときは(ステップS37NO)、ステップS41にジャンプする。再生の終了指示を検出すれば(ステップS41YES)、終了処理する。なお、上記フローチャートでは、第2画像Dtを表示させる際に第1画像Dwと共に表示させるよう説明したが、図12で示したように、第2画像Dtを単独で表示させても当然に良い。   Subsequently, it is determined whether or not the user has performed an image switching operation (step S37). If there is a switching operation (YES in step S37), the second image Dt is also started to be reproduced simultaneously (step S38). The corresponding second image Dt is read from the memory 9b, decompressed, and reproduced on the display unit 8. The first image Dw and the second image Dt are displayed side by side on the display unit 8 as shown in FIG. Then, it is determined whether or not there is an instruction to change the image reproduction area (step S39). As shown in FIG. 4B, if there is a change instruction (YES in step S39), the size is changed and reproduction is performed (step S40). In a camera provided with a touch panel on the display unit 8, the display position and size may be changed by a touch operation. Thereafter, the reproduction end instruction is determined (step S41), and the process returns to step S33 until the end instruction is received (step S41 NO). If there is no switching operation (NO in step S37), the process jumps to step S41. If a reproduction end instruction is detected (YES in step S41), end processing is performed. In the above flowchart, the second image Dt is displayed together with the first image Dw when displayed. However, as shown in FIG. 12, the second image Dt may be displayed alone.

次に、第1画像Dwと第1画像Dtの各画素の算出方法を説明する。図13は、第1画像Dwと第2画像Dtの画素の関係を説明する図である。以下、第1画像Dwの1画素をPw、第2画像Dtの1画素をPtで示す。なお本例では、第1画像Dwの1画素Pwは、第2画像Dtの1画素Ptの4画素分に相当し、第2画像Dtの1画素Ptは撮像素子の16画素から構成されるものとする。つまり第1画像Dwの1画素Pwは、撮像素子の64画素から構成される。もちろんこれは一例であって、この割合に限られることはない。   Next, a method for calculating each pixel of the first image Dw and the first image Dt will be described. FIG. 13 is a diagram illustrating the relationship between the pixels of the first image Dw and the second image Dt. Hereinafter, one pixel of the first image Dw is denoted by Pw, and one pixel of the second image Dt is denoted by Pt. In this example, one pixel Pw of the first image Dw corresponds to four pixels of one pixel Pt of the second image Dt, and one pixel Pt of the second image Dt is composed of 16 pixels of the image sensor. And That is, one pixel Pw of the first image Dw is composed of 64 pixels of the image sensor. Of course, this is only an example, and the ratio is not limited to this.

同図(A)は、第1画像Dwの第1撮像範囲3wの画素エリア全体を模式的に示す図である。同図(B)は、第1画像Dwの1画素Pw1領域を拡大した図である。同図(C)は、更に(B)のPw1の領域を拡大した図である。   FIG. 6A is a diagram schematically showing the entire pixel area of the first imaging range 3w of the first image Dw. FIG. 5B is an enlarged view of the one pixel Pw1 region of the first image Dw. FIG. 4C is an enlarged view of the region Pw1 in FIG.

m1は第1画像Dwの水平方向の画素数で、n1は第1画像Dwの垂直方向の画素数である(同図(A))。同様にm2は第2画像Dtの水平方向の画素数で、n2は第1画像Dtの垂直方向の画素数である。そして、第1画像Dwと第2画像Dtは同一画素数N個で構成される。つまり、m1×n1=m2×n2(=N個)である。   m1 is the number of pixels in the horizontal direction of the first image Dw, and n1 is the number of pixels in the vertical direction of the first image Dw ((A) in the figure). Similarly, m2 is the number of pixels in the horizontal direction of the second image Dt, and n2 is the number of pixels in the vertical direction of the first image Dt. The first image Dw and the second image Dt are composed of N identical pixels. That is, m1 × n1 = m2 × n2 (= N).

そして、同図(B)は、画素Pwの一つである画素Pw1の構成を示す。前述したように画素Pwは、4個の画素Pt(Pt1、Pt2、Pt3、Pt4)から構成される。そして、画素Pt1はR画素(赤)とB画素(青)と2つのG画素(緑)の計4画素を1つの単位として、4つの単位、つまり計16画素から構成される。ここで、R画素,G画素,B画素はそれぞれ撮像素子の画素である。他の画素Pt2、Pt3、Pt4もPt1と同様に構成される。さらに、同図(C)で、Pt1を構成する撮像素子の画素を詳細に示す。他のPtも、Pt1と同じ構成である。左上の領域のPt1は、4個のR画素(赤)と4個B画素(青)と8個のG画素(緑)の計16画素から構成される。   FIG. 5B shows the configuration of the pixel Pw1, which is one of the pixels Pw. As described above, the pixel Pw is composed of four pixels Pt (Pt1, Pt2, Pt3, Pt4). The pixel Pt1 is composed of four units, that is, a total of 16 pixels, with a total of four pixels of R pixel (red), B pixel (blue), and two G pixels (green) as one unit. Here, the R pixel, the G pixel, and the B pixel are pixels of the image sensor. The other pixels Pt2, Pt3, and Pt4 are configured similarly to Pt1. Further, FIG. 3C shows in detail the pixels of the image sensor that constitutes Pt1. The other Pt has the same configuration as Pt1. Pt1 in the upper left area is composed of a total of 16 pixels: 4 R pixels (red), 4 B pixels (blue), and 8 G pixels (green).

このように構成された第1画像Dwと第2画像Dtの画素の計算式を示す。以下で、赤を代表にして説明するために、R画素にのみ番号を付ける。ここで、撮像素子のタイプが非破壊読み出しタイプか否かで計算式が異なるので、分けて説明する。利用する撮像素子3が、非破壊読み出しの可能なタイプの場合には、画素の信号を複数回読出しできるので、同じ画素の情報を第1画像Dwと第2画像Dtでそれぞれ読出しできる。一方、非破壊読み出しできないタイプの場合には、画素の信号を1回しか読出しできないので、同じ画素の情報を第1画像Dwと第2画像Dtで共通利用することができないという制限が出る。非破壊読み出しタイプの撮像素子の代表例は、CMOSである。非破壊読み出しのできないタイプの撮像素子の代表例は、CCDである。   The calculation formula of the pixel of the 1st image Dw and the 2nd image Dt which were comprised in this way is shown. In the following, in order to explain with red as a representative, only the R pixel is numbered. Here, the calculation formula differs depending on whether or not the type of the image sensor is a non-destructive readout type. When the imaging device 3 to be used is a type capable of nondestructive readout, the pixel signal can be read out a plurality of times, so that information on the same pixel can be read out in the first image Dw and the second image Dt, respectively. On the other hand, in the case of a type in which non-destructive reading is not possible, the pixel signal can be read only once, so that the same pixel information cannot be shared between the first image Dw and the second image Dt. A typical example of a non-destructive readout type image sensor is a CMOS. A representative example of a type of image sensor that cannot perform nondestructive readout is a CCD.

まず、使用する撮像素子3が非破壊読み出しタイプのときの計算式から説明する。
Pt1には、赤成分として、R11、R12、R13、R14が存在する(図(C))。そこで、Pt1の赤成分をPt1rとし、
First, the calculation formula when the imaging device 3 to be used is a nondestructive readout type will be described.
Pt1 includes R11, R12, R13, and R14 as red components (FIG. (C)). Therefore, let Pt1r be the red component of Pt1,

〔数1〕
Pt1r=(R11+R12+R13+R14)/4
とする。つまり、4画素の平均をPt1rの値とする。
また、Pw1には、赤成分として、(R11からR14)、(R21からR24)、(R31からR34)、(R41からR44)で、計16個が存在する(図(C)。そこで、Pw1の赤成分をPw1rとし、
[Equation 1]
Pt1r = (R11 + R12 + R13 + R14) / 4
And That is, the average of four pixels is set as the value of Pt1r.
In addition, there are a total of 16 red components (R11 to R14), (R21 to R24), (R31 to R34), and (R41 to R44) as red components (FIG. C). Let Pw1r be the red component of

〔数2〕
Pw1r=(R11+R12+R13+R14+R21+R22+R23+R24+R31+R32+R33+R34+R41+R42+R43+R44)/16
とする。つまり、16画素の平均をPw1rの値とする。
[Equation 2]
Pw1r = (R11 + R12 + R13 + R14 + R21 + R22 + R23 + R24 + R31 + R32 + R33 + R34 + R41 + R42 + R43 + R44) / 16
And That is, the average of 16 pixels is set as the value of Pw1r.

次に、使用する撮像素子3が非破壊読み出しができないときタイプのときの計算式を説明する。
Pt1の赤成分Pt1rは、
Next, a calculation formula when the imaging device 3 to be used is of a type when non-destructive reading is not possible will be described.
The red component Pt1r of Pt1 is

〔数3〕
Pr1r=R11
とする。R11のみを使う。R12、R13、R14は、以下のPwで使用するようにするからである。
同様にPw1の赤成分Pw1rは、
[Equation 3]
Pr1r = R11
And Use only R11. This is because R12, R13, and R14 are used in the following Pw.
Similarly, the red component Pw1r of Pw1 is

〔数4〕
Pw1r=(R12+R13+R14+R22+R23+R24+R32+R33+R34+R42+R43+R44)/12
とする。R11やR21は使えないからである。
R(赤)以外の、G,B画素についても同様な計算式を用いて、第1画像Dwと第2画像Dtの各画素の信号を算出する。
[Equation 4]
Pw1r = (R12 + R13 + R14 + R22 + R23 + R24 + R32 + R33 + R34 + R42 + R43 + R44) / 12
And This is because R11 and R21 cannot be used.
For the G and B pixels other than R (red), signals of each pixel of the first image Dw and the second image Dt are calculated using the same calculation formula.

次に、非破壊読み出し撮像素子の読出しを簡単に説明する。図14は、CMOSタイプの撮像素子の回路である。破線で囲まれた部分が1画素分に相当する。この画素を代表として動作を簡単に説明する。他の画素も同様な構成とする。   Next, readout of the nondestructive readout image sensor will be briefly described. FIG. 14 shows a circuit of a CMOS type image sensor. A portion surrounded by a broken line corresponds to one pixel. The operation will be briefly described with this pixel as a representative. The other pixels have the same configuration.

伝送Tr44をオフにして、フォトダイオード41に並列の容量に光に応じた電荷をためる。電荷をためている期間が積分時間となる。積分後に、リセットTr45をオンからオフさせ、伝送Tr44をオンさせると、積分時間と光量に従った電圧が増幅Tr42に入力され、増幅された出力が生じる。   The transmission Tr 44 is turned off, and a charge corresponding to light is accumulated in a capacitor parallel to the photodiode 41. The period during which charges are accumulated is the integration time. After the integration, when the reset Tr 45 is turned off from on and the transmission Tr 44 is turned on, a voltage according to the integration time and the amount of light is input to the amplification Tr 42 and an amplified output is generated.

これをサンプルホールド回路(S/H)46に入力させ、出力値を保持させる。S/H回路46から1画素分の画像信号を平均化処理部47に出力される。そして平均化処理部47が、この画素及び別の画素の画像信号を加算して平均化処理を行う。平均化処理は、上記式1,2に従う。これにより、第1画像Dwや第2画像Dtの画素の信号が算出される。平均化処理はそれぞれ第1AFE4w、第2AFE4tで行う。また、フォトダイオードの出力レベルで加算したものを画素数で割って平均化する構成にしてもよい。一方、サンプルホールド回路(S/H)がない回路では、出力値の保持ができないので式3、式4を用いてもよい。   This is input to the sample hold circuit (S / H) 46 to hold the output value. An image signal for one pixel is output from the S / H circuit 46 to the averaging processing unit 47. Then, the averaging processing unit 47 adds the image signals of this pixel and another pixel and performs an averaging process. The averaging process follows the above formulas 1 and 2. Thereby, the pixel signals of the first image Dw and the second image Dt are calculated. The averaging process is performed by the first AFE 4w and the second AFE 4t, respectively. Alternatively, the sum of the output levels of the photodiodes may be divided by the number of pixels and averaged. On the other hand, since a circuit without a sample hold circuit (S / H) cannot hold an output value, Expressions 3 and 4 may be used.

以上説明したように、第1実施形態によるカメラでは、1つのシーンを全体と一部の2つの画角で同時に撮影できるので、変化を持たせた動画像撮影ができる。さらに、撮影途中で第2画像の撮影範囲の切換えもできるので、変化のある画像鑑賞ができる。換言すれば、2台のカメラで撮影したような変化のある画像が撮影でき、飽きのこない画像が記録できる。また、途中で静止画撮影も可能にしたり、第2画像の撮影エリアの切換え時に画像の乱れも起こりにくいように、細かい点に配慮した撮影もできる。また、全体画像である第1画像Dwと一部の画像である第2画像Dtが同時に並べて再生できるので、鑑賞者は自分の好きな方の画像をじっくり鑑賞することができる。   As described above, with the camera according to the first embodiment, one scene can be photographed simultaneously with the whole and a part of two angles of view, so that a moving image can be photographed with changes. Furthermore, since the shooting range of the second image can be switched during shooting, it is possible to view images with changes. In other words, it is possible to shoot images with changes as if taken by two cameras, and to record images that never get tired. In addition, it is possible to shoot still images in the middle, and shoot in consideration of fine points so that image disturbance is less likely to occur when the shooting area of the second image is switched. In addition, since the first image Dw that is the entire image and the second image Dt that is a part of the image can be reproduced side by side at the same time, the viewer can appreciate the image of the favorite one.

(第2実施形態)
図15、図16を用いて、第2実施形態について説明する。第1実施形態のカメラ1では、光学系のレンズ2を共通とし、撮像素子3の有効エリアを切換えることで、異なる画角の2つの画像を得た。これに対して、第2実施形態では、異なる光学系により2つの画像を得るようにする。
(Second Embodiment)
The second embodiment will be described with reference to FIGS. 15 and 16. In the camera 1 of the first embodiment, two images having different angles of view were obtained by sharing the lens 2 of the optical system and switching the effective area of the image sensor 3. On the other hand, in the second embodiment, two images are obtained by different optical systems.

図15(A)は、第2実施形態が適用されるカメラ1の撮像系のブロックの概略を示す図である。
撮像系以外は、第1実施形態と同じなので、その説明は省略する。
FIG. 15A is a diagram showing an outline of an imaging system block of the camera 1 to which the second embodiment is applied.
Since other than the imaging system is the same as the first embodiment, the description thereof is omitted.

カメラ1には、広い範囲を撮影する広角レンズ52wと狭い範囲を撮影する狭角のレンズ52tの両方が備えられる。両者のレンズは相互に焦点距離の異なるレンズで、広角レンズ52wは短焦点、狭角のレンズ52tは長焦点の光学系である。そして、広角レンズ52wと狭角のレンズ52tは、この2つの像が撮像素子53の異なる領域に結像されるように配置される。つまり、レンズ52wによる第1撮像範囲53wとレンズ52tによる第2撮像範囲53tが、撮像素子上で異なる位置になる。   The camera 1 includes both a wide-angle lens 52w that captures a wide range and a narrow-angle lens 52t that captures a narrow range. Both lenses are lenses having different focal lengths, the wide-angle lens 52w is a short-focus lens, and the narrow-angle lens 52t is a long-focus optical system. The wide-angle lens 52w and the narrow-angle lens 52t are arranged so that the two images are formed in different areas of the image sensor 53. That is, the first imaging range 53w by the lens 52w and the second imaging range 53t by the lens 52t are at different positions on the imaging element.

またカメラ1には、撮像素子53、AFE(アナログフロントエンド)54、信号処理部55が設けられる。そしてAFE54は、撮像素子53で形成される2つの画像について、第1撮像範囲53wと第2撮像範囲53tの画像信号を別々にして所定の処理を行う。さらに信号処理部5では、AFE54から出力される第1画像Dwと第2画像Dtの画像データに対して圧縮等画像処理がなされる。そして圧縮等処理された第1画像Dwと第2画像Dtが不図示のメモリ9に記録される。   Further, the camera 1 is provided with an image sensor 53, an AFE (analog front end) 54, and a signal processing unit 55. Then, the AFE 54 performs predetermined processing on the two images formed by the imaging element 53 separately for the image signals in the first imaging range 53w and the second imaging range 53t. Further, the signal processing unit 5 performs image processing such as compression on the image data of the first image Dw and the second image Dt output from the AFE 54. Then, the first image Dw and the second image Dt that have been subjected to compression or the like are recorded in a memory 9 (not shown).

図15(B)は、第1画像Dwと第2画像Dtとして記録される2つの画像の大きさを示す。広い範囲の画像Dwとこの広い範囲の一部である狭い範囲の画像dtが撮影され記録される。光学系を別にすることによっても、このような2つの画像の動画撮影ができる。   FIG. 15B shows the sizes of two images recorded as the first image Dw and the second image Dt. A wide range image Dw and a narrow range image dt which is a part of the wide range are photographed and recorded. Moving images of these two images can also be achieved by using a separate optical system.

図16は、第2実施形態のもう1つのカメラで、光学系として図15とは異なる光学系を採用した例である。カメラ1の光学系には、広角レンズ62w、狭角レンズ62t、ミラー62m、プリズムミラー62pが備えられる。両者のレンズは相互に焦点距離の異なるレンズで、広角レンズ52wは短焦点、狭角のレンズ52tは長焦点の光学系である。また、カメラ1には、AFE(アナログフロントエンド)64、信号処理部65が設けられる。   FIG. 16 is an example in which another camera of the second embodiment adopts an optical system different from FIG. 15 as the optical system. The optical system of the camera 1 includes a wide-angle lens 62w, a narrow-angle lens 62t, a mirror 62m, and a prism mirror 62p. Both lenses are lenses having different focal lengths, the wide-angle lens 52w is a short-focus lens, and the narrow-angle lens 52t is a long-focus optical system. In addition, the camera 1 is provided with an AFE (analog front end) 64 and a signal processing unit 65.

広角レンズ62wとミラー62mの組と、狭角レンズ62tとミラー62の組がプリズムミラー62を挟んでほぼ対象に配置される。広角レンズ62wを通過し、ミラー62mで反射された1の被写体光が、プリズムミラー62の一辺で反射されて撮像素子63の上側の領域(本図で見て)に入射する。一方狭角レンズ62tを通過し、ミラー62mで反射された別の被写体光が、プリズムミラー62の別の一辺で反射されて撮像素子63の下側の領域(本図で見て)に入射する。これにより1つの撮像素子63の別々の領域に異なる画角の画像が結像される。そしてAFE64では、撮像素子63で形成された2つの画像について、第1撮像範囲63wと第2撮像範囲63tの画像信号を別々にしてA/D変換等所定の処理が行われる。信号処理部65では、圧縮等画像処理がなされ、それぞれ第1画像Dwと第2画像Dtとして不図示のメモリ9に記録される。   A set of the wide-angle lens 62w and the mirror 62m, and a set of the narrow-angle lens 62t and the mirror 62 are arranged substantially on the target with the prism mirror 62 interposed therebetween. One subject light beam that has passed through the wide-angle lens 62w and reflected by the mirror 62m is reflected by one side of the prism mirror 62 and enters the upper region of the image sensor 63 (see this figure). On the other hand, another subject light that has passed through the narrow-angle lens 62t and reflected by the mirror 62m is reflected by another side of the prism mirror 62 and enters the lower region (see this figure) of the image sensor 63. . As a result, images with different angles of view are formed in different areas of one image sensor 63. In the AFE 64, predetermined processing such as A / D conversion is performed on the two images formed by the imaging element 63 separately from the image signals in the first imaging range 63w and the second imaging range 63t. In the signal processing unit 65, image processing such as compression is performed, and the first image Dw and the second image Dt are recorded in the memory 9 (not shown), respectively.

以上により、第2実施形態では、単純な撮像素子制御により、2つの動画画像を得る事が可能になる。本例においても、従来のムービーのような単調な画面ではなく、変化を持たせた撮影と鑑賞が可能になる。もちろんこの構成で、図10で説明した第2画像のサイズや位置の切換えをするようにしてもよい。   As described above, in the second embodiment, two moving image images can be obtained by simple image sensor control. Also in this example, it is possible to perform shooting and viewing with a change, not a monotonous screen like a conventional movie. Of course, with this configuration, the size and position of the second image described in FIG. 10 may be switched.

以上、第1および第2実施形態によれば、撮像素子の持つ豊富な画像データを有効利用しながら、間引きによる読出しや特定の部分の画像のみの読出しを行って、複数の高品位の画像を同時記録するので、これまでのようにたくさんのカメラを用意する必要はなく、1台で変化のある画像を取得することができるカメラを提供することができるようになる。また、動画像は例えばTVのような再生側の制約もあり、必要以上の画素数は無駄になりがちであるが、本発明によれば、高速で莫大な画素出力を読み出せる。   As described above, according to the first and second embodiments, a plurality of high-quality images can be obtained by performing reading by thinning or reading only a specific portion of an image while effectively using the abundant image data of the image sensor. Since simultaneous recording is performed, it is not necessary to prepare a large number of cameras as in the past, and it is possible to provide a camera that can acquire a changed image with a single unit. Also, a moving image has restrictions on the reproduction side such as TV, and an excessive number of pixels tends to be wasted. However, according to the present invention, a huge pixel output can be read at high speed.

また、上記各実施形態で説明したMPU10の処理に関しては、一部または全てをハードウェアで構成してもよい。具体的な構成は設計事項である。また、MPU10による各制御処理は、ROM7に格納されたソフトウェアプログラムがMPU10に供給され、供給されたプログラムに従って上記動作させることによって実現されるものである。従って、上記ソフトウェアのプログラム自体がMPU10の機能を実現することになり、そのプログラム自体は本発明を構成する。また、そのプログラムを格納する記録媒体も本発明を構成する。記録媒体としては、フラッシュメモリ以外でも、CD−ROM、DVD等の光学記録媒体、MD等の磁気記録媒体、テープ媒体、ICカード等の半導体メモリー等を用いることができる。   Further, part or all of the processing of the MPU 10 described in the above embodiments may be configured by hardware. The specific configuration is a design matter. Each control process by the MPU 10 is realized by a software program stored in the ROM 7 being supplied to the MPU 10 and operating according to the supplied program. Therefore, the software program itself realizes the functions of the MPU 10, and the program itself constitutes the present invention. A recording medium for storing the program also constitutes the present invention. As a recording medium, besides a flash memory, an optical recording medium such as a CD-ROM or DVD, a magnetic recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used.

さらに、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Furthermore, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

第1実施形態において、本発明が適用されるデジタルカメラの全体ブロック図。1 is an overall block diagram of a digital camera to which the present invention is applied in a first embodiment. 第1実施形態において、撮影範囲の異なる画像撮影を行うブロック全体を説明する図。The figure explaining the whole block which image-shoots from which an imaging range differs in 1st Embodiment. 第1実施形態において、撮像素子3への積分とその読出しのタイミングを示す図。The figure which shows the timing of integration to the image pick-up element 3, and the reading-out in 1st Embodiment. 第1実施形態において、撮影された2つの動画像の再生例を説明する図。The figure explaining the example of reproduction | regeneration of two image | videos image | photographed in 1st Embodiment. 第1実施形態において、第2撮像範囲3tの位置の変更例を示す図。The figure which shows the example of a change of the position of the 2nd imaging range 3t in 1st Embodiment. 第1実施形態において、切出し部の位置を変化させた例を示す図。The figure which shows the example which changed the position of the cutout part in 1st Embodiment. 第1実施形態において、撮影途中での第2撮像範囲3t(切出し部)変更の例を示す図。The figure which shows the example of 2nd imaging range 3t (cutout part) change in the middle of imaging | photography in 1st Embodiment. 第1実施形態において、カメラ1の撮影再生処理を示すフローチャートその1。The flowchart 1 which shows the imaging | photography reproduction | regeneration processing of the camera 1 in 1st Embodiment. 第1実施形態において、カメラ1の撮影再生処理を示すフローチャートその2。FIG. 3 is a flowchart 2 illustrating a shooting / playback process of the camera 1 in the first embodiment. 第1実施形態において、撮影者による切出し位置設定操作を示す図。FIG. 6 is a diagram illustrating a cut-out position setting operation by a photographer in the first embodiment. 第1実施形態において、再生に関する機能を説明するための部分的なブロック図。The partial block diagram for demonstrating the function regarding reproduction | regeneration in 1st Embodiment. 第1実施形態において、再生時の画面表示例を示す図。The figure which shows the example of a screen display at the time of reproduction | regeneration in 1st Embodiment. 第1実施形態において、第1画像Dwと第2画像Dtの画素の関係を説明する図。The figure explaining the relationship of the pixel of the 1st image Dw and the 2nd image Dt in 1st Embodiment. 第1実施形態において、CMOSタイプの撮像素子の回路図。FIG. 3 is a circuit diagram of a CMOS type image sensor in the first embodiment. 第2実施形態において、光学系を中心にしたカメラの主要ブロック図。FIG. 10 is a main block diagram of a camera centering on an optical system in a second embodiment. 第2実施形態において、他の光学系を採用したカメラの主要ブロック図。FIG. 10 is a main block diagram of a camera that employs another optical system in the second embodiment.

符号の説明Explanation of symbols

1…カメラ、2…レンズ、3…撮像素子、3w…第1撮像範囲、3t…第2撮像範囲、4…アナログフロントエンド(AFE)部、4w…第1AFE、4t…第2AFE、5…信号処理部、
5a…補助ブロック、5b…CPU、5c…分離部、5d…映像デコーダ、5e…音声デコーダ、
5f…スーパーインポーズ、6…RAM、
7…ROM、8…表示部、8c…カーソル枠、9…メモリ、9a…補助メモリ、9b…ファイル
10…MPU、11…無線送信、12…プリント信号出力部、13…スピーカ、14…時計部、
15…位置部、16、16a、16b、16c…操作部、16−1…ズーム操作ボタン、
16−2…撮影範囲設定ボタン、16−3…XY操作ボタン、16−3L…左ボタン、
20… 被写体、
41…フォトダイオード、42…増幅トランジスタ、43…負荷トランジスタ、
44…伝送トランジスタ、45…リセットトランジスタ、46…サンプルホールド部(S/H)、
47…平均化部
52w…広角レンズ、52t…狭角レンズ、53…撮像素子、54…アナログフロントエンド(AFE)部、55…信号処理部、
62w…広角レンズ、62t…狭角レンズ、62m…ミラー、62p…プリズムミラー、63…撮像素子、64…アナログフロントエンド(AFE)部、65…信号処理部、
e…矢印、
θw…第1の画角、θt…第2の画角、Dw…第1画像、Dt…第2画像、Pw…第1画像の1画素、Pt…第2画像の1画素、N…画素数


DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Lens, 3 ... Imaging device, 3w ... 1st imaging range, 3t ... 2nd imaging range, 4 ... Analog front end (AFE) part, 4w ... 1st AFE, 4t ... 2nd AFE, 5 ... Signal Processing section,
5a ... auxiliary block, 5b ... CPU, 5c ... separation unit, 5d ... video decoder, 5e ... audio decoder,
5f ... Superimpose, 6 ... RAM,
7 ... ROM, 8 ... display unit, 8c ... cursor frame, 9 ... memory, 9a ... auxiliary memory, 9b ... file 10 ... MPU, 11 ... wireless transmission, 12 ... print signal output unit, 13 ... speaker, 14 ... clock unit ,
15 ... Position part, 16, 16a, 16b, 16c ... Operation part, 16-1 ... Zoom operation button,
16-2 ... Shooting range setting button, 16-3 ... XY operation button, 16-3L ... Left button,
20 ... Subject,
41 ... photodiode, 42 ... amplifying transistor, 43 ... load transistor,
44 ... Transmission transistor, 45 ... Reset transistor, 46 ... Sample hold unit (S / H),
47 ... Averaging unit 52w ... Wide angle lens, 52t ... Narrow angle lens, 53 ... Image sensor, 54 ... Analog front end (AFE) unit, 55 ... Signal processing unit,
62w ... Wide-angle lens, 62t ... Narrow-angle lens, 62m ... Mirror, 62p ... Prism mirror, 63 ... Image sensor, 64 ... Analog front end (AFE) part, 65 ... Signal processing part,
e ... Arrow,
θw: first angle of view, θt: second angle of view, Dw: first image, Dt: second image, Pw: one pixel of the first image, Pt: one pixel of the second image, N: number of pixels


Claims (13)

同じ被写体を含み撮像素子の異なる領域を対象とした複数の被写体像に基づく画像を形成する撮像部と、
上記撮像部で上記複数の画像を形成させるか1つの画像のみを形成させるかを決定する決定部と、
上記撮像部で上記複数の画像を形成するよう決定されたときに、上記撮像部で形成された複数の画像を同時に撮影した複数の動画像または静止画像としてメモリに記録する制御部と、を備える
ことを特徴とするカメラ。
An imaging unit that forms an image based on a plurality of subject images that include the same subject and that target different regions of the imaging element;
A determination unit that determines whether the imaging unit forms the plurality of images or only one image;
A controller that records in the memory as a plurality of moving images or still images obtained by simultaneously capturing the plurality of images formed by the imaging unit when the imaging unit is determined to form the plurality of images. A camera characterized by that.
上記複数の被写体像は異なる画角で捕らえられた被写体像である
ことを特徴とする請求項1に記載のカメラ。
The camera according to claim 1, wherein the plurality of subject images are subject images captured at different angles of view.
上記撮像部は、撮像素子からの読み出し領域の大きさを変えることによって、上記異なる画角で捕らえられた被写体像を得る
ことを特徴とする請求項2に記載のカメラ。
The camera according to claim 2, wherein the imaging unit obtains a subject image captured at the different angle of view by changing a size of a readout region from the imaging device.
被写体像を異なる画角で撮像素子に結像させるために相互に異なる焦点距離のレンズを複数備えた、
ことを特徴とする請求項2に記載のカメラ。
In order to form a subject image on the image sensor at different angles of view, equipped with multiple lenses with different focal lengths,
The camera according to claim 2.
上記撮像部は、異なる画角で捕らえられた被写体像として、撮像素子の1回の露光による信号から、第1の動画像にかかるフレーム画像および第2の動画像にかかるフレーム画像の両方を形成する
ことを特徴とする請求項2に記載のカメラ。
The imaging unit forms both a frame image related to the first moving image and a frame image related to the second moving image from a signal obtained by one exposure of the image sensor as a subject image captured at different angles of view. The camera according to claim 2, wherein:
画像信号を出力する撮像素子と、
この撮像素子の第1撮像範囲から画像を読み出す第1撮像部と、
この撮像素子の上記第1撮像範囲と異なる大きさの第2撮像範囲から画像を読み出す第2撮像部と、
上記第1撮像部のみから読み出すか、または第1撮像部及び第2撮像部の両方から画像を読み出すかを決定する決定部と、
上記第1撮像部及び第2撮像部の両方で画像を読み出すよう決定されたときには、1回の撮像素子の露光につき第1撮像部と第2撮像部による2回の画像読出しを、繰り返し行なわせ、第1撮像部により読み出された画像に基づく第1画像と第2撮像部により読み出された画像に基づく第2画像を2つの動画像としてそれぞれメモリに記録する制御部と、を備える
ことを特徴とするカメラ。
An image sensor that outputs an image signal;
A first imaging unit that reads an image from the first imaging range of the imaging element;
A second imaging unit that reads an image from a second imaging range having a different size from the first imaging range of the imaging element;
A determination unit that determines whether to read from only the first imaging unit or to read an image from both the first imaging unit and the second imaging unit;
When it is determined that both the first image pickup unit and the second image pickup unit read out images, the first image pickup unit and the second image pickup unit repeatedly read out images twice for each exposure of the image pickup device. A control unit that records a first image based on the image read by the first imaging unit and a second image based on the image read by the second imaging unit in the memory as two moving images, respectively. Camera characterized by.
上記第1撮像部と第2撮像部は、撮像素子の同一画素の同一露光による信号を読み出す
ことを特徴とする請求項6に記載のカメラ。
The camera according to claim 6, wherein the first imaging unit and the second imaging unit read signals from the same exposure of the same pixel of the imaging device.
上記第1画像と第2画像の画素数は略等しい画素数である
ことを特徴とする請求項6に記載のカメラ。
The camera according to claim 6, wherein the first image and the second image have substantially the same number of pixels.
上記第1撮像範囲は第2撮像範囲を含む範囲である
ことを特徴とする請求項6に記載のカメラ。
The camera according to claim 6, wherein the first imaging range is a range including a second imaging range.
上記第2撮像部は、指示に応じて上記第2撮像範囲の位置または大きさを変更する
ことを特徴とする請求項9に記載のカメラ。
The camera according to claim 9, wherein the second imaging unit changes a position or a size of the second imaging range in accordance with an instruction.
撮像素子への1回の露光に対して、選択的に撮像素子からの読み出し範囲の大きさを変えた読み出しを複数回行って1回の露光で複数の画像を得て、この操作を繰り返し行い読み出し範囲の異なる複数の動画像を記録する制御部を備えるカメラの決定方法において、
撮影者の指示に基づいて、上記複数の画像を記録させるか1つの画像のみを記録させるかを決定する
ことを特徴とするカメラの決定方法。
For a single exposure to the image sensor, a read operation that selectively changes the size of the read range from the image sensor is performed a plurality of times to obtain a plurality of images in a single exposure, and this operation is repeated. In a method for determining a camera including a control unit that records a plurality of moving images having different readout ranges,
A method for determining a camera, comprising: determining whether to record the plurality of images or only one image based on an instruction from a photographer.
画像信号を出力する撮像素子と、
この撮像素子の第1撮像範囲から画像を読み出す第1撮像部と、
この撮像素子の上記第1撮像範囲と異なる大きさの第2撮像範囲から画像を読み出す第2撮像部と、
上記第1撮像部及び第2撮像部を制御する制御部を備え、
上記制御部は、第2撮像範囲の変更指示があったときは、上記第2撮像範囲変更前の領域と変更後の領域を含む領域の画像を第1撮像部又は第2撮像部に撮影させ、その後変更された第2撮像範囲を第2撮像部により撮影させるよう制御する
ことを特徴とするカメラ。
An image sensor that outputs an image signal;
A first imaging unit that reads an image from the first imaging range of the imaging element;
A second imaging unit that reads an image from a second imaging range having a different size from the first imaging range of the imaging element;
A control unit for controlling the first imaging unit and the second imaging unit;
When there is an instruction to change the second imaging range, the control unit causes the first imaging unit or the second imaging unit to capture an image of an area including the area before the second imaging range change and the area after the change. Then, the camera is controlled to cause the second imaging unit to take an image of the changed second imaging range.
撮像素子の第1撮像範囲から画像を読み出す第1撮像部と、上記第1撮像範囲と異なる大きさの第2撮像範囲から画像を読み出す第2撮像部と、上記第1撮像部及び第2撮像部を制御する制御部を備えカメラの制御方法において、
上記第2撮像範囲の変更指示があったときは、上記第2撮像範囲変更前の領域と変更後の領域を含む領域の画像を第1撮像部又は第2撮像部に撮影させ、その後変更された第2撮像範囲を第2撮像部により撮影させるよう制御する
ことを特徴とするカメラの制御方法。





A first imaging unit that reads an image from the first imaging range of the imaging device, a second imaging unit that reads an image from a second imaging range having a size different from the first imaging range, the first imaging unit, and the second imaging In a camera control method comprising a control unit for controlling the unit,
When there is an instruction to change the second imaging range, the first imaging unit or the second imaging unit is caused to capture an image of an area including the area before the second imaging range change and the area after the change. A control method for a camera, wherein the second imaging range is controlled to be photographed by the second imaging unit.





JP2006081785A 2006-03-23 2006-03-23 Camera, camera determination method, camera control method Expired - Fee Related JP4949709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006081785A JP4949709B2 (en) 2006-03-23 2006-03-23 Camera, camera determination method, camera control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006081785A JP4949709B2 (en) 2006-03-23 2006-03-23 Camera, camera determination method, camera control method

Publications (3)

Publication Number Publication Date
JP2007259155A true JP2007259155A (en) 2007-10-04
JP2007259155A5 JP2007259155A5 (en) 2009-01-29
JP4949709B2 JP4949709B2 (en) 2012-06-13

Family

ID=38632916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006081785A Expired - Fee Related JP4949709B2 (en) 2006-03-23 2006-03-23 Camera, camera determination method, camera control method

Country Status (1)

Country Link
JP (1) JP4949709B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187112A (en) * 2009-02-10 2010-08-26 Nikon Corp Image reproducing device
JP2010187111A (en) * 2009-02-10 2010-08-26 Nikon Corp Image capturing apparatus
JP2010212902A (en) * 2009-03-09 2010-09-24 Brother Ind Ltd Telephone apparatus, image display method, and image display processing program
JP2011066877A (en) * 2009-08-21 2011-03-31 Sanyo Electric Co Ltd Image processing apparatus
CN103248815A (en) * 2012-02-07 2013-08-14 奥林巴斯映像株式会社 Image pickup apparatus and image pickup method
JP2013201603A (en) * 2012-03-26 2013-10-03 Jvc Kenwood Corp Reproducing device, recording and reproducing device, and reproducing method
JP2013214853A (en) * 2012-04-02 2013-10-17 Jvc Kenwood Corp Reproduction apparatus, recording and reproducing apparatus, and reproduction method
US8605191B2 (en) 2009-02-10 2013-12-10 Nikon Corporation Imaging device
US9667872B2 (en) * 2012-12-05 2017-05-30 Hewlett-Packard Development Company, L.P. Camera to capture multiple images at multiple focus positions
JP2018067923A (en) * 2017-11-02 2018-04-26 オリンパス株式会社 Display device, equipment, display method, control method, and program
JP2020513601A (en) * 2016-11-02 2020-05-14 プレシラブズ エスエー Detecting device, positioning code, and position detecting method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5639670B2 (en) 2013-02-01 2014-12-10 浜松ホトニクス株式会社 Image acquisition apparatus and imaging apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078445A (en) * 1998-06-16 2000-03-14 Ricoh Co Ltd Digital camera
JP2001045407A (en) * 1999-08-02 2001-02-16 Fuji Photo Film Co Ltd Image display device and picture photographing device
JP2001078081A (en) * 1999-09-08 2001-03-23 Canon Inc Device and method for picking up image
JP2004266670A (en) * 2003-03-03 2004-09-24 Sony Corp Image pickup device and method, image information providing system and program
JP2004305760A (en) * 2004-05-24 2004-11-04 Pentax Corp Electronic endoscopic apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078445A (en) * 1998-06-16 2000-03-14 Ricoh Co Ltd Digital camera
JP2001045407A (en) * 1999-08-02 2001-02-16 Fuji Photo Film Co Ltd Image display device and picture photographing device
JP2001078081A (en) * 1999-09-08 2001-03-23 Canon Inc Device and method for picking up image
JP2004266670A (en) * 2003-03-03 2004-09-24 Sony Corp Image pickup device and method, image information providing system and program
JP2004305760A (en) * 2004-05-24 2004-11-04 Pentax Corp Electronic endoscopic apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187112A (en) * 2009-02-10 2010-08-26 Nikon Corp Image reproducing device
JP2010187111A (en) * 2009-02-10 2010-08-26 Nikon Corp Image capturing apparatus
US8605191B2 (en) 2009-02-10 2013-12-10 Nikon Corporation Imaging device
US8548128B2 (en) 2009-03-09 2013-10-01 Brother Kogyo Kabushiki Kaisha Telephone apparatus, image display method and image display processing program
JP2010212902A (en) * 2009-03-09 2010-09-24 Brother Ind Ltd Telephone apparatus, image display method, and image display processing program
JP2011066877A (en) * 2009-08-21 2011-03-31 Sanyo Electric Co Ltd Image processing apparatus
CN103248815A (en) * 2012-02-07 2013-08-14 奥林巴斯映像株式会社 Image pickup apparatus and image pickup method
JP2013162425A (en) * 2012-02-07 2013-08-19 Olympus Imaging Corp Imaging apparatus, imaging method, and program
CN106851088A (en) * 2012-02-07 2017-06-13 奥林巴斯株式会社 Camera head, image capture method
JP2013201603A (en) * 2012-03-26 2013-10-03 Jvc Kenwood Corp Reproducing device, recording and reproducing device, and reproducing method
JP2013214853A (en) * 2012-04-02 2013-10-17 Jvc Kenwood Corp Reproduction apparatus, recording and reproducing apparatus, and reproduction method
US9667872B2 (en) * 2012-12-05 2017-05-30 Hewlett-Packard Development Company, L.P. Camera to capture multiple images at multiple focus positions
JP2020513601A (en) * 2016-11-02 2020-05-14 プレシラブズ エスエー Detecting device, positioning code, and position detecting method
JP7103664B2 (en) 2016-11-02 2022-07-20 プレシラブズ エスエー Detection device, positioning code, and position detection method
JP2018067923A (en) * 2017-11-02 2018-04-26 オリンパス株式会社 Display device, equipment, display method, control method, and program

Also Published As

Publication number Publication date
JP4949709B2 (en) 2012-06-13

Similar Documents

Publication Publication Date Title
JP4949709B2 (en) Camera, camera determination method, camera control method
JP5235798B2 (en) Imaging apparatus and control method thereof
JP4724577B2 (en) Imaging apparatus and control method thereof
US8000558B2 (en) Thumbnail generating apparatus and image shooting apparatus
JP4637045B2 (en) Imaging device
JP2006303961A (en) Imaging apparatus
JP2007266659A (en) Imaging reproducing apparatus
JP2007174693A (en) Electronic camera
JP4890918B2 (en) Playback device, playback image selection method, and program
JP2005150952A (en) Image reproducing apparatus and imaging apparatus
JP2009077265A (en) Imaging apparatus
JP4003172B2 (en) Image signal processing apparatus and electronic camera
JP2010050784A (en) Digital camera
JP2014007454A (en) Image pickup device and image pickup method
JP2004186866A (en) Image recording apparatus
JP5300627B2 (en) Imaging apparatus, control method thereof, and program
JP4433297B2 (en) Imaging apparatus and image reproduction apparatus
JP5249078B2 (en) Imaging device
JP2007096809A (en) Imaging apparatus, moving picture storage method, and moving picture storage program
JP2007110221A (en) Imaging apparatus
US8605191B2 (en) Imaging device
JP5556246B2 (en) Imaging device
JP5370662B2 (en) Imaging device
JP2009071464A (en) Camera
JP2008288830A (en) Imaging apparatus and its recording method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4949709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees