JP2007043502A - Image pickup device - Google Patents

Image pickup device Download PDF

Info

Publication number
JP2007043502A
JP2007043502A JP2005225766A JP2005225766A JP2007043502A JP 2007043502 A JP2007043502 A JP 2007043502A JP 2005225766 A JP2005225766 A JP 2005225766A JP 2005225766 A JP2005225766 A JP 2005225766A JP 2007043502 A JP2007043502 A JP 2007043502A
Authority
JP
Japan
Prior art keywords
image
main
sub
image data
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005225766A
Other languages
Japanese (ja)
Inventor
Yensan Huang
顔上 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005225766A priority Critical patent/JP2007043502A/en
Publication of JP2007043502A publication Critical patent/JP2007043502A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display a live dynamic image for photographing and a live dynamic image around it when zooming. <P>SOLUTION: A light image is converted to an electronic signal through a main light reception part to generate main image data, and the light image is converted to an electronic signal through an auxiliary light reception part to generate auxiliary image data. The main image data and the auxiliary image data are stored, and then a main image and an auxiliary image based on these image data are display. In this case, an area corresponding to the main image, of the auxiliary image is emphatically displayed. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、被写体を光学ズーム機能によって拡大撮影する場合に用いて好適な撮像装置に関する。   The present invention relates to an imaging apparatus suitable for use when an object is magnified by an optical zoom function.

従来のデジタルカメラに、ズーム機能が備えられたものがある。ズーム機能を備えるデジタルカメラには、メモリに保存された画像データの一部をデジタルズーム加工して液晶ディスプレイ等に表示するものが知られている(例えば、特許文献1参照)。   Some conventional digital cameras have a zoom function. A digital camera having a zoom function is known in which a part of image data stored in a memory is digitally zoomed and displayed on a liquid crystal display or the like (for example, see Patent Document 1).

特開2004−72206号公報JP 2004-72206 A

上述した技術では、撮像装置に備えられた液晶ディスプレイ等の画面に拡大表示されるライブ動画像は、保持された画像データの一部をデジタルズーム加工したものであるため、画質は著しく落ちてしまう。   In the above-described technology, the live moving image enlarged and displayed on the screen of a liquid crystal display or the like provided in the image pickup apparatus is obtained by digitally zooming a part of the held image data, so that the image quality is significantly deteriorated.

また上述した技術では、ズーム時に、被写体の周りの風景を広範囲に表示しないため、被写体を追跡することが困難であった。   Also, with the above-described technique, it is difficult to track the subject because the landscape around the subject is not displayed in a wide range during zooming.

本発明は、このような従来の実情に鑑みて提案されたものであり、ズーム時に被写体の
画質を損なうことなく、被写体の周辺を広範囲に亘って確認することが可能な撮像装置を提供することを目的とする。
The present invention has been proposed in view of such a conventional situation, and provides an imaging apparatus capable of confirming the periphery of a subject over a wide range without losing the image quality of the subject during zooming. With the goal.

上述した目的を達成するために、本発明に係る撮像装置は、主受光部を介して光像を電子信号に変換し主画像データを生成すると共に、副受光部を介して光像を電子信号に変換し副画像データを生成する。その後、主画像データと副画像データとを記憶した後、これらの画像データに基づく主画像と副画像とを表示する。この際、副画像において、主画像に対応する領域を強調表示する。   In order to achieve the above-described object, an imaging apparatus according to the present invention converts a light image into an electronic signal through a main light receiving unit to generate main image data, and converts the light image into an electronic signal through a sub light receiving unit. To generate sub-image data. Then, after storing the main image data and the sub image data, the main image and the sub image based on these image data are displayed. At this time, an area corresponding to the main image is highlighted in the sub-image.

本発明に係る撮像装置によれば、撮影用レンズ群を有する主受光口に加え、単焦点レンズを有する副受光口を備えて、光学ズームを用いて被写体を拡大した撮影用のライブ動画像と、被写体を枠線内に表示し、さらに被写体の周りの風景をも広範囲に亘って表示するライブ動画像との両方を表示することで、ズーム時の被写体のフレーミングが容易となる。また、ズーム時に、上述した2つのレンズに基づくパララックスを補正することで、デジタルズームで被写体を拡大撮影する場合に比べ、ズーム時の被写体の画質を損なうことなく撮影が可能となる。   According to the image pickup apparatus of the present invention, in addition to the main light receiving port having the shooting lens group, the live light image for shooting that includes the sub light receiving port having the single focus lens and that expands the subject using the optical zoom, and By displaying both the subject within the frame line and the live moving image displaying the landscape around the subject over a wide range, the framing of the subject during zooming is facilitated. In addition, by correcting the parallax based on the above-described two lenses during zooming, shooting can be performed without losing the image quality of the subject during zooming compared to when the subject is zoomed in by digital zoom.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

先ず、本実施の形態の内、第1の実施の形態における撮像装置の外観構成について説明する。   First, the external configuration of the imaging apparatus according to the first embodiment will be described.

第1の実施の形態における撮像装置は、図1の前面模式図に示すように、前面に、変倍レンズ及び合焦用レンズを組み合わせた撮影用レンズ群とシャッタと絞りとを備えた主受光口11と、光学ファインダ12と、内蔵フラッシュ13とを有し、上面にシャッタボタン14を有する。また、前面に、単焦点レンズを備えた副受光口15を有する。   As shown in the schematic front view of FIG. 1, the imaging apparatus according to the first embodiment has a main light receiving unit including a photographing lens group, a shutter, and a stop combined with a variable power lens and a focusing lens on the front surface. It has a mouth 11, an optical viewfinder 12, and a built-in flash 13, and has a shutter button 14 on the upper surface. Moreover, it has the sub light-receiving opening 15 provided with the single focus lens in the front.

また、第1の実施の形態における撮像装置は、図2の背面模式図に示すように、背面に、主受光口11を介して取得した撮影用のライブ動画像である主画像を表示する液晶ディスプレイ21と、光学ファインダ22と、方向キー23と、決定キー24と、撮影用のレンズ群の駆動を指示するズーム制御キー25と、副受光口15を介して取得したライブ動画像である副画像を表示するサブ液晶ディスプレイ27とを備え、サブ液晶ディスプレイ27に表示した副画像の内、枠線26で囲まれた領域に主画像と同一の画像を表示する。   Further, as shown in the schematic rear view of FIG. 2, the imaging device according to the first embodiment is a liquid crystal that displays a main image, which is a live moving image for shooting, acquired through the main light receiving port 11 on the rear surface. A sub-picture which is a live moving image acquired via the display 21, the optical viewfinder 22, the direction key 23, the enter key 24, the zoom control key 25 for instructing driving of the photographing lens group, and the sub light receiving port 15 A sub liquid crystal display 27 for displaying an image, and displays the same image as the main image in a region surrounded by the frame line 26 among the sub images displayed on the sub liquid crystal display 27.

次に、本実施の形態における撮像装置の内部構成について、図3に示すブロック図を参照して説明する。   Next, the internal configuration of the imaging apparatus according to the present embodiment will be described with reference to the block diagram shown in FIG.

撮像装置30は、各部を統括的に制御する主制御部31と、シャッタボタン14、方向キー23、決定キー24等によりユーザから指示が入力される外部操作部32と、取得する画像のタイミングをコントロールするタイミングジェネレータ(TG)33,34とを備える。   The imaging device 30 includes a main control unit 31 that controls each unit in an integrated manner, an external operation unit 32 in which an instruction is input by a user through the shutter button 14, the direction key 23, the determination key 24, and the like, and the timing of an acquired image Timing generators (TG) 33 and 34 to be controlled are provided.

また、撮像装置30は、撮影用レンズ群11aを制御するレンズ制御部35と、シャッタ11cを制御するシャッタ制御部36と、絞り11bを制御する絞り制御部37と、主受光口11を介した光を電子信号に変換するCCD38と、電子信号をA/D変換する変換処理部39と、A/D変換された電子信号の色空間変換等を行う第1信号処理部40と、メインバス41と、画像データを一時的に記憶するSDRAM(Synchronous Dynamic Random Access Memory)42と、SDRAM42へのデータの書き込み/読み出しを制御するメモリ制御部43とを備える。   The imaging device 30 also includes a lens control unit 35 that controls the photographing lens group 11a, a shutter control unit 36 that controls the shutter 11c, an aperture control unit 37 that controls the aperture 11b, and the main light receiving port 11. A CCD 38 that converts light into an electronic signal, a conversion processing unit 39 that performs A / D conversion of the electronic signal, a first signal processing unit 40 that performs color space conversion of the A / D converted electronic signal, and a main bus 41 An SDRAM (Synchronous Dynamic Random Access Memory) 42 that temporarily stores image data, and a memory control unit 43 that controls writing / reading of data to / from the SDRAM 42.

また、撮像装置30は、単焦点レンズ15aと絞り15bとを備えた副受光口15を介した光を電子信号に変換するCCD44と、電子信号をA/D変換する変換処理部45と、A/D変換された電子信号の色空間変換等を行う第2信号処理部46とを備える。   In addition, the imaging device 30 includes a CCD 44 that converts light through the sub light receiving opening 15 including the single focus lens 15a and the diaphragm 15b into an electronic signal, a conversion processing unit 45 that performs A / D conversion of the electronic signal, and A And a second signal processing unit 46 that performs color space conversion of the / D-converted electronic signal.

さらに、撮像装置30は、画像データの符号化等を行う画像処理部47と、液晶ディスプレイ21及びサブ液晶ディスプレイ27における画像表示を制御する表示制御部48と、画像データを格納するメモリカード50への画像データの書き込み/読み出しを制御するカード制御部49とを備える。   Further, the imaging device 30 is supplied to an image processing unit 47 that performs encoding of image data, a display control unit 48 that controls image display on the liquid crystal display 21 and the sub liquid crystal display 27, and a memory card 50 that stores image data. And a card control unit 49 for controlling writing / reading of the image data.

主制御部31は、常に、シャッタボタン等の外部操作部32からの撮影信号の入力を待つ。また、主制御部31は、外部操作部32から撮影信号が入力されると、撮影動作を行うために、TG33と、TG34と、レンズ制御部35と、シャッタ制御部36と、絞り制御部37とを統括的に制御する。   The main control unit 31 always waits for input of a photographing signal from the external operation unit 32 such as a shutter button. In addition, when a photographing signal is input from the external operation unit 32, the main control unit 31 performs a photographing operation in order to perform a photographing operation, such as a TG 33, a TG 34, a lens control unit 35, a shutter control unit 36, and an aperture control unit 37. And overall control.

主受光口11は、撮影用レンズ群11aと、絞り11bと、シャッタ11cとを備え、主画像となる被写体の光が撮影用レンズ群11aに入射されると、絞り11bにより光量が調節される。ここで、撮影用レンズ群11a、シャッタ11c及び絞り11bは、それぞれレンズ制御部35、シャッタ制御部36、及び絞り制御部37に制御されている。   The main light receiving port 11 includes a photographing lens group 11a, a diaphragm 11b, and a shutter 11c. When light of a subject to be a main image enters the photographing lens group 11a, the light amount is adjusted by the diaphragm 11b. . Here, the photographing lens group 11a, the shutter 11c, and the aperture 11b are controlled by a lens control unit 35, a shutter control unit 36, and an aperture control unit 37, respectively.

CCD38は、光像を結像し、この光像を電子信号に変換する。   The CCD 38 forms an optical image and converts the optical image into an electronic signal.

変換処理部39は、CCD38から供給された電子信号の信号増幅、A/D変換及びホワイトバランス制御を行う。   The conversion processing unit 39 performs signal amplification, A / D conversion, and white balance control of the electronic signal supplied from the CCD 38.

第1信号処理部40は、信号増幅、A/D変換及びホワイトバランス制御された電子信号の色空間変換及びノイズ除去を行い、画像データ生成し、この画像データをシステムのメインバス41に供給する。   The first signal processing unit 40 performs color space conversion and noise removal of an electronic signal subjected to signal amplification, A / D conversion and white balance control, generates image data, and supplies the image data to the main bus 41 of the system. .

SDRAM42は、複数のフレームメモリバッファを有する。メモリ制御部43は、システムのメインバス41を介して、画像データをSDRAM42内の特定のフレームメモリバッファに記憶する。   The SDRAM 42 has a plurality of frame memory buffers. The memory control unit 43 stores the image data in a specific frame memory buffer in the SDRAM 42 via the main bus 41 of the system.

一方、副受光口15は、単焦点レンズ15aと絞り15bとを備え、単焦点レンズ15aは、被写体の光が入射される。また、絞り15bは、被写体の光量を調節する。   On the other hand, the sub light receiving port 15 includes a single focus lens 15a and a diaphragm 15b, and the single focus lens 15a receives light of an object. The diaphragm 15b adjusts the amount of light of the subject.

CCD44は、光像を結像し、この光像を電子信号に変換する。   The CCD 44 forms an optical image and converts the optical image into an electronic signal.

変換信号処理部45は、CCD44から供給された電子信号の信号増幅、A/D変換及びホワイトバランス制御を行う。   The conversion signal processing unit 45 performs signal amplification, A / D conversion, and white balance control of the electronic signal supplied from the CCD 44.

第2信号処理部46は、信号増幅、A/D変換及びホワイトバランス制御された電子信号の色空間変換を行い、画像データを生成し、システムのメインバス41にこの画像データを供給する。   The second signal processing unit 46 performs color space conversion of the electronic signal subjected to signal amplification, A / D conversion, and white balance control, generates image data, and supplies the image data to the main bus 41 of the system.

画像処理部47は、システムのメインバス41を介してSDRAM42内にある画像データの拡大、縮小、圧縮符号化、展開等を行う。   The image processing unit 47 performs enlargement, reduction, compression encoding, expansion, and the like of image data in the SDRAM 42 via the system main bus 41.

表示制御部48は、システムのメインバス41を介してSDRAM42内の複数のフレームメモリに展開された撮像データ、ライブ動画像データ、主制御部31によって描画されたGUI(Graphical User Interface)領域の画像データをそれぞれ合成する。また、表示制御部48は、合成した各データを外部出力信号に変換し、画像を液晶ディスプレイ21及びサブ液晶ディスプレイ27に表示する。   The display control unit 48 captures image data, live moving image data developed in a plurality of frame memories in the SDRAM 42 via the main bus 41 of the system, and an image of a GUI (Graphical User Interface) area drawn by the main control unit 31. Each data is synthesized. Further, the display control unit 48 converts each synthesized data into an external output signal, and displays an image on the liquid crystal display 21 and the sub liquid crystal display 27.

カード制御部49は、シャッタボタン14等の外部操作部32から主制御部31に信号が入力されると、システムのメインバス41を介してSDRAM42内にある圧縮された画像データを、カメラ本体に装着されたメモリカード50に保存する。   When a signal is input from the external operation unit 32 such as the shutter button 14 to the main control unit 31, the card control unit 49 transmits the compressed image data in the SDRAM 42 to the camera body via the system main bus 41. The data is stored in the attached memory card 50.

続いて、上述した構成を有する撮像装置30の動作について説明する。   Subsequently, the operation of the imaging device 30 having the above-described configuration will be described.

主制御部31は、シャッタ14等の外部操作部32から信号が入力されない状態では、TG33及びTG34を制御する。   The main control unit 31 controls the TG 33 and the TG 34 when no signal is input from the external operation unit 32 such as the shutter 14.

TG33に制御されたCCD38及び変換処理部39は、主受光口11から取り込まれた光を処理する。変換処理部39は、一定周期で電子信号を第1信号処理部40に供給する。第1信号処理部40からシステムのメインバス41に供給された画像データは、メモリ制御部43により、SDRAM42内のフレームメモリに書き込まれる。   The CCD 38 and the conversion processing unit 39 controlled by the TG 33 process the light taken from the main light receiving port 11. The conversion processing unit 39 supplies an electronic signal to the first signal processing unit 40 at a constant cycle. The image data supplied from the first signal processing unit 40 to the system main bus 41 is written into the frame memory in the SDRAM 42 by the memory control unit 43.

液晶ディスプレイ21の表示解像度は撮影される静止画像よりも低いため、CCD38は、間引きした電子信号を変換処理部39に供給してもよい。SDRAM42は、図4に示すように、制御プログラム用メモリ61、フレームメモリA62、フレームメモリB63、GUI描画領域メモリ64及びイメージ処理用メモリ65といった複数のフレームメモリを有している。フレームメモリA62は、例えば、間引きされた主画像の画像データを2画面分保存できる容量を持つ。主画像の画像データは、このフレームメモリA内の2面のバッファに、交互に書き込まれる。   Since the display resolution of the liquid crystal display 21 is lower than that of the captured still image, the CCD 38 may supply the thinned electronic signal to the conversion processing unit 39. As shown in FIG. 4, the SDRAM 42 has a plurality of frame memories such as a control program memory 61, a frame memory A 62, a frame memory B 63, a GUI drawing area memory 64, and an image processing memory 65. For example, the frame memory A62 has a capacity capable of storing the image data of the thinned main image for two screens. The image data of the main image is alternately written in the two-sided buffer in the frame memory A.

一方、TG34に制御されたCCD44及び変換処理部45は、副受光口15から取り込まれた副画像の光を通過させると、一定周期で電子信号を第2信号処理部46に供給する。第2信号処理部46からシステムのメインバス41に供給された副画像の画像データは、メモリ制御部43により、SDRAM42内のフレームメモリB63に書き込まれる。   On the other hand, when the CCD 44 and the conversion processing unit 45 controlled by the TG 34 pass the light of the sub image taken from the sub light receiving port 15, the electronic signal is supplied to the second signal processing unit 46 at a constant period. The image data of the sub image supplied from the second signal processing unit 46 to the system main bus 41 is written into the frame memory B 63 in the SDRAM 42 by the memory control unit 43.

CCD44は、例えば、間引きした電子信号を変換処理部45に供給する。間引きされた副画像の画像データは、図4に示すフレームメモリB63内の2面のバッファに、交互に書き込まれる。   For example, the CCD 44 supplies the thinned electronic signal to the conversion processing unit 45. The thinned image data of the sub-image is alternately written into the two buffers in the frame memory B63 shown in FIG.

フレームメモリA62及びフレームメモリB63への撮像の書き込みと同時に、表示制御部48は、メモリ制御部43によりフレームメモリA62、フレームメモリB63及びGUI描画領域メモリ64からそれぞれ画像データを読み出す。そして、液晶ディスプレイ21に、フレームメモリA62から読み出した画像データに応じた画像を表示し、サブ液晶ディスプレイ27に、フレームメモリB63から読み出した画像データに応じた画像、及びGUI描画領域メモリ64から読み出した枠線データに応じた枠線26を表示する。   Simultaneously with the writing of imaging to the frame memory A62 and the frame memory B63, the display control unit 48 reads image data from the frame memory A62, the frame memory B63, and the GUI drawing area memory 64 by the memory control unit 43, respectively. Then, an image corresponding to the image data read from the frame memory A 62 is displayed on the liquid crystal display 21, and an image corresponding to the image data read from the frame memory B 63 and the GUI drawing area memory 64 are read on the sub liquid crystal display 27. A frame line 26 corresponding to the frame data is displayed.

また、主制御部31は、CCD38とCCD44との画格の違い、及びレンズ群11aに設定されているズーム倍率から、サブ液晶ディスプレイ27上に表示される副画像における主画像と同一画像の範囲を示す枠線26の大きさを計算する。また、主制御部31は、SDRAM42上のGUI描画領域メモリ64の枠線データに基づいて、この枠線26の表示を行う。   Further, the main control unit 31 determines the range of the same image as the main image in the sub image displayed on the sub liquid crystal display 27 from the difference in image quality between the CCD 38 and the CCD 44 and the zoom magnification set in the lens group 11a. Is calculated. Further, the main control unit 31 displays the frame line 26 based on the frame line data in the GUI drawing area memory 64 on the SDRAM 42.

上述したように、撮像装置30は、主受光口11を介して主画像を取得すると共に、副受光口15を介して副画像を取得することができる。また、撮像装置30は、サブ液晶ディスプレイ27上で、枠線26に囲まれた主画像と、この主画像である被写体の周りの画像とを共に表示することによって、ズーム撮影時に、被写体の追跡をより容易に行うことが可能となる。   As described above, the imaging device 30 can acquire the main image through the main light receiving port 11 and can acquire the sub image through the sub light receiving port 15. The imaging device 30 also displays the main image surrounded by the frame line 26 on the sub liquid crystal display 27 and the image around the subject that is the main image, thereby tracking the subject during zoom shooting. Can be performed more easily.

ここで、主制御部31が行うサブ液晶ディスプレイ27上に枠線26を表示する方法について、図5のフローチャートを示して説明する。   Here, a method of displaying the frame line 26 on the sub liquid crystal display 27 performed by the main control unit 31 will be described with reference to the flowchart of FIG.

主制御部31は、常に、外部操作部32のズーム制御入力を待つ状態(キー入力受付状態)になっている(ステップS71)。   The main control unit 31 is always in a state of waiting for a zoom control input from the external operation unit 32 (key input acceptance state) (step S71).

主制御部31は、ステップS72において外部操作部32のズーム制御の入力があったか否かを判断し、ズーム制御入力があった場合は、ステップS73に進みズームレンズ制御を行う。一方、ズーム制御入力がない場合は、キー入力受付状態(ステップS71)に戻る。   In step S72, the main control unit 31 determines whether or not there has been a zoom control input from the external operation unit 32. If there is a zoom control input, the main control unit 31 proceeds to step S73 and performs zoom lens control. On the other hand, if there is no zoom control input, the process returns to the key input acceptance state (step S71).

主制御部31は、ステップS73においてズームレンズの制御を行い、その結果、ズーム倍率nを取得する(ステップS74)。   The main control unit 31 controls the zoom lens in step S73, and as a result, acquires the zoom magnification n (step S74).

ステップS75において、主制御部31は、ズーム倍率nと以前のズーム倍率とを比較する。ズーム倍率nが以前のズーム倍率と比較して変動がある場合は、ステップS76に進む。一方、ステップS75において、これ以上のズームが不可能な状態である場合、ズーム倍率nは以前のズーム倍率と比較して変動がないので、キー入力受付状態(ステップS71)に戻る。   In step S75, the main control unit 31 compares the zoom magnification n with the previous zoom magnification. If the zoom magnification n varies compared to the previous zoom magnification, the process proceeds to step S76. On the other hand, if it is determined in step S75 that no further zooming is possible, the zoom magnification n does not vary compared to the previous zoom magnification, and the process returns to the key input acceptance state (step S71).

ステップS76において、主制御部31は、ズーム倍率が1倍より大きいかどうかを判断する。ズーム倍率が1倍より大きい場合は、枠線26を表示するために、ステップS77に進む。一方、ズーム倍率が1倍である場合は、枠線26を表示する必要がないので、ステップS80において枠線26を消去し、ステップS71のキー入力受付状態に戻る。   In step S76, the main control unit 31 determines whether or not the zoom magnification is greater than 1. When the zoom magnification is larger than 1, the process proceeds to step S77 in order to display the frame line 26. On the other hand, when the zoom magnification is 1, it is not necessary to display the frame line 26. Therefore, the frame line 26 is deleted in step S80, and the process returns to the key input acceptance state in step S71.

主制御部31は、ステップS77において枠線26の縦及び横の長さを計算する。ここで、枠線26の縦及び横の長さとサブ液晶ディスプレイ27の縦及び横の長さとの関係は、サブ液晶ディスプレイ27の縦及び横の長さをそれぞれH及びWとし、枠線26の縦及び横の長さをそれぞれHs及びWsとすると、Hs=H/n,Ws=W/nである。すなわち、ズーム倍率nに対応して枠線26の大きさを変えることにより、サブ液晶ディスプレイ27に表示された副画像における液晶ディスプレイ21の表示領域を変えることができる。   The main control unit 31 calculates the vertical and horizontal lengths of the frame line 26 in step S77. Here, the vertical and horizontal lengths of the frame line 26 and the vertical and horizontal lengths of the sub liquid crystal display 27 are set such that the vertical and horizontal lengths of the sub liquid crystal display 27 are H and W, respectively. When the vertical and horizontal lengths are Hs and Ws, respectively, Hs = H / n and Ws = W / n. In other words, the display area of the liquid crystal display 21 in the sub-image displayed on the sub liquid crystal display 27 can be changed by changing the size of the frame line 26 corresponding to the zoom magnification n.

主制御部31は、主画像と副画像とにはパララックスが生じるため、ステップS78においてパララックス補正値を算出する。   Since the parallax occurs between the main image and the sub-image, the main control unit 31 calculates a parallax correction value in step S78.

主制御部31は、パララックス補正値が表示解像度に影響を与える大きさである場合、液晶ディスプレイ21に表示される主画像とサブ液晶ディスプレイ27に表示される副画像とのパララックスを補正し、枠線26を表示する。一方、パララックス補正値が表示解像度に影響を与えない大きさである場合、このパララックスを補正せずに枠線26を表示する(ステップS79)。その後、主制御部31は、キー入力受付状態(ステップS71)に戻る。   When the parallax correction value has a magnitude that affects the display resolution, the main control unit 31 corrects the parallax between the main image displayed on the liquid crystal display 21 and the sub-image displayed on the sub liquid crystal display 27. The frame line 26 is displayed. On the other hand, when the parallax correction value has a size that does not affect the display resolution, the frame line 26 is displayed without correcting the parallax (step S79). Thereafter, the main control unit 31 returns to the key input acceptance state (step S71).

ここで、ステップS78において、主制御部31がパララックス補正値を算出する方法について、図6を示しながら説明する。   Here, a method in which the main control unit 31 calculates the parallax correction value in step S78 will be described with reference to FIG.

主制御部31は、レンズ制御部35、シャッタ制御部36及び絞り制御部37から取得されたDf、θ、θ、Dm及びDsを用いてパララックス補正値を算出する。 The main control unit 31 calculates a parallax correction value using Df, θ 1 , θ 2 , Dm, and Ds acquired from the lens control unit 35, the shutter control unit 36, and the aperture control unit 37.

Dfは、被写体距離に相当する光学系1のピント距離であり、ズーム時に変動する。また、θは光学系1の画角でありズーム時に変動する。また、θは光学系2の画角であり変動しない。Dmは光学系1の第1主点と光学系2の第1主点とのずれであり、ズーム時に変動する。また、Dsは2レンズ中心間距離であり、カメラ筐体設計時に決まる固定値である。 Df is the focus distance of the optical system 1 corresponding to the subject distance, and fluctuates during zooming. Θ 1 is the angle of view of the optical system 1 and fluctuates during zooming. Θ 2 is the angle of view of the optical system 2 and does not vary. Dm is a deviation between the first principal point of the optical system 1 and the first principal point of the optical system 2 and fluctuates during zooming. Ds is the distance between the centers of the two lenses, and is a fixed value determined when the camera housing is designed.

先ず、主制御部31は、光学系1から見た被写体の幅Wを以下の式(1)により算出する。 First, the main control unit 31 calculates the width W 1 of the subject viewed from the optical system 1 by the following equation (1).

=Df×tan(θ/2)×2・・・(1)
また、主制御部31は、光学系2から見た被写体の幅Wを以下の式(2)により算出する。
W 1 = Df × tan (θ 1/2) × 2 ··· (1)
Further, the main control unit 31 calculates the width W2 of the subject viewed from the optical system 2 by the following equation (2).

=(Df+Dm)×tan(θ/2)×2・・・(2)
次に、主制御部31は、式(1)及び式(2)を用いて、パララックス距離Dpを以下の式(3)により算出する。
W 2 = (Df + Dm) × tan (θ 2/2) × 2 ··· (2)
Next, the main control part 31 calculates the parallax distance Dp by the following formula | equation (3) using Formula (1) and Formula (2).

Dp=Ds+W/2−W/2・・・(3)
この式(3)によって算出されたパララックス距離Dpと光学系2から見た被写体の幅Wとの比をパララックス補正率Nとする。
Dp = Ds + W 2 / 2-W 1/2 (3)
The ratio between the parallax distance Dp calculated by the equation (3) and the width W 2 of the subject viewed from the optical system 2 is defined as a parallax correction factor N.

N=Dp/W・・・(4)
主制御部31は、液晶ディスプレイの表示解像度が幅Wd×高さHdの場合、パララックス補正値を、以下の式(5)により算出する。
N = Dp / W 2 (4)
When the display resolution of the liquid crystal display is width Wd × height Hd, the main control unit 31 calculates a parallax correction value by the following equation (5).

パララックス補正値=Wd×N・・・(5)
この式(5)によって算出されたパララックス補正値が1より大きい場合は、補正を行い、パララックス補正値が1以下である場合は、補正を行わない。
Parallax correction value = Wd × N (5)
When the parallax correction value calculated by the equation (5) is larger than 1, correction is performed, and when the parallax correction value is 1 or less, correction is not performed.

ここで示す図6は、レンズ間の横の位置のパララックス補正値を算出する場合の図であるが、レンズ間の縦の位置の補正値は、Dsの値を置き換えて同じ数式を使用すればよい。   FIG. 6 shown here is a diagram in the case of calculating the parallax correction value of the horizontal position between the lenses. For the correction value of the vertical position between the lenses, the same formula is used by replacing the value of Ds. That's fine.

主制御部31は、上述した手順によって算出したパララックス補正値を用いて2つのレンズ間で撮影した画像間に生じるパララックスを補正することにより、ズーム時の被写体の画質を高品質にすることが可能となる。   The main control unit 31 corrects the parallax generated between the images taken between the two lenses using the parallax correction value calculated by the above-described procedure, thereby improving the image quality of the subject during zooming. Is possible.

上述した第1の実施の形態では、撮像装置30の背面に、主画像を表示する液晶ディスプレイ21と副画像を表示するサブ液晶ディスプレイ27とを有しているが、第2の実施の形態として、撮像装置30と基本構造が等しく、図7に示すように、主画像と副画像とを、同一の液晶ディスプレイに表示する撮像装置を提供することも可能である。その際、フレームメモリA62及びフレームメモリB63への画像の書き込みと同時期に、表示制御部48は、メモリ制御部43を使って、フレームメモリA62、フレームメモリB63及びGUI描画領域メモリ64から画像データを転送し、3つの画像データをミックスして液晶ディスプレイ21に表示する。画像データのミックスには多様な方法が考えられるが、最も単純な方法として、フレームメモリA62、フレームメモリB63、GUI描画領域メモリ64の順に重ね合わせて表示を行う方法がある。   In the first embodiment described above, the liquid crystal display 21 that displays the main image and the sub liquid crystal display 27 that displays the sub image are provided on the back surface of the imaging device 30, but as a second embodiment, It is also possible to provide an imaging device that has the same basic structure as the imaging device 30 and displays the main image and the sub-image on the same liquid crystal display as shown in FIG. At this time, the display control unit 48 uses the memory control unit 43 to write image data from the frame memory A 62, the frame memory B 63, and the GUI drawing area memory 64 at the same time as the image writing to the frame memory A 62 and the frame memory B 63. The three image data are mixed and displayed on the liquid crystal display 21. Various methods are conceivable for mixing image data. As the simplest method, there is a method in which the frame memory A 62, the frame memory B 63, and the GUI drawing area memory 64 are superimposed and displayed in this order.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

例えば、上述した実施の形態では、光学ズームの倍率制御用として、撮像装置30の背面にズーム制御キー25が設置されているが、撮像装置の前面に備えられた撮影用レンズ群11aの側面に、手動で動かすズームリングを設置してもよい。   For example, in the above-described embodiment, the zoom control key 25 is installed on the back surface of the imaging device 30 for controlling the magnification of the optical zoom, but on the side surface of the photographing lens group 11a provided on the front surface of the imaging device. A zoom ring that can be moved manually may be installed.

また、上述した実施の形態では、副受光口15に単焦点レンズ15aを設置しているが、単焦点レンズ15aのみではなく、より広角に画像を取り込める魚眼レンズを設置してもよい。この場合、魚眼レンズで撮影される画像と主受光口11に取り込まれる画像との大きさの比較計算を行い、枠線26の長さを決定する。   In the above-described embodiment, the single focus lens 15a is installed in the sub light receiving port 15. However, not only the single focus lens 15a but also a fisheye lens capable of capturing an image at a wider angle may be installed. In this case, the size of the frame 26 is determined by performing a comparative calculation of the size of the image captured by the fisheye lens and the image captured by the main light receiving opening 11.

本実施の形態における撮像装置の前面模式図である。It is a front schematic diagram of the imaging device in the present embodiment. 本実施の形態における撮像装置の背面模式図である。It is a back surface schematic diagram of the imaging device in this Embodiment. 本実施の形態における撮像装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the imaging device in this Embodiment. SDRAMが有する複数のフレームメモリを示した図である。It is the figure which showed the some frame memory which SDRAM has. 主制御部が行う枠線の表示の手順を示したフローチャートである。It is the flowchart which showed the procedure of the display of the frame line which a main control part performs. 2つの光学系と被写体との位置関係を示した図である。It is the figure which showed the positional relationship of two optical systems and a to-be-photographed object. 本実施の形態における撮像装置の背面模式図である。It is a back surface schematic diagram of the imaging device in this Embodiment.

符号の説明Explanation of symbols

11 主受光口、11a 撮影用レンズ群、11b 絞り、11c シャッタ、12 光学ファインダ、13 内臓フラッシュ、14 シャッタボタン、15 副受光口、15a 単焦点レンズ、15b 絞り、21 液晶ディスプレイ、22 光学ファインダ、23 方向キー、24 決定キー、25 ズーム制御キー、26 枠線、27 サブ液晶ディスプレイ、30 撮像装置、31 主制御部、32 外部操作部、33 TG、34 TG、35 レンズ制御部、36 シャッタ制御部、37 絞り制御部、38 CCD、39 変換処理部、40 第1信号処理部、41 メインバス、42 SDRAM、43 メモリ制御部、44 CCD、45 変換処理部、46 第2信号処理部、47 画像処理部、48 表示制御部、49 カード制御部、50 メモリカード、61 制御プログラム用メモリ、62 フレームメモリA、63 フレームメモリB、64 GUI描画領域メモリ、65 イメージ処理用メモリ DESCRIPTION OF SYMBOLS 11 Main light-receiving opening, 11a Shooting lens group, 11b Aperture, 11c Shutter, 12 Optical finder, 13 Built-in flash, 14 Shutter button, 15 Sub-light-receiving opening, 15a Single focus lens, 15b Aperture, 21 Liquid crystal display, 22 Optical finder, 23 Direction key, 24 Enter key, 25 Zoom control key, 26 Frame line, 27 Sub liquid crystal display, 30 Imaging device, 31 Main control unit, 32 External operation unit, 33 TG, 34 TG, 35 Lens control unit, 36 Shutter control 37, aperture control unit, 38 CCD, 39 conversion processing unit, 40 first signal processing unit, 41 main bus, 42 SDRAM, 43 memory control unit, 44 CCD, 45 conversion processing unit, 46 second signal processing unit, 47 Image processing unit, 48 display control unit, 49 card control unit, 50 meg Memory card, 61 control program memory, 62 frame memory A, 63 frame memory B, 64 GUI drawing area memory, 65 image processing memory

Claims (3)

ズームレンズを有する主受光部と単焦点レンズを有する副受光部とを備える撮像装置であって、
上記主受光部を介して光像を電子信号に変換し、主画像データを生成する第1の画像生成手段と、
上記副受光部を介して光像を電子信号に変換し、副画像データを生成する第2の画像生成手段と、
上記主画像データと上記副画像データとを記憶する記憶手段と、
上記記憶手段に記憶された上記主画像データに基づく主画像と、上記副画像データに基づく副画像とを表示する表示手段とを備え、
上記表示手段は、上記副画像内の上記主画像に対応する領域を強調表示することを特徴とする撮像装置。
An imaging apparatus comprising a main light receiving unit having a zoom lens and a sub light receiving unit having a single focus lens,
A first image generating means for converting a light image into an electronic signal through the main light receiving unit and generating main image data;
A second image generating means for converting a light image into an electronic signal via the sub light receiving unit and generating sub image data;
Storage means for storing the main image data and the sub-image data;
Display means for displaying a main image based on the main image data stored in the storage means and a sub image based on the sub image data;
The image pickup apparatus, wherein the display means highlights an area corresponding to the main image in the sub-image.
上記表示手段は、上記主画像と上記副画像とを別々の表示部に表示することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the display unit displays the main image and the sub-image on separate display units. 上記表示手段は、上記主画像と上記副画像とを同一の表示部に表示することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the display unit displays the main image and the sub-image on the same display unit.
JP2005225766A 2005-08-03 2005-08-03 Image pickup device Withdrawn JP2007043502A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005225766A JP2007043502A (en) 2005-08-03 2005-08-03 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005225766A JP2007043502A (en) 2005-08-03 2005-08-03 Image pickup device

Publications (1)

Publication Number Publication Date
JP2007043502A true JP2007043502A (en) 2007-02-15

Family

ID=37801063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005225766A Withdrawn JP2007043502A (en) 2005-08-03 2005-08-03 Image pickup device

Country Status (1)

Country Link
JP (1) JP2007043502A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009034678A1 (en) * 2007-09-10 2009-03-19 Nikon Corporation Imaging device and image processing program
US8823857B2 (en) 2011-04-21 2014-09-02 Ricoh Company, Ltd. Image apparatus
JP2017175635A (en) * 2017-04-28 2017-09-28 オリンパス株式会社 Imaging apparatus and imaging method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009034678A1 (en) * 2007-09-10 2009-03-19 Nikon Corporation Imaging device and image processing program
JP2009071375A (en) * 2007-09-10 2009-04-02 Nikon Corp Imaging apparatus and image processing program
US20110187879A1 (en) * 2007-09-10 2011-08-04 Nikon Corporation Imaging device and image processing program
US8823857B2 (en) 2011-04-21 2014-09-02 Ricoh Company, Ltd. Image apparatus
JP2017175635A (en) * 2017-04-28 2017-09-28 オリンパス株式会社 Imaging apparatus and imaging method

Similar Documents

Publication Publication Date Title
KR101391042B1 (en) Image processing device capable of generating wide-range image
JP5764740B2 (en) Imaging device
JP5363157B2 (en) Imaging device and live view display method
JP5950678B2 (en) Imaging apparatus, control method, and program
US8963993B2 (en) Image processing device capable of generating wide-range image
JP2008252508A (en) Imaging device and photographing method
JP2011199565A (en) Imaging device and program
JP2009225072A (en) Imaging apparatus
JP5578442B2 (en) Imaging apparatus, image composition method, and program
JP2012065173A (en) Imaging apparatus
JP5100410B2 (en) Imaging apparatus and control method thereof
JP2011035752A (en) Imaging apparatus
JP2007043502A (en) Image pickup device
JP2010245691A (en) Compound-eye imaging device
JP2007214620A (en) Image processing apparatus, image processing method, and program
JP4001233B2 (en) Panorama shooting method and image processing apparatus and image pickup apparatus capable of using the method
JP2013135408A (en) Imaging apparatus
JP2013135409A (en) Imaging apparatus
JP2011109693A (en) Imaging device
JP2006238085A (en) Digital camera and program
JP5696525B2 (en) Imaging apparatus, imaging method, and program
JP2011142644A (en) Imaging apparatus
JP5370662B2 (en) Imaging device
JP2012080296A (en) Imaging device, and photographing range display control method
JP2024036872A (en) Imaging device, imaging method, program and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081007