JP5266701B2 - Imaging apparatus, subject separation method, and program - Google Patents

Imaging apparatus, subject separation method, and program Download PDF

Info

Publication number
JP5266701B2
JP5266701B2 JP2007250951A JP2007250951A JP5266701B2 JP 5266701 B2 JP5266701 B2 JP 5266701B2 JP 2007250951 A JP2007250951 A JP 2007250951A JP 2007250951 A JP2007250951 A JP 2007250951A JP 5266701 B2 JP5266701 B2 JP 5266701B2
Authority
JP
Japan
Prior art keywords
image
focus
focus position
subject
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007250951A
Other languages
Japanese (ja)
Other versions
JP2009081786A (en
Inventor
和久 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007250951A priority Critical patent/JP5266701B2/en
Publication of JP2009081786A publication Critical patent/JP2009081786A/en
Application granted granted Critical
Publication of JP5266701B2 publication Critical patent/JP5266701B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus, a subject separating method, and a program capable of separating, from a background, a subject that secures a space with a depth. <P>SOLUTION: When a photographer designates an address position of a club head of a subject 51 as an A point (focus position closest to the photographer) and designates focus positions thereafter in order from the side closest to the photographer like B point and C point as illustrated in Fig. 2(b), a digital camera segments a space 52 between A and C, extracts an edge portion for separating the subject 51 surrounded with the focus positions A, B and C and separates a background and the subject 51. <P>COPYRIGHT: (C)2009,JPO&amp;INPIT

Description

本発明は、デジタルカメラ等の撮像装置におけるフォーカス領域の自動調整及び被写体分離技術に関する。   The present invention relates to a focus area automatic adjustment and subject separation technique in an imaging apparatus such as a digital camera.

従来のデジタルカメラで撮影した画像をパソコンに送信若しくは入力し、パソコン側で撮影画像を取り込んだ後、その画像を加工する技術や画像全体を変形する技術が知られている。また、パソコン上で、取り込んだ撮影画像の背景から主要被写体を分離する技術や画像に絵や文字を追記できるという技術も知られている。   There are known techniques for transmitting or inputting an image taken with a conventional digital camera to a personal computer and capturing the captured image on the personal computer side, and then processing the image or transforming the entire image. In addition, a technique for separating a main subject from a background of a captured image captured on a personal computer and a technique for adding a picture or a character to an image are also known.

また、デジタルカメラで画像を撮影し、その撮影画像の背景から主要被写体を切り出す技術として、CCDとCCDの出力信号を処理する信号処理部の間に低周波フィルタを設けることにより、画像の背景からの主要被写体の分離を可能としたものがある(例えば、特許文献1参照)。   In addition, as a technique for capturing an image with a digital camera and extracting a main subject from the background of the captured image, a low-frequency filter is provided between the CCD and the signal processing unit that processes the output signal of the CCD, thereby eliminating the background of the image. Can be separated from the main subject (see, for example, Patent Document 1).

同特許文献1には、 絞りを開放にし、適正露出になるようにシャッタスピードを設定し、所望の被写体に合焦させ撮影し、得られた画像信号を低周波遮断フィルタに通し、所望の被写体の画像(信号)を得るように構成したデジタルカメラが開示されており、このデジタルカメラを構成する撮像手段は、レンズ、絞り、シャッターなどを含み、入力された光を撮像部上に投射する。撮像部は、CCDであり、光信号を電気信号へ変換する。低周波遮断フィルタは、両者の間にあって、光信号の低周波成分を遮断する。これにより、ボケた領域の画像情報を低周波遮断フィルタを使ってカットし、主要被写体(合焦した被写体)を背景から切り出す技術が開示されている。   In Patent Document 1, the aperture is opened, the shutter speed is set so as to obtain an appropriate exposure, the desired subject is focused, and the obtained image signal is passed through a low-frequency cutoff filter. A digital camera configured to obtain the image (signal) is disclosed, and an imaging unit that configures the digital camera includes a lens, a diaphragm, a shutter, and the like, and projects input light onto the imaging unit. The imaging unit is a CCD and converts an optical signal into an electrical signal. The low frequency cutoff filter is between the two and blocks the low frequency component of the optical signal. Accordingly, a technique is disclosed in which image information of a blurred area is cut using a low-frequency cutoff filter, and a main subject (a focused subject) is cut out from the background.

しかし、同特許文献1の技術では、デジタルカメラに新たにハードウエア(低周波遮断フィルタ)を設けなければならない点と、切り出した画像が主要被写体だけを含んでいるとは限らないという不具合があった。   However, the technique disclosed in Patent Document 1 has a problem that a new hardware (low-frequency cutoff filter) must be provided in the digital camera and that a cut-out image does not always include only the main subject. It was.

これに対し、低周波遮断フィルタ等のハードウェアを設けることなくデジタルカメラで画像を撮影し、その撮影画像の背景から主要被写体を切り出す技術として、抽出手段が被写体抽出を実施する際には、撮影条件制御手段によって撮像条件を制御して、被写体抽出に適した画像を撮像手段から取得する(抽出手段は、注目領域抽出、輪郭抽出を経て、画像中で合焦した被写体だけを抽出する)。この時、抽出手段の抽出結果によっては、さらにフィードバックをかけ、撮像条件を変更する。抽出した被写体像を第2の画像を背景として合成することによって、新たな合成写真を得る技術が開示されている。   On the other hand, as a technique for taking an image with a digital camera without providing hardware such as a low-frequency cutoff filter and extracting a main subject from the background of the taken image, when the extraction means performs subject extraction, The imaging condition is controlled by the condition control means, and an image suitable for subject extraction is acquired from the imaging means (the extraction means extracts only the focused subject in the image through attention area extraction and contour extraction). At this time, depending on the extraction result of the extraction means, further feedback is applied to change the imaging condition. A technique for obtaining a new composite photograph by combining an extracted subject image with a second image as a background is disclosed.

上記特許文献2に記載の発明のポイントは、同特許文献2の段落「0049」に記載のように、「撮像条件制御手段102によって、被写体抽出に最適な画像を得るために、撮像条件を制御できることに有り、さらに、抽出結果によってはそのフィードバックによって撮像条件を再度変更可能な点である。撮像条件を変更することによって、被写体抽出に容易な画像を取得することができる」点にあり、更に、同特許文献2の段落「0050」、「0051」に記載のように、「一般に、望遠側で絞りを開放して撮影すると、被写界深度が浅くなり、ピントが合う奥行きの距離が短くなる。被写界深度の深い画像において、絞りを開放して被写界深度を浅くすると、ピントが合っている奥行きが小さくなり、被写体だけにピントが合い、背景はボケた画像となる。」、「このような画像であれば、比較的少ない計算量で、背景から被写体を抽出することが容易となり、すなわち、デジタルカメラなどの乏しいハードウェアであっても実装可能である。」という点にある。
特開平10−260462号公報 特開平2006−128754号公報
The point of the invention described in Patent Document 2 is that, as described in the paragraph “0049” of Patent Document 2, “the imaging condition control means 102 controls the imaging conditions in order to obtain an optimal image for subject extraction. Furthermore, depending on the extraction result, the imaging condition can be changed again by feedback. By changing the imaging condition, an image can be easily obtained for subject extraction. As described in paragraphs “0050” and “0051” of Patent Document 2, “Generally, when the aperture is opened on the telephoto side, the depth of field becomes shallower and the distance of the focus is short. In an image with a deep depth of field, if you open the aperture and reduce the depth of field, the depth of focus decreases, and only the subject is focused. "If it is such an image, it will be easy to extract the subject from the background with a relatively small amount of calculation, that is, it can be implemented even with scarce hardware such as a digital camera." Is. "
JP-A-10-260462 JP 2006-128754 A

しかしながら、上記特許文献2に記載の技術では、上述した、同特許文献2の段落「0050」、「0051」の記載および同文献2の請求項3の「請求項1記載の撮像装置であって、前記撮像条件は、絞り、シャッター速度、感度を含み、これら3つのパラメータを撮影して得られる画像の被写界深度が浅くなるよう制御することを特徴とする撮像装置」とあることから明らかなように、抽出する被写体の被写界深度は浅くなるように制御されているので抽出される被写体には奥行きのある空間が確保されないといった不具合があった。   However, in the technique described in Patent Document 2, the above-described paragraphs “0050” and “0051” of Patent Document 2 and “Image capturing apparatus according to Claim 1” of Claim 3 of Patent Document 2 are described. The imaging conditions include an aperture, a shutter speed, and sensitivity, and the imaging apparatus is characterized in that control is performed so that the depth of field of an image obtained by photographing these three parameters is shallow. As described above, since the depth of field of the subject to be extracted is controlled to be shallow, there is a problem in that a deep space cannot be secured for the subject to be extracted.

本発明は、撮影時に、フォーカス位置を複数指定することで被写界深度を調整し、奥行きのある空間を確保した被写体像を背景から分離可能な撮像装置、フォーカス領域の自動調整による被写体分離方法、およびプログラムの提供を目的とする。   The present invention relates to an imaging apparatus capable of adjusting a depth of field by specifying a plurality of focus positions at the time of shooting and separating a subject image securing a deep space from a background, and a subject separation method by automatically adjusting a focus area And for the purpose of providing a program.

上記課題を解決するために、請求項1記載の発明は、被写体像を取り込んで画像データに変換し、撮影時に被写体像をスルー表示する撮像系を備えた撮像装置において、スルー表示されている画像の中から所望の被写体の一部分をフォーカス位置として複数指定するフォーカス位置指定手段と、前記フォーカス位置指定手段によって指定された複数のフォーカス位置のうち、フォーカスレンズの位置において撮像素子に近い方のフォーカス位置から順に当該フォーカスレンズを移動させて合焦し、順次複数のフォーカス位置に対応する部分のエッジを検出すべく、絞り値を調節する絞り調整手段と、前記絞り調整手段による調整に応じて出力される高周波成分であるエッジを検出し、前記フォーカス位置指定手段によって複数指定されたフォーカス位置全てについて前記エッジを検出できる被写界深度を取得する被写界深度取得手段と、撮影指示を検出すると、前記撮像系から取り込んだ撮影画像と前記フォーカス位置指定手段によって指定された全てのフォーカス位置を関連付けてメモリに記録する画像記録手段と、再生指示を検出すると、前記メモリに記録されていた画像を再生して表示すると共にその画像に関連付けられているフォーカス位置を取り出す画像再生手段と、画像再生手段によって表示された画像について、前記取り出されたフォーカス位置に基づいて被写体像を特定し、フィルタリングにより走査してエッジを取得するフィルタリング手段と、前記フィルタリング手段により取得したエッジより外側の領域を低周波成分領域として、前記背景と前記被写体像の境界を画定して表示する境界表示手段と、を備えたことを特徴とする。 In order to solve the above-mentioned problem, the invention described in claim 1 is a through-displayed image in an imaging apparatus having an imaging system that captures a subject image, converts it into image data, and displays the subject image through during shooting. a focus position specifying means specifying multiple portions of the desired object as a focus position from among the among the plurality of focus positions specified by the focus position specifying means, the focus position closer to the imaging element in the position of the focus lens In order to detect the edges of the portions corresponding to a plurality of focus positions in sequence, the focus lens is moved in order from the focus lens, and an aperture adjustment unit that adjusts the aperture value is output in accordance with the adjustment by the aperture adjustment unit. that detects the edge is a high-frequency component, has a plurality of specified by the focus position specifying means follower A depth of field obtaining means for obtaining a depth of field that can detect the edge of all Kas position, when detecting the photographing instruction, all designated as captured photographed images from the imaging system by the focus position specifying means Image recording means for associating a focus position and recording in a memory; and image reproduction means for reproducing and displaying an image recorded in the memory and retrieving a focus position associated with the image when a reproduction instruction is detected; A filtering unit that identifies a subject image based on the extracted focus position and acquires an edge by scanning through an image displayed by the image reproducing unit; and an area outside the edge acquired by the filtering unit. As the low frequency component region, the background and the subject image And boundary display means for displaying defining a field, characterized by comprising a.

また、請求項に記載の発明は請求項に記載の発明において、外部からの指示を検出すると、前記メモリに記憶されている撮像画像と関連付けて、前記背景から分離された被写体像を記憶させるよう制御する記録制御手段と、を更に備えたことを特徴とする。
According to a second aspect of the present invention, in the first aspect of the invention, when an instruction from the outside is detected, a subject image separated from the background is stored in association with the captured image stored in the memory. And a recording control means for controlling the recording to be performed.

請求項3に記載の発明は、被写体像を取り込んで画像データに変換し、撮影時に被写体像をスルー表示する撮像系を備えた撮像装置において、スルー表示されている画像の中から所望の被写体の一部分をフォーカス位置として複数指定するフォーカス位置指定ステップと、前記フォーカス位置指定ステップによって指定された複数のフォーカス位置のうち、フォーカスレンズの位置において撮像素子に近い方のフォーカス位置から順に当該フォーカスレンズを移動させて合焦し、順次複数のフォーカス位置に対応する部分のエッジを検出すべく、絞り値を調節する調整ステップと、前記調整ステップによる調整に応じて出力される高周波成分であるエッジを検出し、前記フォーカス位置指定ステップによって複数指定されたフォーカス位置全てについて前記エッジを検出できる被写界深度を取得する被写界深度取得ステップと、撮影指示を検出すると、前記撮像系から取り込んだ撮影画像と前記フォーカス位置指定ステップによって指定された全てのフォーカス位置を関連付けてメモリに記録する画像記録ステップと、再生指示を検出すると、前記メモリに記録されていた画像を再生して表示すると共にその画像に関連付けられているフォーカス位置を取り出す画像再生ステップと、画像再生ステップによって表示された画像について、前記取り出されたフォーカス位置に基づいて被写体像を特定し、フィルタリングにより走査してエッジを取得するフィルタリングステップと、前記フィルタリングステップによって取得したエッジより外側の領域を低周波成分領域として、前記背景と前記被写体像の境界を画定して表示する境界表示ステップと、を含むことを特徴とする。 According to a third aspect of the present invention, in an imaging apparatus having an imaging system that captures a subject image, converts it into image data, and displays the subject image through at the time of shooting, a desired subject is selected from the through-displayed images. A focus position designating step for designating a plurality of parts as a focus position, and moving the focus lens in order from the focus position closer to the image sensor at the focus lens position among the plurality of focus positions designated by the focus position designating step. In order to detect the edges of the portions corresponding to a plurality of focus positions in sequence, an adjustment step for adjusting the aperture value and an edge that is a high-frequency component output in accordance with the adjustment in the adjustment step are detected. , All the focus positions specified by the focus position specifying step A depth of field obtaining step of obtaining depth of field capable of detecting the edge for, when detecting the photographing instruction, all of the focus position designated by the focus position designating step and the captured photographed images from the imaging system An image recording step for associating and recording in the memory; an image reproduction step for reproducing and displaying the image recorded in the memory and detecting a focus position associated with the image when a reproduction instruction is detected; and image reproduction For the image displayed by the step, a subject image is specified based on the extracted focus position, and a filtering step for acquiring an edge by scanning by filtering, and a region outside the edge acquired by the filtering step is a low frequency region. As the component region, the back Characterized in that it comprises a boundary display step of displaying to define the boundaries of the object image with.

請求項4に記載の発明は、被写体像を取り込んで画像データに変換し、撮影時に被写体像をスルー表示する撮像系を備えた撮像装置のコンピュータを制御するためのプログラムであって、前記コンピュータを、スルー表示されている画像の中から所望の被写体の一部分をフォーカス位置として複数指定するフォーカス位置指定手段、前記フォーカス位置指定手段によって指定された複数のフォーカス位置のうち、フォーカスレンズの位置において撮像素子に近い方のフォーカス位置から順に当該フォーカスレンズを移動させて合焦し、順次複数のフォーカス位置に対応する部分のエッジを検出すべく、絞り値を調節する絞り調整手段、前記絞り調整手段による調整に応じて出力される高周波成分であるエッジを検出し、前記フォーカス位置指定手段によって複数指定されたフォーカス位置全てについて前記エッジを検出できる被写界深度を取得する被写界深度取得手段、撮影指示を検出すると、前記撮像系から取り込んだ撮影画像と前記フォーカス位置指定手段によって指定された全てのフォーカス位置を関連付けてメモリに記録する画像記録手段、再生指示を検出すると、前記メモリに記録されていた画像を再生して表示すると共にその画像に関連付けられているフォーカス位置を取り出す画像再生手段、画像再生手段によって表示された画像について、前記取り出されたフォーカス位置に基づいて被写体像を特定し、フィルタリングにより走査してエッジを取得するフィルタリング手段、前記フィルタリング手段により取得したエッジより外側の領域を低周波成分領域として、前記背景と前記被写体像の境界を画定して表示する表示手段、として機能させる。 According to a fourth aspect of the present invention, there is provided a program for controlling a computer of an image pickup apparatus having an image pickup system that takes in a subject image, converts it into image data, and displays the subject image through during shooting. , the focus position specifying means for specifying multiple portions of the desired object as a focus position from among the images being through display, among the plurality of focus positions specified by the focus position specifying means, the image pickup element at the position of the focus lens In order to detect the edges of the portions corresponding to a plurality of focus positions, the aperture adjustment means for adjusting the aperture value in order to move the focus lens in order from the focus position closest to the position, and the adjustment by the aperture adjustment means Detecting an edge which is a high-frequency component output in response to the focus position finger Depth of field acquisition means for acquiring a depth of field that can detect the edge of all the plurality specified focus position by means, upon detecting the photographing instruction, by the the captured photographed images from the imaging system focus position specifying means Image recording means for associating all designated focus positions and recording them in the memory. When a reproduction instruction is detected, the image recorded in the memory is reproduced and displayed, and the focus position associated with the image is extracted. An image reproducing unit, a filtering unit that identifies a subject image based on the extracted focus position and acquires an edge by scanning by filtering, and an outside of the edge acquired by the filtering unit. As the low frequency component area, Display means for displaying to define the boundaries of the serial background and the object image, to function as a.

本発明によれば、撮影時に、フォーカスエリアを複数指定し、被写体の距離がカメラに
最も近い側から最も遠い位置の範囲で絞りなどを自動で調整し被写体の被写界深度を確保するので、被写体を奥行きを持った空間として認識でき、被写体と背景のエッジを検出し、被写体像を背景から分離することができる。また、動画や連写時にも応用が可能である。
一例を挙げれば、図2に示すようなゴルフスイングを撮影する場合、背景や周囲の人などにより被写体全体が認識しにくいが、本発明を適用すると、被写体の被写界深度が確保されるので、奥行きのある空間を確保した被写体像を分離することができることから、背景から分離(切り出す)ことで被写体像を浮き立たせることができる。
According to the present invention, at the time of shooting, a plurality of focus areas are specified, and the subject's distance is automatically adjusted in the range of the farthest position from the side closest to the camera to ensure the depth of field of the subject. The subject can be recognized as a space having a depth, the edges of the subject and the background can be detected, and the subject image can be separated from the background. It can also be applied to moving images and continuous shooting.
For example, when shooting a golf swing as shown in FIG. 2, it is difficult to recognize the entire subject due to the background or surrounding people, but applying the present invention ensures the depth of field of the subject. Since a subject image with a deep space can be separated, the subject image can be raised by separating (cutting out) from the background.

本発明の実施形態に係わる撮像装置の一実施例として用いるデジタルカメラの電子回路の構成例を示すブロック図である。図1で、デジタルカメラ100は、基本モードである撮影モードにおいて、ズームレンズ12−1を移動させて光学ズーム動作を行わせるズーム駆動部11−1、フォーカスレンズ12−2を移動させて合焦動作を行わせるAF駆動部11−2、ズームレンズ12−1及びフォーカスレンズ12−2を含む撮像レンズを構成するレンズ光学系12、撮像素子であるCCD13、タイミング発生器(TG)14、垂直ドライバ15、サンプルホールド回路(S/H)16、A/D変換器17、カラープロセス回路18、DMA(Direct Memory Access)コントローラ19、DRAMインターフェイス(I/F)20、DRAM21、制御部22、VRAMコントローラ23、VRAM24、デジタルビデオエンコーダ25、表示部26、JPEG回路27、保存メモリ28、被写体分離部29、およびキー入力部30を備えている。   1 is a block diagram illustrating a configuration example of an electronic circuit of a digital camera used as an example of an imaging apparatus according to an embodiment of the present invention. In FIG. 1, the digital camera 100 is in focus by moving the zoom lens 12-1 and the focus lens 12-2 for moving the zoom lens 12-1 and performing the optical zoom operation in the photographing mode which is the basic mode. An AF driving unit 11-2 that performs an operation, a lens optical system 12 that constitutes an imaging lens including a zoom lens 12-1 and a focus lens 12-2, a CCD 13 that is an imaging element, a timing generator (TG) 14, and a vertical driver 15. Sample hold circuit (S / H) 16, A / D converter 17, color process circuit 18, DMA (Direct Memory Access) controller 19, DRAM interface (I / F) 20, DRAM 21, control unit 22, VRAM controller 23, VRAM 24, digital video encoder 25, display unit 26, JPEG circuit 7, storage memory 28, and a subject separation unit 29 and the key input unit 30,.

撮影モードでのモニタリング状態においては、ズーム駆動部11−1は、光学ズーム指示があると制御部22からの制御信号に基づいて図示しないズームレンズ駆動モータを駆動してズームレンズ12−1を光軸に沿って前後に移動させることによりCCD13に結像させる画像の倍率そのものを変化させる。   In the monitoring state in the photographing mode, when there is an optical zoom instruction, the zoom drive unit 11-1 drives a zoom lens drive motor (not shown) based on a control signal from the control unit 22 to light the zoom lens 12-1. By moving back and forth along the axis, the magnification itself of the image formed on the CCD 13 is changed.

AF駆動部11−2は図示しないフォーカスレンズ駆動モータを駆動してフォーカスレンズ12−2を移動させる。   The AF drive unit 11-2 drives a focus lens drive motor (not shown) to move the focus lens 12-2.

そして、上記撮像レンズを構成する光学系12の撮影光軸後方に配置された撮像素子であるCCD13が、タイミング発生器(TG)14、垂直ドライバ15によって走査駆動され、一定周期毎に結像した光像に対応する光電変換出力を1フレーム分出力する。   Then, the CCD 13, which is an image pickup device disposed behind the photographing optical axis of the optical system 12 constituting the image pickup lens, is scanned and driven by a timing generator (TG) 14 and a vertical driver 15, and images are formed at regular intervals. A photoelectric conversion output corresponding to the optical image is output for one frame.

CCD13は被写体の二次元画像を撮像する固体撮像デバイスであり、典型的には毎秒数十フレームの画像を撮像する。なお、撮像素子はCCDに限定されずCMOS(Complementary Metal Oxide Semiconductor)などの固体撮像デバイスでもよい。   The CCD 13 is a solid-state imaging device that captures a two-dimensional image of a subject, and typically captures an image of several tens of frames per second. The imaging element is not limited to a CCD, and may be a solid-state imaging device such as a CMOS (Complementary Metal Oxide Semiconductor).

この光電変換出力は、アナログ値の信号の状態でRGBの各原色成分毎に適宜ゲイン調整された後に、サンプルホールド回路(S/H)16でサンプルホールドされ、A/D変換器17でデジタルデータ(画素)に変換され、カラープロセス回路18で画像補間処理及びγ補正処理を含むカラープロセス処理が行われて、デジタル値の輝度信号Y及び色差信号Cb、Crが生成され、DMA(Direct Memory Access)コントローラ19に出力される。   The photoelectric conversion output is appropriately gain-adjusted for each primary color component of RGB in the state of an analog value signal, sampled and held by a sample hold circuit (S / H) 16, and digital data by an A / D converter 17. Color process processing including image interpolation processing and γ correction processing is performed in the color processing circuit 18 to generate a luminance signal Y and color difference signals Cb and Cr, and the DMA (Direct Memory Access). ) Is output to the controller 19.

DMAコントローラ19は、カラープロセス回路18の出力する輝度信号Y及び色差信号Cb、Crを、同じくカラープロセス回路18からの複合(composite)同期信号、メモリ書き込みイネーブル信号、及びクロック信号を用いてDRAMインターフェイス(I/F)20を介してバッファメモリとして使用されるDRAM21にDMA転送する。   The DMA controller 19 uses the luminance signal Y and the color difference signals Cb and Cr output from the color process circuit 18 by using the composite synchronization signal, the memory write enable signal, and the clock signal from the color process circuit 18 as well as a DRAM interface. DMA transfer is performed via the (I / F) 20 to the DRAM 21 used as a buffer memory.

制御部22は、このデジタルカメラ100全体の制御動作を司るものであり、CPU若しくはMPU(以下、CPU)と、後述するような複数合焦点指定による被写体分離プログラムを含む該CPUで実行される動作プログラム等を格納したプログラム格納メモリ、及びワークメモリとして使用されるRAM等により構成され、上記輝度及び色差信号のDRAM21へのDMA転送終了後に、この輝度及び色差信号をDRAMインターフェイス20を介してDRAM21から読出し、VRAMコントローラ23を介してVRAM24に書込む。   The control unit 22 is responsible for the overall control operation of the digital camera 100, and is executed by the CPU or MPU (hereinafter referred to as CPU) and the CPU including a subject separation program with multiple focal point designation as described later. A program storage memory storing programs and the like, and a RAM used as a work memory, and after the DMA transfer of the luminance and color difference signals to the DRAM 21 are completed, the luminance and color difference signals are transferred from the DRAM 21 via the DRAM interface 20. Read and write to the VRAM 24 via the VRAM controller 23.

制御部22は、また、キー入力部30からの状態信号に対応してフラッシュメモリ等のプログラム格納用メモリに格納されている各モードに対応の処理プログラムやメニューデータを取り出して、デジタルカメラ100の各機能の実行制御、例えば、本発明に基づく複数合焦点指定による被写体分離動作や、光学ズーム時のズームレンズの動作制御や、電子ズームや、スルー表示、自動合焦、撮影、記録、及び記録した画像の再生・表示等の実行制御等や機能選択時の機能選択メニューの表示制御、設定画面の表示制御等を行う。   The control unit 22 also extracts a processing program and menu data corresponding to each mode stored in a program storage memory such as a flash memory in response to the status signal from the key input unit 30, and Execution control of each function, for example, subject separation operation by multiple focal point designation according to the present invention, operation control of the zoom lens at the time of optical zoom, electronic zoom, through display, automatic focusing, shooting, recording, and recording The execution control such as reproduction / display of the selected image, the display control of the function selection menu when selecting the function, the display control of the setting screen, and the like are performed.

例えば、制御部22は、ユーザによって指定されたフォーカスエリア(合焦領域)のうち、もっとも手前のフォーカスエリアから最も奥のフォーカスエリア間の空間を切り出し、手前のフォーカスエリアに合焦させながら、指定された全てのフォーカスエリアにエッジが検出できる被写界深度を確保する。   For example, the control unit 22 cuts out the space between the deepest focus area from the frontmost focus area from the focus area (focus area) designated by the user, and specifies the focus area while focusing on the front focus area. The depth of field is secured so that the edges can be detected in all the focus areas.

デジタルビデオエンコーダ25は、上記輝度及び色差信号をVRAMコントローラ23を介してVRAM24から定期的に読み出し、これらのデータを基にビデオ信号を生成して上記表示部26に出力する。   The digital video encoder 25 periodically reads the luminance and color difference signals from the VRAM 24 via the VRAM controller 23, generates a video signal based on these data, and outputs the video signal to the display unit 26.

表示部26は、上述したように撮影モード時にはモニタ表示部(電子ファインダ)として機能するもので、デジタルビデオエンコーダ25からのビデオ信号に基づいた表示を行うことで、その時点でVRAMコントローラ23から取込んでいる画像情報に基づく画像をリアルタイムに液晶モニタ画面に表示することになる。   As described above, the display unit 26 functions as a monitor display unit (electronic finder) in the shooting mode. By performing display based on the video signal from the digital video encoder 25, the display unit 26 receives from the VRAM controller 23 at that time. The image based on the stored image information is displayed on the liquid crystal monitor screen in real time.

制御部22は合焦指示に応じてその時点でCCD13から取込んでいる1フレーム分の輝度及び色差信号のDRAM21へのDMA転送の終了後、直ちにCCD13からのDRAM21への経路を停止し、記録保存の状態に遷移する。   In response to the focus instruction, the controller 22 immediately stops the path from the CCD 13 to the DRAM 21 after the completion of the DMA transfer of the luminance and color difference signals for one frame that are being fetched from the CCD 13 to the DRAM 21 at that time. Transition to saved state.

この保存記録の状態では、制御部22がDRAM21に書込まれている1フレーム分の輝度及び色差信号をDRAMインターフェイス20を介してY、Cb、Crの各コンポーネント毎に縦8画素×横8画素の基本ブロックと呼称される単位で読み出してJPEG(Joint Photograph cording Experts Group)回路27に書込み、このJPEG回路27でADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換)、エントロピー符号化方式であるハフマン符号化等の処理によりデータ圧縮する。そして得た符号データを1画像のデータファイルとしてJPEG回路27から読出し、保存メモリ28に記録保存する。また、1フレーム分の輝度及び色差信号の圧縮処理及び保存メモリ28への全圧縮データの書込み終了に伴って、制御部22はCCD13からDRAM21への経路を再び起動する。   In this stored recording state, the control unit 22 transmits the luminance and color difference signals for one frame written in the DRAM 21 through the DRAM interface 20 to each of Y, Cb, and Cr components of 8 pixels × 8 pixels horizontally. Are read in units called basic blocks and written into a JPEG (Joint Photograph Cording Experts Group) circuit 27. The JPEG circuit 27 uses ADCT (Adaptive Discrete Cosine Transform), a Huffman code which is an entropy coding system. Data compression is performed by processing such as conversion. The obtained code data is read out from the JPEG circuit 27 as a data file of one image, and is recorded and stored in the storage memory 28. In addition, the controller 22 activates the path from the CCD 13 to the DRAM 21 again with the completion of the compression processing of the luminance and color difference signals for one frame and the writing of all the compressed data to the storage memory 28.

また、基本モードである再生モード時には、制御部22が保存メモリ28に記録されている画像データを選択的に読出し、JPEG回路27で画像撮影モード時にデータ圧縮した手順とまったく逆の手順で圧縮されている画像データを伸張し、伸張した画像データをVRAMコントローラ23を介してVRAM24に展開して記憶させた上で、このVRAM24から定期的に読出し、これらの画像データを元にビデオ信号を生成して表示部26で再生出力させる。   In the playback mode, which is the basic mode, the control unit 22 selectively reads out the image data recorded in the storage memory 28, and is compressed by a procedure completely opposite to the procedure of data compression in the image shooting mode by the JPEG circuit 27. The expanded image data is decompressed, the decompressed image data is expanded and stored in the VRAM 24 via the VRAM controller 23, and then periodically read out from the VRAM 24 to generate a video signal based on the image data. The display unit 26 reproduces and outputs.

上記JPEG回路27は複数の圧縮率に対応しており、圧縮率に対応させて記憶するモードには圧縮率の低い高解像度(一般に、高精細、ファイン、ノーマルなどと呼ばれる)に対応するモードと圧縮率の高い低解像度(一般にエコノミーなどと呼ばれる)モードがある。また、高画素数から低画素数にも対応している。   The JPEG circuit 27 supports a plurality of compression ratios, and a mode for storing data corresponding to the compression ratio includes a mode corresponding to a high resolution (generally called high definition, fine, normal, etc.) with a low compression ratio. There is a low-resolution (commonly called economy) mode with a high compression rate. It also supports high to low pixel counts.

保存メモリ28は、内蔵メモリ(フラッシュメモリ)やハードディスク、あるいは着脱可能なメモリカード等の記録媒体からなり画像データや撮影情報等を保存記録する。   The storage memory 28 includes a recording medium such as a built-in memory (flash memory), a hard disk, or a removable memory card, and stores and records image data, photographing information, and the like.

被写体分離部29は、撮像レンズにより結像された被写体像の画像データ、つまり、カラープロセス回路18の出力からハイパスフィルタを用いてエッジ(高周波成分)を取り出す。そして、制御部22が、ユーザによって指定された全てのフォーカスエリアにエッジが検出できる被写界深度を確保すると、背景と被写体像とを分離するためのエッジ部分を抽出し、境界エリアをライン(線分)化して表示する。例えば画面の端から中央に向かってエッジを探し検出エッジより外側のエリアは低周波成分として、消去又は編集対象とする。被写体分離部29は、ハイパスフィルタの閾値を予め登録したフィルタテーブルを変更することにより、被写体に合わせエッジ(高周波成分)が検出可能なように調整する。フィルタテーブルとしては例えば特開2001−215404号公報に記載されているようなものを採用することができる。   The subject separation unit 29 extracts an edge (high frequency component) from the image data of the subject image formed by the imaging lens, that is, from the output of the color process circuit 18 using a high-pass filter. When the control unit 22 secures a depth of field at which edges can be detected in all the focus areas designated by the user, an edge portion for separating the background and the subject image is extracted, and the boundary area is defined as a line ( Display as a line). For example, an edge is searched from the edge of the screen toward the center, and an area outside the detected edge is set as a low-frequency component to be erased or edited. The subject separation unit 29 adjusts so that an edge (high frequency component) can be detected according to the subject by changing the filter table in which the threshold value of the high-pass filter is registered in advance. As the filter table, for example, a filter table described in JP-A-2001-215404 can be employed.

キー入力部30は、モードダイアル2、カーソルキー5、SETキー6、ズームボタン、シャッターキー8、および電源ボタン9と、キーが操作されると操作されたキーの操作信号を生成して制御部22に送出するキー処理部(図示せず)等から構成されている。   The key input unit 30 generates the operation signal of the mode dial 2, the cursor key 5, the SET key 6, the zoom button, the shutter key 8, and the power button 9, and the operated key when the key is operated. 22 includes a key processing unit (not shown) to be sent to 22.

シャッターキー8は、撮影時にレリーズ操作を行うもので、2段階のストロークを有しており、1段目の操作(半押し状態)でオートフォーカス(AF)と自動露出(AE)を行わせるための合焦指示信号を発生し、2段目の操作(全押し状態)で撮影処理を行うための撮影指示信号を発生する。なお、「被写体分離モード」が選択された場合は1段目の操作(半押し状態)を行っても合焦指示信号は発生されない。   The shutter key 8 performs a release operation at the time of shooting, has a stroke of two steps, and performs auto focus (AF) and automatic exposure (AE) by the first step operation (half-pressed state). And a shooting instruction signal for performing a shooting process in the second-stage operation (fully pressed state). When the “subject separation mode” is selected, the focus instruction signal is not generated even if the first stage operation (half-pressed state) is performed.

<実施形態1>
(撮影時にリアルタイムで被写体像を分離する場合)
本実施形態で、デジタルカメラ100はプログラム格納メモリまたは保存メモリ100に被写体分離部29でフィルタリングの際に用いるフィルタテーブルを複数格納しているものとする。フィルタテーブルには絞り値に応じたハイパスフィルタの値が設定されている。なお、設定値は各フィルタテーブル毎に異なっている。
<Embodiment 1>
(When separating subject images in real time during shooting)
In this embodiment, it is assumed that the digital camera 100 stores a plurality of filter tables used for filtering by the subject separation unit 29 in the program storage memory or the storage memory 100. A high-pass filter value corresponding to the aperture value is set in the filter table. The set value is different for each filter table.

本実施形態では、撮影時、つまり、スルー画像表示時にユーザが複数のフォーカスポイントを指定すると、デジタルカメラ100は、指定したフォーカスポイントの全てでエッジが検出できる被写界深度を確保し、被写体分離部29は背景と分離するためのエッジ部分を抽出し、境界エリアをリアルタイムでライン化して表示する。例えば画面の端から中央に向かってエッジを探し検出エッジより外側のエリアは低周波成分として、消去又は編集対象とする。   In the present embodiment, when the user designates a plurality of focus points at the time of shooting, that is, when a through image is displayed, the digital camera 100 secures a depth of field that can detect an edge at all of the designated focus points, and subjects are separated. The unit 29 extracts an edge portion for separation from the background, and displays the boundary area in a line in real time. For example, an edge is searched from the edge of the screen toward the center, and an area outside the detected edge is set as a low-frequency component to be erased or edited.

図2は、本発明に基づく複数合焦点指定による被写体分離方法の説明図であり、ゴルフスイングを例としている。
図2(a)で、撮影者が、被写体51のクラブヘッドのアドレス位置をA点(最も手前のフォーカス位置(合焦点))として指定し、以下、図2(b)に示すように、手前から順に、B点(クラブを振り上げたときのグリップ位置)、C点(クラブを振り上げたときのクラブヘッド位置)とフォーカス位置を指定する。図示の例では、C点が予想される最も奥の点となるが、指定するフォーカス位置は3点に限定されない。つまり、少なくとも、奥行きを確保するために最も手前の部分と最も後ろの部分の2点の指定は必須であるが、2点以上の複数の点を指定できる。
FIG. 2 is an explanatory diagram of a subject separation method based on designation of multiple focal points according to the present invention, taking a golf swing as an example.
In FIG. 2A, the photographer designates the address position of the club head of the subject 51 as point A (the closest focus position (focusing point)), and hereinafter, as shown in FIG. In this order, point B (grip position when the club is raised), point C (club head position when the club is raised), and focus position are designated. In the example shown in the figure, the point C is the most probable point, but the designated focus position is not limited to three points. That is, at least two points of the foremost part and the rearmost part are indispensable for securing the depth, but a plurality of points of two or more points can be designated.

図2の例ではA点が最も手前のフォーカス位置、C点が最も奥のフォーカス位置であり、撮影者がフォーカス位置指定終了操作(例えば、SETキー6の押し下げ)を行うと、デジタルカメラ100はA−C間の空間52を切り出す。A−C間の切り出し空間52は被写界深度を示す。   In the example of FIG. 2, point A is the foremost focus position, point C is the foremost focus position, and when the photographer performs a focus position designation end operation (for example, pressing the SET key 6), the digital camera 100 A space 52 between A and C is cut out. A cut-out space 52 between A and C indicates the depth of field.

フォーカス位置は、被写体分離モードにおいて、スルー画像が表示されているときに、撮影者がスルー画像中でフォーカス位置として指定したい部分がカメラの中心に表示される合焦枠内に収まるようにしてからシャッターキー8を半押し操作することにより指定できる。また、SETキー6の押し下げをフォーカス位置指定終了操作とすることができる。フォーカス位置の指定は、背景から分離したい被写体像の一番手前と思われる部分(図2の例ではA点)から順に指定し、最も奥と思われる部分((図2の例ではC点)の指定を終えるとフォーカス位置指定終了操作を行うようにする。この場合、シャッターキー8の半押し操作を行っても合焦指示信号は発生されない。合焦指示信号はフォーカス位置指定終了操作を行った後になされるシャッターキー8の半押し操作によって発生する。   The focus position is set so that when the through image is displayed in the subject separation mode, the portion that the photographer wants to specify as the focus position is within the focusing frame displayed at the center of the camera. This can be specified by half-pressing the shutter key 8. Further, pressing down the SET key 6 can be a focus position designation end operation. The focus position is specified in order from the most likely part of the subject image to be separated from the background (point A in the example of FIG. 2), and the most likely part (point C in the example of FIG. 2). When the designation of the focus position is finished, the focus position designation end operation is performed, and in this case, the focus instruction signal is not generated even if the shutter key 8 is pressed halfway. This occurs when the shutter key 8 is pressed halfway after that.

なお、フォーカス位置の指定方法は上述した方法(つまり、背景から分離したい被写体の一番手前と思われる部分から順に指定し、最も奥と思われる部分までを指定する方法)に限定されない。
例えば、被写体がカメラ中央に位置することを前提にして、周辺部の低周波数エリアから順にフォーカスエリアを指定するようにしてもよい。
Note that the method for specifying the focus position is not limited to the above-described method (that is, a method for designating in order from the most likely part of the subject to be separated from the background and specifying the most likely part).
For example, on the assumption that the subject is located in the center of the camera, the focus area may be designated in order from the low frequency area in the peripheral portion.

実施例では上述したようにフォーカス位置の指定をシャッターキー8を半押し操作でおこない、SET6キーの押し下げをフォーカス位置指定終了操作でおこなうとしたがこれに限定されない。例えば、フォーカス位置の指定をカーソルキー5の操作、指定確認をSETキー6の押し下げ操作、フォーカス位置指定終了操作をシャッターキー8の半押し操作(同時に合焦指示信号が発生する)としてもよい。   In the embodiment, as described above, the focus position is specified by half-pressing the shutter key 8 and the SET6 key is pressed by the focus position specifying end operation. However, the present invention is not limited to this. For example, the focus position designation may be the operation of the cursor key 5, the designation confirmation may be a depression operation of the SET key 6, and the focus position designation end operation may be a half-press operation of the shutter key 8 (at the same time, a focusing instruction signal is generated).

また、上記フォーカス位置の指定の際、指定された部分を枠で囲んだり、強調表示して、撮影者に指定済みフォーカス位置がわかり易いようにすることが望ましい。
更に、フォーカス位置が指定されると、フォーカスレンズ12−2を移動させると共に通常のAF動作を行なう場合と同様に評価値を取得し、液晶モニタ画面4に表示されている指定済みフォーカス位置のうち合焦ポイントが近似しているフォーカス位置毎に略同一色の合焦枠を表示するようにして被写界深度が同じ範囲内であるか否かを示すようにしてもよい。
Further, when the focus position is designated, it is desirable that the designated portion is surrounded by a frame or highlighted so that the photographer can easily understand the designated focus position.
Furthermore, when the focus position is designated, the focus lens 12-2 is moved and an evaluation value is acquired in the same manner as when performing a normal AF operation, and among the designated focus positions displayed on the liquid crystal monitor screen 4, It is also possible to display whether or not the depth of field is within the same range by displaying a focusing frame of substantially the same color for each focus position where the focusing point is approximate.

なお、背景とフォーカス位置を囲む枠の色が略同じ場合は枠が見えないので枠の色を背景の色とは異なるようにしてもよい。背景によって色を変える方法として公知の方法、例えば、設計上、予め設定されている合焦枠の色と背景との色の近似度を求めて、近い場合は色を変えるようにする方法を用いることができる。色はデータの色成分で決まるので、色の識別は可能であり、例えば枠線の周囲の画素の色の平均値と枠線の色を比較し、所定値より近かったら第2の色に変更することができる。   Note that if the color of the frame surrounding the background and the focus position is substantially the same, the frame cannot be seen, so the frame color may be different from the background color. A publicly known method for changing the color depending on the background, for example, a method of obtaining the degree of approximation of the color of the focusing frame set in advance by design and the color of the background, and changing the color when they are close is used. be able to. Since the color is determined by the color component of the data, it is possible to identify the color. For example, the average value of the color of the pixels around the frame line is compared with the color of the frame line, and if it is closer than the predetermined value, it is changed to the second color can do.

図3は、撮影時(スルー画像表示中)に被写体像を分離する場合の、複数合焦点指定による被写体分離プログラムの制御による制御部22および被写体分離部29の動作例を示すフローチャートである。以下、図1〜図3を基に説明する。なお、ステップS5で用いるフィルタテーブルは最初のループでは標準値を設定した標準テーブルが用いられ、次のループからは制御部22によって指定されたテーブルが用いられる。   FIG. 3 is a flowchart illustrating an operation example of the control unit 22 and the subject separation unit 29 under the control of the subject separation program by specifying a plurality of in-focus points when the subject image is separated at the time of shooting (through image display). Hereinafter, a description will be given based on FIGS. As the filter table used in step S5, a standard table in which standard values are set is used in the first loop, and a table specified by the control unit 22 is used from the next loop.

図3で、撮影者が電源ボタン9を操作して主電源をオンにし、モードダイアル1を操作して撮影モードに設定すると、制御部22はスルー画像の表示を開始するようにデジタルカメラ100の各構成部分を制御してスルー画像を表示させると共に、撮影モードの種類選択用のメニュー(図示せず)を表示して撮影モードの選択を促し、撮影者が「被写体分離モード」を選択するとステップS2に進み、「被写体分離モード」以外の撮影モードが選択されると選択された撮影モードの処理に進む(ステップS1)。   In FIG. 3, when the photographer operates the power button 9 to turn on the main power supply and operates the mode dial 1 to set the photographing mode, the control unit 22 causes the digital camera 100 to start displaying a through image. Control each component to display a through image and display a menu (not shown) for selecting a shooting mode type to prompt the user to select a shooting mode. When the photographer selects “Subject Separation Mode”, a step Proceeding to S2, when a photographing mode other than the “subject separation mode” is selected, the processing proceeds to the selected photographing mode (step S1).

撮影者はスルー画像中で背景から分離(切り取り)したい空間の範囲を上述したようにシャッターキー8の半押し操作により、複数のフォーカス位置を指定することにより指定し(図2参照)、指定が終わるとフォーカス位置指定終了操作を行うので、制御部22は、指定されたフォーカス位置(例えば、画面上の座標値)をDRAM20に順次記憶し、フォーカス位置指定終了操作を検出するとステップS3に進む。なお、この際、制御部22は指定されたフォーカス位置を枠で囲んで明示するように表示部26を制御する(ステップS2)。   The photographer designates the range of the space to be separated (cut out) from the background in the through image by designating a plurality of focus positions by half-pressing the shutter key 8 as described above (see FIG. 2). Since the focus position designation end operation is performed after the end, the control unit 22 sequentially stores the designated focus position (for example, coordinate values on the screen) in the DRAM 20, and proceeds to step S3 when the focus position designation end operation is detected. At this time, the control unit 22 controls the display unit 26 so as to clearly indicate the designated focus position by surrounding it with a frame (step S2).

フォーカス位置指定終了操作を検出すると、制御部22は一次記憶メモリに記憶した最も手前のフォーカス位置を基に、AF駆動部11−2を制御してフォーカスレンズ12−2を駆動し、最も手前のフォーカス位置に合焦させ、絞り値を取得する(ステップS3)。   When the focus position designation end operation is detected, the control unit 22 controls the AF driving unit 11-2 to drive the focus lens 12-2 based on the foremost focus position stored in the primary storage memory. A focus value is focused and an aperture value is acquired (step S3).

次に、取得した絞り値を基に、ステップS3で取得した各フォーカス位置について、手前から奥に、絞り値を自動調整しながらエッジ(高周波成分)を検出する動作を繰り返し、ステップS2で指定した全てのフォーカス位置のエッジ検出を終了した場合は全てのフォーカス位置のエッジ検出を検出できる被写界深度を確保してステップS5に進み、そうでない場合はこのステップの動作を繰り返す(ステップS4)。   Next, based on the acquired aperture value, for each focus position acquired in step S3, the operation of detecting edges (high frequency components) while automatically adjusting the aperture value from the front to the back is repeated and specified in step S2. When the edge detection of all focus positions is completed, the depth of field that can detect the edge detection of all focus positions is secured, and the process proceeds to step S5. Otherwise, the operation of this step is repeated (step S4).

制御部22は被写体分離部29を制御してスルー画像表示状態で背景と指定したフォーカス位置で囲まれた被写体を分離するためのエッジ部分を抽出して背景と被写体を分離する。被写体分離部29は、フィルタテーブルの値を基にフィルタリングにより、画面の端から、中央に向かってエッジを探し検出エッジより外側のエリアは低周波成分として背景と被写体の境界部分を取得し(ステップS5)、背景と被写体像の境界エリアをリアルタイムでライン化(線で被写体の輪郭をなぞるように)して表示する(ステップS6)。   The control unit 22 controls the subject separation unit 29 to extract the edge portion for separating the subject surrounded by the focus position designated as the background in the through image display state, and separates the background and the subject. The subject separation unit 29 searches for an edge from the edge of the screen toward the center by filtering based on the values in the filter table, and acquires the boundary portion between the background and the subject as a low frequency component in the area outside the detection edge (step S5) The boundary area between the background and the subject image is displayed as a line in real time (so that the contour of the subject is traced with a line) (step S6).

撮影者は、表示された境界を見て被写体像を背景から分離する場合は背景消去指示操作(例えば、SETキー6の押し下げ)を行うので、制御部22は、キー入力部30からの信号を調べ、背景消去指示操作があった場合はステップS8に進み、そうでない場合はステップS9に進む(ステップS7)。   When the photographer separates the subject image from the background by looking at the displayed boundary, the photographer performs a background erasure instruction operation (for example, depressing the SET key 6), so the control unit 22 receives the signal from the key input unit 30. If a background erase instruction operation is performed, the process proceeds to step S8, and if not, the process proceeds to step S9 (step S7).

背景消去指示操作があった場合は、制御部22は被写体分離部29を制御して、取り込んだ画像から境界外のエリアを低周波成分領域として消去した画像をDRAM20の所定領域に保持(一時記憶)してからステップS9に進む。これにより、背景から所望の被写体像を分離することができる(ステップS8)。   When there is a background erasure instruction operation, the control unit 22 controls the subject separation unit 29 to hold an image obtained by erasing an area outside the boundary from the captured image as a low frequency component region in a predetermined region of the DRAM 20 (temporary storage). ) And then proceed to step S9. Thereby, a desired subject image can be separated from the background (step S8).

制御部22は、分離する被写体像が境界エリア内に示されている画像でよいか否かを問うメッセージ、つまり、境界エリア変更の要否を問うメッセージを表示し、撮影者に指示を促し、撮影者が境界エリア変更指示操作(例えば、SETキー6の押し下げ)を行うとステップS10に進み、シャッターキー8を全押しするとステップS11に進む(ステップS9)。   The control unit 22 displays a message asking whether or not the subject image to be separated may be an image shown in the boundary area, that is, a message asking whether or not the boundary area needs to be changed, and prompts the photographer to give instructions. If the photographer performs a boundary area change instruction operation (for example, depressing the SET key 6), the process proceeds to step S10, and if the shutter key 8 is fully depressed, the process proceeds to step S11 (step S9).

撮影者が境界エリア変更指示操作を行うと、制御部22は被写体分離部29が用いるフィルタテーブルを変更してステップS5に戻る(ステップS10)。   When the photographer performs a boundary area change instruction operation, the control unit 22 changes the filter table used by the subject separation unit 29 and returns to step S5 (step S10).

シャッターキー8が全押し操作されると撮影処理を実行し、撮影された画像とステップS8でDRAM20の所定領域に保持した画像(背景から分離した被写体像)を関連付けて保存メモリ28に記録させ、1枚分の画像の撮影を終了する(ステップS11)。   When the shutter key 8 is fully pressed, the photographing process is executed, and the photographed image and the image (the subject image separated from the background) held in the predetermined area of the DRAM 20 in step S8 are associated and recorded in the storage memory 28, The photographing of one image is finished (step S11).

上記図3のフローチャートに示した動作により、デジタルカメラ100は、被写体をリアルタイムに奥行きを持った空間として認識でき、被写体像と背景画像のエッジを検出し、被写体像を分離することができる。また、本実施形態で述べた複数合焦点指定による被写体分離方法は、動画や連写時にも応用が可能である。   With the operation shown in the flowchart of FIG. 3, the digital camera 100 can recognize the subject as a space having a depth in real time, detect the edge of the subject image and the background image, and separate the subject image. In addition, the subject separation method by specifying multiple in-focus points described in the present embodiment can be applied to moving images and continuous shooting.

<実施形態2>
(撮影後に被写体像を分離する場合)
上記実施形態1では撮影時(スルー画像表示時)に背景から被写体像を分離するようにしたが、撮影後、撮影画像の背景から被写体像を分離することもできる。この場合は、図3のフローチャートのステップS5以降が異なるのみであり、その他については、実施形態1の場合と同様である。以下、図4のフローチャートに基づいて説明する
<Embodiment 2>
(When separating the subject image after shooting)
In the first embodiment, the subject image is separated from the background at the time of shooting (when the through image is displayed). However, the subject image can also be separated from the background of the shot image after shooting. In this case, only step S5 and the subsequent steps in the flowchart of FIG. 3 are different, and the others are the same as those in the first embodiment. Hereinafter, description will be made based on the flowchart of FIG.

図4は、撮影後に撮影画像から被写体像を分離する場合の、複数合焦点指定による被写体分離プログラムの制御による制御部22および被写体分離部29の動作例を示すフローチャートである。以下、図1〜図3を基に説明する。なお、ステップT7で用いるフィルタテーブルは最初のループでは標準値を設定した標準テーブルが用いられ、次のループからは制御部22によって指定されたテーブルが用いられる。   FIG. 4 is a flowchart illustrating an operation example of the control unit 22 and the subject separation unit 29 under the control of the subject separation program by specifying a plurality of focal points when the subject image is separated from the photographed image after photographing. Hereinafter, a description will be given based on FIGS. As the filter table used in step T7, a standard table in which standard values are set is used in the first loop, and a table specified by the control unit 22 is used from the next loop.

図4で、撮影者が電源ボタン9を操作して主電源をオンにし、モードダイアル1を操作して撮影モードに設定すると、制御部22はスルー画像の表示を開始するようにデジタルカメラ100の各構成部分を制御してスルー画像を表示させると共に、撮影モードの種類選択用のメニュー(図示せず)を表示して撮影モードの選択を促し、撮影者が「被写体分離モード」を選択するとステップT2に進み、「被写体分離モード」以外の撮影モードが選択されると選択された撮影モードの処理に進む(ステップT1)。   In FIG. 4, when the photographer operates the power button 9 to turn on the main power supply and operates the mode dial 1 to set the photographing mode, the control unit 22 of the digital camera 100 starts to display a through image. Control each component to display a through image and display a menu (not shown) for selecting a shooting mode type to prompt the user to select a shooting mode. When the photographer selects “Subject Separation Mode”, a step Proceeding to T2, when a photographing mode other than the “subject separation mode” is selected, the processing proceeds to the processing of the selected photographing mode (step T1).

撮影者はスルー画像中で背景から分離(切り取り)したい空間の範囲を上述したようにシャッターキー8の半押し操作により、複数のフォーカス位置を指定することにより指定し(図2参照)、指定が終わるとフォーカス位置指定終了操作を行うので、制御部22は、指定されたフォーカス位置(例えば、画面上の座標値)をDRAM20に順次記憶し、フォーカス位置指定終了操作を検出するとステップT3に進む。なお、この際、制御部22は指定されたフォーカス位置を枠で囲んで明示するように表示部26を制御する(ステップT2)。   The photographer designates the range of the space to be separated (cut out) from the background in the through image by designating a plurality of focus positions by half-pressing the shutter key 8 as described above (see FIG. 2). Since the focus position designation end operation is performed at the end, the control unit 22 sequentially stores the designated focus position (for example, coordinate values on the screen) in the DRAM 20, and proceeds to step T3 when the focus position designation end operation is detected. At this time, the control unit 22 controls the display unit 26 so as to clearly indicate the designated focus position with a frame (step T2).

フォーカス位置指定終了操作を検出すると、制御部22は一次記憶メモリに記憶した最も手前のフォーカス位置を基に、AF駆動部11−2を制御してフォーカスレンズ12−2を駆動し、最も手前のフォーカス位置に合焦させ、絞り値を取得する(ステップT3)。   When the focus position designation end operation is detected, the control unit 22 controls the AF driving unit 11-2 to drive the focus lens 12-2 based on the foremost focus position stored in the primary storage memory. A focus value is focused and an aperture value is acquired (step T3).

次に、取得した絞り値を基に、ステップT3で取得した各フォーカス位置について、手前から奥に、絞り値を自動調整しながらエッジ(高周波成分)を検出する動作を繰り返し、ステップT2で指定した全てのフォーカス位置のエッジ検出を終了した場合は全てのフォーカス位置のエッジ検出を検出できる被写界深度を確保してステップT5に進み、そうでない場合はこのステップの動作を繰り返す(ステップT4)。   Next, based on the acquired aperture value, for each focus position acquired in step T3, the operation of detecting an edge (high frequency component) while automatically adjusting the aperture value from the front to the back is repeated, and specified in step T2. When the edge detection of all focus positions is completed, the depth of field that can detect the edge detection of all focus positions is secured, and the process proceeds to step T5. Otherwise, the operation of this step is repeated (step T4).

シャッターキー65が全押し操作されると撮影処理を実行し、制御部22は撮影画像とDRAM20に保持されているフォーカス位置を関連付けて保存メモリ28に記録させて1枚分の画像の撮影を終了する(ステップT5)。   When the shutter key 65 is fully pressed, the photographing process is executed, and the control unit 22 associates the photographed image with the focus position held in the DRAM 20 and records it in the storage memory 28 to finish photographing one image. (Step T5).

次に、撮影者がモードダイアル1を操作さして再生モードに設定すると、制御部22はステップT4で保存メモリ28に記録した撮影画像を読み出し、再生処理を施した画像データを表示部30に送って表示させる。また、画像に関連付けて記録されていたフォーカス位置を被写体分離部29に送る(ステップT6)。   Next, when the photographer operates the mode dial 1 to set the playback mode, the control unit 22 reads the captured image recorded in the storage memory 28 in step T4, and sends the image data subjected to the playback process to the display unit 30. Display. The focus position recorded in association with the image is sent to the subject separation unit 29 (step T6).

また、制御部22は被写体分離部29を制御し、記録されていたフォーカス位置で囲まれた被写体を分離するためのエッジ部分を抽出して背景と被写体を分離する。被写体分離部29は、フィルタテーブルの値を基にフィルタリングにより、画面の端から、中央に向かってエッジを探し検出エッジより外側のエリアは低周波成分として背景と被写体の境界部分を取得し(ステップT7)、背景と被写体像の境界エリアをリアルタイムでライン化(線で被写体の輪郭をなぞるように)して表示する(ステップT8)。   In addition, the control unit 22 controls the subject separation unit 29 to extract an edge portion for separating the subject surrounded by the recorded focus position and separate the background and the subject. The subject separation unit 29 searches for an edge from the edge of the screen toward the center by filtering based on the values in the filter table, and acquires the boundary portion between the background and the subject as a low frequency component in the area outside the detection edge (step T7) The boundary area between the background and the subject image is displayed in a line in real time (so that the contour of the subject is traced with a line) (step T8).

撮影者は、表示された境界を見て被写体像を背景から分離する場合は背景消去指示操作(例えば、SETキー6の押し下げ)を行うので、制御部22は、キー入力部30からの信号を調べ、背景消去指示操作があった場合はステップT10に進み、そうでない場合はステップT11に進む(ステップT9)。   When the photographer separates the subject image from the background by looking at the displayed boundary, the photographer performs a background erasure instruction operation (for example, depressing the SET key 6), so the control unit 22 receives the signal from the key input unit 30. If a background erase instruction operation is performed, the process proceeds to step T10, and if not, the process proceeds to step T11 (step T9).

背景消去指示操作があった場合は、制御部22は被写体分離部29を制御して、取り込んだ画像から境界外のエリアを低周波成分領域として消去した画像をDRAM20の所定領域に保持(一時記憶)してからステップT13に進む。これにより、背景から所望の被写体像を分離することができる(ステップT10)。   When there is a background erasure instruction operation, the control unit 22 controls the subject separation unit 29 to hold an image obtained by erasing an area outside the boundary from the captured image as a low frequency component region in a predetermined region of the DRAM 20 (temporary storage). ) And then proceed to Step T13. Thereby, a desired subject image can be separated from the background (step T10).

制御部22は、分離する被写体像が境界エリア内に示されている画像でよいか否かを問うメッセージ、つまり、境界エリア変更の要否を問うメッセージを表示し、撮影者に指示を促し、撮影者が境界エリア変更指示操作(例えば、SETキー6の押し下げ)を行うとステップT12に進み、そうでない場合はステップT13に進む(ステップT11)。   The control unit 22 displays a message asking whether or not the subject image to be separated may be an image shown in the boundary area, that is, a message asking whether or not the boundary area needs to be changed, and prompts the photographer to give instructions. If the photographer performs a boundary area change instruction operation (for example, pressing the SET key 6), the process proceeds to step T12, and if not, the process proceeds to step T13 (step T11).

撮影者が境界エリア変更指示操作を行うと、制御部22は被写体分離部29が用いるフィルタテーブルを変更してステップT7に戻る(ステップT12)。   When the photographer performs a boundary area change instruction operation, the control unit 22 changes the filter table used by the subject separation unit 29 and returns to step T7 (step T12).

保存メモリ28に記録されている再生画像の元画像撮影された画像とステップT10でDRAM20の所定領域に保持した画像(背景から分離した被写体像)を関連付けて保存メモリ28に記憶させる(ステップT13)。   The original image of the reproduced image recorded in the storage memory 28 and the image (subject image separated from the background) held in the predetermined area of the DRAM 20 in step T10 are associated with each other and stored in the storage memory 28 (step T13). .

次の画像を再生する場合はユーザは次画像再生指示操作(例えば、カーソルキー5を右方(→)操作若しくは下方(↓)操作してからSETキー6を押す)を行うので、制御部はキー入力部30からの信号を調べ、次画像再生指示操作があった場合は分離したステップT7に戻り、1枚分の画像の撮影を終了する(ステップT14)。   When the next image is reproduced, the user performs the next image reproduction instruction operation (for example, the cursor key 5 is operated to the right (→) or the lower (↓) and then the SET key 6 is pressed). The signal from the key input unit 30 is checked, and if there is a next image reproduction instruction operation, the process returns to the separated step T7 to finish photographing one image (step T14).

上記図4のフローチャートに示した動作により、デジタルカメラ100は、撮影画像(静止画)においても、撮影画像を再生して、被写体を奥行きを持った空間として認識でき、被写体像と背景のエッジを検出し、被写体像を分離することができる。   With the operation shown in the flowchart of FIG. 4, the digital camera 100 can reproduce a captured image even in a captured image (still image) and recognize the subject as a space having a depth, and the subject image and the background edge can be recognized. It is possible to detect and separate the subject image.

上記図3のステップS8および図4のステップT10では、取り込んだ画像から境界外のエリアを低周波成分領域として消去するようにしたが、低周波成分領域を消去するのではなく、高周波成分領域を被写体像領域として特定し、抽出するようにしてもよい。   In step S8 in FIG. 3 and step T10 in FIG. 4, the area outside the boundary is erased as a low frequency component area from the captured image. However, instead of erasing the low frequency component area, the high frequency component area is erased. It may be specified as a subject image area and extracted.

本発明の実施形態に係わる撮像装置の一実施例として用いるデジタルカメラの電子回路の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an electronic circuit of a digital camera used as an example of an imaging apparatus according to an embodiment of the present invention. 本発明に基づく複数合焦点指定による被写体分離方法の説明図である。It is explanatory drawing of the to-be-photographed object separation method by multiple focal point designation | designated based on this invention. 実施形態1に係わるデジタルカメラの撮影時の動作例を示すフローチャートである。3 is a flowchart illustrating an operation example at the time of shooting of the digital camera according to the first embodiment. 実施形態2に係わるデジタルカメラの撮影時の動作例を示すフローチャートである。10 is a flowchart illustrating an operation example at the time of shooting of the digital camera according to the second embodiment.

符号の説明Explanation of symbols

6 SETキー
8 シャッターキー
22 制御部
29 被写体分離部
100 デジタルカメラ(電子カメラ)
6 SET key 8 Shutter key 22 Control unit 29 Subject separation unit 100 Digital camera (electronic camera)

Claims (4)

被写体像を取り込んで画像データに変換し、撮影時に被写体像をスルー表示する撮像系を備えた撮像装置において、
スルー表示されている画像の中から所望の被写体の一部分をフォーカス位置として複数指定するフォーカス位置指定手段と、
前記フォーカス位置指定手段によって指定された複数のフォーカス位置のうち、フォーカスレンズの位置において撮像素子に近い方のフォーカス位置から順に当該フォーカスレンズを移動させて合焦し、順次複数のフォーカス位置に対応する部分のエッジを検出すべく、絞り値を調節する絞り調整手段と、
前記絞り調整手段による調整に応じて出力される高周波成分であるエッジを検出し、前記フォーカス位置指定手段によって複数指定されたフォーカス位置全てについて前記エッジを検出できる被写界深度を取得する被写界深度取得手段と、
撮影指示を検出すると、前記撮像系から取り込んだ撮影画像と前記フォーカス位置指定手段によって指定された全てのフォーカス位置を関連付けてメモリに記録する画像記録手段と、
再生指示を検出すると、前記メモリに記録されていた画像を再生して表示すると共にその画像に関連付けられているフォーカス位置を取り出す画像再生手段と、
画像再生手段によって表示された画像について、前記取り出されたフォーカス位置に基づいて被写体像を特定し、フィルタリングにより走査してエッジを取得するフィルタリング手段と、
前記フィルタリング手段により取得したエッジより外側の領域を低周波成分領域として、前記背景と前記被写体像の境界を画定して表示する境界表示手段と、
を備えたことを特徴とする撮像装置。
In an imaging apparatus having an imaging system that captures a subject image, converts it into image data, and displays the subject image through during shooting,
Focus position designation means for designating a plurality of parts of a desired subject as focus positions from the through-displayed image;
Of the plurality of focus positions designated by the focus position designation means, the focus lens is moved in order from the focus position closer to the image sensor at the focus lens position, and the focus positions are sequentially corresponded to. Aperture adjustment means for adjusting the aperture value to detect the edge of the part,
An object field for detecting an edge that is a high-frequency component output in accordance with the adjustment by the diaphragm adjusting unit, and acquiring a depth of field at which the edge can be detected for all the focus positions specified by the focus position specifying unit Depth acquisition means;
Detecting an imaging instruction, an image recording means for associating and recording in a memory a captured image captured from the imaging system and all focus positions designated by the focus position designation means;
Detecting a reproduction instruction, reproduces and displays the image recorded in the memory, and retrieves a focus position associated with the image;
Filtering means for specifying an object image based on the extracted focus position for an image displayed by the image reproducing means, and scanning to obtain an edge by filtering;
Boundary display means for demarcating and displaying the boundary between the background and the subject image, with the area outside the edge acquired by the filtering means as a low frequency component area;
An imaging apparatus comprising:
外部からの指示を検出すると、前記メモリに記憶されている撮像画像と関連付けて、前記背景から分離された被写体像を記憶させるよう制御する記録制御手段と、を更に備えたことを特徴とする請求項1に記載の撮像装置。 And a recording control unit that controls to store a subject image separated from the background in association with a captured image stored in the memory when an instruction from the outside is detected. Item 2. The imaging device according to Item 1. 被写体像を取り込んで画像データに変換し、撮影時に被写体像をスルー表示する撮像系を備えた撮像装置において、In an imaging apparatus having an imaging system that captures a subject image, converts it into image data, and displays the subject image through during shooting,
スルー表示されている画像の中から所望の被写体の一部分をフォーカス位置として複数指定するフォーカス位置指定ステップと、A focus position designating step of designating a part of a desired subject as a focus position from the through-displayed image;
前記フォーカス位置指定ステップによって指定された複数のフォーカス位置のうち、フォーカスレンズの位置において撮像素子に近い方のフォーカス位置から順に当該フォーカスレンズを移動させて合焦し、順次複数のフォーカス位置に対応する部分のエッジを検出すべく、絞り値を調節する調整ステップと、Of the plurality of focus positions designated in the focus position designation step, the focus lens is moved in order from the focus position closest to the image sensor at the focus lens position, and the focus is sequentially handled. An adjustment step to adjust the aperture value to detect the edge of the part;
前記調整ステップによる調整に応じて出力される高周波成分であるエッジを検出し、前記フォーカス位置指定ステップによって複数指定されたフォーカス位置全てについて前記エッジを検出できる被写界深度を取得する被写界深度取得ステップと、Depth of field for detecting an edge that is a high-frequency component output in accordance with the adjustment in the adjustment step, and acquiring a depth of field that can detect the edge for all of the focus positions specified in the focus position specification step An acquisition step;
撮影指示を検出すると、前記撮像系から取り込んだ撮影画像と前記フォーカス位置指定ステップによって指定された全てのフォーカス位置を関連付けてメモリに記録する画像記録ステップと、Detecting a shooting instruction, an image recording step of associating and recording in a memory a captured image captured from the imaging system and all the focus positions specified in the focus position specifying step;
再生指示を検出すると、前記メモリに記録されていた画像を再生して表示すると共にその画像に関連付けられているフォーカス位置を取り出す画像再生ステップと、When a reproduction instruction is detected, an image reproduction step of reproducing and displaying the image recorded in the memory and extracting a focus position associated with the image;
画像再生ステップによって表示された画像について、前記取り出されたフォーカス位置に基づいて被写体像を特定し、フィルタリングにより走査してエッジを取得するフィルタリングステップと、A filtering step of identifying an object image based on the extracted focus position and acquiring an edge by scanning by filtering for the image displayed by the image reproduction step;
前記フィルタリングステップによって取得したエッジより外側の領域を低周波成分領域として、前記背景と前記被写体像の境界を画定して表示する境界表示ステップと、A boundary display step for defining and displaying a boundary between the background and the subject image, using a region outside the edge acquired by the filtering step as a low frequency component region;
を含むことを特徴とする被写体分離方法。An object separation method comprising:
被写体像を取り込んで画像データに変換し、撮影時に被写体像をスルー表示する撮像系を備えた撮像装置のコンピュータを制御するためのプログラムであって、A program for controlling a computer of an imaging apparatus having an imaging system that captures a subject image, converts it into image data, and displays the subject image through during shooting,
前記コンピュータを、The computer,
スルー表示されている画像の中から所望の被写体の一部分をフォーカス位置として複数指定するフォーカス位置指定手段、Focus position designation means for designating a plurality of parts of a desired subject as focus positions from the through-displayed image;
前記フォーカス位置指定手段によって指定された複数のフォーカス位置のうち、フォーカスレンズの位置において撮像素子に近い方のフォーカス位置から順に当該フォーカスレンズを移動させて合焦し、順次複数のフォーカス位置に対応する部分のエッジを検出すべく、絞り値を調節する絞り調整手段、Of the plurality of focus positions designated by the focus position designation means, the focus lens is moved in order from the focus position closer to the image sensor at the focus lens position, and the focus positions are sequentially corresponded to. Aperture adjustment means for adjusting the aperture value to detect the edge of the part,
前記絞り調整手段による調整に応じて出力される高周波成分であるエッジを検出し、前記フォーカス位置指定手段によって複数指定されたフォーカス位置全てについて前記エッジを検出できる被写界深度を取得する被写界深度取得手段、An object field for detecting an edge that is a high-frequency component output in accordance with the adjustment by the diaphragm adjusting unit, and acquiring a depth of field at which the edge can be detected for all of the focus positions specified by the focus position specifying unit. Depth acquisition means,
撮影指示を検出すると、前記撮像系から取り込んだ撮影画像と前記フォーカス位置指定手段によって指定された全てのフォーカス位置を関連付けてメモリに記録する画像記録手段、An image recording unit that records a captured image captured from the imaging system and all the focus positions specified by the focus position specifying unit in association with each other when a shooting instruction is detected;
再生指示を検出すると、前記メモリに記録されていた画像を再生して表示すると共にその画像に関連付けられているフォーカス位置を取り出す画像再生手段、An image reproducing means for reproducing and displaying the image recorded in the memory and extracting a focus position associated with the image upon detecting a reproduction instruction;
画像再生手段によって表示された画像について、前記取り出されたフォーカス位置に基づいて被写体像を特定し、フィルタリングにより走査してエッジを取得するフィルタリング手段、Filtering means for specifying an object image on the basis of the extracted focus position for an image displayed by the image reproducing means, and scanning to obtain an edge by filtering;
前記フィルタリング手段により取得したエッジより外側の領域を低周波成分領域として、前記背景と前記被写体像の境界を画定して表示する表示手段、Display means for defining and displaying a boundary between the background and the subject image, with a region outside the edge acquired by the filtering means as a low frequency component area;
として機能させるためのプログラム。Program to function as.
JP2007250951A 2007-09-27 2007-09-27 Imaging apparatus, subject separation method, and program Expired - Fee Related JP5266701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007250951A JP5266701B2 (en) 2007-09-27 2007-09-27 Imaging apparatus, subject separation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007250951A JP5266701B2 (en) 2007-09-27 2007-09-27 Imaging apparatus, subject separation method, and program

Publications (2)

Publication Number Publication Date
JP2009081786A JP2009081786A (en) 2009-04-16
JP5266701B2 true JP5266701B2 (en) 2013-08-21

Family

ID=40656191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007250951A Expired - Fee Related JP5266701B2 (en) 2007-09-27 2007-09-27 Imaging apparatus, subject separation method, and program

Country Status (1)

Country Link
JP (1) JP5266701B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108351080B (en) * 2015-11-10 2021-02-23 市光工业株式会社 Vehicle lamp

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013048318A (en) * 2011-08-29 2013-03-07 Nintendo Co Ltd Information processor, information processing program, information processing method, and information processing system
JP5931464B2 (en) 2012-01-20 2016-06-08 オリンパス株式会社 Imaging device
WO2014045913A1 (en) 2012-09-18 2014-03-27 富士フイルム株式会社 Still image display device, system, and imaging device
WO2016056089A1 (en) * 2014-10-08 2016-04-14 日立マクセル株式会社 Camera, and image-capturing method
JP2022042153A (en) * 2020-09-02 2022-03-14 株式会社クレッセント Three-dimensional shooting model generation system and three-dimensional shooting model generation method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH069062B2 (en) * 1986-10-31 1994-02-02 富士通株式会社 Area extraction device
JPH09186935A (en) * 1995-12-28 1997-07-15 Canon Inc Image extraction device
JPH10339840A (en) * 1997-06-05 1998-12-22 Kokusai Electric Co Ltd Lens focusing device
JP3411971B2 (en) * 2001-02-14 2003-06-03 三菱電機株式会社 Human image extraction device
JP2002244025A (en) * 2001-02-20 2002-08-28 Matsushita Electric Ind Co Ltd Focusing device for camera
JP2003289429A (en) * 2002-03-28 2003-10-10 Minolta Co Ltd Program
JP4011471B2 (en) * 2002-12-11 2007-11-21 富士フイルム株式会社 Digital camera
JP2007142702A (en) * 2005-11-17 2007-06-07 Nikon Corp Image processing apparatus
JP2007250951A (en) * 2006-03-17 2007-09-27 Mitsubishi Cable Ind Ltd Double-clad fiber and fiber laser provided therewith

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108351080B (en) * 2015-11-10 2021-02-23 市光工业株式会社 Vehicle lamp

Also Published As

Publication number Publication date
JP2009081786A (en) 2009-04-16

Similar Documents

Publication Publication Date Title
JP4645685B2 (en) Camera, camera control program, and photographing method
JP5118129B2 (en) Imaging apparatus, editing apparatus, image processing method, and program
JP4869270B2 (en) Imaging apparatus and image reproduction apparatus
JP4577252B2 (en) Camera, best shot shooting method, program
JP2006259688A (en) Image capture device and program
JP2007328755A (en) Image processor, image processing method and program
JP2007310813A (en) Image retrieving device and camera
JP4839908B2 (en) Imaging apparatus, automatic focus adjustment method, and program
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
JP2006303961A (en) Imaging apparatus
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP2017175319A (en) Image processing apparatus, image processing method, and program
JP5375846B2 (en) Imaging apparatus, automatic focus adjustment method, and program
KR20130031176A (en) Display apparatus and method
JP2008079193A (en) Digital camera
JP2007299339A (en) Image reproducing device, method and program
JP6368802B2 (en) Imaging apparatus, display method, and program
JP2009290819A (en) Photographing device, photography control program, and image reproducing device and image reproducing program
JP2007228453A (en) Imaging apparatus, reproduction device, program, and storage medium
JP2005039680A (en) Camera device, photographing method and program
JP2007226606A (en) Imaging apparatus, image output method, reproduction apparatus, program, and storage medium
JP2006276683A (en) Imaging apparatus and program
JP2010252374A (en) Camera, art of shooting great photographs, and programs
JP2007208355A (en) Photographing device, method, and program
WO2013065642A1 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5266701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees