JP2003087545A - Image pickup device, image processor and method - Google Patents

Image pickup device, image processor and method

Info

Publication number
JP2003087545A
JP2003087545A JP2001272554A JP2001272554A JP2003087545A JP 2003087545 A JP2003087545 A JP 2003087545A JP 2001272554 A JP2001272554 A JP 2001272554A JP 2001272554 A JP2001272554 A JP 2001272554A JP 2003087545 A JP2003087545 A JP 2003087545A
Authority
JP
Japan
Prior art keywords
image
image processing
divided
dividing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001272554A
Other languages
Japanese (ja)
Inventor
Keisuke Aoyama
圭介 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001272554A priority Critical patent/JP2003087545A/en
Publication of JP2003087545A publication Critical patent/JP2003087545A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To produce an image giving such an effect obtained by photographing with a large diameter lens by using results obtained by analyzing an image and the distance or focus information of a limited part. SOLUTION: The image and the focus information of an object at a plurality of places of the image are inputted (S101 and S103), the inputted image is divided (S104 and S105), image processing is applied to each of divided images on the basis of the focus information corresponding to each of the divided images (S106), and the divided images that have been subjected to the image processing are combined into one image (S107).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像装置、画像処
理装置及び画像処理方法に関し、更に詳しくは、測距に
より得られた情報に基づいて、撮影画像を処理する撮像
装置、画像処理装置及び画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus, an image processing apparatus, and an image processing method, and more specifically, an image pickup apparatus, an image processing apparatus, and an image processing apparatus for processing a picked-up image based on information obtained by distance measurement. The present invention relates to an image processing method.

【0002】[0002]

【従来の技術】従来より、デジタル式の電子カメラ等に
おいて、被写体までの距離を測定してオートフォーカス
を行うものが広く普及している。また最近では、複数の
測距領域を持つオートフォーカスカメラも普及してきて
いる。この複数の測距領域を持つカメラにおいては、撮
影者が何れかの測距領域を選択するようになっており、
撮影する際には1枚の撮影画像につき一つの測距領域の
測距情報を用いる。
2. Description of the Related Art Conventionally, digital electronic cameras and the like, which measure the distance to a subject and perform autofocus, have been widely used. Recently, an autofocus camera having a plurality of distance measuring areas has become widespread. In a camera having a plurality of distance measuring areas, the photographer is allowed to select one of the distance measuring areas.
When shooting, the distance measurement information of one distance measurement area is used for one captured image.

【0003】特開2000−259823号公報では、
入力した画像を任意に分割する画像分割手段及び分割し
た各分割画像毎に、測距装置により測定した測距情報を
付加する測距情報付加手段を備え、各々の測距情報に基
づいたそれぞれの分割画像に所望の処理を施すことによ
り、背景をぼかしたりすることが可能な画像処理装置、
画像処理方法及び記憶媒体が提案されている。
In Japanese Patent Laid-Open No. 2000-259823,
An image dividing means for arbitrarily dividing the input image and a distance measuring information adding means for adding distance measuring information measured by a distance measuring device to each of the divided images are provided. An image processing apparatus capable of blurring the background by performing desired processing on divided images,
Image processing methods and storage media have been proposed.

【0004】さらに特開平10−074258号公報で
は、遠近情報を有する画像データにデジタルローパスフ
ィルタ処理を行って、その遠近情報に応じてぼかした画
像を生成する処理方法の改善に関した提案がなされてい
る。
Further, Japanese Patent Application Laid-Open No. 10-074258 proposes an improvement of a processing method of performing digital low-pass filter processing on image data having perspective information to generate a blurred image according to the perspective information. There is.

【0005】[0005]

【発明が解決しようとする課題】ところが、従来は、分
割した分割画像毎に距離情報があることを前提としてい
る場合や、もともと画面上全ての部分で遠近情報を有す
る画像に対して、背景をぼかす処理を行なうものであ
る。
However, conventionally, when it is premised that there is distance information for each divided image, or when an image originally having perspective information in all parts of the screen, a background is set. This is to perform a blurring process.

【0006】しかしながら、カメラで撮影した画像を分
割して得た全ての分割画像に距離情報やデフォーカス情
報を付加することは困難であり、実際には、画面上の数
点から数十点の距離情報あるいはデフォーカス情報が得
られるのみである。
However, it is difficult to add the distance information and the defocus information to all the divided images obtained by dividing the image taken by the camera. In practice, several to several tens of points are displayed on the screen. Only distance information or defocus information can be obtained.

【0007】本発明は上記問題点を鑑みてなされたもの
であり、暗いレンズで撮影した画像や、撮像素子のサイ
ズが小さいために深度の深い画像を、画像を解析した結
果と限られた部分の距離情報もしくは焦点情報を用い
て、大口径レンズで撮影したような効果を有する画像を
作成することを目的とする。
The present invention has been made in view of the above problems, and an image captured by a dark lens and an image having a deep depth due to the small size of the image sensor are limited to the result of image analysis. The objective is to create an image having the effect as if it were taken with a large-diameter lens by using the distance information or the focus information.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明の撮像装置は、被写体光学像を電気信号に変
換して、画像を撮像する撮像手段と、前記撮像手段の撮
影画面に対応する複数箇所で、前記画像の焦点情報又は
距離情報を検出する焦点検出手段と、前記撮像手段によ
り得られた画像を分割する分割手段と、前記分割手段に
より分割された各分割画像に対し、各分割画像に対応す
る前記焦点情報又は距離情報に基づいて画像処理を行う
画像処理手段と、前記画像処理手段により画像処理され
た分割画像を1つの画像に合成する合成手段とを有す
る。
In order to achieve the above object, an image pickup apparatus of the present invention is provided with an image pickup means for converting an optical image of an object into an electric signal and picking up an image, and an image pickup screen of the image pickup means. At a plurality of corresponding locations, focus detection means for detecting focus information or distance information of the image, dividing means for dividing the image obtained by the image pickup means, and for each divided image divided by the dividing means, It has an image processing means for performing image processing based on the focus information or distance information corresponding to each divided image, and a combining means for combining the divided images image-processed by the image processing means into one image.

【0009】また、本発明の画像処理装置は、画像及び
画像の複数箇所における被写体の焦点情報又は距離情報
を入力する画像入力手段と、前記画像入力手段により入
力した画像を分割する分割手段と、前記分割手段により
分割された各分割画像に対し、各分割画像に対応する前
記焦点情報又は距離情報に基づいて画像処理を行う画像
処理手段と、前記画像処理手段により画像処理された分
割画像を1つの画像に合成する合成手段とを有する。
The image processing apparatus of the present invention further comprises an image input means for inputting an image and focus information or distance information of a subject at a plurality of positions of the image, and a dividing means for dividing the image input by the image input means. An image processing unit that performs image processing on each of the divided images divided by the dividing unit based on the focus information or distance information corresponding to each divided image, and one divided image that is image-processed by the image processing unit. And a synthesizing means for synthesizing into one image.

【0010】また、本発明の画像処理方法は、画像及び
画像の複数箇所における被写体の焦点情報又は距離情報
を入力する画像入力工程と、前記画像入力工程により入
力された画像を分割する分割工程と、前記分割工程によ
り分割された各分割画像に対し、各分割画像に対応する
前記焦点情報又は距離情報に基づいて画像処理を行う画
像処理工程と、前記画像処理工程により画像処理された
分割画像を1つの画像に合成する合成工程とを有する。
Further, the image processing method of the present invention comprises an image input step of inputting the image and focus information or distance information of the subject at a plurality of positions of the image, and a dividing step of dividing the image input by the image input step. , An image processing step of performing image processing on each divided image divided by the dividing step based on the focus information or distance information corresponding to each divided image, and a divided image image-processed by the image processing step. And a synthesizing step of synthesizing into one image.

【0011】[0011]

【発明の実施の形態】以下、添付図面を参照して本発明
の好適な実施の形態を詳細に説明する。
Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

【0012】<第1の実施形態>図1は、本実施の形態
に係る撮影装置である一眼レフタイプのデジタルカメラ
の主要構成を示すブロック図である。
<First Embodiment> FIG. 1 is a block diagram showing the main configuration of a single-lens reflex type digital camera which is a photographing apparatus according to the present embodiment.

【0013】図1において、1及び3は撮影レンズであ
る。説明の便宜上2枚のレンズで示しているが、実際は
多数枚のレンズから構成されている。2は絞りで、撮影
レンズ1及び3を介して入射する光量を調整する。4は
主ミラーであり、光学ファインダー系による被写体像の
観察が行えるように撮影光路内に傾斜して取り付けられ
ているが、撮影が指示されると撮影光路から退避され
る。5はサブミラーで、主ミラー4を通過した光束をカ
メラボディの下方に位置する焦点検出光学系11及びエ
リアセンサー12へ向けて反射する。なお、主ミラー4
と同様に、撮影が指示されると撮影光路から退避され
る。
In FIG. 1, reference numerals 1 and 3 are photographing lenses. Although it is shown with two lenses for convenience of explanation, it is actually composed of many lenses. Reference numeral 2 denotes an aperture, which adjusts the amount of light incident through the taking lenses 1 and 3. Reference numeral 4 denotes a main mirror, which is attached so as to be tilted in the photographing optical path so that a subject image can be observed by the optical finder system, but is retracted from the photographing optical path when a photographing instruction is given. A sub-mirror 5 reflects the light flux passing through the main mirror 4 toward the focus detection optical system 11 and the area sensor 12 located below the camera body. The main mirror 4
Similarly to the above, when shooting is instructed, it is retracted from the shooting optical path.

【0014】6はシャッター、7はCCDやMOS型等
の撮像素子、8は撮影レンズ1及び3の予定結像面に配
置されたピント板、9はファインダー光路変更用のペン
タプリズム、10は結像レンズ、11は焦点検出光学
系、12は焦点検出用エリアセンサーである。
Reference numeral 6 is a shutter, 7 is an image pickup device such as a CCD or MOS type, 8 is a focusing plate arranged on the planned image forming planes of the taking lenses 1 and 3, 9 is a pentaprism for changing the finder optical path, and 10 is a connection. An image lens, 11 is a focus detection optical system, and 12 is a focus detection area sensor.

【0015】13は撮影レンズ1、3を駆動して焦点調
節を行う焦点調節回路、14は絞り2を駆動する絞り駆
動回路、15は撮影の開始・終了に応じて主ミラー4及
びサブミラー5を光路から退避・挿入駆動するミラー駆
動回路、16はエリアセンサー12を駆動するエリアセ
ンサー駆動回路、17はシャッター6を駆動するシャッ
ター駆動回路、18は撮像素子7を駆動する撮像素子駆
動回路、19は撮像素子7から出力されるアナログ撮影
信号をデジタル信号に変換するA/D変換回路、20は
A/D変換回路19によりデジタル変換された撮影信号
に対して信号処理を施す信号処理回路である。
Reference numeral 13 is a focus adjustment circuit for driving the taking lenses 1 and 3 to adjust the focus, 14 is a diaphragm driving circuit for driving the diaphragm 2, and 15 is a main mirror 4 and a sub-mirror 5 according to the start and end of shooting. A mirror drive circuit for retracting / inserting from the optical path, 16 for an area sensor drive circuit for driving the area sensor 12, 17 for a shutter drive circuit for driving the shutter 6, 18 for an image sensor drive circuit for driving the image sensor 7, and 19 for An A / D conversion circuit that converts an analog image pickup signal output from the image pickup device 7 into a digital signal, and a signal processing circuit 20 that performs signal processing on the image pickup signal digitally converted by the A / D conversion circuit 19.

【0016】21はデジタル画像信号等を一時的に保存
するRAM(ランダムアクセスメモリ)、22は本デジ
タルカメラを制御するための制御プログラム等が記憶さ
れているROM(リードオンリーメモリ)、23はデジ
タル画像信号を最終的に記録するためのコンパクトフラ
ッシュ(登録商標)(CF)等の記録媒体、24はマイ
クロコンピュータの中央演算処理装置(CPU)、25
は撮影したデジタル画像信号を表示するためのLCD等
のモニタである。
Reference numeral 21 is a RAM (random access memory) for temporarily storing digital image signals and the like, 22 is a ROM (read only memory) in which a control program for controlling the digital camera is stored, and 23 is a digital memory. A recording medium such as a compact flash (registered trademark) (CF) for finally recording an image signal, 24 is a central processing unit (CPU) of a microcomputer, 25
Is a monitor such as an LCD for displaying the photographed digital image signal.

【0017】26はレリーズスイッチ28や、絞り込み
スイッチ、撮影モードを切り替えるモードダイヤル等の
スイッチダイヤルの検知を行うためのスイッチ入力回路
である。28はレリーズスイッチ(レリーズSW)で、
少なくとも2つ以上の接点を有するスイッチからなり、
例えば、押下される量に応じて状態が2段階に切り替わ
る構造となっており、途中まで押下した場合には第1の
接点(以下、SW1と記述する)が接続(ON)され、
最後まで押下した場合には第2の接点(以下、SW2と
記述する)も接続(ON)される。SW1がONされた
場合にはAF(自動焦点検出)やAE(自動露出)等の
撮影準備動作を行い、SW2がONされた場合には撮影
動作及びデジタル画像データの作成動作及び記録動作を
行う。
Reference numeral 26 is a switch input circuit for detecting a switch switch such as a release switch 28, a narrowing switch, and a mode dial for switching a photographing mode. 28 is a release switch (release SW),
Consisting of a switch with at least two contacts,
For example, it has a structure in which the state is switched in two stages according to the amount of depression, and when the depression is made halfway, the first contact (hereinafter referred to as SW1) is connected (ON),
When pressed down to the end, the second contact (hereinafter referred to as SW2) is also connected (ON). When SW1 is turned on, shooting preparation operations such as AF (automatic focus detection) and AE (auto exposure) are performed, and when SW2 is turned on, shooting operation and digital image data creation operation and recording operation are performed. .

【0018】上記構成を有するデジタルカメラにおい
て、撮影者がSW1をONすると、AF動作及びAE動
作等を行う。次に、その状態から撮影者がSW2をON
すると、絞り2を調整し、主ミラー4及びサブミラー5
を光路から退避させ、光束を撮像素子7の方向に導入
し、シャッター6を開く。これにより被写体光学像が撮
像素子7上に結像され、撮像素子7は被写体光学像の光
量に応じた電荷を発生する。そして、一定時間後にシャ
ッター6を閉じると、閉じるまでの間に撮像素子7に蓄
積された電荷を出力する。その出力信号である撮影信号
はA/D変換回路19でA/D変換され、更に、信号処
理回路20において信号処理が施されて、デジタル画像
信号としてRAM21に一時的に保存される。該RAM
21に一時的に保存されたデジタル画像信号に対して圧
縮処理を施し、ファイルとしてCF23に保存して撮影
を完了する。
In the digital camera having the above structure, when the photographer turns on SW1, the AF operation and the AE operation are performed. Next, the photographer turns on SW2 from that state.
Then, the diaphragm 2 is adjusted and the main mirror 4 and the sub mirror 5 are adjusted.
Is retracted from the optical path, the light flux is introduced in the direction of the image sensor 7, and the shutter 6 is opened. As a result, the subject optical image is formed on the image pickup element 7, and the image pickup element 7 generates electric charges according to the light amount of the subject optical image. Then, when the shutter 6 is closed after a certain period of time, the electric charge accumulated in the image sensor 7 is output until the shutter 6 is closed. The photographed signal as the output signal is A / D converted by the A / D conversion circuit 19, further subjected to signal processing by the signal processing circuit 20, and temporarily stored in the RAM 21 as a digital image signal. The RAM
The digital image signal temporarily stored in 21 is compressed and stored in the CF 23 as a file to complete the shooting.

【0019】シャッター6が閉じられた後の処理と並行
して、主ミラー4及びサブミラーを光路上に戻し、絞り
2の開放が行われる。
In parallel with the processing after the shutter 6 is closed, the main mirror 4 and the sub mirror are returned to the optical path, and the diaphragm 2 is opened.

【0020】図2は、ファインダー内表示を説明するた
めの図である。同図(a)は、測距領域全てが表示され
ている場合を示す図であり、実際にはAARのみ常時表
示され、個々の測距領域は必要な場合にのみ表示され
る。撮影動作中は、フォーカス状態が合焦となるまでの
間、測距領域表示は行なわれない。
FIG. 2 is a diagram for explaining the display in the finder. FIG. 10A is a diagram showing a case where all the distance measuring areas are displayed. In reality, only the AAR is constantly displayed, and each distance measuring area is displayed only when necessary. During the shooting operation, the distance measurement area is not displayed until the focus state is in focus.

【0021】図中AARは全測距領域を表し、この内側
で測距が行われる。同図(b)は個々の測距領域を説明
するための図である。同図(b)では、測距領域は左上
からp1,p2,p3,...,p7,上から2番目の並びの左は、p8か
ら始まり、もっとも右側がp17というように符号をつけ
てそれぞれを記述する。この表記方法では、例えば中央
の測距領域はp23,上から4番目の並びは左からp29,p3
0....,p38であり、一番下の並びの一番右の測距領域はp
45と表す。
In the figure, AAR represents the entire distance measurement area, and the distance measurement is performed inside this area. FIG. 3B is a diagram for explaining each distance measuring area. In the figure (b), the distance measurement area is p1, p2, p3, ..., p7 from the upper left, and the left of the second row from the top starts from p8 and the rightmost is labeled p17. Describe each. In this notation, for example, the distance measuring area in the center is p23, and the fourth row from the top is p29, p3 from the left.
0 ...., p38, and the rightmost AF area in the bottom row is p
Expressed as 45.

【0022】次に、本第1の実施形態における撮影画面
の画像情報の1つである、複数のデフォーカス情報を得
るための焦点検出処理について説明する。
Next, the focus detection process for obtaining a plurality of defocus information, which is one of the image information of the photographing screen in the first embodiment, will be described.

【0023】図3は撮影画面の多数の位置における焦点
検出処理を行うための光学系を示す図であり、各測距領
域は、図2に示す測距領域に対応するように構成されて
いる。
FIG. 3 is a diagram showing an optical system for performing focus detection processing at a large number of positions on the photographic screen. Each distance measuring area is configured to correspond to the distance measuring area shown in FIG. .

【0024】図3において、53は対物レンズの予定結
像面近傍に配置されたフィールドレンズである。視野マ
スク54は撮影レンズ1,3の予定結像面近傍の位置に
設けられ、単一の広い開口54aの制限する領域が焦点
検出可能な範囲となる。開口部54aを通過した被写体
像はフィールドレンズ53によって撮影レンズ1,3の
瞳上に投影されている。実際問題として主被写体が撮影
画面の端部に位置することはほとんどありえないため、
開口54aが制限する領域は撮影画面の縦横それぞれ8
0%程度としてよい。
In FIG. 3, reference numeral 53 is a field lens arranged near the planned image forming plane of the objective lens. The field mask 54 is provided in a position near the planned image forming planes of the photographing lenses 1 and 3, and the area limited by the single wide opening 54a is the focus detectable range. The subject image that has passed through the opening 54a is projected onto the pupils of the taking lenses 1 and 3 by the field lens 53. As a practical matter, the main subject is rarely located at the edge of the shooting screen,
The area limited by the opening 54a is 8 vertically and horizontally on the shooting screen.
It may be about 0%.

【0025】また一対の正レンズ2枚からなる2次結像
レンズ56の手前には絞り板55が置かれ、絞り孔55
a、55bの各々が各正レンズへ入射する光束を規制し
ている。絞り板55の位置はフィールドレンズ53のパ
ワーにより撮影レンズ1,3の射出瞳の位置に概略結像
関係に置かれている。2次結像レンズ56は開口54a
で決定された被写体像を縦横2次元的に光電変換素子を
規則正しく配列させた、エリアセンサー対12aと12
b上に再結像する。エリアセンサー対12aと12b上
の光学被写体像は光量に応じた電気信号に変換されて読
み出され、処理装置内で焦点検出演算が実行される。
A diaphragm plate 55 is placed in front of the secondary imaging lens 56 consisting of a pair of positive lenses, and a diaphragm hole 55 is provided.
Each of a and 55b regulates the luminous flux incident on each positive lens. The position of the diaphragm plate 55 is placed in a position of the exit pupils of the photographing lenses 1 and 3 in a substantially image-forming relationship by the power of the field lens 53. The secondary imaging lens 56 has an opening 54a.
Area sensor pairs 12a and 12 in which photoelectric conversion elements are regularly arranged in a two-dimensional manner in the subject image determined in
Reimage on b. The optical subject image on the area sensor pair 12a and 12b is converted into an electric signal according to the light amount and read out, and focus detection calculation is executed in the processing device.

【0026】ここで、図3に示すようなエリアセンサー
を用いた形態では、光学的に信号読み出し領域を限定す
る手段を持たないため、電気的に行わなければならな
い。ここでは、広い範囲で読み出した被写体像情報の中
の特定の領域の情報を順次、選択的に演算処理すること
によって、撮影画面の多数の位置における焦点検出を行
っている。
Here, in the mode using the area sensor as shown in FIG. 3, it has to be electrically performed because there is no means for optically limiting the signal reading area. Here, focus information is detected at a large number of positions on the photographing screen by sequentially and selectively performing arithmetic processing on information of a specific area in the subject image information read in a wide range.

【0027】図4は図3に示すエリアセンサー対12a
と12bの測距領域について詳しく説明する図である。
同図に示すように、エリアセンサー対12aと12b
は、図2に示す測距領域に対応して、横方向に7〜1
1、縦方向に5列の小ブロック部分に論理的に分かれて
並んでいる。(実際はエリアセンサーや、複数のライン
センサーから形成されている)それぞれの小ブロック
は、25〜40画素の光電変換素子を含む。エリアセン
サー対12aと12bには上述の通りエリアセンサー駆
動回路16が接続されており、領域指定や蓄積制御が行
われる。エリアセンサー駆動回路16は処理装置である
マイクロコンピュータに接続される。マイクロコンピュ
ータはCPU24、ROM22、RAM21、を有し、
ROM22に格納されているプログラムに従って焦点検
出処理を実行する。
FIG. 4 shows the area sensor pair 12a shown in FIG.
It is a figure explaining in detail the ranging area of 12b.
As shown in the figure, the area sensor pair 12a and 12b
Corresponds to the distance measurement area shown in FIG.
1. The blocks are logically divided and arranged in five columns in the vertical direction. Each small block (which is actually formed of an area sensor or a plurality of line sensors) includes a photoelectric conversion element of 25 to 40 pixels. The area sensor drive circuit 16 is connected to the area sensor pairs 12a and 12b as described above, and area designation and storage control are performed. The area sensor drive circuit 16 is connected to a microcomputer which is a processing device. The microcomputer has a CPU 24, a ROM 22, and a RAM 21,
The focus detection process is executed according to the program stored in the ROM 22.

【0028】ROM22に格納されている被写体距離検
出処理プログラムに従った焦点検出処理の概略を図5を
参照して説明する。
An outline of focus detection processing according to the subject distance detection processing program stored in the ROM 22 will be described with reference to FIG.

【0029】ステップS200において焦点検出処理が
コールされると、ステップS201でエリアセンサー対
12aと12bに蓄積を実行し、ステップS202で各
画素の出力信号をA/D変換した値をRAM21に格納
する。次にステップS203にて、エリアセンサー対1
2aと12b上で対応する1組の小ブロックの被写体像
画素信号をRAMから取り込み、ステップS204で像
信号処理を行う。その後ステップS205において、取
り込んだ小ブロック対の像信号間の相関演算を行う。こ
の処理の際、位相差検出タイプのものでは1次方向の位
相差を検出する。つまり、図4に示すエリアセンサー対
12aと12bの一部である1対の小ブロック(例えば
p1aとp1b)内のそれぞれの像信号が比較処理さ
れ、公知の方法にてこの小ブロックの領域に対応する撮
影領域の焦点検出が行われる。焦点検出がなされると、
その出力としてデフォーカス量とその方向が得られ、撮
影レンズ1,3のレンズ繰り出し量を決定することがで
きる。従って、ステップS206において、エリアセン
サー対12aと12bの一部である1つの小ブロックに
対応する測距領域における被写体距離を所定のデフォー
カス演算を行って求めることが可能となる。
When the focus detection processing is called in step S200, the area sensor pairs 12a and 12b are stored in step S201, and the values obtained by A / D converting the output signals of the respective pixels are stored in the RAM 21 in step S202. . Next, in step S203, the area sensor pair 1
A pair of corresponding object image pixel signals of small blocks on 2a and 12b are fetched from the RAM, and image signal processing is performed in step S204. Then, in step S205, the correlation calculation between the image signals of the captured small block pair is performed. In this process, the phase difference detection type one detects the phase difference in the primary direction. That is, the image signals in a pair of small blocks (for example, p1a and p1b) that are part of the area sensor pair 12a and 12b shown in FIG. 4 are compared and processed in a region of these small blocks by a known method. Focus detection of the corresponding photographing area is performed. When focus detection is done,
The defocus amount and its direction are obtained as the output, and the lens extension amount of the taking lenses 1 and 3 can be determined. Therefore, in step S206, the subject distance in the distance measurement area corresponding to one small block which is a part of the area sensor pair 12a and 12b can be obtained by performing a predetermined defocus calculation.

【0030】このように、エリアセンサー対12aと1
2bは、図2のp1〜p45までの測距領域に対応した45
の小ブロック分割することができる。ステップS207
ではこれら45個すべての小ブロックの被写体デフォー
カス検出処理を繰り返し行い、最終的には後述する図8
に示す様に撮影画面の内45箇所の広範囲に渡って被写
体デフォーカスを求めることが可能となる。
Thus, the area sensor pair 12a and 1
2b is 45 corresponding to the distance measurement area from p1 to p45 in FIG.
Can be divided into small blocks. Step S207
Then, the subject defocus detection processing for all of these 45 small blocks is repeatedly performed, and finally, the processing shown in FIG.
As shown in, it is possible to obtain the subject defocus over a wide range of 45 points on the shooting screen.

【0031】図6は本発明の画像処理を行う対象とな
る、被写体を撮影して得られた原画像の一例を示す。
FIG. 6 shows an example of an original image obtained by photographing a subject, which is the object of the image processing of the present invention.

【0032】正面に女性がいるポートレイトであるが、
右側には手前から奥に並んだ柱が見えている。左側には
建物の側面が、女性の後ろには庭の植物がある。この画
像の処理を例に、本第1の実施形態を図17に示すフロ
ーチャートを参照しながら説明する。
A portrait with a woman in front,
On the right side, you can see the pillars lined up from the front to the back. On the left is the side of the building and behind the woman is the garden plant. This image processing will be described as an example with reference to the flowchart shown in FIG.

【0033】まず、ステップS101において、図3〜
図5を参照して上述したようにして、図2に示す各測距
領域毎に焦点検出を行う。図7は、図6の画像に各測距
領域を重ねて示したものである。測距領域の位置では距
離情報、または撮影したときの焦点情報がわかる。この
図からもわかるように、距離または、焦点状態の情報が
あるのは、画面のごく一部に過ぎない。
First, in step S101, as shown in FIG.
As described above with reference to FIG. 5, focus detection is performed for each distance measurement area shown in FIG. FIG. 7 shows the distance measurement areas superimposed on the image of FIG. At the position of the distance measuring area, distance information or focus information at the time of shooting can be known. As can be seen from this figure, only a small part of the screen has information on the distance or the focus state.

【0034】次にステップS102で、焦点状態(デフ
ォーカス状態)をグループ分けする。図8は、画像を撮
影したときの各測距領域でのデフォーカス状態を示した
デフォーカスマップである。ここでは、デフォーカス量
の差が少ない測距領域同しをグループとしてまとめる。
なお、本実施の形態ではデフォーカス量で分類している
が、各測距領域の対象物までの絶対距離を求めた場合に
は、距離毎に分類を行っても良い。
Next, in step S102, the focus state (defocus state) is divided into groups. FIG. 8 is a defocus map showing a defocus state in each distance measurement area when an image is captured. Here, the distance-measuring regions having a small difference in defocus amount are grouped together.
It should be noted that in the present embodiment, the classification is performed by the defocus amount, but when the absolute distance to the object in each ranging area is obtained, the classification may be performed for each distance.

【0035】デフォーカスマップからグループ分けした
ものを測距領域に記号と対応させたものが図9である。
FIG. 9 shows a grouping of the defocus map in which the distance measuring areas are associated with the symbols.

【0036】グループ(g)には、p1,p8,p9,p10,p18,p
19,p20,p29,p30,p31,p39が含まれ、デフォーカス量は、
-1.06〜-1.01である。
Group (g) includes p1, p8, p9, p10, p18, p
19, p20, p29, p30, p31, p39 are included, and the defocus amount is
It is -1.06 to -1.01.

【0037】グループ(h)には、p2,p3,p11,p21が含
まれ、デフォーカス量は、-1.17〜-1.13である。
The group (h) includes p2, p3, p11 and p21, and the defocus amount is -1.17 to -1.13.

【0038】グループ(i)には、p6,p7, p14,p15,p1
6,p26,p27,p37が含まれ、デフォーカス量は、-1.17〜-
1.12である。
Group (i) includes p6, p7, p14, p15, p1
6, p26, p27, p37 are included, and the defocus amount is -1.17 ~-
It is 1.12.

【0039】グループ(j)には、p4,p5,p12,p13,p22,
p23,p24,p25,p32,p33,p34,p35,p36,p40,p41,p42,p43,p4
4が含まれ、デフォーカス量は、-0.03〜0.03である。デ
フォーカス量が0すなわち合焦を含むこのグループが主
被写体であることがわかる。このように、個々のデフォ
ーカス量からも主被写体が判別できるが、画像情報とし
て合焦した測距領域を個々のデフォーカス量とは別に記
録しておき、合焦した測距領域を含むグループを主被写
体としても良い。また、撮影者が主被写体を指定して処
理することも可能である。
Group (j) includes p4, p5, p12, p13, p22,
p23, p24, p25, p32, p33, p34, p35, p36, p40, p41, p42, p43, p4
4 is included, and the defocus amount is -0.03 to 0.03. It can be seen that this group in which the defocus amount is 0, that is, the focus is included is the main subject. In this way, the main subject can be discriminated from the individual defocus amount, but the focused distance measuring area is recorded separately from the individual defocus amount as the image information, and the group including the focused distance measuring area is recorded. May be used as the main subject. It is also possible for the photographer to designate and process the main subject.

【0040】グループ(k)には、p45のみ含まれ、近
接する他のグループには含まれない。デフォーカス量
は、-1.05である。
The group (k) includes only p45 and does not include other adjacent groups. The defocus amount is -1.05.

【0041】グループ(l)には、p17,p28,p38が含ま
れ、デフォーカス量は-0.82〜-0.44である。
Group (l) includes p17, p28, and p38, and the defocus amount is -0.82 to -0.44.

【0042】次にステップS103で画像を撮影する。
入力した画像は一時的にRAM21に格納する。
Next, in step S103, an image is taken.
The input image is temporarily stored in the RAM 21.

【0043】ステップS104では、画像の分割を行
う。
In step S104, the image is divided.

【0044】図10は画像のみを用いて領域分割した図
である。画像の分割およびグループ分けは、画像の輝度
情報や色情報などを用いて行う。輝度成分のみで分割を
行うと、影がかかった部分や、同じ物体の光があたった
部分とそうでない部分で別のグループになってしまうの
で、色成分を加味してグループ分割することが重要であ
る。図6に示す原画像に分割処理を行うと(a)〜
(f)の6つの小画像に分割できる。
FIG. 10 is a diagram in which regions are divided using only images. The image division and group division are performed using the image brightness information and color information. If only the brightness component is used for division, different groups will be created for the shaded area, the area illuminated by the light of the same object and the area not illuminated by the same object. Is. When division processing is performed on the original image shown in FIG.
It can be divided into 6 small images of (f).

【0045】小画像(a)は、画面左側の建物の部分と
影になった床の部分、小画像(b)は人物の後ろにある
植物の部分、主に緑色の部分、小画像(c)は画面右側
の手前から奥に並んでいる薄茶色い柱の部分、小画像
(d)は人物が着ている洋服の部分(例えば青い洋
服)、小画像(e)は人物の顔など肌の部分(肌色)小
画像(f)は床の部分である。
The small image (a) is the building part and the shaded floor part on the left side of the screen, and the small image (b) is the plant part behind the person, mainly the green part, and the small image (c). ) Is the light brown pillars lined up from the front to the back on the right side of the screen, the small image (d) is the part of the clothes worn by the person (for example, blue clothes), and the small image (e) is the skin of the person's face or skin. The part (skin color) small image (f) is the part of the floor.

【0046】ステップS105では、分割した小画像を
グループ分けしたデフォーカス量を考慮して再分割およ
び結合する。
In step S105, the divided small images are re-divided and combined in consideration of the defocus amount of the divided small images.

【0047】図11は画像情報により分割された小画像
に測距領域を重ねて表したものである。それぞれの領域
に含まれる測距領域は以下のとおりである。
FIG. 11 shows a distance measuring area overlaid on a small image divided by image information. The distance measurement areas included in each area are as follows.

【0048】小画像(a)には、測距領域p1,p8,p9,p1
0,p18,p19,p20,p29,p30,p31,p39が含まれる。これは、
デフォーカス情報による分割領域グループ(g)と完全
に一致する。
In the small image (a), the distance measuring areas p1, p8, p9, p1
0, p18, p19, p20, p29, p30, p31, p39 are included. this is,
It completely matches the divided area group (g) according to the defocus information.

【0049】小画像(b)には、測距領域p2,p3,p6,p7,
p11,p14,p15,p16,p21,p26,p27,p37が含まれる。これ
は、デフォーカス情報による分割領域グループ(h)と
グループ(i)とを合わせたものと完全に一致する。デ
フォーカス情報での分割領域グループ(h)とグループ
(i)は位置が離れているために別のグループとして分
類されていたものである。
In the small image (b), distance measuring areas p2, p3, p6, p7,
p11, p14, p15, p16, p21, p26, p27, p37 are included. This is completely the same as the combination of the divided area group (h) and the group (i) based on the defocus information. The divided area group (h) and the group (i) in the defocus information are classified as different groups because their positions are apart from each other.

【0050】デフォーカス情報による分割グループ
(h)とグループ(i)のデフォーカス量を比較すると
ほぼ同じ範囲にあることから、測距領域が画面の全体に
無いことによりグループ(h)とグループ(i)が分か
れてしまったと考えられる。このため画像情報による小
画像(b)を再分割する必要は無い。
Comparing the defocus amounts of the divided group (h) and the group (i) based on the defocus information, the defocus amounts are in substantially the same range. Therefore, since the ranging area does not exist in the entire screen, the group (h) and the group (h It is considered that i) has been split. Therefore, it is not necessary to subdivide the small image (b) based on the image information.

【0051】逆に、画面情報により分割した1つの小画
像に異なるデフォーカスグループが含まれるときは、同
じ輝度や同じ色の別の被写体が1つの領域として認識さ
れてしまったものであるから、デフォーカス情報を加味
してその小画像を再分割・結合する必要がある。
On the contrary, when one small image divided by the screen information includes different defocus groups, another subject having the same brightness and the same color is recognized as one area. It is necessary to subdivide and combine the small images by adding defocus information.

【0052】小画像(c)は、測距領域p17,p28,p38が
含まれる。これは、デフォーカス情報による分割グルー
プ(l)と完全に一致する。
The small image (c) includes distance measuring areas p17, p28, p38. This is exactly the same as the division group (l) according to the defocus information.

【0053】小画像(d)は、測距領域p41,p42,p43,p4
4が含まれる。これは、デフォーカス情報による分割グ
ループ(j)の一部である。
The small image (d) is a distance measuring area p41, p42, p43, p4.
Includes 4. This is a part of the division group (j) according to the defocus information.

【0054】小画像(e)は、測距領域p4,p5,p12,p13,
p22,p23,p24,p25,p32,p33,p34,p35,p36,p40が含まれ
る。これは、デフォーカス情報による分割グループ
(j)の一部である。
The small image (e) is a distance measuring area p4, p5, p12, p13,
p22, p23, p24, p25, p32, p33, p34, p35, p36, p40 are included. This is a part of the division group (j) according to the defocus information.

【0055】小画像(f)は、測距領域p45が含まれ
る。これは、デフォーカス情報による分割グループ
(k)と完全に一致する。
The small image (f) includes the distance measuring area p45. This perfectly matches the division group (k) according to the defocus information.

【0056】小画像(d)と小画像(e)はともにデフ
ォーカスによる分割グループ(j)の一部である。この
ことは、同じ被写体の違う色の部分(または違う輝度の
部分)が分割されてしまったものである。
Both the small image (d) and the small image (e) are part of the defocused divided group (j). This means that different color parts (or different brightness parts) of the same subject are divided.

【0057】従って、図12に示すように、小画像
(d)と小画像(e)を統合して新しい領域である小画
像(de)を作成する。これは、デフォーカスによる分割
グループ(j)と完全に一致する。
Therefore, as shown in FIG. 12, the small image (d) and the small image (e) are integrated to create a small image (de) which is a new area. This perfectly matches the division group (j) by defocus.

【0058】以上のようにして、画面は(a),
(b),(c),(de),(f)の5つの小画像に再
分割・結合される。
As described above, the screen is (a),
The images are subdivided and combined into five small images (b), (c), (de), and (f).

【0059】ステップS106では、分割されたそれぞ
れの領域に対して画像処理を行う。
In step S106, image processing is performed on each of the divided areas.

【0060】小画像(a)は、デフォーカス情報による
分割領域グループ(g)と一致するのでこのデフォーカ
ス量-1.06〜-1.01に基づいて画像のぼかし処理を行う。
小画像(a)に対してぼかし処理を行ったものを小画像
(a2)とする。フォーカス量が(絶対値として)大き
いほどぼかし量を多くする。
Since the small image (a) matches the divided area group (g) based on the defocus information, the image blurring process is performed based on the defocus amount -1.06 to -1.01.
A small image (a2) is obtained by performing blurring processing on the small image (a). The larger the focus amount (as an absolute value), the larger the blur amount.

【0061】小画像(b)は、デフォーカス情報による
分割領域グループ(h)とグループ(i)とを合わせた
ものに一致し、デフォーカス量は、-1.17〜-1.13であ
る。このデフォーカス量に基づいて画像のぼかし処理を
行う。小画像(b)に対してぼかし処理を行ったものを
小画像(b2)とする。本例ではこの領域が最もぼかし量
が多い。
The small image (b) corresponds to a combination of the divided area group (h) and the group (i) according to the defocus information, and the defocus amount is -1.17 to -1.13. Image blurring processing is performed based on this defocus amount. A small image (b2) is obtained by subjecting the small image (b) to blur processing. In this example, this area has the largest blur amount.

【0062】小画像(c)は、デフォーカス情報による
分割領域グループ(l)と一致し、デフォーカス量は-
0.82〜-0.44である。このデフォーカス量に基づいて画
像のぼかし処理を行う。小画像(c)に対してぼかし処
理を行ったものを小画像(c2)とする。
The small image (c) matches the divided area group (l) according to the defocus information, and the defocus amount is-.
It is 0.82 to -0.44. Image blurring processing is performed based on this defocus amount. A small image (c2) is obtained by performing blurring processing on the small image (c).

【0063】小画像(de)は、デフォーカス情報による
分割領域グループ(j)と一致しデフォーカス量は、-
0.03〜0.03である。この領域は主被写体なので、ぼかし
処理は行わずそのままの画像を使うか、逆にシャープ処
理や輪郭強調をかけても良い。処理を行った、または処
理を行わない場合でも画像領域を小画像(de2)とす
る。
The small image (de) matches the divided area group (j) according to the defocus information, and the defocus amount is −
It is 0.03 to 0.03. Since this area is the main subject, the image may be used as it is without performing the blurring process, or conversely, sharpening or contour enhancement may be applied. The image area is a small image (de2) even if the processing is performed or is not performed.

【0064】小画像(f)は、デフォーカス情報による
分割領域グループ(k)と一致する。デフォーカス量
は、-1.05であり、このデフォーカス量に基づいて画像
のぼかし処理を行う。ぼかし処理を行った領域を(f2)
とする。
The small image (f) matches the divided area group (k) according to the defocus information. The defocus amount is -1.05, and the image blurring process is performed based on this defocus amount. The area that has been blurred is (f2)
And

【0065】このように、統合された小画像にそれぞれ
画像処理をおこなったものを図13に示す。
FIG. 13 shows images obtained by performing image processing on each of the integrated small images in this way.

【0066】ステップS107において、画像処理をお
こなった各小画像(a2)、(b2)、(c2)、(de2)、
(f2)を再合成し1つの画像にする。デフォーカス量
(または距離情報)から遠い領域が下になるように再合
成する。合成された画像の例を図14に示す。
In step S107, the small images (a2), (b2), (c2), (de2), which have undergone image processing,
(F2) is recombined into one image. Recomposition is performed so that the area far from the defocus amount (or distance information) is at the bottom. FIG. 14 shows an example of the combined image.

【0067】以上説明したように、原画像を輝度や色情
報で分割したものと、焦点検出で得られたデフォーカス
情報(又は距離情報)から分割した領域各々のぼかし量
を決定し、それぞれ異なるぼかし量でぼかし処理を行っ
た分割領域を再合成することによって、背景をぼかし、
主被写体を浮き立たせた、大口径レンズで絞りを開けて
撮影したような効果を有する画像を得ることができる。
As described above, the blur amount of each of the divided areas is determined from the original image divided by the luminance and color information and the defocus information (or distance information) obtained by the focus detection, and the different blur amounts are determined. The background is blurred by recombining the divided areas that have been blurred with the amount of blur.
It is possible to obtain an image that has the effect of taking a picture of a main subject in a floating manner and opening the diaphragm with a large-diameter lens.

【0068】<第2の実施形態>次に、本発明の第2の
実施形態について説明する。本第2の実施形態では、測
距領域の数が上記第1の実施形態よりも少ない場合(デ
フォーカス情報や距離情報のある領域が少ない場合)に
ついて説明する。
<Second Embodiment> Next, a second embodiment of the present invention will be described. In the second embodiment, a case where the number of distance measuring areas is smaller than that in the first embodiment (when there are few areas with defocus information or distance information) will be described.

【0069】図15は、7点の測距領域で距離情報を検
出する例を示し、図6に示す原画像に測距領域を重ねて
表示したものである。なお、焦点検出方法は、領域数の
他は図3〜図5を参照して説明した概念と同様であるた
め、ここでは説明を省略する。測距領域の位置では、距
離情報または焦点情報(デフォーカス情報)がわかる。
第1の実施形態ではデフォーカス量とその方向が求めら
れた場合について説明を行ったが、第2の実施形態では
被写体距離を使うので簡単に補足しておく。焦点検出が
なされると周知のごとく、その出力として、デフォーカ
ス量とその方向が得られ、撮影レンズのレンズ繰り出し
量が決定される。従って、該測距領域における被写体距
離をD、撮影レンズの繰り出し量、焦点距離をそれぞれ
P,fとすると、近似的にD≒f2 /Pの関係より被写
体距離を求めることが可能となる。この図からもわかる
ように、距離情報または焦点情報があるのは、画面のご
く一部に過ぎない。
FIG. 15 shows an example in which the distance information is detected in the seven distance measuring areas, and the distance measuring areas are superimposed on the original image shown in FIG. 6 and displayed. Note that the focus detection method is the same as the concept described with reference to FIGS. 3 to 5 except for the number of areas, and therefore description thereof will be omitted here. At the position of the distance measurement area, distance information or focus information (defocus information) can be known.
In the first embodiment, the case where the defocus amount and the direction thereof are obtained has been described, but in the second embodiment, the subject distance is used, so a brief description will be given. As is well known when focus detection is performed, the defocus amount and its direction are obtained as the output, and the lens extension amount of the photographing lens is determined. Therefore, if the subject distance in the distance measuring area is D, the moving amount of the photographing lens and the focal length are P and f, respectively, the subject distance can be approximately calculated from the relationship of D≈f2 / P. As can be seen from this figure, only a small part of the screen has distance information or focus information.

【0070】上の測距点をpp1、中部の5つの測距点は
左からpp2、pp3、pp4、pp5、pp6、下の測距点をpp7とす
る。
The upper distance measuring point is pp1, the middle five distance measuring points are pp2, pp3, pp4, pp5, pp6 from the left, and the lower distance measuring points are pp7.

【0071】以下、図18を参照して、本発明の第2の
実施形態における処理について説明する。なお、図18
において図17と同様の処理には参照番号を付し、説明
を省略する。
The processing in the second embodiment of the present invention will be described below with reference to FIG. Note that FIG.
In FIG. 17, the same processes as those in FIG.

【0072】まず、上述したステップS101〜S10
4の処理により、画像を分割する。
First, steps S101 to S10 described above.
The image is divided by the processing of 4.

【0073】図16は画像のみを用いて領域分割した図
に7点の測距領域を重ねて表示したものである。画像の
分割は第1の実施形態と同様に、画像の輝度情報や、色
の情報などを用いて行う。原画像に分割処理を行うと
(a)〜(f)の6つの小画像に分割できる。
FIG. 16 is a diagram in which seven distance measuring areas are overlapped and displayed on a diagram obtained by dividing an area using only images. The image division is performed using the image brightness information, color information, and the like, as in the first embodiment. If the original image is divided, it can be divided into six small images (a) to (f).

【0074】(a)画面左側の建物の部分と影になった
床の部分が1つの小画像として分割され、測距点pp2が
含まれる。測距点pp2の測距結果は約8mである。 (b)人物の後ろにある植物の部分、主に緑色の部分が
1つの小画像に分割され、測距点pp3、pp6の2つ含まれ
る。被写体までの距離は15m以上である。 (c)画面右側の手前から奥に並んでいる薄茶色い柱の
部分が1つの小画像に分割され、測距点がひとつも含ま
れず距離情報が無い。 (d)人物が着ている洋服の部分(青い洋服)がひとつ
の小画像に分割され、測距点pp7が含まれる。距離は約
2mである。 (e)人物の顔など肌の部分(肌色)がひとつの小画像
に分割され3つの測距点pp1、pp4、pp5が含まれる。距
離は約2mである。 (f)床の部分が小画像に分けられ、測距領域がないた
め距離情報がない。測距点が含まれる小画像は、主被写
体の距離とその分割領域の距離情報に基づいてぼかし処
理を行う。一方、距離が分からない領域は、つぎのよう
な方法でぼかし量を決定する。
(A) The building portion and the shaded floor portion on the left side of the screen are divided into one small image, and the distance measuring point pp2 is included. The distance measurement result at the distance measurement point pp2 is about 8 m. (B) The part of the plant behind the person, mainly the green part, is divided into one small image, and two distance measuring points pp3 and pp6 are included. The distance to the subject is 15 m or more. (C) The light brown columns that are lined up from the front to the back on the right side of the screen are divided into one small image, and no distance measuring points are included, and there is no distance information. (D) The part of the clothes worn by the person (blue clothes) is divided into one small image, and the distance measuring point pp7 is included. The distance is about 2m. (E) A skin portion (skin color) such as a person's face is divided into one small image and includes three focus detection points pp1, pp4, pp5. The distance is about 2m. (F) Since the floor portion is divided into small images and there is no distance measurement area, there is no distance information. The small image including the focus detection points is subjected to blurring processing based on the distance of the main subject and the distance information of the divided areas. On the other hand, for a region whose distance is unknown, the blurring amount is determined by the following method.

【0075】引き続き、ステップS105において小画
像の再分割・結合を行う。ここでは、小画像(d)と
(e)が結合される。
Subsequently, in step S105, the small images are subdivided and combined. Here, the small images (d) and (e) are combined.

【0076】次にステップS301において、分割した
小画像が全てデフォーカス情報又は距離情報を有するか
否かを判断する。無い場合にはステップS302に進
み、例えば以下の方法にてぼかし量を決定する。
Next, in step S301, it is determined whether all the divided small images have defocus information or distance information. If not, the process proceeds to step S302, and the blurring amount is determined by the following method, for example.

【0077】1)領域内の空間周波数分布 領域内の空間周波数の分布により、高周波成分がもとも
と多ければぼかし量を少なく、少なければぼかし量を多
くする。さらに、デフォーカス量(距離情報)がわかっ
ている領域と比較して同等の高周波成分を含む領域と同
じぼかし量にする。全体的にぼかし量の少ない画像であ
っても、まったくボケていないわけではなく、原画像の
わずかなぼかし量を強調するようにする。たとえば小画
像(f)の空間周波数の分布は小画像(a)と同程度な
ので小画像(a)と同様な画像処理を行う。
1) Spatial frequency distribution in the area According to the distribution of the spatial frequency in the area, if the high frequency component is originally large, the blurring amount is small, and if it is small, the blurring amount is large. Further, the blurring amount is set to be the same as the region including the equivalent high frequency component as compared with the region where the defocus amount (distance information) is known. Even if the image has a small blur amount as a whole, it does not mean that the image is not blurred at all, and the slight blur amount of the original image is emphasized. For example, since the spatial frequency distribution of the small image (f) is about the same as that of the small image (a), the same image processing as that of the small image (a) is performed.

【0078】2)領域の位置 画面の周辺であればぼかし量を多くする。本来主被写体
と同等のデフォーカス量で、ボケていない被写体であっ
ても画面の周辺部分であればぼかし量が多くても全体の
画像としておかしくならないからである。小画像(c)
は画面の周辺であるのでぼかし量を多くする。
2) Position of area If the area is near the screen, the amount of blurring is increased. This is because the defocus amount is essentially the same as that of the main subject, and even an unblurred subject in the peripheral portion of the screen will not be strange as the entire image even if the blur amount is large. Small image (c)
Is around the screen, so the amount of blur is increased.

【0079】3)接している領域の情報から推測 接している領域のぼかし量と同等のぼかし量にする。3) Inferred from the information of the contact area The blur amount is the same as the blur amount of the contacting area.

【0080】このようにして、決定されたぼかし量及
び、デフォーカス情報や距離情報がある場合にはそう行
った情報に基づいて、被写体距離が未知な領域に関して
もぼかし処理を行う(ステップS106)。
In this way, if there is defocus information or defocus information or distance information that has been determined in this way, blur processing is also performed for areas where the subject distance is unknown (step S106). .

【0081】最後にぼかし処理を行った各々の画像を再
合成して1枚の画像を作成する(ステップS107)。
Finally, each image subjected to the blurring process is recombined to create one image (step S107).

【0082】以上のようにして分割した全ての領域に対
してデフォーカス量(距離情報)がわからなくてもその
領域のぼかし量を決定することができる。
Even if the defocus amount (distance information) is not known for all the regions divided as described above, the blur amount of the region can be determined.

【0083】ぼかし量が決定したら、第1の実施形態と
同様に各領域をぼかし処理し、画像を再構成することに
よって、背景をぼかし、主被写体を浮き立たせた画像を
得ることができる。
After the blurring amount is determined, each region is subjected to blurring processing and the image is reconstructed in the same manner as in the first embodiment, whereby it is possible to obtain an image in which the background is blurred and the main subject is highlighted.

【0084】[0084]

【他の実施形態】なお、本発明は、複数の機器(例えば
ホストコンピュータ、インターフェイス機器、カメラヘ
ッドなど)から構成されるシステムに適用しても、一つ
の機器からなる装置(例えば、デジタルスチルカメラ、
デジタルビデオカメラなど)に適用してもよい。
Other Embodiments Even when the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a camera head, etc.), an apparatus including one device (for example, a digital still camera) ,
Digital video camera).

【0085】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納された
プログラムコードを読み出し実行することによっても、
達成されることは言うまでもない。この場合、記憶媒体
から読み出されたプログラムコード自体が前述した実施
形態の機能を実現することになり、そのプログラムコー
ドを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実
行することにより、前述した実施形態の機能が実現され
るだけでなく、そのプログラムコードの指示に基づき、
コンピュータ上で稼働しているオペレーティングシステ
ム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。ここでプログラ
ムコードを記憶する記憶媒体としては、例えば、フロッ
ピー(登録商標)ディスク、ハードディスク、ROM、
RAM、磁気テープ、不揮発性のメモリカード、CD−
ROM、CD−R、DVD、光ディスク、光磁気ディス
ク、MOなどが考えられる。
Further, an object of the present invention is to supply a storage medium (or recording medium) recording a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to supply a computer of the system or apparatus ( Alternatively, by the CPU or MPU) reading and executing the program code stored in the storage medium,
It goes without saying that it will be achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also based on the instruction of the program code,
An operating system (OS) running on the computer does some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized. Here, as the storage medium for storing the program code, for example, a floppy (registered trademark) disk, a hard disk, a ROM,
RAM, magnetic tape, non-volatile memory card, CD-
ROM, CD-R, DVD, optical disk, magneto-optical disk, MO, etc. are considered.

【0086】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, , The CPU provided in the function expansion card or the function expansion unit performs some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized.

【0087】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した図5及び図17に示すフ
ローチャートに対応するプログラムコードが格納される
ことになる。
When the present invention is applied to the above storage medium, the storage medium stores the program code corresponding to the flowcharts shown in FIGS. 5 and 17 described above.

【0088】[0088]

【発明の効果】暗いレンズで撮影した画像や、撮像素子
のサイズが小さいために深度の深い画像を、画像を解析
した結果と限られた部分の距離もしくはデフォーカス情
報のみを用いて、大口径レンズで撮影したような擬似ボ
ケ画像を作成することができる。
As described above, an image taken with a dark lens or an image with a large depth due to the small size of the image pickup device is used with a large aperture by using only the result of analyzing the image and the limited distance or defocus information. It is possible to create a pseudo-blurred image as if taken with a lens.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態における撮像装置の構成を
示す図である。
FIG. 1 is a diagram showing a configuration of an imaging device according to an embodiment of the present invention.

【図2】本発明の第1の実施形態における測距領域を説
明する図である。
FIG. 2 is a diagram illustrating a distance measuring area according to the first embodiment of the present invention.

【図3】図2に示す測距領域の焦点検出の原理を示す光
学系の斜視図である。
FIG. 3 is a perspective view of an optical system showing the principle of focus detection in the distance measurement area shown in FIG.

【図4】本発明の第1の実施形態における焦点検出のた
めのエリアセンサーを示す図である。
FIG. 4 is a diagram showing an area sensor for focus detection according to the first embodiment of the present invention.

【図5】本発明の第1の実施形態における焦点検出処理
のフローチャートである。
FIG. 5 is a flowchart of focus detection processing according to the first embodiment of the present invention.

【図6】本発明の第1の実施形態における画像処理の対
象となる原画像の一例を示す図である。
FIG. 6 is a diagram showing an example of an original image that is a target of image processing according to the first embodiment of the present invention.

【図7】図6に示す原画像に測距領域を重ねて示した図
である。
FIG. 7 is a diagram showing a range-finding area superimposed on the original image shown in FIG. 6;

【図8】本発明の第1の実施形態におけるデフォーカス
マップを示す図である。
FIG. 8 is a diagram showing a defocus map according to the first embodiment of the present invention.

【図9】本発明の第1の実施形態におけるデフォーカス
情報によるグループ分割結果を示す図である。
FIG. 9 is a diagram showing a result of group division based on defocus information according to the first embodiment of the present invention.

【図10】本発明の第1の実施形態における画像を小画
像に領域分割した図である。
FIG. 10 is a diagram in which an image according to the first embodiment of the present invention is divided into small images.

【図11】本発明の第1の実施形態における小画像分割
とグループ分割の関係を示す図である。
FIG. 11 is a diagram showing a relationship between small image division and group division according to the first embodiment of the present invention.

【図12】本発明の第1の実施形態におけるデフォーカ
ス情報による小画像の統合を示す図である。
FIG. 12 is a diagram showing integration of small images by defocus information according to the first embodiment of the present invention.

【図13】本発明の第1の実施形態における焦点情報に
基づいて小画像に画像処理を行った例を示す図である。
FIG. 13 is a diagram showing an example in which image processing is performed on a small image based on focus information according to the first embodiment of the present invention.

【図14】図13に示す画像処理後の小画像を再合成し
た画像を示す図である。
14 is a diagram showing an image obtained by recombining the small images after the image processing shown in FIG.

【図15】本発明の第2の実施形態における原画像に7
点測距を重ねた図である。
FIG. 15 shows 7 in the original image in the second embodiment of the present invention.
It is the figure which piled up point distance measurement.

【図16】本発明の第2の実施形態における小画像分割
と測距点の関係を示す図である。
FIG. 16 is a diagram showing a relationship between a small image division and a focus detection point according to the second embodiment of the present invention.

【図17】本発明の第1の実施形態における処理の動作
を説明するフローチャートである。
FIG. 17 is a flowchart illustrating an operation of processing according to the first embodiment of the present invention.

【図18】本発明の第2の実施形態における処理の動作
を説明するフローチャートである。
FIG. 18 is a flowchart illustrating an operation of processing according to the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1、3 撮影レンズ 2 絞り 4 主ミラー 5 サブミラー 6 シャッター 7 CCDやMOS型等の撮像素子 8 LCD(透過型液晶表示器)等の表示器 9 ペンタプリズム 10 結像レンズ 11 焦点検出光学系 12 焦点検出用エリアセンサー 13 焦点調節回路 14 絞り駆動回路 15 ミラー駆動回路 16 エリアセンサー駆動回路 17 シャッター駆動回路 18 撮像素子駆動回路 19 A/D変換回路 20 信号処理回路 21 RAM(ランダムアクセスメモリ) 22 ROM(リードオンリーメモリ) 23 コンパクトフラッシュ(CF)等の記録媒体 24 マイクロコンピュータの中央演算処理装置(CP
U) 25 LCD等のモニタ(表示手段) 26 スイッチ入力回路 28 レリーズスイッチ(レリーズSW) 53 フィールドレンズ 54 視野マスク 55 絞り板 56 2次結像レンズ
1, 3 Photographing lens 2 Aperture 4 Main mirror 5 Sub-mirror 6 Shutter 7 CCD or MOS type image sensor 8 LCD (transmissive liquid crystal display) display 9 Penta prism 10 Imaging lens 11 Focus detection optical system 12 Focus Detection area sensor 13 Focus adjustment circuit 14 Aperture drive circuit 15 Mirror drive circuit 16 Area sensor drive circuit 17 Shutter drive circuit 18 Image sensor drive circuit 19 A / D conversion circuit 20 Signal processing circuit 21 RAM (random access memory) 22 ROM ( Read-only memory 23 Recording medium such as compact flash (CF) 24 Central processing unit (CP) of microcomputer
U) 25 Monitor (display means) such as LCD 26 Switch input circuit 28 Release switch (release SW) 53 Field lens 54 Field mask 55 Aperture plate 56 Secondary imaging lens

Claims (25)

【特許請求の範囲】[Claims] 【請求項1】 被写体光学像を電気信号に変換して、画
像を撮像する撮像手段と、 前記撮像手段の撮影画面に対応する複数箇所で、前記画
像の焦点情報を検出する焦点検出手段と、 前記撮像手段により得られた画像を分割する分割手段
と、 前記分割手段により分割された各分割画像に対し、各分
割画像に対応する前記焦点情報に基づいて画像処理を行
う画像処理手段と、 前記画像処理手段により画像処理された分割画像を1つ
の画像に合成する合成手段とを有することを特徴とする
撮像装置。
1. An image pickup unit for converting an optical image of an object into an electric signal to pick up an image, and a focus detection unit for detecting focus information of the image at a plurality of positions corresponding to a shooting screen of the image pickup unit. Dividing means for dividing the image obtained by the imaging means, image processing means for performing image processing on each divided image divided by the dividing means based on the focus information corresponding to each divided image, An image pickup apparatus comprising: a combining unit that combines the divided images that have been image-processed by the image processing unit into one image.
【請求項2】 画像及び画像の複数箇所における被写体
の焦点情報を入力する画像入力手段と、 前記画像入力手段により入力した画像を分割する分割手
段と、 前記分割手段により分割された各分割画像に対し、各分
割画像に対応する前記焦点情報に基づいて画像処理を行
う画像処理手段と、 前記画像処理手段により画像処理された分割画像を1つ
の画像に合成する合成手段とを有することを特徴とする
画像処理装置。
2. An image input unit for inputting an image and focus information of a subject at a plurality of positions of the image, a dividing unit for dividing the image input by the image input unit, and each divided image divided by the dividing unit. On the other hand, the image processing device further includes an image processing unit that performs image processing based on the focus information corresponding to each divided image, and a combining unit that combines the divided images processed by the image processing unit into one image. Image processing device.
【請求項3】 前記分割手段は、 前記画像データを、輝度情報及び色情報の少なくともい
ずれか一方に基づいて分割する画像分割手段と、 前記分割された各画像を、前記焦点情報に基づいて再分
割及び結合する再分割手段とを有することを特徴とする
請求項1又は2に記載の装置。
3. The image dividing means divides the image data based on at least one of luminance information and color information, and the divided images are reproduced based on the focus information. Device according to claim 1 or 2, characterized in that it comprises subdividing means for dividing and combining.
【請求項4】 前記分割画像に対応する焦点情報が検出
されていない場合に、画像処理パラメータを決定する画
像処理パラメータ決定手段を更に有し、 前記画像処理手段は、各分割画像に対応する焦点情報が
検出されている場合は、該焦点情報に基づいて画像処理
を行い、焦点情報が検出されていない場合は前記画像処
理パラメータ決定手段によって決定された画像処理パラ
メータを用いて画像処理を行うことを特徴とする請求項
1乃至3のいずれかに記載の装置。
4. The image processing parameter determining means for determining an image processing parameter when focus information corresponding to the divided image is not detected, wherein the image processing means has a focus corresponding to each divided image. When information is detected, image processing is performed based on the focus information, and when focus information is not detected, image processing is performed using the image processing parameter determined by the image processing parameter determination means. The device according to any one of claims 1 to 3, characterized in that.
【請求項5】 被写体光学像を電気信号に変換して、画
像を撮像する撮像手段と、 前記撮像手段の撮影画面に対応する複数箇所で、前記画
像の被写体までの測距を行い、距離情報を取得する測距
手段と、 前記撮像手段により得られた画像を分割する分割手段
と、 前記分割手段により分割された各分割画像に対し、各分
割画像に対応する前記距離情報に基づいて画像処理を行
う画像処理手段と、 前記画像処理手段により画像処理された分割画像を1つ
の画像に合成する合成手段とを有することを特徴とする
撮像装置。
5. An image pickup unit for converting an optical image of an object into an electric signal to pick up an image, and distance measurement to the object of the image at a plurality of locations corresponding to a shooting screen of the image pickup unit to obtain distance information. Distance measuring means for acquiring, a dividing means for dividing the image obtained by the image pickup means, and image processing for each divided image divided by the dividing means based on the distance information corresponding to each divided image. An image pickup apparatus comprising: an image processing unit for performing the above; and a combining unit for combining the divided images image-processed by the image processing unit into one image.
【請求項6】 画像及び画像の複数箇所における被写体
の距離情報を入力する画像入力手段と、 前記画像入力手段により入力した画像を分割する分割手
段と、 前記分割手段により分割された各分割画像に対し、各分
割画像に対応する前記距離情報に基づいて画像処理を行
う画像処理手段と、 前記画像処理手段により画像処理された分割画像を1つ
の画像に合成する合成手段とを有することを特徴とする
画像処理装置。
6. An image input unit for inputting an image and distance information of a subject at a plurality of positions of the image, a dividing unit for dividing the image input by the image input unit, and each divided image divided by the dividing unit. On the other hand, it is characterized by comprising image processing means for performing image processing based on the distance information corresponding to each divided image, and combining means for combining the divided images image-processed by the image processing means into one image. Image processing device.
【請求項7】 前記分割手段は、 前記画像データを、輝度情報及び色情報の少なくともい
ずれか一方に基づいて分割する画像分割手段と、 前記分割された各画像を、前記距離情報に基づいて再分
割及び結合する再分割手段とを有することを特徴とする
請求項5又は6に記載の装置。
7. The dividing means divides the image data based on at least one of luminance information and color information, and divides each divided image based on the distance information. 7. Device according to claim 5 or 6, characterized in that it comprises subdividing means for dividing and combining.
【請求項8】 前記分割画像に対応する距離情報が無い
場合に、画像処理パラメータを決定する画像処理パラメ
ータ決定手段を更に有し、 前記画像処理手段は、各分割画像に対応する距離情報が
ある場合は、該距離情報に基づいて画像処理を行い、距
離情報が無い場合は前記画像処理パラメータ決定手段に
よって決定された画像処理パラメータを用いて画像処理
を行うことを特徴とする請求項5乃至7のいずれかに記
載の装置。
8. The image processing parameter determining means for determining an image processing parameter when there is no distance information corresponding to the divided image, wherein the image processing means has distance information corresponding to each divided image. In this case, the image processing is performed based on the distance information, and when there is no distance information, the image processing is performed using the image processing parameter determined by the image processing parameter determining means. The device according to any one of 1.
【請求項9】 前記画像処理手段は、各分割画像に対し
てローパスフィルタ処理を行うことを特徴とする請求項
1乃至8のいずれかに記載の装置。
9. The apparatus according to claim 1, wherein the image processing means performs low-pass filter processing on each divided image.
【請求項10】 前記パラメータ決定手段は、分割領域
における高周波成分量に基づいてパラメータを決定する
ことを特徴とする請求項4又は8に記載の装置。
10. The apparatus according to claim 4, wherein the parameter determining unit determines the parameter based on the amount of high frequency components in the divided areas.
【請求項11】 前記パラメータ決定手段は、前記画像
における分割領域の位置に基づいてパラメータを決定す
ることを特徴とする請求項4又は8に記載の装置。
11. The apparatus according to claim 4, wherein the parameter determining unit determines the parameter based on the position of the divided area in the image.
【請求項12】 前記パラメータ決定手段は、分割領域
が接する他の分割領域のパラメータに基づいてパラメー
タを決定することを特徴とする請求項4又は8に記載の
装置。
12. The apparatus according to claim 4, wherein the parameter determining unit determines the parameter based on a parameter of another divided area with which the divided area is in contact.
【請求項13】画像及び画像の複数箇所における被写体
の焦点情報を入力する画像入力工程と、 前記画像入力工程により入力された画像を分割する分割
工程と、 前記分割工程により分割された各分割画像に対し、各分
割画像に対応する前記焦点情報に基づいて画像処理を行
う画像処理工程と、 前記画像処理工程により画像処理された分割画像を1つ
の画像に合成する合成工程とを有することを特徴とする
画像処理方法。
13. An image inputting step of inputting an image and focus information of a subject at a plurality of positions of the image, a dividing step of dividing the image input by the image inputting step, and each divided image divided by the dividing step. On the other hand, an image processing step of performing image processing based on the focus information corresponding to each divided image, and a combining step of combining the divided images image-processed by the image processing step into one image, Image processing method.
【請求項14】 前記分割工程は、 前記画像データを、輝度情報及び色情報の少なくともい
ずれか一方に基づいて分割する画像分割工程と、 前記分割された各画像を、前記焦点情報に基づいて再分
割及び結合する再分割工程とを有することを特徴とする
請求項13に記載の画像処理方法。
14. The dividing step comprises: an image dividing step of dividing the image data based on at least one of luminance information and color information; and dividing each of the divided images based on the focus information. The image processing method according to claim 13, further comprising a subdivision step of dividing and combining.
【請求項15】 前記分割画像に対応する焦点情報が検
出されていない場合に、画像処理パラメータを決定する
画像処理パラメータ決定工程を更に有し、 前記画像処理工程では、各分割画像に対応する焦点情報
が検出されている場合は、該焦点情報に基づいて画像処
理を行い、焦点情報が検出されていない場合は前記画像
処理パラメータ決定工程によって決定された画像処理パ
ラメータを用いて画像処理を行うことを特徴とする請求
項13又は14に記載の画像処理方法。
15. The method further comprises an image processing parameter determining step of determining an image processing parameter when focus information corresponding to the divided image is not detected, wherein the image processing step includes focus corresponding to each divided image. When information is detected, image processing is performed based on the focus information, and when focus information is not detected, image processing is performed using the image processing parameter determined by the image processing parameter determination step. 15. The image processing method according to claim 13 or 14.
【請求項16】画像及び画像の複数箇所における被写体
の距離情報を入力する画像入力工程と、 前記画像入力工程により入力された画像を分割する分割
工程と、 前記分割工程により分割された各分割画像に対し、各分
割画像に対応する前記距離情報に基づいて画像処理を行
う画像処理工程と、 前記画像処理工程により画像処理された分割画像を1つ
の画像に合成する合成工程とを有することを特徴とする
画像処理方法。
16. An image input step of inputting an image and distance information of a subject at a plurality of positions of the image, a dividing step of dividing the image input by the image input step, and each divided image divided by the dividing step. On the other hand, an image processing step of performing image processing based on the distance information corresponding to each divided image, and a combining step of combining the divided images image-processed by the image processing step into one image are characterized. Image processing method.
【請求項17】 前記分割工程は、 前記画像データを、輝度情報及び色情報の少なくともい
ずれか一方に基づいて分割する画像分割工程と、 前記分割された各画像を、前記距離情報に基づいて再分
割及び結合する再分割工程とを有することを特徴とする
請求項16に記載の画像処理方法。
17. The dividing step comprises: an image dividing step of dividing the image data based on at least one of luminance information and color information; and dividing each of the divided images based on the distance information. The image processing method according to claim 16, further comprising a subdivision step of dividing and combining.
【請求項18】 前記分割画像に対応する距離情報が検
出されていない場合に、画像処理パラメータを決定する
画像処理パラメータ決定工程を更に有し、 前記画像処理工程では、各分割画像に対応する距離情報
が検出されている場合は、該距離情報に基づいて画像処
理を行い、距離情報が検出されていない場合は前記画像
処理パラメータ決定工程によって決定された画像処理パ
ラメータを用いて画像処理を行うことを特徴とする請求
項16又は17に記載の画像処理方法。
18. The image processing parameter determining step of determining an image processing parameter when the distance information corresponding to the divided image is not detected, wherein the image processing step includes a distance corresponding to each divided image. When the information is detected, the image processing is performed based on the distance information, and when the distance information is not detected, the image processing is performed using the image processing parameter determined by the image processing parameter determining step. The image processing method according to claim 16 or 17, characterized in that.
【請求項19】 前記画像処理工程では、各分割画像に
対してローパスフィルタ処理を行うことを特徴とする請
求項13乃至18のいずれかに記載の画像処理方法。
19. The image processing method according to claim 13, wherein in the image processing step, low-pass filter processing is performed on each divided image.
【請求項20】 前記パラメータ決定工程では、分割領
域における高周波成分量に基づいてパラメータを決定す
ることを特徴とする請求項15又は18に記載の画像処
理方法。
20. The image processing method according to claim 15, wherein in the parameter determining step, the parameter is determined based on the amount of high frequency components in the divided area.
【請求項21】 前記パラメータ決定工程では、前記画
像における分割領域の位置に基づいてパラメータを決定
することを特徴とする請求項15又は18に記載の画像
処理方法。
21. The image processing method according to claim 15, wherein in the parameter determining step, the parameter is determined based on the position of the divided area in the image.
【請求項22】 前記パラメータ決定工程では、分割領
域が接する他の分割領域のパラメータに基づいてパラメ
ータを決定することを特徴とする請求項15又は18に
記載の画像処理方法。
22. The image processing method according to claim 15, wherein in the parameter determining step, the parameter is determined based on a parameter of another divided area with which the divided area is in contact.
【請求項23】 情報処理装置が実行可能なプログラム
であって、前記プログラムを実行した情報処理装置を、
請求項2乃至4及び6乃至12のいずれかに記載の画像
処理装置として機能させることを特徴とするプログラ
ム。
23. A program executable by an information processing device, the information processing device executing the program comprising:
A program causing the image processing apparatus according to any one of claims 2 to 4 and 6 to 12 to function.
【請求項24】 請求項13乃至22のいずれかに記載
の画像処理方法を実現するためのプログラムコードを有
する情報処理装置が実行可能なプログラム。
24. A program executable by an information processing device, having a program code for realizing the image processing method according to claim 13.
【請求項25】 請求項23又は24に記載のプログラ
ムを記憶した記憶媒体。
25. A storage medium storing the program according to claim 23 or 24.
JP2001272554A 2001-09-07 2001-09-07 Image pickup device, image processor and method Withdrawn JP2003087545A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001272554A JP2003087545A (en) 2001-09-07 2001-09-07 Image pickup device, image processor and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001272554A JP2003087545A (en) 2001-09-07 2001-09-07 Image pickup device, image processor and method

Publications (1)

Publication Number Publication Date
JP2003087545A true JP2003087545A (en) 2003-03-20

Family

ID=19097911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001272554A Withdrawn JP2003087545A (en) 2001-09-07 2001-09-07 Image pickup device, image processor and method

Country Status (1)

Country Link
JP (1) JP2003087545A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148522A (en) * 2003-11-18 2005-06-09 Fuji Xerox Co Ltd Portable terminal device
JP2007096753A (en) * 2005-09-29 2007-04-12 Fujifilm Corp Digital camera
WO2007049634A1 (en) * 2005-10-28 2007-05-03 Nikon Corporation Imaging device, image processing device, and program
JP2007124398A (en) * 2005-10-28 2007-05-17 Nikon Corp Photographing device
JP2007221209A (en) * 2006-02-14 2007-08-30 Nikon Corp Camera, imaging method, expose arithmetic unit and program
JP2008015754A (en) * 2006-07-05 2008-01-24 Nikon Corp Image pickup device, image processor and image processing method
JP2008118348A (en) * 2006-11-02 2008-05-22 Nikon Corp Electronic camera and program
JP2010226694A (en) * 2009-02-24 2010-10-07 Ricoh Co Ltd Image processor and method of image processing
JP2011124712A (en) * 2009-12-09 2011-06-23 Fujifilm Corp Image processing device, method, and program
JP2012142952A (en) * 2012-01-27 2012-07-26 Nikon Corp Imaging apparatus
JP2012164345A (en) * 2006-10-10 2012-08-30 Nikon Corp Image classification program, image sorting device, and electronic camera
JP2013105214A (en) * 2011-11-10 2013-05-30 Canon Inc Image processor, image processing method, program, and storage medium
JP2014003404A (en) * 2012-06-15 2014-01-09 Canon Inc Image recording apparatus and image reproducing apparatus
JP2014126803A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing apparatus, image processing method, and image processing program
JP2014127965A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing apparatus and image processing method
JP2014127963A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing system and image processing method
JP2015032144A (en) * 2013-08-02 2015-02-16 キヤノン株式会社 Imaging device and control method therefor
US9025873B2 (en) 2011-11-10 2015-05-05 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP2017225191A (en) * 2017-09-13 2017-12-21 株式会社ニコン Imaging apparatus
WO2020108534A1 (en) * 2018-11-27 2020-06-04 深圳市华讯方舟太赫兹科技有限公司 Body scan image processing method, apparatus, and computer readable storage medium

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148522A (en) * 2003-11-18 2005-06-09 Fuji Xerox Co Ltd Portable terminal device
JP4534466B2 (en) * 2003-11-18 2010-09-01 富士ゼロックス株式会社 Mobile terminal device
JP4528235B2 (en) * 2005-09-29 2010-08-18 富士フイルム株式会社 Digital camera
JP2007096753A (en) * 2005-09-29 2007-04-12 Fujifilm Corp Digital camera
US8988542B2 (en) 2005-10-28 2015-03-24 Nikon Corporation Imaging device, with blur enhancement
CN101297545B (en) * 2005-10-28 2012-05-02 株式会社尼康 Imaging device and image processing device
US9596407B2 (en) 2005-10-28 2017-03-14 Nikon Corporation Imaging device, with blur enhancement
JP2007124398A (en) * 2005-10-28 2007-05-17 Nikon Corp Photographing device
WO2007049634A1 (en) * 2005-10-28 2007-05-03 Nikon Corporation Imaging device, image processing device, and program
JP4665718B2 (en) * 2005-10-28 2011-04-06 株式会社ニコン Imaging device
US7990429B2 (en) 2005-10-28 2011-08-02 Nikon Corporation Imaging device with blur enhancement
JP4924430B2 (en) * 2005-10-28 2012-04-25 株式会社ニコン Imaging apparatus, image processing apparatus, and program
JP2007221209A (en) * 2006-02-14 2007-08-30 Nikon Corp Camera, imaging method, expose arithmetic unit and program
JP4687492B2 (en) * 2006-02-14 2011-05-25 株式会社ニコン Camera, imaging method, exposure calculation device, and program
JP2008015754A (en) * 2006-07-05 2008-01-24 Nikon Corp Image pickup device, image processor and image processing method
JP2012164345A (en) * 2006-10-10 2012-08-30 Nikon Corp Image classification program, image sorting device, and electronic camera
US9036922B2 (en) 2006-10-10 2015-05-19 Nikon Corporation Image classification program, image classification device, and electronic camera
JP2008118348A (en) * 2006-11-02 2008-05-22 Nikon Corp Electronic camera and program
JP2010226694A (en) * 2009-02-24 2010-10-07 Ricoh Co Ltd Image processor and method of image processing
JP2011124712A (en) * 2009-12-09 2011-06-23 Fujifilm Corp Image processing device, method, and program
US9025873B2 (en) 2011-11-10 2015-05-05 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP2013105214A (en) * 2011-11-10 2013-05-30 Canon Inc Image processor, image processing method, program, and storage medium
JP2012142952A (en) * 2012-01-27 2012-07-26 Nikon Corp Imaging apparatus
JP2014003404A (en) * 2012-06-15 2014-01-09 Canon Inc Image recording apparatus and image reproducing apparatus
US9451148B2 (en) 2012-06-15 2016-09-20 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
US10021309B2 (en) 2012-06-15 2018-07-10 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
JP2014127965A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing apparatus and image processing method
JP2014127963A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing system and image processing method
JP2014126803A (en) * 2012-12-27 2014-07-07 Canon Inc Image processing apparatus, image processing method, and image processing program
JP2015032144A (en) * 2013-08-02 2015-02-16 キヤノン株式会社 Imaging device and control method therefor
JP2017225191A (en) * 2017-09-13 2017-12-21 株式会社ニコン Imaging apparatus
WO2020108534A1 (en) * 2018-11-27 2020-06-04 深圳市华讯方舟太赫兹科技有限公司 Body scan image processing method, apparatus, and computer readable storage medium

Similar Documents

Publication Publication Date Title
JP2003087545A (en) Image pickup device, image processor and method
JP4826028B2 (en) Electronic camera
US7668451B2 (en) System for and method of taking image
US8854528B2 (en) Imaging apparatus
JP5843486B2 (en) Imaging apparatus and control method thereof
JP2006211416A (en) Image processor and method
KR20070086061A (en) Image processing and image processing program of image processing
JP2013214878A (en) Imaging apparatus, exposure control method, and program
JP5936358B2 (en) Image display device, image display method, imaging device and control method thereof, program, and storage medium storing the same
JP2008104069A (en) Digital camera and program of digital camera
US7158183B1 (en) Digital camera
JP5361356B2 (en) Focus detection apparatus and control method thereof
JP5100410B2 (en) Imaging apparatus and control method thereof
JPH0918750A (en) Electronic camera, electronic camera system using it image pickup device and signal processing unit
JP5070856B2 (en) Imaging device
JP2004173151A (en) Digital camera
JP6223502B2 (en) Image processing apparatus, image processing method, program, and storage medium storing the same
JP5614276B2 (en) Camera with waveform display function
JP2009239792A (en) Imaging device, image processing device, and program
JP3275873B2 (en) 3D information input camera
JPH11224324A (en) Image signal processing method and device
JP2000333060A (en) Digital camera and storage medium for image signal processing
JP2005064749A (en) Camera
JP2001136429A (en) Electronic camera
US20220294991A1 (en) Focus adjustment device and focus adjustment method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081202