JP2008172523A - Multifocal camera device, and control method and program used for it - Google Patents

Multifocal camera device, and control method and program used for it Download PDF

Info

Publication number
JP2008172523A
JP2008172523A JP2007003700A JP2007003700A JP2008172523A JP 2008172523 A JP2008172523 A JP 2008172523A JP 2007003700 A JP2007003700 A JP 2007003700A JP 2007003700 A JP2007003700 A JP 2007003700A JP 2008172523 A JP2008172523 A JP 2008172523A
Authority
JP
Japan
Prior art keywords
photographing
control
module
image
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007003700A
Other languages
Japanese (ja)
Inventor
Shuji Ono
修司 小野
Hiroshi Yamaguchi
博司 山口
Meiji Ito
明治 伊藤
Hajime Shirasaka
一 白坂
Hideharu Oshima
秀晴 大島
Yasunori Tanaka
康則 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Fujifilm Corp
Original Assignee
Fujinon Corp
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujinon Corp, Fujifilm Corp filed Critical Fujinon Corp
Priority to JP2007003700A priority Critical patent/JP2008172523A/en
Publication of JP2008172523A publication Critical patent/JP2008172523A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve image quality of a synthetic image, and to smooth connection between consecutive images when a plurality of images of the same photography subject photographed by a plurality of cameras with different focal distances are selected and synthesized to track the photography subject, and an output image is generated. <P>SOLUTION: At least one out of zoom control, exposure control, focus control, color temperature control, and depth-of-field control of a photography module of a camera 1 is controlled so as to reduce at least one change in a zooming scale factor, exposure, focus, color temperature, and a depth of field accompanying track of the photography subject of the image obtained by selecting and synthesizing. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、同じ撮影対象を撮影する、焦点距離が異なる複数のカメラを備えた多焦点カメラ装置、それに用いられる制御方法並びにプログラムに関するものである。   The present invention relates to a multifocal camera device having a plurality of cameras with different focal lengths for photographing the same subject, and a control method and program used therefor.

従来、店舗内の監視、作物もしくは災害の観察、事故等の検証、またはスポーツイベントの撮影等のために、広い画角範囲とともに長い撮影距離範囲での撮影が可能なカメラ装置が知られている。   2. Description of the Related Art Conventionally, a camera device capable of shooting in a long shooting distance range as well as a wide range of angle of view is known for in-store monitoring, crop or disaster observation, accident verification, or sports event shooting. .

例えば、特許文献1には、例えば人物などの同じ撮影対象を撮影する焦点距離が異なる複数のカメラを備え、各カメラがそれぞれ1つ以上の撮影モジュールを有し、各撮影モジュールにより撮影された複数の画像を、撮影対象を一定のサイズとして再現するように選択、合成して得られた画像を出力画像として生成する多焦点カメラ装置が提案されている。   For example, Patent Literature 1 includes, for example, a plurality of cameras with different focal lengths for photographing the same subject such as a person, each camera having one or more photographing modules, and a plurality of images photographed by each photographing module. There has been proposed a multifocal camera device that generates an image obtained by selecting and synthesizing these images so as to reproduce an imaging target with a certain size as an output image.

この多焦点カメラ装置に備えられた複数の撮影モジュールは、焦点距離が短く画角が広角である広角レンズを搭載した撮影モジュールと、焦点距離が長く画角が狭角であり、遠くにある被写体を拡大して撮影する望遠レンズを搭載した撮影モジュール等を含むものであり、各撮影モジュールは、撮影視野内の全体空間のうち、分担された撮影距離の撮影領域を撮影した被写体像を一定サイズの画像として出力するものである。これにより、撮影視野内で動いている撮影対象の位置を含む空間領域を撮影する複数の撮影モジュールにより得られた複数の画像を、選択、合成して、撮影対象を常にほぼ一定のサイズとして捉えた画像を取得することができる。   The multiple shooting modules provided in this multifocal camera device include a shooting module equipped with a wide-angle lens with a short focal length and a wide angle of view, and a subject with a long focal length and a narrow angle of view. This includes an imaging module equipped with a telephoto lens that magnifies the image, and each imaging module has a certain size for the subject image obtained by imaging the imaging area of the allocated imaging distance in the entire space within the imaging field of view. Is output as an image. As a result, a plurality of images obtained by a plurality of imaging modules that capture a spatial region including the position of the imaging target moving within the imaging field of view are selected and combined, and the imaging target is always regarded as a substantially constant size. Images can be acquired.

従来の普通のカメラでは、同じ撮影対象すなわち被写体は、近くでは大きく、遠くでは小さく写るため、ズームレンズなどで遠くの被写体を大きく撮るようなことをしていたが、それには撮影対象の動きに応じてレンズの焦点距離を変える操作が必要になっていた。それが、このような多焦点カメラを用いれば、常にいずれかのカメラが適切な大きさで撮影対象を捉えているので、あとから選択、合成することにより、同様の画像を得ることができるから、撮影時に焦点距離を変えるような操作をする必要がないという効果がある。
特開2006−14291号公報
In conventional ordinary cameras, the same subject, i.e., the subject, is large in the vicinity and small in the distance, so we used a zoom lens to shoot a large subject far away. Accordingly, it is necessary to change the focal length of the lens. However, if such a multifocal camera is used, since any camera always captures the subject to be photographed at an appropriate size, a similar image can be obtained by selecting and combining later. There is an effect that it is not necessary to perform an operation for changing the focal length at the time of shooting.
JP 2006-14291 A

上記特許文献1の多焦点カメラ装置は、撮影視野内の全体空間を複数の撮影モジュールが分担して撮影しているので、個々の撮影モジュールに対して、それぞれの設定された撮像範囲に最適化されたズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御等の制御を行うことにより、各撮影モジュールにより得られた画像が、各々の撮影範囲における撮影対象の観察に最適なものとすることができる。例えば、撮影視野内に日陰と日向が混在し、複数の撮影モジュールがそれぞれ日陰または日向を主な撮影範囲としている場合、日陰を主な撮影範囲としている撮影モジュールに対して、高い露出値を設定し、日向を主な撮影範囲としている撮影モジュールに対しては、低い露出値を設定する等、各々の撮影範囲における撮影対象の観察に適した露出制御を行うことができる。   Since the multifocal camera device of the above-mentioned patent document 1 shoots the entire space within the shooting field of view by sharing a plurality of shooting modules, it is optimized for each set shooting range for each shooting module. By performing such controls as zoom control, exposure control, focus control, color temperature control, and depth of field control, the images obtained by each shooting module are optimal for observation of shooting targets in each shooting range Can be. For example, if shade and sun are mixed in the field of view, and multiple shooting modules have shade or sun as the main shooting range, set a higher exposure value for the shooting module that uses the shade as the main shooting range. However, exposure control suitable for observing a subject to be photographed in each photographing range, such as setting a low exposure value, can be performed for a photographing module whose main photographing range is the sun.

ところで、撮影対象の移動により、撮影対象を略中央部に含む出力用の画像を、撮影対象の新たな位置を含む空間領域を撮影する1以上の撮影モジュールにより撮影された画像を、選択、合成して生成する場合、新たな出力画像として選択される画像のズーミング倍率、露出、フォーカス、色温度、または被写界深度等の特性値が、前の出力画像の特性値と大きく異なったり、合成に使用される複数の画像の特性値が互いに大きく異なるときには、合成して得られた出力画像の画質が低下するとともに、連続する出力画像間の繋がりが悪く、撮影対象を観察するための画像としての性能が低下するという問題がある。   By the way, by moving the shooting target, an output image including the shooting target in a substantially central portion and an image shot by one or more shooting modules for shooting a spatial region including a new position of the shooting target are selected and combined. If the image is selected as a new output image, the zooming magnification, exposure, focus, color temperature, or depth of field of the image selected as the new output image may differ greatly from the previous output image, When the characteristic values of a plurality of images used in the image are greatly different from each other, the image quality of the output image obtained by the synthesis is deteriorated, and the connection between the continuous output images is poor, and the image is used for observing the photographing target. There is a problem that the performance of the system deteriorates.

本発明は、上記事情に鑑み、複数の撮影モジュールにより撮影された複数の画像を、選択、合成して出力画像を生成するとき、合成して得られた出力画像の画質を向上させるとともに、連続する出力画像間の繋がりを滑らかにする多焦点カメラ装置及びそれに用いられる制御方法並びにプログラムを提供することを目的とするものである。   In view of the above circumstances, the present invention improves the image quality of an output image obtained by combining a plurality of images shot by a plurality of shooting modules to generate an output image, and continuously An object of the present invention is to provide a multifocal camera device that smoothes the connection between output images to be output, a control method used therefor, and a program.

本発明の多焦点カメラ装置は、同じ撮影対象を撮影する焦点距離が異なる複数のカメラを備え、該各カメラはそれぞれ1つ以上の撮影モジュールを有し、該各撮影モジュールにより撮影された複数の画像を、撮影対象を追跡するように選択、合成して得られた画像を記録する多焦点カメラ装置において、撮影モジュールは、独立してズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つの制御が可能であり、選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの、撮影対象の追跡に伴う変化を低減するように、撮影モジュールを制御する制御手段を備えたことを特徴とするものである。   The multifocal camera device of the present invention includes a plurality of cameras with different focal lengths for photographing the same subject, and each of the cameras has one or more photographing modules, and each of the plurality of photographing images taken by the photographing modules. In a multifocal camera device that records an image obtained by selecting and combining images so as to track an imaging target, the imaging module independently performs zoom control, exposure control, focus control, color temperature control, and coverage. At least one control of depth of field control is possible, and tracking of an imaging target is performed by at least one of zooming magnification, exposure, focus, color temperature, and depth of field of an image obtained by selection and synthesis. Control means for controlling the photographing module is provided so as to reduce the accompanying change.

上記装置においては、各撮影モジュールにより撮影された複数の画像から撮影対象の位置を追跡する追跡手段と、追跡手段による撮影対象の追跡情報から各撮影モジュールのうち選択、合成に使用される画像を撮影する撮影モジュールを選択する選択手段とを有するものであってもよい。   In the above-described apparatus, a tracking unit that tracks the position of the shooting target from a plurality of images shot by each shooting module, and an image that is used for selecting and combining the shooting modules from the tracking information of the shooting target by the tracking unit. It may have a selection means for selecting a photographing module to be photographed.

本発明の制御方法は、同じ撮影対象を撮影する焦点距離が異なる複数の、それぞれ1つ以上の撮影モジュールを有するカメラを備え、各撮影モジュールにより撮影された複数の画像を、撮影対象を追跡するように選択、合成して得られた画像を記録する多焦点カメラ装置における、撮影モジュールのズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つを制御する制御方法であって、選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの、撮影対象の追跡に伴う変化を低減するように、撮影モジュールを制御することを特徴とするものである。   The control method of the present invention includes a plurality of cameras each having one or more imaging modules having different focal lengths for imaging the same imaging target, and tracks the imaging target with a plurality of images captured by each imaging module. Controlling at least one of zoom control, exposure control, focus control, color temperature control, and depth-of-field control of the imaging module in a multi-focus camera device that records images obtained by selecting and combining A control method for photographing so as to reduce a change caused by tracking of an object to be photographed, at least one of zooming magnification, exposure, focus, color temperature, and depth of field of an image obtained by selection and synthesis. The module is controlled.

上記方法においては、各撮影モジュールにより撮影された複数の画像から撮影対象の位置を追跡し、追跡して得られた撮影対象の追跡情報から、各撮影モジュールのうち選択、合成に使用される画像を撮影する撮影モジュールを選択するものであってもよい。   In the above method, the position of the shooting target is tracked from a plurality of images shot by each shooting module, and the image used for selecting and combining among the shooting modules from the tracking information of the shooting target obtained by tracking. It is also possible to select an imaging module for imaging.

本発明のプログラムは、コンピュータに、同じ撮影対象を撮影する焦点距離が異なる複数の、それぞれ1つ以上の撮影モジュールを有するカメラを備え、各撮影モジュールにより撮影された複数の画像を、撮影対象を追跡するように選択、合成して得られた画像を記録する多焦点カメラ装置における、撮影モジュールのズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つを制御することを実現させるためのプログラムであって、選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの変化を、撮影対象の追跡に伴う低減するように、撮影モジュールを制御することを実現させるためのものである。   The program of the present invention comprises a computer having a plurality of cameras each having one or more photographing modules having different focal lengths for photographing the same photographing object, and a plurality of images photographed by each photographing module are selected as photographing objects. At least one of zoom control, exposure control, focus control, color temperature control, and depth of field control of an imaging module in a multifocal camera device that records an image obtained by selecting and combining for tracking This is a program for realizing control, and at least one change in zooming magnification, exposure, focus, color temperature, and depth of field of an image obtained by selecting and synthesizing is used for tracking an imaging target. This is to realize control of the imaging module so as to reduce the accompanying reduction.

上記プログラムにおいては、コンピュータに、各撮影モジュールにより撮影された複数の画像から撮影対象の位置を追跡し、追跡して得られた撮影対象の追跡情報から、各撮影モジュールのうち選択、合成に使用される画像を撮影する撮影モジュールを選択することを実現させるためのものであってもよい。   In the above program, the position of the shooting target is tracked from a plurality of images shot by each shooting module on the computer, and the shooting target tracking information obtained by tracking is used for selecting and combining each shooting module. It may be for realizing selecting a photographing module for photographing an image to be captured.

ここで撮影対象とは、例えば人物の顔とか、犬や猫などのペット、あるいは車など、撮影したい対象物を意味するものである。   Here, the object to be photographed means an object to be photographed, such as a person's face, a pet such as a dog or cat, or a car.

ここで、「追跡情報」とは、撮影対象の位置、および時系列的に連続する複数の画像における撮影対象の位置の段階的な変化を含むものであってもよいし、そのいずれか一方の情報のみであってもよい。   Here, the “tracking information” may include a stepwise change in the position of the photographing target and the position of the photographing target in a plurality of time-sequential images. It may be information only.

本発明の多焦点カメラ装置及びそれに用いられる制御方法並びにプログラムによれば、同じ撮影対象を撮影する焦点距離が異なる複数のカメラを備え、該各カメラはそれぞれ1つ以上の撮影モジュールを有し、該各撮影モジュールにより撮影された複数の画像を、撮影対象を追跡するように選択、合成して得られた画像を記録する多焦点カメラ装置において、撮影モジュールのズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つを制御可能とし、選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの、撮影対象の追跡に伴う変化を低減するように、撮影モジュールを制御するものであるから、これにより、選択、合成して得られた連続する画像間の繋がりを滑らかにすることができる。   According to the multifocal camera device of the present invention and the control method and program used therefor, the camera includes a plurality of cameras with different focal lengths for photographing the same subject, each camera having one or more photographing modules, In a multifocal camera device that records images obtained by selecting and synthesizing a plurality of images shot by each of the shooting modules to track a shooting target, zoom control, exposure control, focus control of the shooting module, At least one of color temperature control and depth of field control is controllable, and at least one of zooming magnification, exposure, focus, color temperature, and depth of field of an image obtained by selecting and combining, Since it controls the shooting module so as to reduce the change accompanying the tracking of the shooting target, it was obtained by selection and synthesis. It can be smoothly connected between the images to be continued.

本発明の多焦点カメラ装置及びそれに用いられる制御方法並びにプログラムにおいて、各撮影モジュールにより撮影された複数の画像から撮影対象の位置を追跡し、追跡して得られた撮影対象の追跡情報から、各撮影モジュールのうち選択、合成に使用される画像を撮影する撮影モジュールを選択し、選択された撮影モジュールを、選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの、撮影対象の追跡に伴う変化を低減するように、制御するものである場合には、選択、合成に使用されると推測される画像を撮影する撮影モジュールを選択し、その選択された撮影モジュールのみを、選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの変化を低減するように制御することができるので、制御の効率を向上させることができる。   In the multifocal camera device of the present invention and the control method and program used therefor, the position of the shooting target is tracked from a plurality of images shot by each shooting module, and from the tracking information of the shooting target obtained by tracking, Select the shooting module that captures the image to be used for selection and composition, and select the selected shooting module, zooming magnification, exposure, focus, color temperature, and exposure If the control is to reduce at least one change in the depth of field due to tracking of the shooting target, select the shooting module that captures the image that is supposed to be used for selection and synthesis. Zooming magnification, exposure, focus, color temperature, and depth of field of the image obtained by selecting and compositing only the selected shooting module It is possible to control so as to reduce a change in at least one, can improve the efficiency of control.

以下、本発明の一実施形態について図を参照しながら説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

本発明の一実施形態である多焦点カメラ装置1は、撮影視野内をある人物が動いている場合において、撮影対象、例えばその人物の顔Hを異なる3つの焦点距離で撮影した複数の画像を、人物の顔Hを追跡するように選択、合成して得られる画像を記録するものであって、人物の顔Hを追跡して得られた顔Hの追跡情報から、次の撮影時の顔Hの位置を予測し、選択、合成に使用されると推測される画像を撮影する撮影モジュールを選択し、選択された撮影モジュールの設定を揃え、選択、合成して得られる画像の画質を向上させるものである。   The multifocal camera device 1 according to an embodiment of the present invention captures a plurality of images obtained by photographing a subject to be photographed, for example, the face H of the person at three different focal lengths when a person is moving within the photographing field of view. The image obtained by selecting and synthesizing the person's face H is recorded, and the face at the next shooting is recorded from the tracking information of the face H obtained by tracking the person's face H. Predict the position of H, select the shooting module that captures the image that is supposed to be used for selection and synthesis, align the settings of the selected shooting module, improve the image quality of the image obtained by selection and synthesis It is something to be made.

図1は本発明の一実施形態である多焦点カメラ装置の構成を示す概略ブロック図であり、図2は、図1の多焦点カメラ装置による撮影領域を示す模式図であり、図3は、図1の多焦点カメラ装置により撮影して得られた画像の一例を示す図である。   FIG. 1 is a schematic block diagram showing a configuration of a multifocal camera device according to an embodiment of the present invention, FIG. 2 is a schematic diagram showing an imaging region by the multifocal camera device of FIG. 1, and FIG. It is a figure which shows an example of the image acquired by image | photographing with the multifocal camera apparatus of FIG.

この多焦点カメラ装置1は、同じ顔Hを撮影する焦点距離が異なる3つのカメラC、C、Cをそれぞれ構成する1つ以上の撮影モジュールMを併設してなる撮影部10と、撮影部10の各撮影モジュールM〜M14により撮影された画像P〜P14を記憶する一時記憶部20と、撮影部10の各撮影モジュールM〜M14により撮影された複数の画像P〜P14から顔Hの位置を追跡する追跡手段30と、この追跡手段30における顔Hの位置Tを用いて各撮影モジュールM〜M14により撮影された複数の画像P〜P14を、顔Hを追跡するように選択、合成する合成部40と、選択、合成して得られた画像Uを記録する記録部50と、追跡手段30による顔Hの位置Tおよび異動方向Vから各撮影モジュールMのうち、合成部40における選択、合成に使用される画像を撮影する撮影モジュールR〜Rを選択し、選択された撮影モジュールR〜Rを、合成に使用される画像の露出の変化が低減するように、露出制御する制御部60とを備えている。また、記録部50は、図示しない外部インターフェースを介して表示装置であるモニタ70に接続されている。 The multifocal camera device 1 includes an imaging unit 10 that includes one or more imaging modules M that respectively constitute three cameras C 1 , C 2 , and C 3 having different focal lengths for imaging the same face H; A temporary storage unit 20 that stores images P 1 to P 14 photographed by the photographing modules M 1 to M 14 of the photographing unit 10 and a plurality of images photographed by the photographing modules M 1 to M 14 of the photographing unit 10. A tracking unit 30 that tracks the position of the face H from P 1 to P 14, and a plurality of images P 1 to P captured by the imaging modules M 1 to M 14 using the position T of the face H in the tracking unit 30. 14 is selected and combined so as to track the face H, a recording unit 50 that records the image U obtained by selecting and combining, and the position T and the change direction V of the face H by the tracking unit 30. From each shooting module M Selected images to be used in the synthesis selects the camera module R 1 to R N to shoot, change in the exposure of the image to be using the selected imaging module R 1 to R N, a synthetic reduction in the synthesis section 40 As described above, a control unit 60 that controls exposure is provided. The recording unit 50 is connected to a monitor 70 that is a display device via an external interface (not shown).

撮影部10は、撮影視野内の全体空間内の撮影距離がそれぞれd、d、dである撮影領域A、A、Aを、焦点距離fが異なる3つのカメラC、C、Cを用いて撮影するものであり、各カメラC、C、Cの焦点距離は、それぞれf、f、f(f<f<f)である。また、各カメラC、C、Cは、それぞれ1つ以上の撮影モジュールMを有しており、焦点距離fが長いほど、そのカメラを構成する撮影モジュール個々の視野が狭いため、カメラの全体の撮影視野を複数の撮影モジュールにより分割して撮影するようになっている。具体的には、カメラCは1つの撮影モジュールMを、カメラCは4つの撮影モジュールM〜Mを、カメラCは9つの撮影モジュールM〜M14を有しており、各撮影モジュールM〜M14は同じサイズの画像P〜P14を出力する。 The photographing unit 10 shoots the photographing areas A 1 , A 2 , and A 3 whose photographing distances in the entire space in the photographing field are d 1 , d 2 , and d 3 , and three cameras C 1 , is intended to shoot with C 2, C 3, the focal length of the cameras C 1, C 2, C 3 is a f 1, f 2, f 3, respectively (f 1 <f 2 <f 3) . Each camera C 1 , C 2 , C 3 has one or more photographing modules M, and the longer the focal length f, the narrower the field of view of the photographing modules constituting the camera. The entire field of view is divided and photographed by a plurality of photographing modules. Specifically, the camera C 1 has one photographing module M 1 , the camera C 2 has four photographing modules M 2 to M 5 , and the camera C 3 has nine photographing modules M 6 to M 14. The imaging modules M 1 to M 14 output images P 1 to P 14 having the same size.

また、各カメラC、C、Cは、各カメラに設定された設定合焦距離d、d、dに限らず、顔Hが撮影視野内のいかなる場所に存在する場合にも、顔Hを鮮明に撮像できるように、それぞれ合焦範囲(被写界深度の範囲)δ、δ、δを有し、隣接する合焦範囲δ、δ同士、および合焦範囲δ、δ同士が撮影方向に対して連続するように設定されている。 In addition, each camera C 1 , C 2 , C 3 is not limited to the set focus distance d 1 , d 2 , d 3 set for each camera, but when the face H exists in any place in the field of view. Also have in-focus ranges (range of depth of field) δ 1 , δ 2 , δ 3 so that the face H can be clearly imaged, and adjacent in-focus ranges δ 1 , δ 2 , and in-focus. The focal ranges δ 2 and δ 3 are set to be continuous with respect to the shooting direction.

さらに、全ての撮影モジュールM〜M14は、例えば、制御部60により発生されたクロック等により同期されたタイミングで撮影するようになっている。 Further, all the imaging modules M 1 to M 14 are configured to perform imaging at a timing synchronized by a clock generated by the control unit 60, for example.

以下各撮影モジュールMの構成について説明する。図4は、撮影モジュールMの構成の一例を示す図である。   Hereinafter, the configuration of each imaging module M will be described. FIG. 4 is a diagram illustrating an example of the configuration of the imaging module M.

撮影モジュールMの光学系は、所要の焦点距離を有する結像レンズ12と、撮影して得られる画像の露出を調節するための絞り13およびシャッタ14を有しており、絞り径およびシャッタの開閉は後述する制御部60から出力される絞り値データおよびシャッタスピードデータとにより制御される。なお、各撮影モジュールMの結像レンズ12の構成は焦点距離により異なる。   The optical system of the photographing module M includes an imaging lens 12 having a required focal length, a diaphragm 13 and a shutter 14 for adjusting exposure of an image obtained by photographing, and the diaphragm diameter and opening / closing of the shutter. Is controlled by aperture value data and shutter speed data output from the control unit 60 described later. Note that the configuration of the imaging lens 12 of each photographing module M differs depending on the focal length.

光学系の後方には、CCD等の撮影素子15と、A/D変換器16とを有しており、光学系を通過した被写体光をCCD等の撮影素子15により光電変換して得られたアナログ画像信号を、A/D変換器16によりデジタル画像信号に変換し、変換したデジタル画像信号をメモリに出力するようになっている。   Behind the optical system, it has a photographing element 15 such as a CCD and an A / D converter 16, and is obtained by subjecting subject light that has passed through the optical system to photoelectric conversion by the photographing element 15 such as a CCD. The analog image signal is converted into a digital image signal by the A / D converter 16, and the converted digital image signal is output to a memory.

一時記憶部20は、撮影部の複数の撮影モジュールM〜M14にそれぞれ対応する同数のメモリme〜me14を備えており、全ての撮影モジュールM〜M14からの画像データを同時かつ並行して連続的に取り込めて記憶することができる。なお、一時記憶部20は、撮影部10の複数の撮影モジュールM〜M14にそれぞれ対応する同数のメモリme〜me14を備えた場合について説明したが、これに限らず、2つ以上の撮影モジュールに対して1つのメモリを設けるようにしてもよい。 Temporary storage unit 20 is provided with the same number of memory me 1 ~me 14 respectively corresponding to the plurality of imaging modules M 1 ~M 14 of the imaging unit, simultaneously the image data from all of the camera module M 1 ~M 14 In addition, it is possible to capture and store continuously in parallel. Incidentally, the temporary storage unit 20 has been described for the case with the same number of memory me 1 ~me 14 respectively corresponding to the plurality of imaging modules M 1 ~M 14 of the imaging unit 10 is not limited to this, two or more One memory may be provided for each of the imaging modules.

一時記憶部20の各メモリme〜me14は、そのメモリが接続された各撮影モジュールM〜M14から連続して出力される撮影画像のデジタル画像データを順次一時的に記憶するものであり、例えば、SRAM、DRAM等の半導体メモリ、またはこれらを組み合わせたものを用いることができる。 Each of the memories me 1 to me 14 of the temporary storage unit 20 temporarily and sequentially stores digital image data of photographed images continuously output from the photographing modules M 1 to M 14 to which the memories are connected. For example, a semiconductor memory such as SRAM or DRAM, or a combination of these can be used.

図5は、追跡部30の構成を示す図である。追跡部30は、一時記憶部20の複数のメモリme〜me14の全てに接続され、複数のメモリから複数の撮像モジュールM〜M14の各々で撮影された画像P〜P14を取得し、取得した画像から顔Hの位置を追跡するものであり、顔Hの位置を検出する位置検出部31と、顔Hの移動方向を検出する移動方向検出部32とを備える。 FIG. 5 is a diagram illustrating a configuration of the tracking unit 30. The tracking unit 30 is connected to all of the plurality of memories me 1 to me 14 of the temporary storage unit 20, and images P 1 to P 14 captured by each of the plurality of imaging modules M 1 to M 14 from the plurality of memories. The position of the face H is acquired from the acquired image and includes a position detection unit 31 that detects the position of the face H and a movement direction detection unit 32 that detects the movement direction of the face H.

位置検出部31は、取得した画像P〜P14から撮影方向に直交する面における顔Hの位置を検出する第1の位置検出部31aと、撮影方向に対する顔Hの位置を検出する第2の位置検出部31bとから構成されている。 Position detector 31, a second detecting a first position detecting unit 31a for detecting the position of the face H in a plane perpendicular to the photographing direction from the image P 1 to P 14 obtained, the position of the face H for photographing direction The position detecting unit 31b is configured.

第1の位置検出部31aは、一時記憶部20の複数のメモリme〜me14に記憶された画像P〜P14を読み出して、それらの画像から顔Hの領域(顔領域)を検出し、その領域の略中心位置を顔Hの現在の位置T(x、y)として取得するものである。 First position detection unit 31a temporarily reads a plurality of memory me 1 ~me 14 images P 1 to P 14 stored in the storage unit 20, detects an area of the face H from the images (face region) The approximate center position of the area is acquired as the current position T (x, y) of the face H.

具体的には、特開2006−139369号公報に記載されているように、顔等の検出対象が既知である複数のサンプル画像における各画素の特徴量、すなわち画像上の各画素における濃度が変化する方向および変化の大きさを予め学習することにより、検出対象であるか否かを識別する識別器を特徴量に対応させて取得し、各カメラ毎に得られた対象画像PP(画像Pと同一)、PP(画像P〜Pからなる画像)、PP(画像P〜P14からなる画像)上に該識別器を走査させることにより、検出対象を検出することができる。 Specifically, as described in Japanese Patent Application Laid-Open No. 2006-139369, the feature amount of each pixel in a plurality of sample images whose detection targets such as faces are known, that is, the density at each pixel on the image changes. By learning in advance the direction to be performed and the magnitude of the change, a discriminator for identifying whether or not it is a detection target is acquired corresponding to the feature amount, and the target image PP 1 (image P obtained) for each camera is acquired. 1 ), PP 2 (an image made up of images P 2 to P 5 ), PP 3 (an image made up of images P 6 to P 14 ), and scanning the discriminator to detect a detection target. it can.

このとき、通常のカメラにより撮影された画像においては、画像に含まれる人物の顔Hの大きさは、カメラから顔Hまでの撮影距離等の撮影条件により変化するため、通常、対象画像上を走査させる上記識別器の大きさを大から小へ変えながら繰り返し検出を行なう必要がある
ここで、本発明の多焦点カメラ1では、各カメラの焦点距離f(j=1〜3)、設定された合焦距離d(j=1〜3)、および得られる画像における一画素当たりの被写体像の大きさp(j=1〜3)が既知であり、顔Hの実際の大きさHを用いて、各カメラが顔Hを鮮明に撮影できた場合における顔Hの像の大きさh(h=f/d)および画像中の顔Hの大きさ(h/p画素=f/p画素)を算出できるので、その大きさに対応する大きさの識別器を用いて顔Hを検出することにより、検出の効率を向上させることができる。
At this time, in an image shot by a normal camera, the size of the face H of the person included in the image changes depending on shooting conditions such as a shooting distance from the camera to the face H. It is necessary to repeatedly perform detection while changing the size of the discriminator to be scanned from large to small. Here, in the multifocal camera 1 of the present invention, the focal length f j (j = 1 to 3) and setting of each camera are set. The in-focus distance d j (j = 1 to 3) and the size p j (j = 1 to 3) of the subject image per pixel in the obtained image are known, and the actual size of the face H Using H j , the size h j (h j = f j H j / d j ) of the image of the face H and the size of the face H in the image when each camera can clearly photograph the face H ( h j / p j pixel = f j H j / p j d j pixel) The detection efficiency can be improved by detecting the face H using a discriminator having a size corresponding to the size.

すなわち、多焦点カメラ1は、撮影対象、例えば顔Hを異なる焦点距離fを有する複数のカメラC、C、Cにより撮影するものであり、顔Hまでの撮影距離によって、それぞれのカメラにより撮影された対象画像PP、PP、PPのうち、撮影距離にもっとも近い合焦設定距離を有するカメラにより撮影された、顔Hをもっとも鮮明に捉えた画像において、その顔Hの大きさに対応する大きさの識別器を用いて検出を行うことにより、検出の効率、さらには検出の精度を向上させることができる。これにより、少なくとも1つのカメラにより得られた対象画像から顔領域を精度よく検出でき、この検出結果に基づいて、他のカメラにより得られた対象画像からも顔領域を容易に検出することができる。そして、検出された顔領域の略中心位置を顔Hの現在の位置として取得する。 That is, the multifocal camera 1 captures a subject to be photographed, for example, the face H with a plurality of cameras C 1 , C 2 , and C 3 having different focal lengths f. Among the target images PP 1 , PP 2 , and PP 3 photographed by the above, the image of the face H most clearly captured by the camera having the focus setting distance closest to the photographing distance. By performing detection using a discriminator having a size corresponding to the height, the detection efficiency and further the detection accuracy can be improved. Thereby, the face area can be accurately detected from the target image obtained by at least one camera, and the face area can be easily detected also from the target image obtained by another camera based on the detection result. . Then, the approximate center position of the detected face area is acquired as the current position of the face H.

なお、上述した顔検出方法では、識別器を各カメラの撮影モジュール群により撮影された対象画像PP、PP、PPの全領域を走査させて顔領域を検出する場合について説明したが、現画像と該現画像より過去の参照画像との差分を求めることにより、動いている人物の領域を検出し、抽出された領域中を含む一部の領域のみを走査させて顔領域を検出することもできる。また、対象画像上に識別器を走査させて顔Hを検出する方法に限らず、特開2004-62604号公報に記載されているように、対象画像から複数のオブジェクト領域を抽出し、抽出した複数のオブジェクト領域毎にオブジェクトの種類を識別し、その識別した種類の確信度が所定の閾値より大きいか否かを判別することにより、目的とする種類の検出対象を検出する等、他のいかなる方法により、顔H等の撮影対象を検出するようにしてもよい。 In the face detection method described above, a case has been described in which the discriminator scans the entire area of the target images PP 1 , PP 2 , and PP 3 captured by the imaging module group of each camera to detect the face area. By detecting the difference between the current image and the past reference image from the current image, the area of the moving person is detected, and the face area is detected by scanning only a part of the area including the extracted area. You can also. In addition to the method of detecting the face H by scanning the discriminator on the target image, a plurality of object regions are extracted and extracted from the target image as described in JP-A-2004-62604. By identifying the object type for each of the plurality of object areas and determining whether or not the certainty level of the identified type is greater than a predetermined threshold, it is possible to detect any other type of detection target. A photographing target such as the face H may be detected by a method.

第2の位置検出部31bは、第1の位置検出部31aにより、対象画像PP、PP、PPから検出された顔Hの領域に対して空間周波数解析を行い、撮影方向に対する顔Hの位置を検出するものである。 The second position detection unit 31b performs spatial frequency analysis on the area of the face H detected from the target images PP 1 , PP 2 , and PP 3 by the first position detection unit 31a, and the face H with respect to the shooting direction. The position of is detected.

ピントの合っている鮮鋭な画像ほど輪郭や模様の明るさがハッキリと変化するため、この変化の度合いを表す画像の空間周波数の周波数成分を調べることにより合焦レベルを測定することができる。これにより、各対象画像PP、PP、PPから検出された各顔領域に対して空間周波数解析を行い、合焦レベルyを測定し、合焦レベルyが最も大きい顔領域を含む対象画像を撮影したカメラを判定し、判定されたカメラにおける合焦設定距離dを、撮影方向に対する顔Hの位置として検出する。 Since the sharper image in focus changes the brightness of the contour and pattern clearly, the focus level can be measured by examining the frequency component of the spatial frequency of the image representing the degree of this change. Thereby, spatial frequency analysis is performed on each face area detected from each of the target images PP 1 , PP 2 , PP 3 , the focus level y is measured, and a target including a face area with the highest focus level y The camera that captured the image is determined, and the focus setting distance d in the determined camera is detected as the position of the face H with respect to the shooting direction.

移動方向検出部33は、撮影方向に直交する面方向に対する顔Hの移動方向を検出する第1の移動方向検出部33aと、撮影方向に対する顔Hの移動方向を検出する第2の移動方向検出部33bから構成される。   The movement direction detection unit 33 detects a movement direction of the face H with respect to a plane direction orthogonal to the shooting direction, and a second movement direction detection detects a movement direction of the face H with respect to the shooting direction. It is comprised from the part 33b.

第1の移動方向検出部33aは、第1の位置検出部31aにより検出された顔Hの現在の位置TNEW(x、y)および前回の撮影時に同様に第1の位置検出部31aにより検出された顔Hの前位置TOLD(x、y)を用いて、前位置のTOLD(x、y)から現在の位置TNEW(x、y)への移動方向V(x、y)を算出する。 The first movement direction detection unit 33a detects the current position T NEW (x, y) of the face H detected by the first position detection unit 31a and the first position detection unit 31a in the same manner during the previous shooting. The moving direction V (x, y) from the previous position T OLD (x, y) to the current position T NEW (x, y) is calculated using the previous position T OLD (x, y) of the face H. calculate.

第2の移動方向検出部は、第2の位置検出31bにより得られた各カメラC、C、Cにおける合焦レベルy、y、yの増減に基づいて、顔Hの撮影方向に対する移動方向を検出するものである。 The second moving direction detection unit is configured to detect the movement of the face H based on the increase / decrease of the focus levels y 1 , y 2 , y 3 in the cameras C 1 , C 2 , C 3 obtained by the second position detection 31b. The moving direction with respect to the photographing direction is detected.

図6は、カメラの撮影方向に対する被写体の位置、すなわち撮影距離dに対する、合焦設定距離がそれぞれd、d、dであるカメラC、C、Cを用いてその被写体を撮影した場合の合焦レベルの関係を示すグラフである。図示のように、各カメラの合焦レベルは、被写体の撮影距離dがカメラの合焦設定距離と一致するとき最大となり、合焦設定距離から外れるほど徐々に下がるので、各カメラにおける現在の合焦レベルおよび合焦レベルの変化方向を調べることにより、撮影方向に対する顔Hの移動方向V(z)を検出することができる。 FIG. 6 shows the position of the subject with respect to the shooting direction of the camera, that is, the subject using the cameras C 1 , C 2 , and C 3 whose focus setting distances are d 1 , d 2 , and d 3 with respect to the shooting distance d, respectively. It is a graph which shows the relationship of the focus level at the time of imaging | photography. As shown in the figure, the focus level of each camera is the maximum when the subject's shooting distance d matches the focus setting distance of the camera, and gradually decreases as it deviates from the focus setting distance. By examining the focus level and the change direction of the focus level, the moving direction V (z) of the face H relative to the photographing direction can be detected.

図6のグラフ上に示すように、合焦レベル判定部により得られた顔領域に対する各カメラの合焦レベルがそれぞれy1NEW、y2NEW、y3NEWであり、前の撮影時に同様に合焦レベル判定部により得られた顔領域に対する各カメラの合焦レベルがそれぞれy1OLD、y2OLD、y3OLDである場合、各カメラの合焦レベルの変化がそれぞれ、y1NEW−y1OLD>0、y2NEW−y2OLD>0、y3NEW−y3OLD<0であることから、人物の撮影方向に対する距離がdにもっとも近いところからdの方向に移動していることが検出可能である。 As shown on the graph of FIG. 6, the focus level determination section by the obtained face region relative focus level each y 1 NEW of each camera, y 2NEW, a y 3NEW, similarly focus level during the previous photographing each camera focus level each y 1OLD for face region obtained by the determination unit, y 2OLD, if it is y 3OLD, change of focus level of each camera, respectively, y 1NEW -y 1OLD> 0, y 2NEW since -y 2OLD> 0, a y 3NEW -y 3OLD <0, it is possible to detect the distance with respect to the photographing direction of a person is moving from the place closest to d 1 in the direction of d 2.

合成部40は、複数の撮像モジュールM〜M14の各々で撮影された画像P〜P14を、人物の顔Hを追跡するように選択、合成して出力用の画像Uを生成するものである。まず、第2の位置検出部により算出された顔Hを最も高い合焦レベルで撮影できたカメラを選択し、第1の位置検出部31により検出された顔Hの位置Tを用いて、顔Hがそのカメラを構成する複数の撮像モジュールの各々で撮影されたいずれかの画像の略中央部の所定の範囲内に含まれるか否かを判定する。顔Hがいずれかの画像の略中央部の所定の範囲内に含まれると判定された場合には、顔Hを略中央部の所定の範囲内に含む画像を出力用の画像Uとして選択する。一方、全ての画像の略中央部の所定の範囲内に含まれないと判定された場合には、選択されたカメラを構成する複数の撮像モジュールの各々で撮影された複数の画像のうち、顔Hを略中央部に有する一定範囲の領域(出力用の画像の大きさ分の領域)の少なくとも一部の領域を含む全ての画像を合成して、顔Hを略中央部に有する1枚の出力用の画像Uを生成する。 The combining unit 40 selects and combines the images P 1 to P 14 captured by each of the plurality of imaging modules M 1 to M 14 so as to track the person's face H, and generates an output image U. Is. First, a camera that can capture the face H calculated by the second position detection unit at the highest focus level is selected, and the face T is detected using the position T of the face H detected by the first position detection unit 31. It is determined whether or not H is included in a predetermined range at a substantially central portion of any of the images captured by each of the plurality of imaging modules constituting the camera. When it is determined that the face H is included in a predetermined range at a substantially central portion of any image, an image including the face H within a predetermined range at a substantially central portion is selected as the output image U. . On the other hand, if it is determined that the image is not included in the predetermined range in the substantially central portion of all the images, the face of the plurality of images captured by each of the plurality of imaging modules constituting the selected camera is displayed. One image having a face H in the substantially central portion is synthesized by synthesizing all images including at least a part of a certain range of regions having an H in the substantially central portion (region corresponding to the size of the output image). An output image U is generated.

図7は、制御部60の構成を示す図である。制御部60は、次の撮影時に、合成部40における選択・合成に使用されると推測される画像を撮影する撮影モジュールを選択する撮影モジュール選択部61と、選択した撮影モジュールの絞り値およびシャッタスピードを決定する制御値決定部62から構成される。   FIG. 7 is a diagram illustrating a configuration of the control unit 60. The control unit 60 includes a shooting module selection unit 61 that selects a shooting module for shooting an image that is assumed to be used for selection / combination in the combining unit 40 at the next shooting, and an aperture value and a shutter of the selected shooting module. The control value determination unit 62 determines the speed.

撮影モジュール選択部61は、まず、追跡部30の位置検出部31により検出された人物の現在の位置TNEW(x、y、z)に移動方向検出部33aにより検出された人物の移動方向V(x、y、z)を加算することにより、次の撮影時における人物の予測位置TEXP(x、y、z)を求める。そして、求められた予測位置TEXPに人物の顔Hが存在するとした場合、その顔Hを最も高い合焦レベルで撮影できるカメラを求め、そのカメラを構成する複数の撮像モジュールのうち、人物の顔の予測位置TEXPを略中央部に有する一定範囲の領域(出力用の画像の大きさ以上の大きさの領域)の少なくとも一部の領域を撮影範囲内に含む全ての撮像モジュールR〜Rを選択する。 First, the imaging module selection unit 61 first detects the movement direction V of the person detected by the movement direction detection unit 33a at the current position T NEW (x, y, z) of the person detected by the position detection unit 31 of the tracking unit 30. By adding (x, y, z), the predicted position T EXP (x, y, z) of the person at the time of the next photographing is obtained. If the person's face H exists at the calculated predicted position T EXP , a camera capable of photographing the face H at the highest focus level is obtained, and among the plurality of imaging modules constituting the camera, the person's face H is obtained. All of the imaging modules R 1 to R including at least a part of a certain area (area larger than the size of the output image) within the imaging range having the predicted face position T EXP at the substantially central portion. to select the R N.

制御値決定部62は、次の撮影時に複数の撮像モジュールM〜M14の各々で撮影された画像P〜P14を、合成部で対象となる人物の顔Hを追跡するように選択、合成して出力用の画像Uを生成する場合における、選択・合成して得られた画像における露出の変化を低減するように、選択・合成に使用されると推測される画像を撮影する撮影モジュールとして撮影モジュール選択部61により選択された撮影モジュールR〜Rの絞り値およびシャッタスピードを予め制御するものである。 The control value determining unit 62 selects the images P 1 to P 14 photographed by each of the plurality of imaging modules M 1 to M 14 at the next photographing so as to track the face H of the target person in the composition unit. Shooting an image presumed to be used for selection / composition so as to reduce the change in exposure in the image obtained by selection / combination when generating an output image U by compositing and it controls the aperture value and the shutter speed of the photographing module R 1 to R N, which is selected by the photographing module selection unit 61 as a module in advance.

具体的には、選択された1以上の撮影モジュールR〜Rのそれぞれの露出がそれぞれB〜Bであり、現在の撮影により得られた画像から合成部で選択・合成して得られた出力用の画像における露出がBである場合、下記の式(1)に示すように、それらの露出値B〜BおよびBのそれぞれに、後述する方法により決定した重みW〜WまたはWを乗算した後、それらの値を合算して露出値B求め、求められた露出値Bを、上記選択された1以上の撮影モジュールR〜Rの各々の露出設定値とし、各撮影モジュールR〜Rの絞り値およびシャッタスピードを制御する。 Specifically, the exposure of each of the selected one or more photographing modules R 1 to R N is B 1 to B N , respectively, and is obtained by selecting and synthesizing from the image obtained by the current photographing by the synthesizing unit. when exposed in was image for output is B U, as shown in the following formula (1), in their respective exposure values B 1 .about.B N and B U, weight W determined by the method described below after multiplying 1 to W-N or W U, each of these values by summing the calculated exposure value B k, the exposure value B k obtained, one or more imaging modules the selected R 1 to R N the exposure set value, and controls the aperture value and the shutter speed of the photographing module R 1 to R N.

=W+W+・・・+W+W (1)
ここで、重みW〜WおよびWの合計は1であり、重みW〜WおよびWは、種々の方法により決定することができる。例えば、人物の顔の予測位置TEXPを含むと予測される画像を撮影する撮影モジュールの露出値に対する重みを1とし、その撮影モジュールの露出値を他の撮影モジュールが完全模倣するように設定する方法、人物の顔の予測位置TEXPから各撮影モジュールにより得られる画像の中心位置までの距離が近いほど大きい重みを設定する方法、現在の撮影において出力用の画像として生成された画像における露出値Bに常に一定値の重みを設定する方法等、いかなる設定方法により決定することができる。これにより、次の撮影時に複数の撮像モジュールの各々で撮影された画像を、合成部で選択・合成して得られた画像における露出の変化を低減するように、撮影モジュール選択部61により選択された撮影モジュールR〜Rの露出設定値を決定することができる。
B k = W 1 B 1 + W 2 B 2 +... + W N B N + W U B U (1)
Here, the sum of the weights W 1 to W N and W U is 1, and the weights W 1 to W N and W U can be determined by various methods. For example, a weight for an exposure value of a photographing module that captures an image predicted to include a predicted position T EXP of a person's face is set to 1, and the exposure value of the photographing module is set to be completely imitated by another photographing module. A method for setting a greater weight as the distance from the predicted position T EXP of the person's face to the center position of the image obtained by each imaging module is closer, and an exposure value in an image generated as an output image in the current shooting how always sets the weight of the constant value B U, etc., can be determined by any setting method. As a result, the photographing module selection unit 61 selects the images photographed by each of the plurality of imaging modules at the next photographing so as to reduce the change in exposure in the image obtained by selecting and synthesizing by the synthesizing unit. The exposure setting values of the photographing modules R 1 to R N can be determined.

記録部50は、合成部40に接続され、合成部40により生成された合成画像のデジタル画像データを、読み出し書き込み可能に記録して、保存するためのものである。この記録部としては、例えば、SRAM、DRAM等の揮発性メモリ、またはEPROM、EEPROM、フラッシュメモリ等の不揮発性メモリなどの半導体記憶素子(メモリ)、ハードディスク、光ディスク、光磁気ディスク、磁気ディスク、磁気記録テープなどの記録メディア、またはこれらを組み合わせたものが用いられる。   The recording unit 50 is connected to the synthesizing unit 40, and records and stores the digital image data of the synthesized image generated by the synthesizing unit 40 so as to be readable and writable. As this recording unit, for example, a volatile memory such as SRAM or DRAM, or a semiconductor storage element (memory) such as a nonvolatile memory such as EPROM, EEPROM, or flash memory, a hard disk, an optical disk, a magneto-optical disk, a magnetic disk, a magnetic disk, etc. A recording medium such as a recording tape or a combination of these is used.

また、記録部50には、記録部に保存されている画像を表示するモニタ70が図示しない外部インターフェースを介して接続されている。   The recording unit 50 is connected to a monitor 70 for displaying an image stored in the recording unit via an external interface (not shown).

次に、多焦点カメラ装置1の動作を説明する。まず、撮影部10により、撮影モジュールM〜M14により同じ顔Hを異なる3つの合焦設定距離d〜dで撮影して得られた複数の画像P〜P14を一時記憶部20に記憶する。次に、追跡部30の位置検出部31により、一時記憶部20に記憶された複数の撮像モジュールM〜M14の各々で撮影された画像P〜P14を取得し、取得した画像から顔Hの現在の位置TNEWを検出し、検出された顔Hの現在の位置TNEWを移動方向検出部32および合成部40に出力する。合成部40では、位置検出部31により入力された顔Hの現在の位置に基づいて、複数の撮像モジュールM〜M14の各々で撮影された画像P〜P14を、顔Hを追跡するように選択、合成して出力用の画像Uを生成する。そして、この生成された画像Uを記録部50に記録し、外部インターフェースを介してモニタ70に表示する。 Next, the operation of the multifocal camera device 1 will be described. First, a plurality of images P 1 to P 14 obtained by photographing the same face H with the photographing modules M 1 to M 14 at three different focus setting distances d 1 to d 3 by the photographing unit 10 are temporarily stored. 20 stored. Next, the position detection unit 31 of the tracking unit 30 acquires images P 1 to P 14 captured by each of the plurality of imaging modules M 1 to M 14 stored in the temporary storage unit 20, and from the acquired images. detecting a current position T NEW face H, and outputs the current position T NEW of the detected face H in the moving direction detection unit 32 and the combining unit 40. In the synthesis unit 40, the face H is tracked with the images P 1 to P 14 captured by each of the plurality of imaging modules M 1 to M 14 based on the current position of the face H input by the position detection unit 31. Thus, the output image U is generated by selecting and combining. Then, the generated image U is recorded in the recording unit 50 and displayed on the monitor 70 via the external interface.

移動方向検出部32では、位置検出部31により入力された顔Hの現在の位置TNEWおよび前回の撮影時に同様に位置検出部31により入力された顔Hの前の位置TOLDEを用いて顔Hの移動方向Vを検出する。次に、制御部60の撮影モジュール選択部61により、顔Hの現在の位置TNEWおよび移動方向検出部32により検出された顔Hの移動方向Vを用いて、次の撮影時に、合成部における選択・合成に使用されると推測される画像を撮影する撮影モジュールR〜Rを選択する。その後、制御値決定部62により、撮影モジュール選択部61で選択された撮影モジュールの絞り値およびシャッタスピードを、次の撮影時に複数の撮像モジュールの各々で撮影された画像が合成部40で選択・合成されて得られる画像Uにおける露出の変化が低減するように、決定する。この決定された絞り値およびシャッタスピードが撮影モジュールR〜Rに設定され、次の撮影が行われる。そして、上述した処理が繰り返し行われる。 The moving direction detection unit 32 uses the current position T NEW of the face H input by the position detection unit 31 and the previous position T OLDE of the face H input by the position detection unit 31 at the same time as the previous shooting. The moving direction V of H is detected. Next, using the current position T NEW of the face H and the moving direction V of the face H detected by the moving direction detecting unit 32 by the shooting module selecting unit 61 of the control unit 60, the composition unit performs the following shooting. selecting a camera module R 1 to R N taking an image suspected of being used in the selection and combining. Thereafter, the control value determination unit 62 selects the aperture value and shutter speed of the imaging module selected by the imaging module selection unit 61, and the synthesis unit 40 selects and captures images captured by each of the plurality of imaging modules at the next imaging. It determines so that the change of the exposure in the image U obtained by combining may be reduced. The determined aperture value and the shutter speed is set to the photographing module R 1 to R N, the next photographing is performed. And the process mentioned above is performed repeatedly.

上記実施の形態によれば、同じ撮影対象Sを撮影する焦点距離が異なる複数のカメラC、C、Cを備え、該各カメラはそれぞれ1つ以上の撮影モジュールMを有し、該各撮影モジュールM〜M14により撮影された複数の画像P〜P14を、撮影対象を追跡するように選択、合成して得られた画像Uを記録する多焦点カメラ装置における、撮影モジュールM〜M14の露出制御方法であって、選択、合成して得られた画像Uの露出の撮影対象の追跡に伴う変化を低減するように、撮影モジュールを制御するようにしているので、選択、合成して得られた連続する画像間の繋がりを滑らかにすることができるとともに、合成して得られた画像の画質を向上させることができる。 According to the above-described embodiment, a plurality of cameras C 1 , C 2 , and C 3 having different focal lengths for photographing the same subject S are provided, each of which has one or more photographing modules M, An imaging module in a multifocal camera device that records an image U obtained by selecting and synthesizing a plurality of images P 1 to P 14 captured by the imaging modules M 1 to M 14 so as to track an imaging target. In the exposure control method of M 1 to M 14 , the imaging module is controlled so as to reduce the change accompanying the tracking of the imaging target of the exposure of the image U obtained by selection and synthesis. The connection between successive images obtained by selection and synthesis can be smoothed, and the image quality of the image obtained by synthesis can be improved.

また、各撮影モジュールM〜M14により撮影された複数の画像P〜P14から撮影対象の位置を追跡し、追跡して得られた撮影対象の追跡情報から、各撮影モジュールM〜M14のうち選択、合成に使用される画像を撮影する撮影モジュールR〜Rを選択し、選択された撮影モジュールR〜Rを、選択、合成して得られた画像の露出の変化を低減するように、制御するものであり、制御の効率を向上させることができる。 Further, the position of the photographing target is tracked from the plurality of images P 1 to P 14 photographed by the photographing modules M 1 to M 14 , and each photographing module M 1 to M 1 is obtained from the tracking information of the photographing target obtained by tracking. selection of M 14, captures an image used in the synthesis selects the camera module R 1 to R N, a photographing module R 1 to R N, which is selected, selection, the exposure of an image obtained by compositing The control is performed so as to reduce the change, and the efficiency of the control can be improved.

本発明は上記実施の形態に限定されない。たとえば、上記実施の形態では、撮影モジュールが独立して露出制御が可能であり、選択、合成して得られた画像の露出の変化を低減するように、撮影モジュールを制御する場合について説明したが、撮影モジュールは、独立してズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つの制御が可能であり、選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの変化を低減するように、撮影モジュールを制御するようにしてもよい。   The present invention is not limited to the above embodiment. For example, in the above-described embodiment, the case where the photographing module can independently control the exposure and the photographing module is controlled so as to reduce the change in the exposure of the image obtained by selection and synthesis has been described. The photographing module can independently control at least one of zoom control, exposure control, focus control, color temperature control, and depth of field control, and a zoom magnification of an image obtained by selecting and combining The imaging module may be controlled to reduce at least one change in exposure, focus, color temperature, and depth of field.

例えば、撮影対象が多少点カメラ装置1の撮影方向に動いている場合、撮影対象の移動によって、撮影対象を追跡するように選択、合成して得られた画像を撮影するカメラが望遠レンズの撮影モジュールから広角レンズの撮影モジュールへ切り替わるときには、望遠レンズの撮影モジュールでは同じ絞り値でも被写界深度が広角レンズの撮影モジュールより浅いので、広角レンズの撮影モジュールにおける絞り値を通常より下げて設定し、広角レンズの撮影モジュールから望遠レンズの撮影モジュールへ切り替わるときには、望遠レンズの撮影モジュールにおける絞り値を通常より上げて設定することができる。   For example, when the subject is moving somewhat in the photographing direction of the point camera device 1, the camera that picks up and synthesizes the image obtained by selecting and combining the subject to be tracked by moving the subject is taken by the telephoto lens. When switching from a module to a wide-angle lens shooting module, the telephoto lens shooting module has the same aperture value, but the depth of field is shallower than that of the wide-angle lens shooting module. When switching from the wide-angle lens photographing module to the telephoto lens photographing module, the aperture value in the telephoto lens photographing module can be set higher than usual.

また、上記実施の形態において、複数の撮像モジュールの各々で撮影された画像を、合成部で選択・合成する前に、選択、合成に使用される画像を、各画像の取得時における撮像モジュールのズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つの制御の設定値に基づいて画像補正を行うことにより、選択、合成して得られた連続する画像間の繋がりを滑らかにし、合成して得られた画像の画質を向上させることもできる。   Further, in the above embodiment, before selecting / combining the images captured by each of the plurality of imaging modules by the combining unit, the images used for selection and combining are stored in the imaging module at the time of acquiring each image. Between consecutive images obtained by selecting and combining by performing image correction based on the setting value of at least one of zoom control, exposure control, focus control, color temperature control, and depth of field control It is also possible to improve the image quality of an image obtained by smoothing the connection between the images.

たとえば、合成部における合成に使用される複数の画像が、それぞれ異なる設定値で制御された撮影モジュールにより得られたものである場合、その複数の画像の繋ぎ目が滑らかになるように画像補正を行うことにより、合成して得られた画像の画質を向上させることができる。   For example, when a plurality of images used for composition in the composition unit are obtained by photographing modules controlled with different setting values, image correction is performed so that the joints of the plurality of images become smooth. By doing so, it is possible to improve the image quality of the image obtained by the synthesis.

なお、上記実施の形態では、追跡部30、合成部40、記録部50、および制御部60が多焦点カメラ装置1に一体的に構成された場合について説明したが、これらのうち少なくとも1つが多焦点カメラ装置1の外部に別途のユニットとして設けられたものであってもよい。   In the above embodiment, the case where the tracking unit 30, the combining unit 40, the recording unit 50, and the control unit 60 are integrally configured in the multifocal camera device 1 has been described. It may be provided as a separate unit outside the focus camera device 1.

また、焦点距離が異なる3つのカメラC、C、Cがそれぞれ所定の異なる個数の撮影モジュールMを備えてなるものである場合について説明したが、各カメラC、C、Cは、それぞれ1つ以上の撮影モジュールMを有するものであればよく、同一の数の撮影モジュールを有するようにしてもよい。 Further, the case where the three cameras C 1 , C 2 , C 3 having different focal lengths are provided with a predetermined different number of imaging modules M has been described, but each camera C 1 , C 2 , C 3 has been described. Need only have one or more photographing modules M, and may have the same number of photographing modules.

さらに、撮影対象が人物の顔である場合、撮影モジュール選択部により、合成部40における選択・合成に使用されると推測される画像を撮影する撮影モジュールを選択するとき、予め検出しておいた人物の顔の向きを反映して顔の移動方向を予測し、選択・合成に使用されると推測される画像を撮影する撮影モジュールを選択することもできる。   Further, when the photographing target is a person's face, the photographing module selection unit detects in advance when the photographing module for photographing an image presumed to be used for selection / combination in the composition unit 40 is selected. It is also possible to select a photographing module that captures an image that is estimated to be used for selection / combination by predicting the moving direction of the face reflecting the orientation of the person's face.

本発明の一実施形態である多焦点カメラ装置の構成を示す概略ブロック図1 is a schematic block diagram showing the configuration of a multifocal camera device according to an embodiment of the present invention. 図1の多焦点カメラ装置による撮影領域を示す模式図The schematic diagram which shows the imaging | photography area | region by the multifocal camera apparatus of FIG. 図1の多焦点カメラ装置により撮影して得られた画像の一例を示す図The figure which shows an example of the image acquired by image | photographing with the multifocal camera apparatus of FIG. 図1の撮影モジュールの構成の一例を示す図The figure which shows an example of a structure of the imaging | photography module of FIG. 図1の追跡部の構成を示す図The figure which shows the structure of the tracking part of FIG. 図4の追跡部の第2の移動方向検出部による移動方向検出方法を説明するためのグラフThe graph for demonstrating the movement direction detection method by the 2nd movement direction detection part of the tracking part of FIG. 図1の制御部の構成を示す図The figure which shows the structure of the control part of FIG.

符号の説明Explanation of symbols

1 多焦点カメラ装置
f 焦点距離
C カメラ
M 撮影モジュール
P 画像
H 顔(撮影対象)
T 撮影対象の位置
13 絞り(露出制御)
14 シャッタ(露出制御)
30 追跡部(追跡手段)
40 合成部
50 記録部
60 制御部(制御手段)
61 選択部(選択手段)
1 Multifocal camera device f Focal length C Camera M Shooting module P Image H Face (shooting target)
T Shooting target position 13 Aperture (exposure control)
14 Shutter (exposure control)
30 Tracking unit (tracking means)
40 synthesis unit 50 recording unit 60 control unit (control means)
61 Selection part (selection means)

Claims (6)

同じ撮影対象を撮影する焦点距離が異なる複数のカメラを備え、該各カメラはそれぞれ1つ以上の撮影モジュールを有し、該各撮影モジュールにより撮影された複数の画像を、前記撮影対象を追跡するように選択、合成して得られた画像を記録する多焦点カメラ装置において、
前記撮影モジュールは、独立してズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つの制御が可能であり、
前記選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの、前記撮影対象の追跡に伴う変化を低減するように、前記撮影モジュールを制御する制御手段を備えたことを特徴とする多焦点カメラ装置。
A plurality of cameras having different focal lengths for photographing the same photographing object are provided, each of the cameras has one or more photographing modules, and the photographing object is tracked with a plurality of images photographed by the photographing modules. In a multifocal camera device that records an image obtained by selecting and combining
The photographing module can independently control at least one of zoom control, exposure control, focus control, color temperature control, and depth of field control,
Control the photographing module so as to reduce a change caused by tracking the photographing target of at least one of zooming magnification, exposure, focus, color temperature, and depth of field of the image obtained by the selection and synthesis. A multifocal camera device comprising control means for performing the control.
前記各撮影モジュールにより撮影された複数の画像から前記撮影対象の位置を追跡する追跡手段と、
前記追跡手段による前記撮影対象の追跡情報から前記各撮影モジュールのうち前記選択、合成に使用される画像を撮影する撮影モジュールを選択する選択手段とを有するものであることを特徴とする請求項1記載の多焦点カメラ装置。
Tracking means for tracking the position of the subject to be photographed from a plurality of images photographed by each of the photographing modules;
2. The apparatus according to claim 1, further comprising: a selecting unit that selects an imaging module that captures an image to be used for the selection and synthesis from the imaging modules, based on the tracking information of the imaging target by the tracking unit. The multifocal camera device described.
同じ撮影対象を撮影する焦点距離が異なる複数の、それぞれ1つ以上の撮影モジュールを有するカメラを備え、各撮影モジュールにより撮影された複数の画像を、前記撮影対象を追跡するように選択、合成して得られた画像を記録する多焦点カメラ装置における、前記撮影モジュールのズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つを制御する制御方法であって、
前記選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの、前記撮影対象の追跡に伴う変化を低減するように、前記撮影モジュールを制御することを特徴とする制御方法。
A plurality of cameras each having one or more photographing modules having different focal lengths for photographing the same photographing object are selected, and a plurality of images photographed by each photographing module are selected and combined so as to track the photographing object. A control method for controlling at least one of zoom control, exposure control, focus control, color temperature control, and depth-of-field control of the photographing module in a multifocal camera device that records an image obtained in this manner, ,
Control the photographing module so as to reduce a change caused by tracking the photographing target of at least one of zooming magnification, exposure, focus, color temperature, and depth of field of the image obtained by the selection and synthesis. A control method characterized by:
前記各撮影モジュールにより撮影された複数の画像から前記撮影対象の位置を追跡し、
追跡して得られた前記撮影対象の追跡情報から、前記各撮影モジュールのうち前記選択、合成に使用される画像を撮影する撮影モジュールを選択することを特徴とする請求項3記載の制御方法。
Tracking the position of the shooting target from a plurality of images shot by each shooting module,
4. The control method according to claim 3, further comprising: selecting a photographing module for photographing an image used for the selection and synthesis from the photographing modules from the tracking information of the photographing target obtained by tracking.
コンピュータに、
同じ撮影対象を撮影する焦点距離が異なる複数の、それぞれ1つ以上の撮影モジュールを有するカメラを備え、各撮影モジュールにより撮影された複数の画像を、前記撮影対象を追跡するように選択、合成して得られた画像を記録する多焦点カメラ装置における、前記撮影モジュールのズーム制御、露出制御、フォーカス制御、色温度制御、および被写界深度制御のうち少なくとも1つを制御することを実現させるためのプログラムであって、
前記選択、合成して得られた画像のズーミング倍率、露出、フォーカス、色温度、および被写界深度の少なくとも1つの、前記撮影対象の追跡に伴う変化を低減するように、前記撮影モジュールを制御することを実現させるためのプログラム。
On the computer,
A plurality of cameras each having one or more photographing modules having different focal lengths for photographing the same photographing object are selected, and a plurality of images photographed by each photographing module are selected and combined so as to track the photographing object. To control at least one of zoom control, exposure control, focus control, color temperature control, and depth of field control of the photographing module in a multifocal camera device that records an image obtained in this manner The program of
Control the photographing module so as to reduce a change caused by tracking the photographing target of at least one of zooming magnification, exposure, focus, color temperature, and depth of field of the image obtained by the selection and synthesis. A program to make it happen.
コンピュータに、
前記各撮影モジュールにより撮影された複数の画像から前記撮影対象の位置を追跡し、
追跡して得られた前記撮影対象の追跡情報から、前記各撮影モジュールのうち前記選択、合成に使用される画像を撮影する撮影モジュールを選択することを実現させるための請求項5記載のプログラム。
On the computer,
Tracking the position of the shooting target from a plurality of images shot by each shooting module,
The program according to claim 5, for realizing the selection of a photographing module for photographing an image used for the selection and synthesis from the photographing modules from the tracking information of the photographing target obtained by tracking.
JP2007003700A 2007-01-11 2007-01-11 Multifocal camera device, and control method and program used for it Withdrawn JP2008172523A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007003700A JP2008172523A (en) 2007-01-11 2007-01-11 Multifocal camera device, and control method and program used for it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007003700A JP2008172523A (en) 2007-01-11 2007-01-11 Multifocal camera device, and control method and program used for it

Publications (1)

Publication Number Publication Date
JP2008172523A true JP2008172523A (en) 2008-07-24

Family

ID=39700199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007003700A Withdrawn JP2008172523A (en) 2007-01-11 2007-01-11 Multifocal camera device, and control method and program used for it

Country Status (1)

Country Link
JP (1) JP2008172523A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010117808A2 (en) * 2009-03-30 2010-10-14 Visual 3D Impressions, Inc. Flagging of z-space for a multi-camera 3d event
WO2013061947A1 (en) 2011-10-28 2013-05-02 富士フイルム株式会社 Imaging method and image processing method, program using same, recording medium, and imaging device
JP2014502818A (en) * 2010-12-27 2014-02-03 スリーディーメディア コーポレイション Primary image and secondary image image capturing apparatus and method for image processing
JP2014062748A (en) * 2012-09-20 2014-04-10 Fujifilm Corp Apparatus and method for detecting position of moving body
CN103759837A (en) * 2014-01-02 2014-04-30 上海大学 Method for measuring curved surface temperature through infrared microscope
KR20140067448A (en) * 2012-11-26 2014-06-05 엘지전자 주식회사 Array camera, electrical device, and method for operating the same
JP2014222854A (en) * 2013-05-14 2014-11-27 キヤノン株式会社 Image pickup apparatus, control method thereof, and program
JP2015060048A (en) * 2013-09-18 2015-03-30 キヤノン株式会社 Imaging device, control method of the same and control program
JP2015109619A (en) * 2013-12-06 2015-06-11 キヤノン株式会社 Imaging apparatus and method for controlling the same
US9253377B2 (en) 2012-07-06 2016-02-02 Kabushiki Kaisha Toshiba Image processing device and image processing system where de-mosaic image is generated based on shift amount estimation of pixels of captured images
JP2016099598A (en) * 2014-11-26 2016-05-30 キヤノン株式会社 Imaging apparatus, method for controlling the same, and control program
WO2016141627A1 (en) * 2015-03-11 2016-09-15 宇龙计算机通信科技(深圳)有限公司 Image acquisition method, image acquisition device and terminal
CN106612393A (en) * 2015-10-22 2017-05-03 努比亚技术有限公司 Image processing method, image processing device and mobile terminal
JP2017215500A (en) * 2016-06-01 2017-12-07 キヤノン株式会社 Image processing apparatus, imaging device, image processing system, method for controlling image processing apparatus, and program
WO2018113709A1 (en) * 2016-12-20 2018-06-28 宁波舜宇光电信息有限公司 Array camera module having height difference, circuit board assembly and manufacturing method therefor, and electronic device
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
CN110892321A (en) * 2018-07-18 2020-03-17 深圳市大疆创新科技有限公司 Image shooting method and unmanned aerial vehicle
EP3641301A4 (en) * 2017-07-10 2020-05-20 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and apparatus for inhibiting aec jump, and terminal device

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010117808A3 (en) * 2009-03-30 2011-01-13 Visual 3D Impressions, Inc. Flagging of z-space for a multi-camera 3d event
WO2010117808A2 (en) * 2009-03-30 2010-10-14 Visual 3D Impressions, Inc. Flagging of z-space for a multi-camera 3d event
JP2014502818A (en) * 2010-12-27 2014-02-03 スリーディーメディア コーポレイション Primary image and secondary image image capturing apparatus and method for image processing
US10911737B2 (en) 2010-12-27 2021-02-02 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US11388385B2 (en) 2010-12-27 2022-07-12 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
WO2013061947A1 (en) 2011-10-28 2013-05-02 富士フイルム株式会社 Imaging method and image processing method, program using same, recording medium, and imaging device
CN103907043A (en) * 2011-10-28 2014-07-02 富士胶片株式会社 Imaging method and image processing method, program using same, recording medium, and imaging device
CN103907043B (en) * 2011-10-28 2016-03-02 富士胶片株式会社 Image capture method
US9270878B2 (en) 2011-10-28 2016-02-23 Fujifilm Corporation Imaging method using multifocal lens
US9253377B2 (en) 2012-07-06 2016-02-02 Kabushiki Kaisha Toshiba Image processing device and image processing system where de-mosaic image is generated based on shift amount estimation of pixels of captured images
JP2014062748A (en) * 2012-09-20 2014-04-10 Fujifilm Corp Apparatus and method for detecting position of moving body
US10116840B2 (en) 2012-11-26 2018-10-30 Lg Electronics Inc. Array camera, electrical device, and method for operating the same
KR20140067448A (en) * 2012-11-26 2014-06-05 엘지전자 주식회사 Array camera, electrical device, and method for operating the same
KR101954193B1 (en) * 2012-11-26 2019-03-05 엘지전자 주식회사 Array camera, electrical device, and method for operating the same
JP2014222854A (en) * 2013-05-14 2014-11-27 キヤノン株式会社 Image pickup apparatus, control method thereof, and program
JP2015060048A (en) * 2013-09-18 2015-03-30 キヤノン株式会社 Imaging device, control method of the same and control program
JP2015109619A (en) * 2013-12-06 2015-06-11 キヤノン株式会社 Imaging apparatus and method for controlling the same
CN103759837A (en) * 2014-01-02 2014-04-30 上海大学 Method for measuring curved surface temperature through infrared microscope
JP2016099598A (en) * 2014-11-26 2016-05-30 キヤノン株式会社 Imaging apparatus, method for controlling the same, and control program
WO2016141627A1 (en) * 2015-03-11 2016-09-15 宇龙计算机通信科技(深圳)有限公司 Image acquisition method, image acquisition device and terminal
CN106612393A (en) * 2015-10-22 2017-05-03 努比亚技术有限公司 Image processing method, image processing device and mobile terminal
CN106612393B (en) * 2015-10-22 2019-10-15 努比亚技术有限公司 A kind of image processing method and device and mobile terminal
JP2017215500A (en) * 2016-06-01 2017-12-07 キヤノン株式会社 Image processing apparatus, imaging device, image processing system, method for controlling image processing apparatus, and program
CN110089105A (en) * 2016-12-20 2019-08-02 宁波舜宇光电信息有限公司 Array camera module and circuit board module and its manufacturing method and electronic equipment with difference in height
WO2018113709A1 (en) * 2016-12-20 2018-06-28 宁波舜宇光电信息有限公司 Array camera module having height difference, circuit board assembly and manufacturing method therefor, and electronic device
US11128787B2 (en) 2016-12-20 2021-09-21 Ningbo Sunny Opotech Co., Ltd. Array camera module having height difference, circuit board assembly and manufacturing method therefor, and electronic device
US11601576B2 (en) 2016-12-20 2023-03-07 Ningbo Sunny Opotech Co., Ltd. Array camera module having height difference, circuit board assembly and manufacturing method therefor, and electronic device
EP3641301A4 (en) * 2017-07-10 2020-05-20 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and apparatus for inhibiting aec jump, and terminal device
US10819913B2 (en) 2017-07-10 2020-10-27 Guangdong Oppo Mobile Telecomunnications Corp., Ltd. Method and apparatus for inhibiting AEC jump, and terminal device
EP4040776A1 (en) * 2017-07-10 2022-08-10 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and apparatus for inhibiting aec value jump, and terminal device
CN110892321A (en) * 2018-07-18 2020-03-17 深圳市大疆创新科技有限公司 Image shooting method and unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
JP2008172523A (en) Multifocal camera device, and control method and program used for it
US8890996B2 (en) Imaging device, semiconductor integrated circuit and imaging method
CN107087107B (en) Image processing apparatus and method based on dual camera
CN103888645B (en) Picture pick-up device and the method for controlling picture pick-up device
JP2009188697A (en) Multi-focus camera apparatus and image processing method and program used therein
US8890995B2 (en) Image pickup apparatus, semiconductor integrated circuit and image pickup method
US9742982B2 (en) Image capturing apparatus and method for controlling image capturing apparatus
JP6415179B2 (en) Image processing apparatus, image processing method, imaging apparatus, and control method thereof
JP5237721B2 (en) Imaging device
JP6506560B2 (en) Focus control device and method therefor, program, storage medium
JP6415196B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US8508584B2 (en) Image pickup apparatus, zoom correction information creation method and program, and recording medium
JP2015194706A (en) Focus detection device and control method thereof
CN102710903A (en) Image processing apparatus, image capturing apparatus, and image processing method
US20040223073A1 (en) Focal length detecting method and focusing device
CN104469194A (en) Image processing apparatus and control method thereof
CN102023460B (en) Quick focusing method for digital camera
JP2018045102A (en) Focus adjustment device and imaging apparatus
JP2005215373A (en) Imaging apparatus
JP2010008443A (en) Imaging apparatus and imaging method
JP2017126035A (en) Imaging apparatus, control method, program, and storage medium
US20120033127A1 (en) Image capture apparatus
JP2009042621A (en) Imaging apparatus and method
JP2011053318A (en) Focusing-state detection apparatus, imaging apparatus, and control method therefor
JP2007181184A (en) Imaging apparatus and method, and method for designing imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100406