JP2006184065A - Object detector - Google Patents

Object detector Download PDF

Info

Publication number
JP2006184065A
JP2006184065A JP2004376082A JP2004376082A JP2006184065A JP 2006184065 A JP2006184065 A JP 2006184065A JP 2004376082 A JP2004376082 A JP 2004376082A JP 2004376082 A JP2004376082 A JP 2004376082A JP 2006184065 A JP2006184065 A JP 2006184065A
Authority
JP
Japan
Prior art keywords
subject
aperture
unit
image information
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004376082A
Other languages
Japanese (ja)
Inventor
Michio Miwa
道雄 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004376082A priority Critical patent/JP2006184065A/en
Publication of JP2006184065A publication Critical patent/JP2006184065A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detector for detecting a plurality of positions in an object using a simple configuration, without using complex configurations. <P>SOLUTION: The object detector comprises a diaphragm 1, a composite lens 2 having a plurality of regions with different focal distances one another, a diaphragm control section 4 for selecting a region, corresponding to a desired focal distance from a plurality of regions and for adjusting the degree of opening of the diaphragm 1, a photographic section 3 for photographing an object through the composite lens 2 and the diaphragm 1, and an object position detecting section 11 for detecting the position of the object by comparing the focused states of a plurality of images of the object photographed at the photographic section 3, by allowing at least one of the degree of opening of the diaphragm 1 and a region, corresponding to a desired focal distance to differ at the diaphragm control section 4. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、物体を検出する物体検出装置に関する。   The present invention relates to an object detection apparatus that detects an object.

近年、入退室の管理方法の一つとして監視カメラが用いられている。このような監視カメラにおいては、その被写界深度を深くした状態で、所定の出入口付近の人の動きを連続的に撮像することが多く、誰が入退室したかを把握するには、管理者が監視カメラからの画像をモニターで見張ったり、記録された画像を異常が発生した後に確認したりする必要があった。   In recent years, surveillance cameras have been used as one of entrance / exit management methods. In such a surveillance camera, it is often the case that the movement of a person near a predetermined entrance / exit is continuously imaged with the depth of field being deepened. However, it was necessary to watch the image from the surveillance camera on the monitor or to check the recorded image after an abnormality occurred.

しかしながら、管理者が監視モニターを常に確認するのは大きな負担となり、見落としが生じる可能性もあるということが課題となっている。   However, it is a problem that it is a heavy burden for the administrator to constantly check the monitoring monitor, and there is a possibility of oversight.

このような課題を解決するために、被写体の被写界深度のそれぞれ異なる光学系を用いて二枚の画像を撮影し、二枚の画像それぞれにおいて被写体に焦点が合っている場合、その被写体が被写界深度を浅くして撮影した光学系の被写界深度内にいることを利用して、被写体の位置を検出する物体検出装置が提案されている。このような装置を用いれば、絞りを開閉して撮影した画像を比較するという比較的簡易な構成で、物体までの距離を算出できる。この技術を監視用途に用いた場合には、監視したい距離にある物体(ここでは人)を選択的に検出することができ、すべての画像を監視する必要がない(例えば、特許文献1を参照。)。
特開2001−208861号公報
In order to solve such a problem, when two images are taken using optical systems having different depths of field of the subject, and the subject is focused on each of the two images, the subject is There has been proposed an object detection device that detects the position of a subject by using the fact that the depth of field of an optical system photographed with a shallow depth of field is present. If such an apparatus is used, the distance to the object can be calculated with a relatively simple configuration in which images taken by opening and closing the aperture are compared. When this technique is used for monitoring purposes, an object (here, a person) at a distance to be monitored can be selectively detected, and it is not necessary to monitor all images (for example, see Patent Document 1). .)
JP 2001-208861 A

前述したような従来の物体検出装置では、被写体が、レンズ系の焦点位置前後にあるか否かを検出することができた。しかしながら、近年では、被写体が一箇所でなく、複数の距離位置にあるか否かを判定したいとの要望が高まっている。これは、被写体が複数の距離位置にあるか否かを検出できるようになると、例えば、監視用途に用いた場合には、出入口付近に人がいるか否かの判定のみならず、人の動き(近づいているのか、遠ざかっているのか)を把握できるので、入室者と退室者の区別も容易にできるようになるからである。   In the conventional object detection apparatus as described above, it is possible to detect whether or not the subject is before and after the focal position of the lens system. However, in recent years, there is an increasing demand for determining whether or not the subject is located at a plurality of distance positions instead of at one place. If it becomes possible to detect whether or not the subject is at a plurality of distance positions, for example, when used for monitoring purposes, not only the determination of whether or not there is a person near the entrance / exit but also the movement of the person ( This is because it is possible to easily distinguish between those who have entered the room and those who have left the room.

しかしながら、従来の物体検出装置をそのまま用いて、被写体が複数の距離位置にあるか否かを検出しようとすると、互いに異なる焦点距離を有するレンズ系を備えた物体検出装置を複数設けたり、焦点合わせの位置を変える場合には、レンズ系と撮像素子の間隔を変えるための機構を設けたりする必要があったため、どうしても構成が複雑になってしまうという課題があった。   However, if the conventional object detection device is used as it is to detect whether or not the subject is at a plurality of distance positions, a plurality of object detection devices including lens systems having different focal lengths may be provided or focused. In order to change the position, it is necessary to provide a mechanism for changing the distance between the lens system and the image pickup device, which causes a problem that the configuration is inevitably complicated.

本発明はこのような課題に鑑みてなされたものであり、簡易な構成で被写体の位置を複数箇所において検出することのできる物体検出装置を提供することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to provide an object detection apparatus that can detect the position of a subject at a plurality of locations with a simple configuration.

本発明の物体検出装置は、開口度が調整可能な絞り部と、互いに焦点距離の異なる複数の領域を有する複合レンズ部と、互いに焦点距離の異なる複数の領域から所望の焦点距離に対応する領域を選択するとともに、絞り部の開口度を調節する絞り制御部と、複合レンズ部および絞り部を通して被写体を撮影する撮影部と、絞り制御部により絞り部の開口度および所望の焦点距離に対応する領域の少なくともいずれかを異ならせて撮影部で撮影した被写体の複数の画像を比較することによって、被写体の位置を検出する被写体位置検出部とを備えたことを特徴としている。   An object detection device according to the present invention includes a diaphragm unit having an adjustable aperture, a compound lens unit having a plurality of regions having different focal lengths, and a region corresponding to a desired focal length from a plurality of regions having different focal lengths. And an aperture control unit that adjusts the aperture of the aperture unit, an imaging unit that captures an image of the subject through the compound lens unit and the aperture unit, and the aperture control unit corresponding to the aperture of the aperture unit and a desired focal length. And a subject position detecting unit for detecting the position of the subject by comparing a plurality of images of the subject photographed by the photographing unit while changing at least one of the regions.

このような構成によれば、開口度および焦点距離のうちの少なくともいずれかの異なる画像を撮影して、その画像を比較するという簡易な構成により、被写体の位置を複数箇所において検出することができる物体検出装置を提供することができる。   According to such a configuration, it is possible to detect the position of the subject at a plurality of locations with a simple configuration in which images different from at least one of the aperture and the focal length are captured and the images are compared. An object detection device can be provided.

また、複合レンズ部は、互いに焦点距離の異なる複数の領域が、複合レンズ部の光軸を中心として扇形状に配置されている構成であってもよい。   Further, the compound lens unit may have a configuration in which a plurality of regions having different focal lengths are arranged in a fan shape with the optical axis of the compound lens unit as the center.

このような構成によれば、さらに、絞り制御部により絞り部の開口度を調節するとともに、複合レンズ部の焦点距離を選択することが容易に可能な構成を実現できる。   According to such a configuration, it is possible to realize a configuration in which it is possible to easily select the focal length of the compound lens unit while adjusting the aperture of the aperture unit by the aperture control unit.

また、複合レンズ部は、互いに焦点距離の異なる複数の領域が、複合レンズ部の光軸を中心として同心円状に配置されている構成であってもよい。   In addition, the compound lens unit may have a configuration in which a plurality of regions having different focal lengths are arranged concentrically around the optical axis of the compound lens unit.

このような構成によれば、さらに、絞り制御部により絞り部の開口度を調節するとともに、複合レンズの焦点距離を一つ選択することが容易に可能な構成を実現できる。   According to such a configuration, it is possible to realize a configuration in which the aperture control unit can adjust the aperture of the aperture and easily select one focal length of the compound lens.

また、被写体位置検出部は、撮影部で撮影した被写体の複数の画像における合焦度の違いにもとづいて被写体の位置を検出する構成であってもよい。   In addition, the subject position detection unit may be configured to detect the position of the subject based on differences in the degree of focus in a plurality of images of the subject photographed by the photographing unit.

このような構成によれば、さらに、画像の合焦度を比較するという比較的簡易な構成によって、被写体の位置を複数箇所において検出することのできる構成を実現できる。   According to such a configuration, a configuration capable of detecting the position of the subject at a plurality of locations can be realized with a relatively simple configuration of comparing the in-focus degrees of the images.

また、被写体位置検出部は、撮影部で撮影した被写体の複数の画像における合焦度が実質的に等しいか否かを検出することによって、被写体の位置を検出する構成であってもよい。   In addition, the subject position detection unit may be configured to detect the position of the subject by detecting whether or not the degrees of focus in a plurality of images of the subject photographed by the photographing unit are substantially equal.

このような構成によれば、さらに、開口度および焦点距離の少なくともいずれかの異なる画像の合焦度が実質的に等しいときにその焦点距離の付近に被写体が存在すると検出することができるので、正確に被写体の位置を検出することが可能となる。   According to such a configuration, it is further possible to detect that the subject is present near the focal length when the in-focus degrees of images having different aperture degrees and / or focal lengths are substantially equal. It becomes possible to detect the position of the subject accurately.

また、撮影部で撮影した被写体の複数の画像をDCT処理した場合の係数にもとづいて合焦度を算出する構成であってもよい。   Moreover, the structure which calculates a focus degree based on the coefficient at the time of performing the DCT process on the some image | photographed object image | photographed with the imaging | photography part may be sufficient.

このような構成によれば、さらに、画像圧縮技術等に広く用いられるDCT処理を用いてその係数にもとづいて合焦度を計算し、その合焦度にもとづいて被写体の位置を検出するので、MPEG等の画像圧縮技術に用いられるDCT処理ブロック等を用いて構成することの容易な物体検出装置を提供できる。   According to such a configuration, the degree of focus is calculated based on the coefficient using DCT processing widely used in image compression technology and the like, and the position of the subject is detected based on the degree of focus. It is possible to provide an object detection device that can be easily configured using a DCT processing block or the like used in an image compression technique such as MPEG.

また、被写体位置検出部は、撮影部で撮影した被写体の複数の画像をDCT処理した場合の所定周波数の係数値を積算して合焦度を算出する構成であってもよい。   Further, the subject position detection unit may be configured to calculate a degree of focus by integrating coefficient values of a predetermined frequency when a plurality of images of the subject photographed by the photographing unit are subjected to DCT processing.

このような構成によれば、さらに、所定周波数の係数値を積算して合焦度を計算するので、より物体の検出に適した物体検出を行うことが可能となる。   According to such a configuration, since the degree of focus is calculated by integrating the coefficient values of predetermined frequencies, it is possible to perform object detection more suitable for object detection.

また、絞り部は、液晶シャッタを有する構成であってもよい。   Further, the diaphragm unit may have a liquid crystal shutter.

このような構成によれば、さらに、絞り部の耐久性を向上することが可能となるとともに、より自由度の高い形状の絞り領域を作成することができる。   According to such a configuration, it is possible to further improve the durability of the aperture portion, and it is possible to create an aperture region having a shape with a higher degree of freedom.

さらに、絞り制御部は、液晶シャッタを透過する光線の光量が一定になるように光量を調節する光量調節部を有する構成であってもよい。   Further, the diaphragm control unit may have a light amount adjusting unit that adjusts the light amount so that the light amount of the light beam transmitted through the liquid crystal shutter is constant.

このような構成によれば、さらに、液晶シャッタを透過する光線の光量を一定にすることができるので、開口度および焦点距離の少なくともいずれかが異なる条件で撮影した画像同士を比較した際に、輝度調整等の前処理が必要でないので、簡易な構成を実現できる。   According to such a configuration, since the amount of light transmitted through the liquid crystal shutter can be made constant, when comparing images taken under different conditions of at least one of the aperture and the focal length, Since no preprocessing such as brightness adjustment is required, a simple configuration can be realized.

本発明の物体検出装置によれば、簡易な構成で被写体の位置を複数箇所において検出することのできる物体検出装置を実現することができる。   According to the object detection device of the present invention, it is possible to realize an object detection device that can detect the position of a subject at a plurality of locations with a simple configuration.

(第1の実施の形態)
まず、本発明の第1の実施の形態における物体検出装置について説明する。
(First embodiment)
First, the object detection apparatus according to the first embodiment of the present invention will be described.

図1は、本発明の第1の実施の形態における物体検出装置15の構成を示すブロック図である。   FIG. 1 is a block diagram showing the configuration of the object detection device 15 according to the first embodiment of the present invention.

図1に示したように、本発明の第1の実施の形態における物体検出装置15は、開口度が調節可能な絞り1、絞り1を通過した光線を集光する、互いに異なる焦点距離の領域を複数有する複合レンズ2、絞り1および複合レンズ2を透過して結像面に結像した光像を光電変換して画像信号を出力するCCD等の撮影部3、所定の同期信号を発生する同期信号発生部5、同期信号発生部5からの同期信号にもとづいて絞り1の開口度を調節するとともに、複合レンズ2の有する焦点距離を一つ選択する絞り制御部4、同期信号発生部5で発生された同期信号にもとづいて絞り1の開口度および複合レンズ2の焦点距離の少なくともいずれかの違いに応じて振り分けて画像情報を出力する振り分け部6、振り分け部6によって振り分けられて供給される画像情報を記憶する第1の画像記憶部7、第2の画像記憶部8、第3の画像記憶部9および第4の画像記憶部10、第1の画像記憶部7から第4の画像記憶部10までの画像記憶部に接続され、それぞれに記憶された画像情報から後述の方法で被写体の位置を検出する被写体位置検出部11、ならびに、被写体位置検出部11で抽出された被写体の画像を表示する表示部16を備える。   As shown in FIG. 1, the object detection device 15 according to the first embodiment of the present invention includes a diaphragm 1 having an adjustable aperture, and regions having different focal lengths that collect light beams that have passed through the diaphragm 1. A photographing unit 3 such as a CCD that photoelectrically converts a light image that has passed through the composite lens 2 having a plurality of apertures, the aperture stop 1 and the composite lens 2 to form an image on the imaging surface and outputs an image signal, and generates a predetermined synchronization signal A synchronizing signal generator 5, a diaphragm controller 4 for adjusting the aperture of the diaphragm 1 based on the synchronizing signal from the synchronizing signal generator 5, and selecting one focal length of the compound lens 2, and a synchronizing signal generator 5 Are distributed according to at least one of the difference between the aperture of the aperture stop 1 and the focal length of the compound lens 2 based on the synchronization signal generated in Step 1, and are distributed and supplied by the distribution unit 6 for outputting image information. From the first image storage unit 7, the second image storage unit 8, the third image storage unit 9, the fourth image storage unit 10, and the first image storage unit 7. The subject position detection unit 11 connected to the image storage unit up to the storage unit 10 and detects the position of the subject from the stored image information by a method described later, and the subject image extracted by the subject position detection unit 11 Is provided.

ここで、本発明の第1の実施の形態における物体検出装置15の構成要素について、詳細に説明する。   Here, the components of the object detection apparatus 15 in the first embodiment of the present invention will be described in detail.

まず、複合レンズ2は、一枚のレンズ上に複数の焦点距離の領域を有するものである。図2は、本発明の第1の実施の形態における物体検出装置15の複合レンズ2の構成を示す図である。この複合レンズ2は、図面においてレンズの上半分が焦点距離PのレンズAの領域であり、レンズの下半分が焦点距離QのレンズBの領域で構成されている。レンズAとレンズBはともに同じ半円形状をしており、それぞれのレンズの直線(弦の)部分同士が貼り合わされ、または一体成型されて、全体として一枚の円形状の複合レンズ2を構成する。また、この複合レンズ2の上半分と下半分では、厚みを異ならせて、それぞれの焦点の位置を設定している。   First, the compound lens 2 has a plurality of focal length regions on a single lens. FIG. 2 is a diagram illustrating a configuration of the compound lens 2 of the object detection device 15 according to the first embodiment of the present invention. The compound lens 2 is configured such that the upper half of the lens is an area of a lens A having a focal length P and the lower half of the lens is an area of a lens B having a focal length Q. Both the lens A and the lens B have the same semicircular shape, and the straight (stringed) portions of the respective lenses are bonded to each other or integrally molded to form a single circular compound lens 2 as a whole. To do. In addition, the upper half and the lower half of the composite lens 2 are set to have different focal positions by varying the thickness.

本発明の第1の実施の形態における複合レンズ2は、絞り1を調節することにより、複合レンズ2の開口度および焦点距離の少なくともいずれかが異なる状態を実現できる。図3は、本発明の第1の実施の形態における物体検出装置15の絞り1の形状の違いによる複合レンズ2の開口度および焦点距離の設定について説明するための図である。図3においては、黒い部分が絞り1で複合レンズ2を透過する光線を遮蔽する部分を示し、白い部分が複合レンズ2において光線を透過させる部分を示す。   The compound lens 2 according to the first embodiment of the present invention can realize a state in which at least one of the aperture degree and the focal length of the compound lens 2 is different by adjusting the diaphragm 1. FIG. 3 is a diagram for explaining the setting of the aperture and focal length of the compound lens 2 due to the difference in the shape of the diaphragm 1 of the object detection device 15 according to the first embodiment of the present invention. In FIG. 3, the black portion indicates a portion that blocks the light beam transmitted through the compound lens 2 by the diaphragm 1, and the white portion indicates a portion that transmits the light beam in the compound lens 2.

例えば、絞り1が、図3(a)に示したように複合レンズ2の上半分を遮蔽した状態である場合、複合レンズ2はレンズBとして機能し、複合レンズ2の焦点距離は焦点距離Qに設定され、絞り1の開口度は最大となる(このときの開口度を「最大」と定義する。)。また、図3(b)のように複合レンズ2の上半分だけでなく下半分の円周周辺部分をも絞り1によって遮蔽した場合、図3(a)の状態と比較すると複合レンズ2の焦点距離はQのままであるが、絞り1の開口度は小さくなる(このときの開口度を「最小」と定義する。)。   For example, when the diaphragm 1 is in a state where the upper half of the compound lens 2 is shielded as shown in FIG. 3A, the compound lens 2 functions as the lens B, and the focal length of the compound lens 2 is the focal length Q. The aperture of the diaphragm 1 is maximized (the aperture at this time is defined as “maximum”). 3B, when not only the upper half of the compound lens 2 but also the lower circumferential portion of the periphery thereof is shielded by the diaphragm 1, the focal point of the compound lens 2 is compared with the state of FIG. 3A. Although the distance remains Q, the aperture of the diaphragm 1 is small (the aperture at this time is defined as “minimum”).

さらに、絞り1によって図3(c)のように複合レンズ2の下半分を遮蔽した場合、複合レンズ2はレンズAとして機能し、複合レンズ2の焦点距離は焦点距離Pに設定され、絞り1の開口度は「最大」となる。さらにまた、図3(d)のように複合レンズ2を下半分だけでなく上半分の周辺をも絞り1が遮蔽した場合、図3(c)の状態と比較すると複合レンズ2の焦点距離はPのままであるが、絞り1の開口度は「最小」となる。   Further, when the lower half of the compound lens 2 is shielded by the diaphragm 1 as shown in FIG. 3C, the compound lens 2 functions as the lens A, and the focal length of the compound lens 2 is set to the focal length P. The opening degree of is “maximum”. Furthermore, when the diaphragm 1 shields not only the lower half but also the upper half as shown in FIG. 3D, the focal length of the composite lens 2 is compared with the state of FIG. Although P remains, the aperture of the diaphragm 1 is “minimum”.

このように、本発明の第1の実施の形態においては、絞り1によるレンズ面の遮蔽部分の違いにより、複合レンズ2は開口度および焦点距離の少なくともいずれかの異なる上記四つの状態で使用される。   As described above, in the first embodiment of the present invention, the compound lens 2 is used in the above four states in which the aperture degree and / or the focal length are different due to the difference in the shielding portion of the lens surface by the diaphragm 1. The

絞り1としては、複合レンズ2のレンズ面の遮蔽が図3(a)から図3(d)までの四つの状態を実現できるものであれば機械式の絞りでもよいが、液晶シャッタを用いて構成するほうが望ましい。絞り1として液晶シャッタを用いることにより、機械式の絞りよりも耐久性に優れるとともに図3に示したような様々な形状を容易に実現できる。また、絞り1として液晶シャッタを用いた場合には、絞り制御部4によって絞り1を透過する光線の光量を一定にするように、液晶シャッタの透過率を変更させることが可能である。この場合には、後述するような画像情報の比較等を行う際に輝度補正等の処理を行う必要がなくなり、装置の構成が複雑化することを避けることができる。   The diaphragm 1 may be a mechanical diaphragm as long as the lens surface of the compound lens 2 can shield the four states from FIG. 3A to FIG. 3D, but a liquid crystal shutter is used. It is better to configure. By using a liquid crystal shutter as the diaphragm 1, it is more durable than a mechanical diaphragm and various shapes as shown in FIG. 3 can be easily realized. Further, when a liquid crystal shutter is used as the diaphragm 1, the transmittance of the liquid crystal shutter can be changed by the diaphragm control unit 4 so that the amount of light transmitted through the diaphragm 1 is constant. In this case, it is not necessary to perform processing such as luminance correction when comparing image information as will be described later, and the configuration of the apparatus can be prevented from becoming complicated.

絞り制御部4としては、絞り1として機械式の絞りを用いた場合にはその開口度の調節を行う機構を用いればよいし、絞り1として液晶シャッタを用いた場合には、その開閉制御および透過率の調節を行う制御回路を構成すればよい。   The diaphragm control unit 4 may use a mechanism that adjusts the aperture when a mechanical diaphragm is used as the diaphragm 1, and when a liquid crystal shutter is used as the diaphragm 1, the opening / closing control and A control circuit for adjusting the transmittance may be configured.

なお、絞り制御部4が液晶シャッタを透過する光線の光量を一定になるように液晶シャッタの透過率を制御するためには、あらかじめ上記複合レンズ2の四つの状態に対応した、光量が一定になるような透過率についての情報をテーブル(図示せず)に有する構成であってもよいし、液晶シャッタを透過する光量を測定するセンサ部(図示せず)を有し、そのセンサ部からの出力が一定になるように絞り制御部4が液晶シャッタの透過率を調節する構成であってもよい。   In order to control the transmittance of the liquid crystal shutter so that the diaphragm control unit 4 keeps the light amount of the light transmitted through the liquid crystal shutter constant, the light amount corresponding to the four states of the compound lens 2 in advance is constant. The table (not shown) may be configured to have information on the transmittance as described above, or it may have a sensor unit (not shown) that measures the amount of light transmitted through the liquid crystal shutter, The aperture controller 4 may be configured to adjust the transmittance of the liquid crystal shutter so that the output is constant.

撮影部3としては、CCDやCMOSセンサ等の広く知られた撮像素子を用いることができる。   As the imaging unit 3, a well-known imaging device such as a CCD or a CMOS sensor can be used.

同期信号発生部5としては、水晶等を用いた発振回路を用いることができる。   As the synchronization signal generator 5, an oscillation circuit using crystal or the like can be used.

第1の画像記憶部7、第2の画像記憶部8、第3の画像記憶部9および第4の画像記憶部10としては、それぞれハードディスク装置(HDD)や半導体メモリ等の公知の記憶手段から適宜選択したものを用いることが可能である。   The first image storage unit 7, the second image storage unit 8, the third image storage unit 9, and the fourth image storage unit 10 are each a known storage unit such as a hard disk device (HDD) or a semiconductor memory. Those appropriately selected can be used.

なお、本発明の第1の実施の形態における物体検出装置15においては、物体検出装置15が第1の画像記憶部7、第2の画像記憶部8、第3の画像記憶部9および第4の画像記憶部10の四つの記憶部を備えている構成を示したが、これは本発明の物体検出装置が四つの記憶部を備えている構成に限定されることを意味せず、物体検出装置が一つの記憶部を有し、その記憶されるべき領域が、記憶部内で絞りの状態ごとに割当てられている構成や、記憶部に記憶される画像情報が、それぞれの画像に対応する絞りの状態を示す情報を付加情報として有する構成であってもよい。   In the object detection device 15 according to the first embodiment of the present invention, the object detection device 15 includes the first image storage unit 7, the second image storage unit 8, the third image storage unit 9, and the fourth image storage unit 15. However, this does not mean that the object detection device according to the present invention is limited to the configuration including the four storage units. The apparatus has one storage unit, and the area to be stored is allocated for each aperture state in the storage unit, and the image information stored in the storage unit corresponds to each image. The information which shows the state of this may be the structure which has as additional information.

振り分け部6としては、撮影部3から出力される画像情報を、同期信号発生部5で発生される同期信号にもとづいて、第1の画像記憶部7、第2の画像記憶部8、第3の画像記憶部9または第4の画像記憶部10に振り分けるような専用回路を用いることもできるし、前述のように、記憶部が一つの場合には、その画像情報が記憶されるべき領域を絞り1の状態に応じて割り振る構成も可能であるし、絞り1の状態を示す付加情報を画像情報に付加して記憶させるソフトウェアによって実現することも可能である。   As the distribution unit 6, the image information output from the imaging unit 3 is converted into the first image storage unit 7, the second image storage unit 8, the third image storage unit 5 based on the synchronization signal generated by the synchronization signal generation unit 5. A dedicated circuit that distributes the image information to the image storage unit 9 or the fourth image storage unit 10 can be used. As described above, when there is one storage unit, the area in which the image information is to be stored is determined. A configuration in which the allocation is made according to the state of the aperture 1 is also possible, and it is also possible to realize the configuration by software that stores additional information indicating the status of the aperture 1 in addition to the image information.

本発明の第1の実施の形態においては、第1の画像記憶部7に絞り1が図3(a)の状態の場合における画像情報(以下、「第1の画像情報」と記す。)が、第2の画像記憶部8に絞り1が図3(b)の状態の場合における画像情報(以下、「第2の画像情報」と記す。)が、第3の画像記憶部9に絞り1が図3(c)の状態の場合における画像情報(以下、「第3の画像情報」と記す。)が、さらに、第4の画像記憶部10に絞り1が図3(d)の状態の場合における画像情報(以下、「第4の画像情報」と記す。)がそれぞれ記憶されるものとする。   In the first embodiment of the present invention, image information (hereinafter referred to as “first image information”) when the aperture 1 is in the state of FIG. The image information (hereinafter referred to as “second image information”) in the second image storage unit 8 when the aperture 1 is in the state of FIG. 3B is stored in the third image storage unit 9. 3C is the image information (hereinafter referred to as “third image information”), and the aperture 1 is further in the fourth image storage unit 10 in the state of FIG. It is assumed that image information in each case (hereinafter referred to as “fourth image information”) is stored.

被写体位置検出部11は第1の画像情報から第4の画像情報までを用いて、後述する方法で、物体検出装置15からの距離が互いに異なる複数の位置に被写体が位置するか否かを検出する。被写体位置検出部11は、ソフトウェアまたは専用回路のいずれを用いても実現することが可能である。   The subject position detection unit 11 uses the first image information to the fourth image information to detect whether or not the subject is located at a plurality of positions at different distances from the object detection device 15 by a method described later. To do. The subject position detection unit 11 can be realized by using either software or a dedicated circuit.

表示部16としては、液晶、ELを用いた表示装置、またはPDP等の公知のディスプレイデバイスから適宜選択して用いることができる。   The display unit 16 can be appropriately selected from a known display device such as a liquid crystal display device, an EL display device, or a PDP.

なお、本発明の第1の実施の形態においては、物体検出装置15が表示部16を備えた構成を用いて説明するが、本発明の物体検出装置はこの構成に限定されない。例えば、表示部16を備えないで、他の装置に対して被写体位置検出部11で抽出された被写体の画像情報を出力する出力部を備えた構成であってもよい。   In the first embodiment of the present invention, the object detection device 15 will be described using a configuration including the display unit 16, but the object detection device of the present invention is not limited to this configuration. For example, the display unit 16 may be omitted, and an output unit that outputs image information of the subject extracted by the subject position detection unit 11 to another device may be provided.

ここで、本発明の第1の実施の形態の被写体位置検出部11の機能についてさらに詳細に説明する。   Here, the function of the subject position detection unit 11 according to the first embodiment of the present invention will be described in more detail.

本発明の第1の実施の形態の被写体位置検出部11は、絞り1の開口度および複合レンズ2の領域を変化させて得られる画像情報における、焦点距離の違いと被写界深度Δの違いとを利用して、複数箇所における被写体の位置の検出を行う。   The subject position detection unit 11 according to the first embodiment of the present invention differs in focal length and depth of field Δ in image information obtained by changing the aperture of the diaphragm 1 and the area of the compound lens 2. Using these, the position of the subject is detected at a plurality of locations.

図4は、本発明の第1の実施の形態における物体検出装置15の被写体位置検出部11の機能の基本原理を示す図である。   FIG. 4 is a diagram illustrating the basic principle of the function of the subject position detection unit 11 of the object detection device 15 according to the first embodiment of the present invention.

図4に示したように、物体31からの光が絞りDのレンズ32を透過して撮像素子33の結像面上に結像した場合を仮定する。   As shown in FIG. 4, it is assumed that light from the object 31 is transmitted through the lens 32 of the diaphragm D and formed on the imaging surface of the image sensor 33.

このとき、物体31からレンズ32までの距離をu、レンズ32の焦点距離をfとし、撮像素子33の画素ピッチ(解像度)をεとしたときに、被写界深度Δは、   At this time, when the distance from the object 31 to the lens 32 is u, the focal length of the lens 32 is f, and the pixel pitch (resolution) of the image sensor 33 is ε, the depth of field Δ is

で表される。 It is represented by

例えば、画素ピッチε=0.001mmのCCDを用い、焦点距離f=30mmのレンズを用いて、絞りDの直径を10mm、20mmと変化させた場合の、物体までの距離uに対して被写界深度Δの値の変化を(1)式を用いて算出した結果を、図5(a)に示す。同様に、画素ピッチε=0.001mmのCCDを用い、焦点距離f=15mmのレンズを用いて、絞りDを10mm、20mmと変化させた場合の、物体までの距離uに対する被写界深度Δの値の変化を図5(b)に示す。   For example, when a CCD having a pixel pitch ε = 0.001 mm and a lens having a focal length f = 30 mm and the diameter of the stop D is changed to 10 mm and 20 mm, the object is captured with respect to the distance u to the object. FIG. 5A shows the result of calculating the change in the value of the depth of field Δ using the equation (1). Similarly, when using a CCD with a pixel pitch ε = 0.001 mm, using a lens with a focal length f = 15 mm, and changing the aperture D to 10 mm and 20 mm, the depth of field Δ with respect to the distance u to the object The change in the value of is shown in FIG.

図5(a)に示したように、例えば、焦点距離30mmのレンズ32から物体までの距離uが10mのとき、絞りの開放時(D=20mm)には約1mであった被写界深度Δが、絞りの径を2分の1に絞ったとき(D=10mm)には約6mとなる。   As shown in FIG. 5A, for example, when the distance u from the lens 32 having a focal length of 30 mm to the object is 10 m, the depth of field was about 1 m when the aperture is opened (D = 20 mm). Δ is about 6 m when the diameter of the diaphragm is halved (D = 10 mm).

また、図5(b)に示したように、例えば、焦点距離15mmのレンズ32から物体までの距離uが14mのとき、絞りの開放時(D=20mm)には約1mであった被写界深度Δが、絞りの径を2分の1に絞ったとき(D=10mm)には約6mとなる。   Further, as shown in FIG. 5B, for example, when the distance u from the lens 32 having a focal length of 15 mm to the object is 14 m, the object is about 1 m when the aperture is opened (D = 20 mm). The depth of field Δ is about 6 m when the diameter of the stop is reduced to half (D = 10 mm).

本発明の第1の実施の形態における被写体位置検出部11は、このような絞り1の開口度および複合レンズ2領域を変化させて得られる画像情報における、焦点距離の違いと被写界深度Δの違いとを利用する。   The subject position detection unit 11 according to the first embodiment of the present invention differs in focal length and depth of field Δ in image information obtained by changing the aperture of the diaphragm 1 and the area of the compound lens 2. Use the difference between

図6を用いて本発明の第1の実施の形態における被写体位置検出部11の動作原理についてさらに詳細に説明する。   The operation principle of the subject position detection unit 11 in the first embodiment of the present invention will be described in more detail with reference to FIG.

図6は、本発明の第1の実施の形態における物体検出装置15の被写体位置検出部11の動作原理について説明するための図である。   FIG. 6 is a diagram for explaining the operation principle of the subject position detection unit 11 of the object detection device 15 according to the first embodiment of the present invention.

図6に示したように、物体検出装置15の複合レンズ2からそれぞれ14m、12mおよび10mの距離に被写体L、MおよびNがいるものとする(被写体L、M、Nを上向き矢印で記す。)。また、図3(a)、図3(b)、図3(c)および図3(d)で示した絞り1と複合レンズ2の状態それぞれが、図6(a)、図6(b)、図6(c)および図6(d)における状態それぞれと対応する。   As shown in FIG. 6, it is assumed that subjects L, M, and N are located at distances of 14 m, 12 m, and 10 m from the compound lens 2 of the object detection device 15, respectively (subjects L, M, and N are indicated by upward arrows). ). Further, the states of the diaphragm 1 and the compound lens 2 shown in FIGS. 3A, 3B, 3C, and 3D are respectively shown in FIGS. 6A and 6B. These correspond to the states in FIGS. 6C and 6D, respectively.

このとき、図6(a)では、被写体Lに対して複合レンズ2の焦点距離Qが15mm、絞り1の開口度が「最大」(図4のD=20mmに相当)の状態なので、被写体Lまでの距離14m±0.5mの範囲で合焦する。また、図6(b)では、被写体Lに対して複合レンズ2の焦点距離Qが15mm、絞り1の開口度が「最小」(図4のD=10mmに相当)の状態なので、被写体Lまでの距離14m±3mの範囲で合焦する。また、図6(c)では、被写体Nに対して複合レンズ2の焦点距離Pが30mm、絞り1の開口度が「最大」(図4のD=20mmに相当)の状態なので、被写体Nまでの距離10m±0.5mの範囲で合焦する。さらに、図6(d)では、被写体Nに対して複合レンズ2の焦点距離Pが30mm、絞り1の開口度が「最小」(図4のD=10mmに相当)の状態なので、被写体Nまでの距離10m±3mの範囲で合焦する。   At this time, in FIG. 6A, the focal length Q of the compound lens 2 is 15 mm with respect to the subject L, and the aperture of the diaphragm 1 is “maximum” (corresponding to D = 20 mm in FIG. 4). Focus on the distance up to 14m ± 0.5m. 6B, the focal length Q of the compound lens 2 is 15 mm with respect to the subject L and the aperture of the diaphragm 1 is “minimum” (corresponding to D = 10 mm in FIG. 4). The distance is in the range of 14 m ± 3 m. In FIG. 6C, since the focal length P of the compound lens 2 is 30 mm with respect to the subject N and the aperture of the diaphragm 1 is “maximum” (corresponding to D = 20 mm in FIG. 4), The distance is in the range of 10 m ± 0.5 m. Furthermore, in FIG. 6D, since the focal length P of the compound lens 2 is 30 mm and the aperture of the diaphragm 1 is “minimum” (corresponding to D = 10 mm in FIG. 4) with respect to the subject N, Focus within a range of 10 m ± 3 m.

このように構成することにより、撮影される画像情報の一例を図7に示す。図7は、本発明の第1の実施の形態における物体検出装置15によって撮影された画像情報の一例を示す図である。   FIG. 7 shows an example of image information to be taken by configuring in this way. FIG. 7 is a diagram illustrating an example of image information captured by the object detection device 15 according to the first embodiment of the present invention.

図7(a)は、絞り1の開口度が「最大」で複合レンズ2の焦点距離をQとしたとき(図6(a)の状態)の画像情報(第1の画像情報)の一例を示す図である。図7(a)に示した第1の画像情報71のように、被写体Lのみが複合レンズ2から被写体までの距離14m±0.5mの位置にあるので合焦している。その他の被写体M、N(距離がそれぞれ、12m、10m)については、被写界深度1mを超えるので、合焦していないぼけた画像情報となる。   FIG. 7A shows an example of image information (first image information) when the aperture of the diaphragm 1 is “maximum” and the focal length of the compound lens 2 is Q (state of FIG. 6A). FIG. As in the first image information 71 shown in FIG. 7A, only the subject L is at a distance of 14 m ± 0.5 m from the compound lens 2 to the subject, and is in focus. For the other subjects M and N (distances of 12 m and 10 m, respectively), the depth of field exceeds 1 m, so that the image information is out of focus and is out of focus.

図7(b)は、絞り1の開口度が「最小」で複合レンズ2の焦点距離をQとしたとき(図6(b)の状態)の画像情報(第2の画像情報)の一例を示す図である。図7(b)に示した第2の画像情報72のように、被写体Lと被写体Lから2m離れた被写体Mとに対して焦点の合った画像情報を得ることができる。   FIG. 7B shows an example of image information (second image information) when the aperture of the diaphragm 1 is “minimum” and the focal length of the compound lens 2 is Q (state of FIG. 6B). FIG. Like the second image information 72 shown in FIG. 7B, it is possible to obtain focused image information with respect to the subject L and the subject M 2 m away from the subject L.

図7(c)は、絞り1の開口度が「最大」で複合レンズ2の焦点距離をPとしたとき(図6(c)の状態)の画像情報(第3の画像情報)の一例を示す図である。図7(c)に示した第3の画像情報73のように、被写体Nのみが被写体までの距離10m±0.5mの位置にあるので合焦している。その他の被写体L、M、(距離がそれぞれ、14m、12m)については、被写界深度1mを超えるので、合焦していないぼけた画像情報となる。   FIG. 7C shows an example of image information (third image information) when the aperture of the diaphragm 1 is “maximum” and the focal length of the compound lens 2 is P (state of FIG. 6C). FIG. As in the third image information 73 shown in FIG. 7C, only the subject N is at a distance of 10 m ± 0.5 m from the subject and is in focus. Other subjects L and M (distances of 14 m and 12 m, respectively) exceed the depth of field of 1 m, and thus are out-of-focus image information.

図7(d)は、絞り1の開口度が「最小」で複合レンズ2の焦点距離をPとしたとき(図6(d)の状態)の画像情報(第4の画像情報)の一例を示す図である。図7(d)に示した第4の画像情報74のように、被写体Nと被写体Nから2m離れた被写体Mに対して焦点の合った画像情報を得ることができる。   FIG. 7D shows an example of image information (fourth image information) when the aperture of the diaphragm 1 is “minimum” and the focal length of the compound lens 2 is P (state of FIG. 6D). FIG. Like the fourth image information 74 shown in FIG. 7D, image information focused on the subject N and the subject M 2 m away from the subject N can be obtained.

ここで、被写体位置検出部11は、複合レンズ2の焦点距離をQに設定し絞り1の開口度が「最大」(図6(a))の状態で撮影された第1の画像情報71と、絞り1の開口度が「最小」(図6(b))の状態で撮影された第2の画像情報72とを比較して、第1の画像情報71および第2の画像情報72のそれぞれにおいて合焦している領域(合焦度の高い領域またはボケ度合いの低い領域)の共通部分を抽出することにより、被写体Lの部分の画像情報を抽出して出力することが可能である。図7(e)は、第1の画像情報71と第2の画像情報72を比較し被写体Lの位置が検出され、表示部16に抽出された被写体Lが出力された状態を示す図である。   Here, the subject position detection unit 11 sets the focal length of the compound lens 2 to Q and the first image information 71 photographed in the state where the aperture of the diaphragm 1 is “maximum” (FIG. 6A). Each of the first image information 71 and the second image information 72 is compared with the second image information 72 photographed in a state where the aperture of the diaphragm 1 is “minimum” (FIG. 6B). By extracting the common part of the in-focus area (the area with a high degree of focus or the area with a low degree of blur), it is possible to extract and output the image information of the part of the subject L. FIG. 7E is a diagram showing a state in which the position of the subject L is detected by comparing the first image information 71 and the second image information 72 and the extracted subject L is output to the display unit 16. .

また、被写体位置検出部11は、複合レンズ2の焦点距離をQに設定し絞り1の開口度が「最小」(図6(b))の状態で撮影された第2の画像情報72と、複合レンズ2の焦点距離をPに設定し絞り1の開口度が「最小」(図6(d))の状態で撮影された第4の画像情報74とを比較して、第2の画像情報72および第4の画像情報74のそれぞれにおいて合焦している領域の共通部分を抽出することにより、被写体Mの部分の画像情報を抽出して出力することが可能である。図7(f)は、第2の画像情報72と第4の画像情報74を比較し被写体Mの位置が検出され、表示部16に抽出された被写体Mが出力された状態を示す図である。   In addition, the subject position detection unit 11 sets the focal length of the compound lens 2 to Q and the second image information 72 that is captured in a state where the aperture of the diaphragm 1 is “minimum” (FIG. 6B), The second image information is compared with the fourth image information 74 that is captured in a state where the focal length of the compound lens 2 is set to P and the aperture of the diaphragm 1 is “minimum” (FIG. 6D). By extracting the common part of the focused area in each of the 72 and the fourth image information 74, it is possible to extract and output the image information of the part of the subject M. FIG. 7F is a diagram showing a state where the position of the subject M is detected by comparing the second image information 72 and the fourth image information 74 and the extracted subject M is output to the display unit 16. .

さらに、被写体位置検出部11は、複合レンズ2の焦点距離をPに設定し絞り1の開口度が「最大」(図6(c))の状態で撮影された第3の画像情報73と、絞り1の開口度が「最小」(図6(d))の状態で撮影された第4の画像情報74とを比較して、第3の画像情報73および第4の画像情報74のそれぞれにおいて合焦している領域の共通部分を抽出することにより、被写体Nの部分の画像情報を抽出して出力することが可能である。図7(g)は、第3の画像情報73と第4の画像情報74を比較し被写体Nの位置が検出され、表示部16に抽出された被写体Nが出力された状態を示す図である。   Further, the subject position detection unit 11 sets the focal length of the compound lens 2 to P and the third image information 73 photographed in a state where the aperture of the diaphragm 1 is “maximum” (FIG. 6C), In comparison with the fourth image information 74 photographed in the state where the aperture of the diaphragm 1 is “minimum” (FIG. 6D), the third image information 73 and the fourth image information 74 are respectively compared. By extracting the common part of the in-focus area, it is possible to extract and output image information of the part of the subject N. FIG. 7G is a diagram showing a state where the position of the subject N is detected by comparing the third image information 73 and the fourth image information 74 and the extracted subject N is output to the display unit 16. .

なお、画像情報中のぼけ度合い算出方法、合焦度判定については、例えば、「カメラフォーカスを連続変化させた動画像を用いた奥行き分布検出」、工藤朋之、三池秀敏著、情報処理学会、コンピュータビジョン研究会98−2、1996年1月18日発行や、“A New Sense for Depth of Field”,A.Pentlad, IEEE Trans. On Pattern Analysis and Machine Intelligence, vol.PAM−9,No.4 July 1987等に提案された方法を用いることができる。   For the method of calculating the degree of blur in image information and determining the degree of focus, for example, “Depth distribution detection using moving images with continuously changing camera focus”, Akiyuki Kudo, Hidetoshi Miike, Information Processing Society of Japan, Computer Vision Research Society 98-2, published on January 18, 1996, “A New Sense for Depth of Field”, A.I. Pentlad, IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. PAM-9, No. 4 The method proposed in July 1987 can be used.

また、発明者らが既に特開2001−227914号公報において提案している方法を用いることも可能である。このような方法によれば、画像を構成する画素を縦×横=8×8画素の小ブロックに分割して、小ブロックごとに離散コサイン変換(以下、「DCT」と記す。)した結果の係数を周波数成分ごとにマトリクス状に並べて、所定の周波数領域の係数の2乗和をとることによって、画像の合焦の度合いを比較することが可能となる。   It is also possible to use the method that the inventors have already proposed in JP-A-2001-227914. According to such a method, the pixels constituting the image are divided into small blocks of vertical × horizontal = 8 × 8 pixels, and discrete cosine transform (hereinafter referred to as “DCT”) is performed for each small block. By arranging the coefficients in a matrix for each frequency component and taking the square sum of the coefficients in a predetermined frequency region, it is possible to compare the degree of focusing of the images.

このように、本発明の第1の実施の形態における被写体位置検出部11は、第1の画像情報71から第4の画像情報74までの四つの画像情報それぞれの被写体の撮影された領域について合焦度を算出して、その合焦度が等しい場合、または、その差が所定の誤差範囲内にあって実質的に等しいと判断される場合に、複数の被写体L、M、Nの位置を検出することができる。   As described above, the subject position detection unit 11 according to the first embodiment of the present invention performs matching on the photographed areas of the subjects of the four pieces of image information from the first image information 71 to the fourth image information 74. When the degrees of focus are calculated and the degrees of focus are equal, or when the difference is within a predetermined error range and is determined to be substantially equal, the positions of the plurality of subjects L, M, and N are determined. Can be detected.

次に、本発明の第1の実施の形態における物体検出装置15の動作について説明する。図8は、本発明の第1の実施の形態における物体検出装置15の動作ステップを示すフローチャートである。   Next, the operation of the object detection device 15 in the first embodiment of the present invention will be described. FIG. 8 is a flowchart showing operation steps of the object detection device 15 according to the first embodiment of the present invention.

図8に示したように、まず物体検出装置15は、絞り制御部4によって絞り1の開口度を「最大」にし複合レンズ2の焦点距離をQとした状態(図6(a)に示した第1の画像情報を撮影可能な状態)にして、得られる光像を撮影部3で撮影する(S1)。   As shown in FIG. 8, the object detection device 15 first sets the aperture 1 to “maximum” by the aperture controller 4 and sets the focal length of the compound lens 2 to Q (shown in FIG. 6A). The first image information is ready to be photographed), and the obtained optical image is photographed by the photographing unit 3 (S1).

ステップS1で撮影された画像情報を、振り分け部6は、第1の画像情報71として第1の画像記憶部7に記憶させる(S2)。   The sorting unit 6 stores the image information captured in step S1 in the first image storage unit 7 as the first image information 71 (S2).

次に、絞り制御部4によって絞り1の開口度を「最小」にし複合レンズ2の焦点距離をQとした状態(図6(b)に示した第2の画像情報を撮影可能な状態)にして、得られる光像を撮影部3で撮影する(S3)。   Next, the aperture control unit 4 sets the aperture of the aperture 1 to “minimum” and sets the focal length of the compound lens 2 to Q (second image information shown in FIG. 6B can be captured). Then, the obtained optical image is photographed by the photographing unit 3 (S3).

ステップS3で撮影された画像情報を、振り分け部6は、第2の画像情報72として第2の画像記憶部8に記憶させる(S4)。   The distribution unit 6 stores the image information captured in step S3 in the second image storage unit 8 as the second image information 72 (S4).

次に、絞り制御部4によって絞り1の開口度を「最大」にし複合レンズ2の焦点距離をPとした状態(図6(c)に示した第3の画像情報を撮影可能な状態)にして、得られる光像を撮影部3で撮影する(S5)。   Next, the aperture control unit 4 sets the aperture 1 to “maximum” and sets the focal length of the compound lens 2 to P (the state in which the third image information shown in FIG. 6C can be taken). Then, the obtained optical image is photographed by the photographing unit 3 (S5).

ステップS5で撮影された画像情報を、振り分け部6は、第3の画像情報73として第3の画像記憶部9に記憶させる(S6)。   The distribution unit 6 stores the image information captured in step S5 in the third image storage unit 9 as the third image information 73 (S6).

次に、絞り制御部4によって絞り1の開口度を「最小」にし複合レンズ2の焦点距離をPとした状態(図6(d)に示した第4の画像情報を撮影可能な状態)にして、得られる光像を撮影部3で撮影する(S7)。   Next, the aperture controller 4 sets the aperture 1 to “minimum” and sets the focal length of the compound lens 2 to P (a state in which the fourth image information shown in FIG. 6D can be photographed). Then, the obtained optical image is photographed by the photographing unit 3 (S7).

ステップS7で撮影された画像情報を、振り分け部6は、第4の画像情報74として第4の画像記憶部10に記憶させる(S8)。   The sorting unit 6 stores the image information captured in step S7 in the fourth image storage unit 10 as the fourth image information 74 (S8).

次に、被写体位置検出部11は、第1の画像記憶部7に記憶された第1の画像情報71と第2の画像記憶部8に記憶された第2の画像情報72との合焦度を比較する。そして、第1の画像情報71と第2の画像情報72との間に合焦度の差がない、あるいは実質的に差がない共通部分を検出し、距離14mにある被写体として抽出する(S9)。   Next, the subject position detection unit 11 has a degree of focus between the first image information 71 stored in the first image storage unit 7 and the second image information 72 stored in the second image storage unit 8. Compare Then, a common portion where there is no difference in focus degree or substantially no difference between the first image information 71 and the second image information 72 is detected and extracted as a subject at a distance of 14 m (S9). ).

次に、被写体位置検出部11は、第2の画像記憶部8に記憶された第2の画像情報72と第4の画像記憶部10に記憶された第4の画像情報74との合焦度を比較する。そして、第2の画像情報72と第4の画像情報74との間に合焦度の差がない、あるいは実質的に差がない共通部分を検出し、距離12mにある被写体として抽出する(S10)。   Next, the subject position detection unit 11 has a degree of focus between the second image information 72 stored in the second image storage unit 8 and the fourth image information 74 stored in the fourth image storage unit 10. Compare Then, a common portion where there is no difference or no substantial difference in focus between the second image information 72 and the fourth image information 74 is detected and extracted as a subject at a distance of 12 m (S10). ).

次に、被写体位置検出部11は、第3の画像記憶部9に記憶された第3の画像情報73と第4の画像記憶部10に記憶された第4の画像情報74との合焦度を比較する。そして、第3の画像情報73と第4の画像情報74との間に合焦度の差がない、あるいは実質的に差がない共通部分を検出し、距離10mにある被写体として抽出する(S11)。   Next, the subject position detection unit 11 has a degree of focus between the third image information 73 stored in the third image storage unit 9 and the fourth image information 74 stored in the fourth image storage unit 10. Compare Then, a common portion where there is no difference or no substantial difference in focus between the third image information 73 and the fourth image information 74 is detected and extracted as a subject at a distance of 10 m (S11). ).

最後に、ステップS9、ステップS10およびステップS11において抽出した被写体を表示部16に表示させて、処理を終了する(S12)。   Finally, the subject extracted in step S9, step S10, and step S11 is displayed on the display unit 16, and the process ends (S12).

このような動作を行うことにより、本発明の第1の実施の形態における物体検出装置15を用いれば、物体検出装置15から複数の異なる距離にある複数の被写体を検出することが可能となる。   By performing such an operation, it is possible to detect a plurality of subjects at a plurality of different distances from the object detection device 15 by using the object detection device 15 according to the first embodiment of the present invention.

(第2の実施の形態)
次に、本発明の第2の実施の形態における物体検出装置について説明する。
(Second Embodiment)
Next, an object detection apparatus according to the second embodiment of the present invention will be described.

図9は、本発明の第2の実施の形態における物体検出装置25の構成を示すブロック図である。   FIG. 9 is a block diagram showing a configuration of the object detection device 25 according to the second embodiment of the present invention.

この第2の実施の形態における物体検出装置25が、図1に示した第1の実施の形態における物体検出装置15ともっとも異なるところは、複合レンズ12、絞り21、絞り制御部14および被写体位置検出部13の各構成要素にある。また、本発明の第2の実施の形態では、第4の画像記憶部10は使用しないので、図示していない。撮影部3、同期信号発生部5、振り分け部6、第1の画像記憶部7、第2の画像記憶部8、第3の画像記憶部9および表示部16については、本発明の第1の実施の形態と同様なのでそれらについての詳細な説明は省略する。   The object detection device 25 according to the second embodiment is most different from the object detection device 15 according to the first embodiment shown in FIG. 1 in that the compound lens 12, the diaphragm 21, the diaphragm control unit 14, and the subject position. It exists in each component of the detection unit 13. Further, in the second embodiment of the present invention, the fourth image storage unit 10 is not used and is not shown. The imaging unit 3, the synchronization signal generation unit 5, the distribution unit 6, the first image storage unit 7, the second image storage unit 8, the third image storage unit 9, and the display unit 16 are the first of the present invention. Since they are the same as those in the embodiment, detailed description thereof will be omitted.

以下、本発明の第1の実施の形態と相違する構成要素である複合レンズ12、絞り21、絞り制御部14および被写体位置検出部13について詳述する。   Hereinafter, the compound lens 12, the diaphragm 21, the diaphragm control unit 14, and the subject position detection unit 13, which are components that are different from the first embodiment of the present invention, will be described in detail.

図10は、本発明の第2の実施の形態における物体検出装置25の複合レンズ12の構成を示す図である。本発明の第2の実施の形態における複合レンズ12は、互いに異なった焦点距離の領域、レンズC、レンズDおよびレンズEを複合レンズ12の光軸を中心に同心円状に三つ組合せたものである。今、複合レンズ12の外周から中心へ順に各レンズの焦点距離を焦点距離R、焦点距離Sおよび焦点距離Tとすると、複合レンズ12は、レンズの中心部分の焦点距離TのレンズE、その周辺部分に構成されるドーナツ状の焦点距離SのレンズDおよびレンズDの外周部分に構成されるドーナツ状の焦点距離RのレンズCで構成される。このように構成された複合レンズ12では、絞り制御部14で絞り21を調節することにより、複合レンズ12の開口度および焦点距離の少なくとも一方が設定される。   FIG. 10 is a diagram showing a configuration of the compound lens 12 of the object detection device 25 according to the second embodiment of the present invention. The compound lens 12 according to the second embodiment of the present invention is a combination of three regions having different focal lengths, a lens C, a lens D, and a lens E concentrically around the optical axis of the compound lens 12. is there. Now, assuming that the focal length of each lens is a focal length R, a focal length S, and a focal length T in order from the outer periphery to the center of the composite lens 12, the composite lens 12 is a lens E having a focal length T at the center of the lens, and its periphery A lens D having a focal length S formed in a portion and a lens C having a focal length R formed in a peripheral portion of the lens D are configured. In the thus configured composite lens 12, at least one of the opening degree and the focal length of the composite lens 12 is set by adjusting the stop 21 by the stop controller 14.

図11は、本発明の第2の実施の形態における物体検出装置25の複合レンズ12の開口度および焦点距離の設定について説明するための図である。図11において、黒い部分が絞り21で複合レンズ12の光線の透過を遮蔽する部分を示し、白い部分が複合レンズ12に光線を透過させる部分を示す。   FIG. 11 is a diagram for explaining the setting of the aperture and the focal length of the compound lens 12 of the object detection device 25 according to the second embodiment of the present invention. In FIG. 11, black portions indicate portions where the diaphragm 21 shields light transmission of the compound lens 12, and white portions indicate portions where the composite lens 12 transmits light rays.

絞り21が図11(a)のように複合レンズ12の中心部分およびその周辺部分を遮蔽した場合、複合レンズ12はレンズCとして機能し、複合レンズ12の焦点距離はRに設定され、絞り21の開口度は最大となる(このときの開口度を「大」と定義し、この状態で撮影された画像情報を第1の画像情報と記す。)。   When the diaphragm 21 shields the central portion of the compound lens 12 and its peripheral portion as shown in FIG. 11A, the compound lens 12 functions as the lens C, the focal length of the compound lens 12 is set to R, and the diaphragm 21 (The opening degree at this time is defined as “large”, and image information captured in this state is referred to as first image information).

また、図11(b)のように複合レンズ12の外周部分と中心部分とを絞り21が遮蔽した場合、複合レンズ12はレンズDとして機能し、複合レンズ12の焦点距離はSに設定され、絞り21の開口度はレンズCより小さくなる(このときの開口度を「中」と定義し、この状態で撮影された画像情報を第2の画像情報とする。)。   11B, when the diaphragm 21 shields the outer peripheral portion and the central portion of the compound lens 12, the compound lens 12 functions as the lens D, and the focal length of the compound lens 12 is set to S. The aperture of the diaphragm 21 is smaller than that of the lens C (the aperture at this time is defined as “medium”, and image information captured in this state is defined as second image information).

さらに、図11(c)のように複合レンズ12の中心部分以外を絞り21が遮蔽した場合、複合レンズ12はレンズEとして機能し、複合レンズ12の焦点距離はTに設定され、絞り21の開口度はレンズDより小さくなる(このときの開口度を「小」と定義し、この状態で撮影された画像情報を第3の画像情報と記す。)。   Furthermore, as shown in FIG. 11C, when the diaphragm 21 blocks other than the central portion of the compound lens 12, the compound lens 12 functions as the lens E, and the focal length of the compound lens 12 is set to T. The aperture is smaller than that of the lens D (the aperture at this time is defined as “small”, and image information captured in this state is referred to as third image information).

被写体位置検出部13は第1の画像記憶部7から第3の画像記憶部9までを用いて、複数箇所における被写体の位置の検出をする。被写体位置検出部13は、ソフトウェアまたは専用回路のいずれを用いても実現することが可能である。   The subject position detection unit 13 uses the first image storage unit 7 to the third image storage unit 9 to detect the positions of the subjects at a plurality of locations. The subject position detection unit 13 can be realized by using either software or a dedicated circuit.

図12を用いて本発明の第2の実施の形態における被写体位置検出部13の動作原理についてさらに詳細に説明する。   The operation principle of the subject position detection unit 13 in the second embodiment of the present invention will be described in more detail with reference to FIG.

図12は、本発明の第2の実施の形態における物体検出装置25の被写体位置検出部13の動作原理について説明するための図である。   FIG. 12 is a diagram for explaining the operation principle of the subject position detection unit 13 of the object detection device 25 according to the second embodiment of the present invention.

図12に示したように、物体検出装置25の複合レンズ12からそれぞれ14m、10mの距離に被写体J、Kがいるものとする(被写体J、Kを上向き矢印で記す。)。また、図11(a)、(b)および図11(c)で示した絞り21と複合レンズ12の状態が、それぞれ図12(a)、(b)および図12(c)における状態と対応する。   As shown in FIG. 12, it is assumed that subjects J and K are at a distance of 14 m and 10 m from the compound lens 12 of the object detection device 25, respectively (the subjects J and K are indicated by upward arrows). Further, the states of the diaphragm 21 and the compound lens 12 shown in FIGS. 11A, 11B, and 11C correspond to the states in FIGS. 12A, 12B, and 12C, respectively. To do.

このとき、図12(a)では、被写体Jに対して複合レンズ12の焦点距離Rが10mm、絞り21の開口度が「大」(図4のD=20mmに相当)の状態なので、被写体Jまでの距離14m±0.5mの範囲で合焦する(このときの被写界深度は1mである。)。また、図12(b)では、被写体Kに対して複合レンズ12の焦点距離Sが30mm、絞り21の開口度が「中」(図4のD=15mmに相当)の状態なので、被写体Kまでの距離10m±1mの範囲で合焦する(このときの被写界深度は2mである。)。また、図12(c)では、被写体Jと被写体Kとの中間点Gに対して複合レンズ12の焦点距離Tが20mm、絞り21の開口度が「小」(図4のD=10mmに相当)の状態なので、被写体Jと被写体Kとの中間点Gまでの距離12m±3mの範囲で合焦する(このときの被写界深度は6mである。)。   At this time, in FIG. 12A, the focal length R of the compound lens 12 is 10 mm with respect to the subject J, and the aperture of the diaphragm 21 is “large” (corresponding to D = 20 mm in FIG. 4). Until the distance is 14 m ± 0.5 m (the depth of field at this time is 1 m). In FIG. 12B, the focal length S of the compound lens 12 is 30 mm with respect to the subject K and the aperture of the diaphragm 21 is “medium” (corresponding to D = 15 mm in FIG. 4). The distance is 10 m ± 1 m (the depth of field is 2 m at this time). In FIG. 12C, the focal length T of the compound lens 12 is 20 mm and the aperture of the diaphragm 21 is “small” with respect to the intermediate point G between the subject J and the subject K (corresponding to D = 10 mm in FIG. 4). ) In the range of a distance of 12 m ± 3 m to the intermediate point G between the subject J and the subject K (the depth of field at this time is 6 m).

このように構成することにより、撮影される画像情報の一例を図13に示す。図13は、本発明の第2の実施の形態における物体検出装置25によって撮影された画像情報の一例を示す図である。   FIG. 13 shows an example of image information to be taken by configuring in this way. FIG. 13 is a diagram illustrating an example of image information captured by the object detection device 25 according to the second embodiment of the present invention.

図13(a)は、絞り21の開口度が「大」で複合レンズ12の焦点距離をRとしたとき(レンズCとして機能する図12(a)の状態)の画像情報(以下、「第1の画像情報」と記す。)の一例を示す図である。図13(a)に示した第1の画像情報131のように、被写体Jのみが被写体までの距離14m±0.5mの位置にあるので合焦している。もう一つの被写体K(被写体までの距離が10m)については、被写界深度1mを超えるので、合焦していないぼけた画像情報となる。   13A shows image information (hereinafter referred to as “No. 1”) when the aperture of the diaphragm 21 is “large” and the focal length of the compound lens 12 is R (the state of FIG. 12A functioning as the lens C). FIG. 6 is a diagram illustrating an example of “1 image information”. As in the first image information 131 shown in FIG. 13 (a), only the subject J is in focus because the distance to the subject is 14m ± 0.5m. The other subject K (the distance to the subject is 10 m) exceeds the depth of field of 1 m, and thus is out-of-focus image information.

図13(b)は、絞り21の開口度が「中」で複合レンズ12の焦点距離をSとしたとき(レンズDとして機能する図12(b)の状態)の画像情報(以下、「第2の画像情報」と記す。)の一例を示す図である。図13(b)に示した第2の画像情報132のように、被写体Kのみが被写体までの距離10m±1mの位置にあるので合焦している。もう一つの被写体J(被写体までの距離が14m)については、被写界深度2mを超えるので、合焦していないぼけた画像情報となる。   FIG. 13B shows image information (hereinafter referred to as “No. 1”) when the aperture of the diaphragm 21 is “medium” and the focal length of the compound lens 12 is S (state of FIG. 12B functioning as the lens D). FIG. 2 is a diagram illustrating an example. As in the second image information 132 shown in FIG. 13B, only the subject K is in focus because it is at a distance of 10 m ± 1 m to the subject. The other subject J (the distance to the subject is 14 m) exceeds the depth of field of 2 m, and thus is out-of-focus image information.

図13(c)は、絞り21の開口度が「小」で複合レンズ2の焦点距離をTとしたとき(レンズEとして機能する図12(c)の状態)の画像情報(以下、「第3の画像情報」と記す。)の一例を示す図である。図13(c)に示した第3の画像情報133のように、被写体Jと被写体Kとの中間点G(複合レンズ12からの距離が12m)を中心に被写界深度が6m(±3m)あるので、被写体J(距離14m)、被写体K(距離10m)のいずれにも焦点が合った画像情報を得ることができる。   FIG. 13C shows image information (hereinafter referred to as “No. 1”) when the aperture of the diaphragm 21 is “small” and the focal length of the compound lens 2 is T (the state of FIG. 12C functioning as the lens E). FIG. 3 is a diagram illustrating an example. As in the third image information 133 shown in FIG. 13C, the depth of field is 6 m (± 3 m) centering on the intermediate point G (the distance from the compound lens 12 is 12 m) between the subject J and the subject K. Therefore, it is possible to obtain image information focused on both the subject J (distance 14 m) and the subject K (distance 10 m).

なお、本発明の実施の形態2において用いた被写界深度、複合レンズ12から被写体までの距離、複合レンズ12の開口度および複合レンズ12の焦点距離の値等は、本発明の第1の実施の形態と同様に(1)式から導出されたものである。   Note that the depth of field, the distance from the compound lens 12 to the subject, the aperture of the compound lens 12, the value of the focal length of the compound lens 12, and the like used in the second embodiment of the present invention are the first of the present invention. Similar to the embodiment, it is derived from the expression (1).

ここで、被写体位置検出部13は、複合レンズ12の焦点距離をRに設定し絞り21の開口度が「大」(図12(a))の状態で撮影された第1の画像情報131と、複合レンズ12の焦点距離をTに設定し絞り21の開口度が「小」(図12(c))の状態で撮影された第3の画像情報133とを比較して、第1の画像情報131および第3の画像情報133のそれぞれにおいて合焦している領域の共通部分を抽出することにより、被写体Jの部分の画像情報を抽出して出力することが可能である。図13(d)は、第1の画像情報131と第3の画像情報133とを比較し、被写体Jの位置が検出され、表示部16に、抽出された被写体Jが出力された状態を示す図である。   Here, the subject position detection unit 13 sets the focal length of the compound lens 12 to R, and the first image information 131 captured with the aperture 21 being “large” (FIG. 12A). The first image is compared with the third image information 133 that is captured when the focal length of the compound lens 12 is set to T and the aperture of the diaphragm 21 is “small” (FIG. 12C). By extracting the common part of the focused area in each of the information 131 and the third image information 133, it is possible to extract and output the image information of the part of the subject J. FIG. 13D shows a state in which the first image information 131 and the third image information 133 are compared, the position of the subject J is detected, and the extracted subject J is output to the display unit 16. FIG.

また、被写体位置検出部13は、複合レンズ12の焦点距離をSに設定し絞り21の開口度が「中」(図12(b))の状態で撮影された第2の画像情報132と、複合レンズ12の焦点距離をTに設定し絞り21の開口度が「小」(図12(c))の状態で撮影された第3の画像情報133とを比較して、第2の画像情報132および第3の画像情報133のそれぞれにおいて合焦している領域の共通部分を抽出することにより、被写体Kの部分の画像情報を抽出して出力することが可能である。図13(e)は、第2の画像情報132と第3の画像情報133とを比較し、被写体Kの位置が検出され、表示部16に、抽出された被写体Kが出力された状態を示す図である。   In addition, the subject position detection unit 13 sets the focal length of the compound lens 12 to S and the second image information 132 photographed in a state where the aperture of the diaphragm 21 is “medium” (FIG. 12B); The second image information is compared with the third image information 133 that is captured when the focal length of the compound lens 12 is set to T and the aperture of the diaphragm 21 is “small” (FIG. 12C). By extracting the common part of the focused area in each of the 132 and the third image information 133, the image information of the part of the subject K can be extracted and output. FIG. 13E shows a state in which the second image information 132 and the third image information 133 are compared, the position of the subject K is detected, and the extracted subject K is output to the display unit 16. FIG.

このように、本発明の第2の実施の形態における被写体位置検出部13は、第1の画像情報131、第2の画像情報132および第3の画像情報133の被写体の撮影された領域について合焦度を算出して、その合焦度が等しい場合、または、その差が所定の誤差範囲内にあって実質的に等しいと判断される場合に、複数の被写体J、Kの位置を検出することができる。   As described above, the subject position detection unit 13 according to the second embodiment of the present invention performs matching on the photographed areas of the subject in the first image information 131, the second image information 132, and the third image information 133. When the degrees of focus are calculated and the degrees of focus are equal, or when it is determined that the difference is within a predetermined error range and substantially equal, the positions of the plurality of subjects J and K are detected. be able to.

次に、本発明の第2の実施の形態における物体検出装置25の動作について説明する。図14は、本発明の第2の実施の形態における物体検出装置25の動作ステップを示すフローチャートである。   Next, the operation of the object detection device 25 in the second embodiment of the present invention will be described. FIG. 14 is a flowchart showing operation steps of the object detection device 25 according to the second embodiment of the present invention.

図14に示したように、まず物体検出装置25は、絞り制御部14によって絞り21の開口度を「大」にし複合レンズ12の焦点距離をRとした状態(図12(a)の状態)にして、得られる光像を撮影部3で撮影する(S21)。   As shown in FIG. 14, first, the object detection device 25 is in a state where the aperture controller 14 sets the aperture 21 to “large” and the focal length of the compound lens 12 is R (state shown in FIG. 12A). Thus, the obtained optical image is photographed by the photographing unit 3 (S21).

ステップS21で撮影された画像情報を、振り分け部6は、第1の画像情報131として第1の画像記憶部7に記憶させる(S22)。   The sorting unit 6 stores the image information captured in step S21 in the first image storage unit 7 as the first image information 131 (S22).

次に、絞り制御部14によって絞り21の開口度を「中」にし複合レンズ12の焦点距離をSとした状態(図12(b)の状態)にして、得られる光像を撮影部3で撮影する(S23)。   Next, the aperture control unit 14 sets the aperture of the aperture 21 to “medium” and sets the focal length of the compound lens 12 to S (the state shown in FIG. 12B), and the obtained optical image is captured by the imaging unit 3. A picture is taken (S23).

ステップS23で撮影された画像情報を、振り分け部6は、第2の画像情報132として第2の画像記憶部8に記憶させる(S24)。   The sorting unit 6 stores the image information captured in step S23 in the second image storage unit 8 as the second image information 132 (S24).

次に、絞り制御部14によって絞り21の開口度を「小」にし複合レンズ12の焦点距離をTとした状態(図12(c)の状態)にして、得られる光像を撮影部3で撮影する(S25)。   Next, the aperture control unit 14 sets the aperture 21 to “small” and sets the focal length of the compound lens 12 to T (state shown in FIG. 12C), and the obtained optical image is captured by the imaging unit 3. A picture is taken (S25).

ステップS25で撮影された画像情報を、振り分け部6は、第3の画像情報133として第3の画像記憶部9に記憶させる(S26)。   The distribution unit 6 stores the image information captured in step S25 in the third image storage unit 9 as the third image information 133 (S26).

次に、被写体位置検出部13は、第1の画像記憶部7に記憶された第1の画像情報131と第3の画像記憶部9に記憶された第3の画像情報133との合焦度を比較する。そして、第1の画像情報131と第3の画像情報133との間に合焦度の差がない、あるいは実質的に差がない共通部分を検出し、距離14mにある被写体Jとして抽出する(S27)。   Next, the subject position detection unit 13 has a degree of focus between the first image information 131 stored in the first image storage unit 7 and the third image information 133 stored in the third image storage unit 9. Compare Then, a common portion where there is no difference in focus degree or substantially no difference between the first image information 131 and the third image information 133 is detected and extracted as a subject J at a distance of 14 m ( S27).

次に、被写体位置検出部13は、第2の画像記憶部8に記憶された第2の画像情報132と第3の画像記憶部9に記憶された第3の画像情報133との合焦度を比較する。そして、第2の画像情報132と第3の画像情報133との間に合焦度の差がない、あるいは実質的に差がない共通部分を検出し、距離10mにある被写体Kとして抽出する(S28)。   Next, the subject position detection unit 13 has a degree of focus between the second image information 132 stored in the second image storage unit 8 and the third image information 133 stored in the third image storage unit 9. Compare Then, a common portion where there is no difference in focus degree or no substantial difference between the second image information 132 and the third image information 133 is detected and extracted as a subject K at a distance of 10 m ( S28).

最後に、ステップS27およびステップS28において抽出した被写体を表示部16に表示させて、処理を終了する(S29)。   Finally, the subject extracted in step S27 and step S28 is displayed on the display unit 16, and the process ends (S29).

このような動作を行うことにより、本発明の第2の実施の形態における物体検出装置25を用いれば、物体検出装置25から互いに距離の異なる複数の位置に被写体が存在するか否かを検出することが可能となる。   By performing such an operation, if the object detection device 25 according to the second embodiment of the present invention is used, it is detected whether or not a subject exists at a plurality of positions having different distances from the object detection device 25. It becomes possible.

なお、本発明の第1の実施の形態および第2の実施の形態においては、それぞれ、複合レンズが有する互いに異なる焦点距離の領域が二つ、三つである場合を用いて説明を行ったが、本発明はこの領域の数に限定されるものではない。   In the first embodiment and the second embodiment of the present invention, the description has been given using the case where the compound lens has two or three regions having different focal lengths. The present invention is not limited to the number of regions.

以上述べたように、本発明の第1の実施の形態および第2の実施の形態における物体検出装置を用いれば、複数の異なる距離にある被写体を検出することができるので、連続的に被写体の検出を行った場合には、その被写体が接近してくるのかそれとも遠ざかっていくのかの判断をすることが可能となり、監視用途に用いた場合には、よりセキュリティ性に優れた構成を実現できる。   As described above, by using the object detection device according to the first embodiment and the second embodiment of the present invention, it is possible to detect subjects at a plurality of different distances. When detection is performed, it is possible to determine whether the subject is approaching or moving away, and when used for monitoring purposes, a configuration with higher security can be realized.

本発明に係る物体検出装置は、簡易な構成で被写体の位置を複数箇所検出することができる物体検出装置を実現することができ、物体を検出する物体検出装置等として有用である。   The object detection apparatus according to the present invention can realize an object detection apparatus that can detect a plurality of positions of a subject with a simple configuration, and is useful as an object detection apparatus that detects an object.

本発明の第1の実施の形態における物体検出装置の構成を示すブロック図The block diagram which shows the structure of the object detection apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における物体検出装置の複合レンズの構成を示す図The figure which shows the structure of the compound lens of the object detection apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における物体検出装置の複合レンズの開口度および焦点距離の設定について説明するための図The figure for demonstrating the setting of the aperture value and focal distance of the compound lens of the object detection apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における物体検出装置の被写体位置検出部の機能の基本原理を示す図The figure which shows the basic principle of the function of the to-be-photographed object position detection part of the object detection apparatus in the 1st Embodiment of this invention. レンズから物体までの距離と被写界深度との関係を示す図Diagram showing the relationship between the distance from the lens to the object and the depth of field 本発明の第1の実施の形態における物体検出装置の被写体位置検出部の動作原理について説明するための図The figure for demonstrating the operation principle of the to-be-photographed object position detection part of the object detection apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における物体検出装置によって撮影された画像情報の一例を示す図The figure which shows an example of the image information image | photographed by the object detection apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における物体検出装置の動作ステップを示すフローチャートThe flowchart which shows the operation | movement step of the object detection apparatus in the 1st Embodiment of this invention. 本発明の第2の実施の形態における物体検出装置の構成を示すブロック図The block diagram which shows the structure of the object detection apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における物体検出装置の複合レンズの構成を示す図The figure which shows the structure of the compound lens of the object detection apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における物体検出装置の複合レンズの開口度および焦点距離の設定について説明するための図The figure for demonstrating the setting of the aperture value and focal distance of the compound lens of the object detection apparatus in the 2nd Embodiment of this invention 本発明の第2の実施の形態における物体検出装置の被写体位置検出部の動作原理について説明するための図The figure for demonstrating the operation principle of the to-be-photographed object position detection part of the object detection apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における物体検出装置によって撮影された画像情報の一例を示す図The figure which shows an example of the image information image | photographed by the object detection apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における物体検出装置の動作ステップを示すフローチャートThe flowchart which shows the operation | movement step of the object detection apparatus in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1,21 絞り
2,12 複合レンズ
3 撮影部
4,14 絞り制御部
5 同期信号発生部
6 振り分け部
7 第1の画像記憶部
8 第2の画像記憶部
9 第3の画像記憶部
10 第4の画像記憶部
11,13 被写体位置検出部
15,25 物体検出装置
16 表示部
31 物体
32 レンズ
33 撮像素子
71,131 第1の画像情報
72,132 第2の画像情報
73,133 第3の画像情報
74 第4の画像情報
DESCRIPTION OF SYMBOLS 1,21 Aperture 2,12 Compound lens 3 Imaging | photography part 4,14 Aperture control part 5 Synchronization signal generation part 6 Distribution part 7 1st image storage part 8 2nd image storage part 9 3rd image storage part 10 4th Image storage unit 11, 13 Subject position detection unit 15, 25 Object detection device 16 Display unit 31 Object 32 Lens 33 Image sensor 71, 131 First image information 72, 132 Second image information 73, 133 Third image Information 74 4th image information

Claims (9)

開口度が調整可能な絞り部と、
互いに焦点距離の異なる複数の領域を有する複合レンズ部と、
前記互いに焦点距離の異なる複数の領域から所望の焦点距離に対応する領域を選択するとともに、前記絞り部の開口度を調節する絞り制御部と、
前記複合レンズ部および前記絞り部を通して被写体を撮影する撮影部と、
前記絞り制御部により前記絞り部の開口度および前記所望の焦点距離に対応する領域の少なくともいずれかを異ならせて前記撮影部で撮影した前記被写体の複数の画像を比較することによって、前記被写体の位置を検出する被写体位置検出部とを備えたことを特徴とする物体検出装置。
An aperture with adjustable aperture;
A compound lens unit having a plurality of regions having different focal lengths;
A diaphragm control unit that selects a region corresponding to a desired focal length from the plurality of regions having different focal lengths, and adjusts the aperture of the diaphragm unit;
A photographing unit for photographing a subject through the compound lens unit and the aperture unit;
By comparing the plurality of images of the subject photographed by the photographing unit with the aperture controller varying at least one of the aperture corresponding to the aperture of the diaphragm and the region corresponding to the desired focal length, An object detection apparatus comprising: a subject position detection unit that detects a position.
前記複合レンズ部は、前記互いに焦点距離の異なる複数の領域が、前記複合レンズ部の光軸を中心として扇形状に配置されていることを特徴とする請求項1に記載の物体検出装置。 The object detection apparatus according to claim 1, wherein the compound lens unit includes a plurality of regions having different focal lengths arranged in a fan shape with an optical axis of the compound lens unit as a center. 前記複合レンズ部は、前記互いに焦点距離の異なる複数の領域が、前記複合レンズ部の光軸を中心として同心円状に配置されていることを特徴とする請求項1に記載の物体検出装置。 The object detection apparatus according to claim 1, wherein the compound lens unit includes a plurality of regions having different focal lengths arranged concentrically around the optical axis of the compound lens unit. 前記被写体位置検出部は、前記撮影部で撮影した前記被写体の複数の画像における合焦度の違いにもとづいて前記被写体の位置を検出することを特徴とする請求項1から請求項3までのいずれか1項に記載の物体検出装置。 The object position detection unit detects the position of the subject based on a difference in focus in a plurality of images of the subject photographed by the photographing unit. The object detection apparatus according to claim 1. 前記被写体位置検出部は、前記撮影部で撮影した前記被写体の複数の画像における合焦度が実質的に等しいか否かを検出することによって、前記被写体の位置を検出することを特徴とする請求項4に記載の物体検出装置。 The subject position detection unit detects the position of the subject by detecting whether or not the degrees of focus in a plurality of images of the subject photographed by the photographing unit are substantially equal. Item 5. The object detection device according to Item 4. 前記被写体位置検出部は、前記撮影部で撮影した前記被写体の複数の画像をDCT処理した場合の係数にもとづいて前記合焦度を算出することを特徴とする請求項4または請求項5に記載の物体検出装置。 The said subject position detection part calculates the said focus degree based on the coefficient at the time of carrying out DCT process of the several image of the said subject image | photographed with the said imaging | photography part. Object detection device. 前記被写体位置検出部は、前記撮影部で撮影した前記被写体の複数の画像をDCT処理した場合の所定周波数の係数値を積算して前記合焦度を算出することを特徴とする請求項6に記載の物体検出装置。 7. The subject position detection unit calculates the degree of focus by integrating coefficient values of a predetermined frequency when a plurality of images of the subject photographed by the photographing unit are subjected to DCT processing. The object detection apparatus described. 前記絞り部は、液晶シャッタを有することを特徴とする請求項1から請求項7までのいずれか1項に記載の物体検出装置。 The object detection apparatus according to claim 1, wherein the aperture unit includes a liquid crystal shutter. 前記絞り制御部は、前記液晶シャッタを透過する光線の光量が一定になるように光量を調節する光量調節部を有することを特徴とする請求項8に記載の物体検出装置。 9. The object detection apparatus according to claim 8, wherein the aperture control unit includes a light amount adjustment unit that adjusts a light amount so that a light amount of light passing through the liquid crystal shutter is constant.
JP2004376082A 2004-12-27 2004-12-27 Object detector Pending JP2006184065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004376082A JP2006184065A (en) 2004-12-27 2004-12-27 Object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004376082A JP2006184065A (en) 2004-12-27 2004-12-27 Object detector

Publications (1)

Publication Number Publication Date
JP2006184065A true JP2006184065A (en) 2006-07-13

Family

ID=36737300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004376082A Pending JP2006184065A (en) 2004-12-27 2004-12-27 Object detector

Country Status (1)

Country Link
JP (1) JP2006184065A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006034926A1 (en) * 2006-07-28 2008-01-31 Sick Ag Opto-electronic distance measuring device for determining distance of object, comprises illuminating unit and transceiver optics with beam forming optics, where transceiver optics produces different illuminating patterns on objects
JP2009258080A (en) * 2008-03-27 2009-11-05 Nikon Corp Hole shape measuring apparatus
JP2010156670A (en) * 2008-12-29 2010-07-15 Mitsutoyo Corp Focal sensor
WO2012017577A1 (en) * 2010-08-06 2012-02-09 パナソニック株式会社 Imaging device and imaging method
WO2012147245A1 (en) * 2011-04-27 2012-11-01 パナソニック株式会社 Image pick-up device, image pick-up system equipped with image pick-up device, and image pick-up method
WO2012176355A1 (en) * 2011-06-23 2012-12-27 パナソニック株式会社 Imaging device
WO2013001709A1 (en) * 2011-06-27 2013-01-03 パナソニック株式会社 Image pickup apparatus
WO2013080552A1 (en) * 2011-11-30 2013-06-06 パナソニック株式会社 Imaging device and imaging system
WO2013080551A1 (en) * 2011-11-30 2013-06-06 パナソニック株式会社 Imaging device
WO2014046184A1 (en) * 2012-09-24 2014-03-27 富士フイルム株式会社 Device and method for measuring distances of multiple subjects
EP2829912A4 (en) * 2012-03-21 2016-03-09 Fujifilm Corp Image capture device
WO2019202984A1 (en) * 2018-04-17 2019-10-24 富士フイルム株式会社 Image capturing device, distance measuring method, distance measuring program, and recording medium

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006034926A1 (en) * 2006-07-28 2008-01-31 Sick Ag Opto-electronic distance measuring device for determining distance of object, comprises illuminating unit and transceiver optics with beam forming optics, where transceiver optics produces different illuminating patterns on objects
EP1884804A1 (en) 2006-07-28 2008-02-06 Sick Ag Distance measuring device
EP1884804B1 (en) * 2006-07-28 2009-03-25 Sick Ag Distance measuring device
US7557906B2 (en) 2006-07-28 2009-07-07 Sick Ag Distance measurement instrument
JP2009258080A (en) * 2008-03-27 2009-11-05 Nikon Corp Hole shape measuring apparatus
JP2010156670A (en) * 2008-12-29 2010-07-15 Mitsutoyo Corp Focal sensor
WO2012017577A1 (en) * 2010-08-06 2012-02-09 パナソニック株式会社 Imaging device and imaging method
JP5159986B2 (en) * 2010-08-06 2013-03-13 パナソニック株式会社 Imaging apparatus and imaging method
CN103026170A (en) * 2010-08-06 2013-04-03 松下电器产业株式会社 Imaging device and imaging method
US8711215B2 (en) 2010-08-06 2014-04-29 Panasonic Corporation Imaging device and imaging method
WO2012147245A1 (en) * 2011-04-27 2012-11-01 パナソニック株式会社 Image pick-up device, image pick-up system equipped with image pick-up device, and image pick-up method
US9270948B2 (en) 2011-04-27 2016-02-23 Panasonic Intellectual Property Management Co., Ltd. Image pick-up device, method, and system utilizing a lens having plural regions each with different focal characteristics
JPWO2012147245A1 (en) * 2011-04-27 2014-07-28 パナソニック株式会社 Imaging device, imaging system including imaging device, and imaging method
JP5548310B2 (en) * 2011-04-27 2014-07-16 パナソニック株式会社 Imaging device, imaging system including imaging device, and imaging method
JP5406383B2 (en) * 2011-06-23 2014-02-05 パナソニック株式会社 Imaging device
US8836825B2 (en) 2011-06-23 2014-09-16 Panasonic Corporation Imaging apparatus
WO2012176355A1 (en) * 2011-06-23 2012-12-27 パナソニック株式会社 Imaging device
JP5144841B1 (en) * 2011-06-27 2013-02-13 パナソニック株式会社 Imaging device
WO2013001709A1 (en) * 2011-06-27 2013-01-03 パナソニック株式会社 Image pickup apparatus
US9142582B2 (en) 2011-11-30 2015-09-22 Panasonic Intellectual Property Management Co., Ltd. Imaging device and imaging system
WO2013080551A1 (en) * 2011-11-30 2013-06-06 パナソニック株式会社 Imaging device
US9383199B2 (en) 2011-11-30 2016-07-05 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
WO2013080552A1 (en) * 2011-11-30 2013-06-06 パナソニック株式会社 Imaging device and imaging system
JPWO2013080552A1 (en) * 2011-11-30 2015-04-27 パナソニックIpマネジメント株式会社 Imaging apparatus and imaging system
CN103314571A (en) * 2011-11-30 2013-09-18 松下电器产业株式会社 Imaging device
EP2829912A4 (en) * 2012-03-21 2016-03-09 Fujifilm Corp Image capture device
JP5750551B2 (en) * 2012-09-24 2015-07-22 富士フイルム株式会社 Apparatus and method for measuring distance of multiple subjects
CN104620075A (en) * 2012-09-24 2015-05-13 富士胶片株式会社 Device and method for measuring distances of multiple subjects
CN104620075B (en) * 2012-09-24 2016-04-13 富士胶片株式会社 The distance-measuring device of many subjects and method
US9386215B2 (en) 2012-09-24 2016-07-05 Fujifilm Corporation Device and method for measuring distances to multiple subjects
WO2014046184A1 (en) * 2012-09-24 2014-03-27 富士フイルム株式会社 Device and method for measuring distances of multiple subjects
WO2019202984A1 (en) * 2018-04-17 2019-10-24 富士フイルム株式会社 Image capturing device, distance measuring method, distance measuring program, and recording medium
JPWO2019202984A1 (en) * 2018-04-17 2021-05-13 富士フイルム株式会社 Imaging device and distance measurement method, distance measurement program and recording medium
US11593958B2 (en) 2018-04-17 2023-02-28 Fujifilm Corporation Imaging device, distance measurement method, distance measurement program, and recording medium

Similar Documents

Publication Publication Date Title
CN106412426B (en) Total focus camera and method
US8810713B2 (en) Image pickup apparatus and image pickup device for performing auto-focusing
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9681042B2 (en) Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
JP2008026802A (en) Imaging apparatus
JP6800797B2 (en) Image pickup device, image processing device, control method and program of image pickup device
JP2012215785A (en) Solid-state image sensor and image capturing apparatus
JP2007158825A (en) Image input device
JP2015194706A (en) Focus detection device and control method thereof
JP2016129289A (en) Image processing device, imaging device, image processing method, program, and storage medium
JP2005252625A (en) Image pickup device and image processing method
US11012650B2 (en) Image processing apparatus, image processing method, and storage medium
JP2006184065A (en) Object detector
JP2011149931A (en) Distance image acquisition device
CN108156383B (en) High-dynamic billion pixel video acquisition method and device based on camera array
JP6234401B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2022161958A (en) Control device, control method, computer program, and electronic apparatus
KR102156998B1 (en) A method for detecting motion in a video sequence
JP2021027584A (en) Image processing device, image processing method, and program
JP2010206722A (en) Image processing apparatus and image processing method, and, imaging apparatus
JP2005287878A (en) Living body distinguishing apparatus, identification apparatus, and method for distinguishing living body
CN110995982A (en) Image processing apparatus, control method thereof, imaging apparatus, and recording medium
JP2006261871A (en) Image processor in hands-free camera
JPWO2019202984A1 (en) Imaging device and distance measurement method, distance measurement program and recording medium
JP2008281887A (en) Focusing detecting device, focusing detecting method and focusing detecting program