JP2020194125A - Information processing device, imaging device, camera system, information processing method, a program, and storage medium - Google Patents

Information processing device, imaging device, camera system, information processing method, a program, and storage medium Download PDF

Info

Publication number
JP2020194125A
JP2020194125A JP2019100669A JP2019100669A JP2020194125A JP 2020194125 A JP2020194125 A JP 2020194125A JP 2019100669 A JP2019100669 A JP 2019100669A JP 2019100669 A JP2019100669 A JP 2019100669A JP 2020194125 A JP2020194125 A JP 2020194125A
Authority
JP
Japan
Prior art keywords
field
depth
subject
information processing
tilt angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019100669A
Other languages
Japanese (ja)
Inventor
児玉 洋一
Yoichi Kodama
洋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019100669A priority Critical patent/JP2020194125A/en
Publication of JP2020194125A publication Critical patent/JP2020194125A/en
Pending legal-status Critical Current

Links

Abstract

To provide an information processing device capable of determining a tilt angle suitable for recognizing a subject.SOLUTION: An information processing device includes: acquisition means (1015) that acquires a piece of installation information of an imaging device; first calculation means (1016) that calculates the limit distance at which a subject can be recognized based on the installation information and a piece of attribute information of the subject; second calculation means (1017) that calculates a forward depth of field and a rear depth of field when focusing on the subject; and third calculation means (1009) that calculates the tilt angle based on the limit distance and the rear depth of field.SELECTED DRAWING: Figure 8

Description

本発明は、あおり角度を調整することが可能な撮像装置に関する。 The present invention relates to an imaging device capable of adjusting the tilt angle.

特許文献1には、撮像部の複数の焦点検出領域で焦点ズレ量を検出し、検出した焦点ズレ量に基づいて撮像素子のあおり角度を調節することで、被写界深度範囲を広げる方法が開示されている。特許文献2には、撮影対象の位置、範囲、条件を指定すると、画角、解像度、アスペクト比などの撮影条件に基づいて、カメラを設置可能な範囲を表示する方法が開示されている。 Patent Document 1 describes a method of expanding the depth of field range by detecting the amount of defocus in a plurality of focal detection regions of an imaging unit and adjusting the tilt angle of the image sensor based on the detected amount of defocus. It is disclosed. Patent Document 2 discloses a method of displaying a range in which a camera can be installed based on shooting conditions such as an angle of view, resolution, and aspect ratio when a position, range, and conditions of a shooting target are specified.

特開2017−173802号公報Japanese Unexamined Patent Publication No. 2017-173802 特開2018−014553号公報Japanese Unexamined Patent Publication No. 2018-014553

しかしながら、特許文献1に開示された方法では、人や顔などの被写体を認識することが可能な領域を考慮していない。このため、被写体を認識することが目的である場合、本来不要な領域の被写体にも焦点を合わせることになる。特許文献2に開示された方法では、被写体を認識可能な領域を考慮しているが、焦点が合っていることを前提としており、焦点が合わないケースについては考慮されていない。また特許文献2に開示された方法では、あおりについても考慮されていない。また、特許文献1や特許文献2に開示された方法では、あおり角度の調節により被写界深度を拡張する際、近距離から中距離の被写体に対して発現する、あおり特有のぼけについても考慮されていない。 However, the method disclosed in Patent Document 1 does not consider a region in which a subject such as a person or a face can be recognized. Therefore, when the purpose is to recognize the subject, the subject in an originally unnecessary area is also focused. In the method disclosed in Patent Document 2, the area where the subject can be recognized is considered, but it is premised that the subject is in focus, and the case where the subject is out of focus is not considered. Further, in the method disclosed in Patent Document 2, tilting is not taken into consideration. Further, in the methods disclosed in Patent Document 1 and Patent Document 2, when the depth of field is extended by adjusting the tilt angle, the blur peculiar to tilt that appears for a subject at a short distance to a medium distance is also taken into consideration. It has not been.

そこで本発明は、被写体の認識に適したあおり角度を決定することが可能な情報処理装置、撮像装置、カメラシステム、情報処理方法、プログラム、および、記憶媒体を提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing device, an imaging device, a camera system, an information processing method, a program, and a storage medium capable of determining a tilt angle suitable for recognizing a subject.

本発明の一側面としての情報処理装置は、撮像装置の設置情報を取得する取得手段と、前記設置情報と被写体の属性情報とに基づいて、前記被写体を認識可能な限界距離を算出する第1の算出手段と、前記被写体にフォーカスを合わせた際の前方被写界深度と後方被写界深度とを算出する第2の算出手段と、前記限界距離と前記後方被写界深度とに基づいて、撮像素子または光学系のあおり角度を算出する第3の算出手段とを有する。 The information processing device as one aspect of the present invention calculates the limit distance at which the subject can be recognized based on the acquisition means for acquiring the installation information of the image pickup device and the installation information and the attribute information of the subject. Based on the calculation means of, the second calculation means for calculating the front depth of field and the rear depth of field when the subject is focused, and the limit distance and the rear depth of field. It has a third calculation means for calculating the tilt angle of the image pickup element or the optical system.

本発明の他の側面としての撮像装置は、被写体を撮像する撮像手段と前記情報処理装置とを有する。 The image pickup apparatus as another aspect of the present invention includes an image pickup means for imaging a subject and the information processing apparatus.

本発明の他の側面としてのカメラシステムは、前記撮像装置と、前記撮像装置の前記設置情報を入力する入力手段を有し、ネットワークを介して前記設置情報を前記撮像装置に送信する制御装置とを有する。 A camera system as another aspect of the present invention includes the image pickup device and an input means for inputting the installation information of the image pickup device, and a control device for transmitting the installation information to the image pickup device via a network. Has.

本発明の他の側面としての情報処理方法は、撮像装置の設置情報を取得するステップと、前記設置情報と被写体の属性情報とに基づいて、前記被写体を認識可能な限界距離を算出するステップと、前記被写体にフォーカスを合わせた際の前方被写界深度と後方被写界深度とを算出するステップと、前記限界距離と前記後方被写界深度とに基づいて、あおり角度を算出するステップとを有する。 The information processing method as another aspect of the present invention includes a step of acquiring installation information of the imaging device and a step of calculating a limit distance at which the subject can be recognized based on the installation information and the attribute information of the subject. , A step of calculating the front depth of field and the rear depth of field when the subject is focused, and a step of calculating the tilt angle based on the limit distance and the rear depth of field. Has.

本発明の他の側面としてのプログラムは、前記情報処理方法をコンピュータに実行させる。 A program as another aspect of the present invention causes a computer to execute the information processing method.

本発明の他の側面としてのコンピュータが読み取り可能な記憶媒体は、前記プログラムを記憶している。 A computer-readable storage medium as another aspect of the invention stores the program.

本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the present invention will be described in the following embodiments.

本発明によれば、被写体の認識に適したあおり角度を決定することが可能な情報処理装置、撮像装置、カメラシステム、情報処理方法、プログラム、および、記憶媒体を提供することができる。 According to the present invention, it is possible to provide an information processing device, an imaging device, a camera system, an information processing method, a program, and a storage medium capable of determining a tilt angle suitable for recognizing a subject.

本実施形態におけるカメラシステムの構成図である。It is a block diagram of the camera system in this embodiment. 本実施形態におけるカメラシステムのブロック図である。It is a block diagram of the camera system in this embodiment. 本実施形態におけるあおり制御の説明図である。It is explanatory drawing of the tilt control in this embodiment. 本実施形態における被写界深度の説明図である。It is explanatory drawing of the depth of field in this embodiment. 本実施形態における被写界深度の説明図である。It is explanatory drawing of the depth of field in this embodiment. 本実施形態における被写界深度の説明図である。It is explanatory drawing of the depth of field in this embodiment. 本実施形態における認識限界面の説明図である。It is explanatory drawing of the recognition limit surface in this embodiment. 本実施形態における情報処理方法のフローチャートである。It is a flowchart of the information processing method in this embodiment.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

監視カメラ(撮像装置)を高所に設置し、監視カメラの光軸を斜め下側に向け、道路を通行する人を監視し、または、車やそのナンバープレートを撮影したりすることがある。この場合、監視カメラの光軸が斜め下向きとなるため、撮像を行う際のピントが合う合焦面は光軸に垂直な面であり、実際に撮像を行う対象となる被写体面とは合致しない。このため、ピントが合う奥行き範囲は画面の一部(被写界深度内)のみとなり、その他の領域はピントがぼけた状態となる。 A surveillance camera (imaging device) may be installed at a high place, and the optical axis of the surveillance camera may be directed diagonally downward to monitor people passing by on the road or to photograph a car or its license plate. In this case, since the optical axis of the surveillance camera faces diagonally downward, the focal plane that is in focus when performing imaging is the plane perpendicular to the optical axis and does not match the subject plane to be actually imaged. .. Therefore, the focusing depth range is only a part of the screen (within the depth of field), and the other areas are out of focus.

この問題に対し、光学系の絞りを絞ることにより被写界深度を深くし、ピントぼけを防ぐ方法がある。しかしながら、低照度下で撮影を行う監視カメラでは、絞りを開放近くまで開いての撮影も多い。この結果、被写界深度は浅くなり、画面全体の奥行き内でピントが合わず、ピントがぼけた状態で撮影が行われてしまう。 To solve this problem, there is a method of increasing the depth of field by reducing the aperture of the optical system to prevent out-of-focus. However, in surveillance cameras that shoot under low illuminance, there are many cases where the aperture is opened close to the maximum aperture. As a result, the depth of field becomes shallow, the focus is out of focus within the depth of the entire screen, and shooting is performed in a defocused state.

そこで、撮像素子に対してレンズを相対的に傾け、被写界深度範囲を広げる方法がある。一方、レンズに対して撮像素子を相対的に傾け、被写界深度範囲を広げる技術がある。以後、レンズと撮像素子との間の相対角度を傾けることを、「あおる」と称する。監視カメラにこの技術を適用することで、絞りが開放状態でも被写界深度が深くなり、1台で遠距離まで監視が可能となる。 Therefore, there is a method of tilting the lens relative to the image sensor to widen the depth of field range. On the other hand, there is a technique of tilting the image sensor relative to the lens to widen the depth of field range. Hereinafter, tilting the relative angle between the lens and the image sensor is referred to as "aoru". By applying this technology to a surveillance camera, the depth of field becomes deep even when the aperture is open, and one camera can monitor a long distance.

ステッピングモータの駆動によって例えば撮像素子の傾きを制御する構造の場合、1パルスあたりの傾斜角度がステッピングモータの駆動と歯車のギヤ比で決まる。このため、撮像素子のレンズに対する相対的な傾斜角度(以後、あおり角度と称する)をパルス数で指定することで、撮像素子を所望のあおり角度となるように制御することができる。撮像素子のあおりの回転軸には、撮像素子の長辺方向中心線を軸に撮像素子を回転させる上下あおりや、撮像素子の短辺方向中心線を軸に撮像素子を回転させる左右あおりなど様々な回転軸がある。 For example, in the case of a structure in which the tilt of the image sensor is controlled by driving the stepping motor, the tilt angle per pulse is determined by the drive of the stepping motor and the gear ratio of the gears. Therefore, the image sensor can be controlled to have a desired tilt angle by designating the tilt angle (hereinafter referred to as a tilt angle) of the image sensor with respect to the lens by the number of pulses. The rotation axis of the tilt of the image sensor is various, such as the vertical tilt that rotates the image sensor around the center line in the long side direction of the image sensor, and the left and right tilt that rotates the image sensor around the center line in the short side direction of the image sensor. There is a rotation axis.

ところで、あおり角度を調節する際に、近距離から中距離の被写体の一部(上部または下部)において、あおり特有のぼけが発現することがある。例えば、被写界深度が浅い望遠レンズを用いる場合、あおり角度の調節により近距離被写体から遠距離被写体まで被写界深度が拡張されるよりも先に、近距離から中距離の被写体の一部(上部または下部)に対し、あおり特有のぼけが発現してしまう。 By the way, when adjusting the tilt angle, blurring peculiar to tilt may appear in a part (upper or lower part) of a subject at a short to medium distance. For example, when using a telephoto lens with a shallow depth of field, a part of a short-distance to medium-distance subject is used before the depth of field is extended from a short-distance subject to a long-distance subject by adjusting the tilt angle. Blurring peculiar to tilting appears for (upper or lower).

以下、このような課題を解決するための実施形態について説明する。 Hereinafter, embodiments for solving such problems will be described.

<ネットワーク構成>
まず、図1を参照して、本実施形態におけるカメラシステムの構成について説明する。図1は、本実施形態における監視カメラを含むカメラシステムの構成図である。カメラシステム100は、監視カメラ(撮像装置)100、監視カメラ1000の制御装置1100、および、ネットワーク1200を備えて構成される。監視カメラ1000と制御装置1100は、ネットワーク1200を介して相互に通信可能な状態に接続されている。制御装置1100は、監視カメラ1000に対して、各種コマンドを送信する。監視カメラ1000は、それらのコマンドに対するレスポンスを制御装置1100に送信する。
<Network configuration>
First, the configuration of the camera system according to the present embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram of a camera system including a surveillance camera according to the present embodiment. The camera system 100 includes a surveillance camera (imaging device) 100, a control device 1100 for the surveillance camera 1000, and a network 1200. The surveillance camera 1000 and the control device 1100 are connected to each other via the network 1200 so as to be able to communicate with each other. The control device 1100 transmits various commands to the surveillance camera 1000. The surveillance camera 1000 transmits the response to those commands to the control device 1100.

ネットワーク1200は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等である。なお、本実施形態においては、監視カメラ1000と制御装置1100との間の通信を行うことができるものであれば、その通信規格や規模、構成は問わない。よって、ネットワーク1200は、例えば、有線LAN(Local Area Network)、無線LAN、WAN(Wide Area Network)等であっても良い。 The network 1200 is a plurality of routers, switches, cables, etc. that satisfy communication standards such as Ethernet (registered trademark). In the present embodiment, the communication standard, scale, and configuration are not limited as long as they can communicate between the surveillance camera 1000 and the control device 1100. Therefore, the network 1200 may be, for example, a wired LAN (Local Area Network), a wireless LAN, a WAN (Wide Area Network), or the like.

なお、本図においては、説明の簡略化のために監視カメラは1台としているが、2台以上の監視カメラを含んでいても構わない。また、制御装置1100以外にも、監視カメラ1000にアクセスして画像の受信や蓄積を行う他の制御装置を含んでいても構わない。 In this figure, the number of surveillance cameras is one for the sake of simplification of the description, but two or more surveillance cameras may be included. Further, in addition to the control device 1100, another control device that accesses the surveillance camera 1000 to receive and store images may be included.

<監視カメラ>
次に、図2を参照して、カメラシステム100の構成および機能について説明する。図2は、カメラシステム100のブロック図である。
<Surveillance camera>
Next, the configuration and functions of the camera system 100 will be described with reference to FIG. FIG. 2 is a block diagram of the camera system 100.

まず、監視カメラ1000の各部の構成と機能について説明する。監視カメラ1000は、撮像部(撮像手段)1001、画像処理部1002、システム制御部1003、および、記憶部1004を有する。また監視カメラ1000は、レンズ駆動部1005、撮像画角制御部1006、フォーカス制御部1007、撮像素子駆動部(角度制御手段)1008、および、撮像素子制御部(第3の算出手段)1009を有する。また監視カメラ1000は、パン駆動部1010、チルト駆動部1013、パン・チルト制御部1011、通信部1012、および、プログラムメモリ1014を有する。また監視カメラ1000は、設置情報管理部(取得手段)1015、認識限界距離算出部(第1の算出手段)1016、被写界深度算出部(第2の算出手段)1017、後方被写界深度面指定部(決定手段)1018を有する。 First, the configuration and function of each part of the surveillance camera 1000 will be described. The surveillance camera 1000 includes an imaging unit (imaging means) 1001, an image processing unit 1002, a system control unit 1003, and a storage unit 1004. Further, the surveillance camera 1000 includes a lens driving unit 1005, an image pickup angle of view control unit 1006, a focus control unit 1007, an image pickup element drive unit (angle control means) 1008, and an image pickup element control unit (third calculation means) 1009. .. The surveillance camera 1000 also includes a pan drive unit 1010, a tilt drive unit 1013, a pan / tilt control unit 1011 and a communication unit 1012, and a program memory 1014. Further, the surveillance camera 1000 includes an installation information management unit (acquisition means) 1015, a recognition limit distance calculation unit (first calculation means) 1016, a depth of field calculation unit (second calculation means) 1017, and a rear depth of field. It has a surface designation unit (determining means) 1018.

撮像部1001は、レンズ(撮像光学系)および撮像素子を含み、被写体の撮像および電気信号への変換を行う。画像処理部1002は、撮像部1001において撮像され光電変換された信号の所定の画像処理、解像度変換処理、および、圧縮符号化処理を行い、画像データを生成する。 The image pickup unit 1001 includes a lens (imaging optical system) and an image pickup element, and performs imaging of a subject and conversion into an electric signal. The image processing unit 1002 performs predetermined image processing, resolution conversion processing, and compression coding processing of the signal imaged and photoelectrically converted by the imaging unit 1001 to generate image data.

システム制御部1003は、制御装置1100から送信されたコマンド(カメラ制御コマンド)を解析し、コマンドに応じた処理を行う。システム制御部1003は、主に、制御装置1100からライブ画像の要求コマンドを受信し、画像処理部1002で生成された画像データを、通信部1012を介して配信する。加えて、システム制御部1003は、制御装置1100から監視カメラ1000の設置情報の設定値、解像度の設定値、ズームの設定値、フォーカスの設定値、あおり角度の設定値、および、パン・チルトの設定値の要求コマンドを受信する。またシステム制御部1003は、設置情報管理部1015、画像処理部1002、撮像画角制御部1006、フォーカス制御部1007、撮像素子制御部1009、および、パン・チルト制御部1011から、それぞれ設定値を読み取る。そしてシステム制御部1003は、読み取ったそれぞれの設定値を、通信部1012を介して制御装置1100へ配信する。 The system control unit 1003 analyzes the command (camera control command) transmitted from the control device 1100 and performs processing according to the command. The system control unit 1003 mainly receives a request command for a live image from the control device 1100, and distributes the image data generated by the image processing unit 1002 via the communication unit 1012. In addition, the system control unit 1003 sets the installation information of the surveillance camera 1000 from the control device 1100, the resolution setting, the zoom setting, the focus setting, the tilt angle setting, and the pan / tilt. Receives the request command for the set value. Further, the system control unit 1003 sets values from the installation information management unit 1015, the image processing unit 1002, the imaging angle of view control unit 1006, the focus control unit 1007, the image pickup element control unit 1009, and the pan / tilt control unit 1011 respectively. read. Then, the system control unit 1003 distributes each of the read set values to the control device 1100 via the communication unit 1012.

システム制御部1003は、各種設定コマンドを受信した際、設置情報管理部1015、画像処理部1002、撮像画角制御部1006、フォーカス制御部1007、撮像素子制御部1009、パン・チルト制御部1011に対し、各設定値に基づく制御を命令する。ここで各種設定コマンドとは、例えば、設置情報、解像度、ズーム、フォーカス、あおり角度、および、パン・チルトの設定コマンドである。画像処理部1002、撮像画角制御部1006、および、フォーカス制御部1007は、システム制御部1003の命令に基づいて、撮像部1001およびレンズ駆動部1005を制御する。撮像素子制御部1009およびパン・チルト制御部1011は、システム制御部1003の命令に基づいて、撮像素子駆動部1008、パン駆動部1010、および、チルト駆動部1013を制御する。これにより、制御装置1100で設定した解像度、ズーム、フォーカス、あおり角度、および、パン・チルトに関する設定値が監視カメラ1000に反映される。 When the system control unit 1003 receives various setting commands, the system control unit 1003 causes the installation information management unit 1015, the image processing unit 1002, the imaging angle of view control unit 1006, the focus control unit 1007, the image sensor control unit 1009, and the pan / tilt control unit 1011. On the other hand, control based on each set value is instructed. Here, the various setting commands are, for example, installation information, resolution, zoom, focus, tilt angle, and pan / tilt setting commands. The image processing unit 1002, the imaging angle of view control unit 1006, and the focus control unit 1007 control the imaging unit 1001 and the lens driving unit 1005 based on the instructions of the system control unit 1003. The image sensor control unit 1009 and the pan / tilt control unit 1011 control the image sensor drive unit 1008, the pan drive unit 1010, and the tilt drive unit 1013 based on the command of the system control unit 1003. As a result, the resolution, zoom, focus, tilt angle, and pan / tilt set values set by the control device 1100 are reflected in the surveillance camera 1000.

記憶部1004は、内部ストレージ、および、外部ストレージに画像を記憶する。撮像画角制御部1006は、システム制御部1003から出力されたズームの設定値に基づいて、レンズ駆動部1005に対し、ズームレンズ位置の変更を命令する。撮像画角制御部1006は、ズームの設定値として、例えば焦点距離を管理する。フォーカス制御部1007は、システム制御部1003から出力されたフォーカスの設定値に基づいて、レンズ駆動部1005に対し、フォーカスレンズ位置の変更を命令する。フォーカスレンズの位置が変更されることにより、フォーカス位置が変更される。 The storage unit 1004 stores images in the internal storage and the external storage. The imaging angle of view control unit 1006 instructs the lens drive unit 1005 to change the zoom lens position based on the zoom setting value output from the system control unit 1003. The imaging angle of view control unit 1006 manages, for example, the focal length as a zoom setting value. The focus control unit 1007 instructs the lens drive unit 1005 to change the focus lens position based on the focus setting value output from the system control unit 1003. By changing the position of the focus lens, the focus position is changed.

ここで、監視カメラ1000のフォーカスモードには、マニュアル、オートフォーカス(AF)、無限遠固定、ワンショットAFなどがある。マニュアルとは、フォーカスレンズのレンズ位置をユーザが手動で調節するモードのことである。オートフォーカスとは、監視カメラ1000が撮像画角の例えば中心領域に対してピントが合うように、フォーカスレンズのレンズ位置を常に自動で調節し続けるモードのことである。無限遠固定とは、監視カメラ1000がフォーカスレンズに記録された、無限遠方にピントを合わせることができるレンズ位置へフォーカスレンズを移動させるモードである。主に、遠方の景色や遠方の被写体を撮影するために用いられるモードであり、無限遠固定では、近傍に写る被写体に対しては、ピントが合わない。また、ワンショットAFとは、フォーカスモードがマニュアルの状態において、監視カメラ1000が撮像画角に対し、一度だけAFを実行し、その後フォーカスモードをマニュアルに戻す機能のことである。 Here, the focus modes of the surveillance camera 1000 include manual, autofocus (AF), fixed at infinity, and one-shot AF. Manual is a mode in which the user manually adjusts the lens position of the focus lens. The autofocus is a mode in which the lens position of the focus lens is constantly and automatically adjusted so that the surveillance camera 1000 focuses on, for example, the central region of the imaging angle of view. The infinity fixed mode is a mode in which the surveillance camera 1000 moves the focus lens to a lens position recorded on the focus lens so that the focus lens can be focused at infinity. This mode is mainly used for shooting a distant landscape or a distant subject, and when fixed at infinity, the subject in the vicinity is out of focus. Further, the one-shot AF is a function in which the surveillance camera 1000 executes AF only once for the imaging angle of view when the focus mode is manual, and then returns the focus mode to manual.

コントラスト検出方式でAFを行う際、フォーカス制御部1007は、フォーカスレンズ位置を少しずつ離散的に変更する指示をする。同時に、フォーカス制御部1007は、画像処理部1002から画像データを取得し、フォーカスを合わせようとする領域に対して、コントラスト評価値を算出する。これにより、離散的に指定したフォーカスレンズ位置のそれぞれに対するコントラスト評価値のテーブルを得られ、このテーブルから、最もコントラスト評価値の高いフォーカスレンズ位置が設定される。 When AF is performed by the contrast detection method, the focus control unit 1007 gives an instruction to change the focus lens position little by little and discretely. At the same time, the focus control unit 1007 acquires image data from the image processing unit 1002 and calculates a contrast evaluation value for a region to be focused. As a result, a table of contrast evaluation values for each of the discretely specified focus lens positions can be obtained, and the focus lens position having the highest contrast evaluation value is set from this table.

撮像素子制御部1009は、システム制御部1003から出力されたあおり角度の設定値、または、あおり角度の算出に用いる各種データに基づいて、撮像素子駆動部1008に対し、あおり角度の変更を命令する。パン・チルト制御部1011は、システム制御部1003から出力されたパン・チルトの設定値に基づいて、パン駆動部1010およびチルト駆動部1013に対し、パン・チルトの変更を命令する。システム制御部1003は、プログラムメモリ1014に記憶されたコンピュータプログラムに基づいて、各種動作を実行する。設置情報管理部1015は、カメラ設置位置、光軸上でフォーカスを合わせる被写体位置(フォーカス位置)などの設置情報を記憶し、システム制御部1003からの指示により、設置情報を取得および設定する。 The image sensor control unit 1009 instructs the image sensor drive unit 1008 to change the tilt angle based on the set value of the tilt angle output from the system control unit 1003 or various data used for calculating the tilt angle. .. The pan / tilt control unit 1011 instructs the pan drive unit 1010 and the tilt drive unit 1013 to change the pan / tilt based on the pan / tilt set value output from the system control unit 1003. The system control unit 1003 executes various operations based on the computer program stored in the program memory 1014. The installation information management unit 1015 stores installation information such as a camera installation position and a subject position (focus position) to be focused on the optical axis, and acquires and sets the installation information according to an instruction from the system control unit 1003.

認識限界距離算出部1016は、認識対象の被写体の属性ごとに、属性の幅、向き、必要なピクセル数などの属性情報を記憶し、システム制御部1003からの指示により、属性情報を取得および設定する。ここで属性情報は、予め、プログラムメモリ1014内のコンピュータプログラムで設定しておいてもかまわない。また認識限界距離算出部1016は、システム制御部1003からの指示により、属性情報、設置情報、各種データを用いて、認識限界距離を算出する。 The recognition limit distance calculation unit 1016 stores attribute information such as the width, orientation, and required number of pixels for each attribute of the subject to be recognized, and acquires and sets the attribute information according to an instruction from the system control unit 1003. To do. Here, the attribute information may be set in advance by the computer program in the program memory 1014. Further, the recognition limit distance calculation unit 1016 calculates the recognition limit distance by using the attribute information, the installation information, and various data according to the instruction from the system control unit 1003.

被写界深度算出部1017は、有効口径や許容錯乱円直径などの光学情報を記憶し、システム制御部1003からの指示により、光学情報を取得および設定する。また被写界深度算出部1017は、システム制御部1003からの指示により、設置情報、光学情報、各種データを用いて、被写界深度を算出する。後方被写界深度面指定部1018は、システム制御部1003からの指示により、設置情報、被写界深度を用いて、認識対象の被写体の属性に最適な後方被写界深度面を指定する。 The depth of field calculation unit 1017 stores optical information such as an effective aperture and a permissible circle of confusion diameter, and acquires and sets the optical information according to an instruction from the system control unit 1003. Further, the depth of field calculation unit 1017 calculates the depth of field using the installation information, the optical information, and various data according to the instruction from the system control unit 1003. The rear depth-of-field designation unit 1018 designates the optimum rear depth-of-field surface for the attributes of the subject to be recognized by using the installation information and the depth of field according to the instruction from the system control unit 1003.

通信部1012は、ネットワーク1200を介して画像データを制御装置1100に配信する。また通信部1012は、制御装置1100から送信される各種コマンドを受信し、システム制御部1003へ出力する。制御装置1100から送信されるコマンドには、主にライブ画像の要求コマンド、監視カメラ1000の設置情報、解像度、ズーム、フォーカス、あおり角度、およびパン・チルトに関する設定値の要求コマンド、および設定コマンドが含まれる。 The communication unit 1012 distributes the image data to the control device 1100 via the network 1200. Further, the communication unit 1012 receives various commands transmitted from the control device 1100 and outputs them to the system control unit 1003. The commands transmitted from the control device 1100 mainly include live image request commands, surveillance camera 1000 installation information, resolution, zoom, focus, tilt angle, and pan / tilt setting value request commands, and setting commands. included.

レンズ駆動部1005は、フォーカスレンズおよびズームレンズの駆動系およびその駆動源のモータにより構成され、撮像画角制御部1006およびフォーカス制御部1007により制御される。撮像素子駆動部1008は、レンズの光軸に対して、CCDやCMOSなどの撮像素子のセンサ面(撮像面)の角度を変化させる(傾ける)。パン駆動部1010は、パン動作を行うメカ駆動系および駆動源のモータにより構成され、その動作はパン・チルト制御部1011により制御される。チルト駆動部1013は、チルト動作を行うメカ駆動系および駆動源のモータにより構成され、その動作はパン・チルト制御部1011により制御される。 The lens drive unit 1005 is composed of a drive system for a focus lens and a zoom lens and a motor for the drive source thereof, and is controlled by the imaging angle of view control unit 1006 and the focus control unit 1007. The image sensor driving unit 1008 changes (tilts) the angle of the sensor surface (imaging surface) of the image sensor such as CCD or CMOS with respect to the optical axis of the lens. The pan drive unit 1010 is composed of a mechanical drive system that performs a pan operation and a motor of a drive source, and the operation is controlled by the pan / tilt control unit 1011. The tilt drive unit 1013 is composed of a mechanical drive system that performs a tilt operation and a motor of a drive source, and the operation is controlled by the pan / tilt control unit 1011.

<制御装置>
次に、制御装置1100の各部の構成および機能について説明する。制御装置1100は、典型的にはパーソナルコンピュータなどの汎用コンピュータを想定するが、これに限定されるものではない。制御装置1100は、例えば、外部装置である携帯端末などであってもよい。制御装置1100は、通信部1101、表示部1102、システム制御部1103、および、入力部(入力手段)1104を含む。
<Control device>
Next, the configuration and function of each part of the control device 1100 will be described. The control device 1100 typically assumes a general-purpose computer such as a personal computer, but is not limited thereto. The control device 1100 may be, for example, a mobile terminal which is an external device. The control device 1100 includes a communication unit 1101, a display unit 1102, a system control unit 1103, and an input unit (input means) 1104.

通信部1101は、制御装置1100から発行された各種コマンドを送信し、監視カメラ1000から配信された各種データを受信する。各種コマンドには、ライブ映像の要求コマンド、監視カメラ1000の設置情報、解像度、ズーム、フォーカス、あおり角度、および、パン・チルトの設定値の要求コマンドが含まれる。加えて、各種コマンドには、監視カメラ1000の設置情報、解像度、ズーム、フォーカス、あおり角度、および、パン・チルトの設定コマンドが含まれる。各種データには、主に監視カメラ1000の設置に関する情報、解像度に関する情報、ズームを含む撮像画角に関する情報、フォーカスに関する情報、あおり角度に関する情報、パン・チルトに関する情報、画像データなどが含まれる。 The communication unit 1101 transmits various commands issued from the control device 1100, and receives various data distributed from the surveillance camera 1000. The various commands include a request command for live video, installation information of the surveillance camera 1000, a request command for resolution, zoom, focus, tilt angle, and pan / tilt setting values. In addition, various commands include installation information of the surveillance camera 1000, resolution, zoom, focus, tilt angle, and pan / tilt setting commands. The various data mainly include information on the installation of the surveillance camera 1000, information on the resolution, information on the imaging angle of view including zoom, information on the focus, information on the tilt angle, information on pan / tilt, image data, and the like.

表示部1102は、液晶表示装置などが使用され、監視カメラ1000から取得された画像の表示や、カメラ制御を行うためのグラフィカルユーザーインタフェース(GUI)を表示する。システム制御部1103は、監視カメラ1000から通信部1101を介して受信した、プログラムメモリ1014に記憶されたコンピュータプログラムに基づき各種動作を実行する。なおシステム制御部1103は、制御装置1100が保持するプログラムメモリ(不図示)に記憶されたコンピュータプログラムに基づき各種動作を実行してもかまわない。システム制御部1103は、ユーザのGUI操作に応じてカメラ制御コマンドを生成し、通信部1101を介して監視カメラ1000へ送信する。またシステム制御部1103は、監視カメラ1000から通信部1101を介して受信した画像データ、および、設置情報、ズームを含む撮像画角、フォーカス、あおり角度、パン・チルトの設定値を表すデータを表示部1102に表示する。入力部1104は、キーボード、マウスなどのポインティング・デバイスなどが使用され、制御装置1100のユーザは、入力部1104を介してGUIを操作する。 The display unit 1102 uses a liquid crystal display device or the like to display an image acquired from the surveillance camera 1000 and display a graphical user interface (GUI) for controlling the camera. The system control unit 1103 executes various operations based on the computer program stored in the program memory 1014 received from the surveillance camera 1000 via the communication unit 1101. The system control unit 1103 may execute various operations based on the computer program stored in the program memory (not shown) held by the control device 1100. The system control unit 1103 generates a camera control command according to the GUI operation of the user and transmits it to the surveillance camera 1000 via the communication unit 1101. Further, the system control unit 1103 displays image data received from the surveillance camera 1000 via the communication unit 1101 and data representing set values of the imaging angle of view including installation information and zoom, focus, tilt angle, and pan / tilt. Displayed in unit 1102. A pointing device such as a keyboard or a mouse is used as the input unit 1104, and the user of the control device 1100 operates the GUI via the input unit 1104.

<あおり制御の仕組み>
次に、図3を参照して、あおり制御の仕組みについて説明する。図3は、あおり制御の説明図であり、監視カメラ1000の使用状態の一例を示している。図3は、監視カメラ1000で撮像している環境を真横から見た場合を示している。以降の図3乃至図6においては、光軸3002から、地面4008に真下に下ろした、光軸3002を含む面を記載しており、面と面の交線は図面上では交点として表される。図3において、監視カメラ1000は、画角3001の範囲を撮像している。監視カメラ1000は、レンズ(撮像光学系)1050および撮像素子1051を含む。
<Mechanism of tilt control>
Next, the mechanism of tilt control will be described with reference to FIG. FIG. 3 is an explanatory diagram of tilt control, and shows an example of a usage state of the surveillance camera 1000. FIG. 3 shows a case where the environment imaged by the surveillance camera 1000 is viewed from the side. In FIGS. 3 to 6 thereafter, a surface including the optical axis 3002, which is lowered directly below the optical axis 3002 from the optical axis 3002, is described, and the line of intersection between the surfaces is represented as an intersection in the drawings. .. In FIG. 3, the surveillance camera 1000 captures the range of the angle of view 3001. The surveillance camera 1000 includes a lens (imaging optical system) 1050 and an image sensor 1051.

フォーカス面3003(3003[a]、3003[b])は、フォーカスの合焦位置である。あおっていない状態のフォーカス面3003[a]は、監視カメラ1000の光軸3002に対し垂直である。図3では、フォーカスの合焦位置が水平面3004上のフォーカス位置3011に合っている場合の例を示している。水平面3004は、例えば、地面、または、認識したい属性の高さ、例えば顔の高さ(地面から1.5mの高さ)にある水平面でもよい。図3において、監視カメラ1000とフォーカスがあっている被写体(フォーカス位置3011)との距離を被写体距離3005(Do)、レンズ1050と撮像素子1051との距離を焦点距離3006(f)とする。 The focus surface 3003 (3003 [a], 3003 [b]) is the focus focusing position. The focus surface 3003 [a] in the non-fluttered state is perpendicular to the optical axis 3002 of the surveillance camera 1000. FIG. 3 shows an example in which the focus position is aligned with the focus position 3011 on the horizontal plane 3004. The horizontal plane 3004 may be, for example, the ground or a horizontal plane at the height of the attribute to be recognized, for example, the height of the face (height of 1.5 m from the ground). In FIG. 3, the distance between the surveillance camera 1000 and the subject in focus (focus position 3011) is defined as the subject distance 3005 (Do), and the distance between the lens 1050 and the image sensor 1051 is defined as the focal length 3006 (f).

図3において、センサ面3008は、あおりを行っていないときのセンサ面を示している。センサ面3010は、あおっていない状態のセンサ面3008から、あおり角度3009(b)分だけ撮像素子1051を傾けた場合のセンサ面を示している。撮像素子1051のあおりの回転軸として、撮像素子1051の長辺方向中心線を軸に撮像素子1051を回転させる上下あおりを考えると、撮像素子1051を傾けても、光軸3002上での焦点距離3006は変わらない。レンズ1050に平行な面をレンズ面3013とする。レンズ面3013と、撮像素子1051を傾けた場合のセンサ面3010との交点を交点3012とすると、フォーカス面3003[b]は、交点3012とフォーカス位置3011とを結ぶ面と一致する。このとき、光軸3002とフォーカス面3003[b]のなす角度を角度3007(a)とする。なお、フォーカス位置3011の高さは、認識したい被写体の属性の高さと一致させることができる。 In FIG. 3, the sensor surface 3008 shows the sensor surface when the tilt is not performed. The sensor surface 3010 shows the sensor surface when the image sensor 1051 is tilted by the tilt angle 3009 (b) from the sensor surface 3008 in the non-raised state. Considering the vertical tilt that rotates the image sensor 1051 around the center line in the long side direction of the image sensor 1051 as the rotation axis of the tilt of the image sensor 1051, the focal length on the optical axis 3002 even if the image sensor 1051 is tilted. 3006 does not change. The surface parallel to the lens 1050 is referred to as the lens surface 3013. Assuming that the intersection of the lens surface 3013 and the sensor surface 3010 when the image sensor 1051 is tilted is the intersection 3012, the focus surface 3003 [b] coincides with the surface connecting the intersection 3012 and the focus position 3011. At this time, the angle formed by the optical axis 3002 and the focus surface 3003 [b] is set to the angle 3007 (a). The height of the focus position 3011 can be matched with the height of the attribute of the subject to be recognized.

前述したようなフォーカス面3003[b]と光軸3002とが角度aをなすように撮像素子1051を傾けるときのあおり角度bは、シャインプルーフの原理より、以下の式(1)で表される。 The tilt angle b when the image sensor 1051 is tilted so that the focus surface 3003 [b] and the optical axis 3002 form an angle a as described above is expressed by the following equation (1) based on the Scheimpflug principle. ..

b=arctan(f/(Do×tan(a))) … (1)
つまり、被写体距離3005(Do)、および、光軸3002とフォーカス面3003[b]とのなす角度である角度3007(a)に基づいて、あおり角度3009(b)を求めることが可能となる。特に、水平面3004上に重なるようにフォーカス面3003を傾けるときのあおり角度bは、監視カメラ1000の俯角3015(c)を用いると、角度aと角度cとが一致するため、以下の式(2)で表される。
b = arctan (f / (Do × tan (a)))… (1)
That is, it is possible to obtain the tilt angle 3009 (b) based on the subject distance 3005 (Do) and the angle 3007 (a) formed by the optical axis 3002 and the focus surface 3003 [b]. In particular, when the focus surface 3003 is tilted so as to overlap the horizontal plane 3004, the tilt angle b is the same as the angle a when the depression angle 3015 (c) of the surveillance camera 1000 is used. Therefore, the following equation (2) ).

b=arctan(f/(Do×tan(c))) … (2)
<被写界深度>
次に、図4乃至図6を参照して、被写界深度について説明する。以降、図3乃至図7にて用いられる符号のうち同じ符号は同じ意味であるため、それらの説明を省略する。図4乃至図6は、被写界深度の説明図であり、図3と同様に、監視カメラ1000で撮像している環境を真横から見た場合を示している。
b = arctan (f / (Do × tan (c)))… (2)
<Depth of field>
Next, the depth of field will be described with reference to FIGS. 4 to 6. Hereinafter, since the same reference numerals among the reference numerals used in FIGS. 3 to 7 have the same meaning, their description will be omitted. 4 to 6 are explanatory views of the depth of field, and like FIG. 3, show a case where the environment imaged by the surveillance camera 1000 is viewed from the side.

図4は、あおらない状態の被写界深度の一例を示す模式図である。図4乃至図6において、水平面3004は、認識したい属性の高さ、本実施形態では顔の高さの水平面とする。地面4008を基準とした水平面3004の高さを、顔の高さ4001とする。フォーカス面3003より監視カメラ1000からみて手前側の被写界深度を前方被写界深度4002(d2)、フォーカス面3003から前方被写界深度4002だけ手前側にある面を前方被写界深度面4004とする。前方被写界深度面4004と光軸3002との交点を交点4006とする。フォーカス面3003より向こう側の被写界深度を後方被写界深度4003(d1)、フォーカス面3003から後方被写界深度4003だけ向こう側にある面を後方被写界深度面4005とする。後方被写界深度面4005と光軸3002との交点を交点4007とする。 FIG. 4 is a schematic view showing an example of the depth of field in a non-fluttering state. In FIGS. 4 to 6, the horizontal plane 3004 is a horizontal plane at the height of the attribute to be recognized, or the height of the face in the present embodiment. The height of the horizontal plane 3004 with respect to the ground 4008 is defined as the height of the face 4001. The depth of field on the front side of the focus surface 3003 when viewed from the surveillance camera 1000 is the front depth of field 4002 (d2), and the surface on the front side of the focus surface 3003 by the front depth of field 4002 is the front depth of field surface. It is set to 4004. The intersection of the front depth of field surface 4004 and the optical axis 3002 is defined as the intersection 4006. The depth of field beyond the focus surface 3003 is referred to as the rear depth of field 4003 (d1), and the surface beyond the focus surface 3003 by the rear depth of field 4003 is referred to as the rear depth of field 4005. The intersection of the rear depth of field surface 4005 and the optical axis 3002 is defined as the intersection 4007.

有効口径をD、許容錯乱円直径をδとすると、過焦点距離Hは、以下の式(3)で表される。 Assuming that the effective aperture is D and the permissible circle of confusion diameter is δ, the hyperfocal length H is expressed by the following equation (3).

H=f×D/δ … (3)
このとき、後方被写界深度d1および前方被写界深度d2は、以下の式(4)、(5)でそれぞれ表される。ここで、^2は2乗を表す。例えば、Do^2=Do×Doである。
H = f × D / δ… (3)
At this time, the rear depth of field d1 and the front depth of field d2 are represented by the following equations (4) and (5), respectively. Here, ^ 2 represents the square. For example, Do ^ 2 = Do × Do.

d1=Do^2/(H−Do) … (4)
d2=Do^2/(H+Do) … (5)
被写界深度は、後方被写界深度d1と前方被写界深度d2との和で表される。なお、本実施形態において、式(3)〜(5)は、被写体との距離Doが焦点距離fより十分大きく、また、焦点距離fが許容錯乱円直径δよりも十分大きい場合の近似式である。
d1 = Do ^ 2 / (H-Do) ... (4)
d2 = Do ^ 2 / (H + Do) ... (5)
The depth of field is represented by the sum of the rear depth of field d1 and the front depth of field d2. In the present embodiment, the equations (3) to (5) are approximate equations when the distance Do to the subject is sufficiently larger than the focal length f and the focal length f is sufficiently larger than the allowable confusion circle diameter δ. is there.

被写体までの距離がある一定以上離れると、解像度が不足して、被写体の属性が認識できなくなる距離が存在し、この面を認識限界面4009と呼ぶ。認識限界面4009については、図7を用いて後述する。なお、認識したい被写体の属性として、属性の高さ、長さ、向き、必要なピクセル数があり、これらを属性情報と呼ぶ。本実施形態では、被写体として人、認識する属性として、人の顔を例とする。認識限界面4009と光軸3002との交点を交点4010とする。被写体4011〜4016は人を表す。図4において、被写体4013、4014は被写界深度内に位置するためフォーカスは合い、それ以外の被写体4011、4012、4015、4016はフォーカスが合わない状態を示している。被写体4013は、階段4017の上に位置している。交点4018は、水平面3004と認識限界面4009との交点である。認識限界距離4019(LL)は、監視カメラ1000から認識限界面4009までの距離である。 When the distance to the subject is more than a certain distance, the resolution is insufficient and there is a distance at which the attributes of the subject cannot be recognized, and this surface is called the recognition limit surface 4009. The recognition limit surface 4009 will be described later with reference to FIG. 7. The attributes of the subject to be recognized include the height, length, orientation, and required number of pixels of the attributes, which are called attribute information. In the present embodiment, a person is taken as a subject, and a human face is taken as an example of a recognition attribute. The intersection of the recognition limit surface 4009 and the optical axis 3002 is defined as the intersection 4010. Subjects 4011 to 4016 represent people. In FIG. 4, since the subjects 4013 and 4014 are located within the depth of field, they are in focus, and the other subjects 4011, 4012, 4015, and 4016 are out of focus. Subject 4013 is located on the stairs 4017. The intersection 4018 is the intersection of the horizontal plane 3004 and the recognition limit plane 4009. The recognition limit distance 4019 (LL) is the distance from the surveillance camera 1000 to the recognition limit surface 4009.

x軸4100は、レンズ1050の中心を原点とし、撮像方向を正として、光軸3002上に設定されている。y軸4101は、レンズ1050の中心を原点として、上方を正として、レンズ面3013上に設定されている。 The x-axis 4100 is set on the optical axis 3002 with the center of the lens 1050 as the origin and the imaging direction as positive. The y-axis 4101 is set on the lens surface 3013 with the center of the lens 1050 as the origin and the upper side as the positive.

図5は、撮像素子1051を傾けることで、水平面3004上に重なるようにフォーカス面3003を設定した状態の被写界深度の一例を示す模式図である。図5における交点3012は、水平面3004上に位置し、角度aと角度cとは一致する。撮像素子をあおっても、光軸3002上における焦点距離3006は変わらない。このため、あおり角度bが十分小さければ、交点4006、4007の位置は変わらない。前方被写界深度面4004は交点3012と交点4006とを結ぶ面であり、後方被写界深度面4005は、交点3012と交点4007とを結ぶ面である。図5において、被写体4013、4016の少なくとも顔部分は、被写界深度外に位置して、フォーカスが合わないことを示している。一方、被写体4011、4012、4014、4015の少なくとも顔部分は、被写界深度内に位置して、フォーカスが合うことを示している。 FIG. 5 is a schematic view showing an example of the depth of field in a state where the focus surface 3003 is set so as to overlap the horizontal plane 3004 by tilting the image sensor 1051. The intersection 3012 in FIG. 5 is located on the horizontal plane 3004, and the angle a and the angle c coincide with each other. The focal length 3006 on the optical axis 3002 does not change even if the image sensor is blown up. Therefore, if the tilt angle b is sufficiently small, the positions of the intersections 4006 and 4007 do not change. The front depth of field surface 4004 is a surface connecting the intersection 3012 and the intersection 4006, and the rear depth of field surface 4005 is a surface connecting the intersection 3012 and the intersection 4007. In FIG. 5, at least the face portion of the subjects 4013 and 4016 is located outside the depth of field, indicating that they are out of focus. On the other hand, at least the face portion of the subjects 4011, 4012, 4014, and 4015 is located within the depth of field, indicating that they are in focus.

図6は、顔の認識に最適なあおり角度を得るための被写界深度の一例を示す模式図である。認識限界面4009よりも遠方は、被写体にフォーカスが合っても、必要な解像度を得られないため、顔を認識することはできない。本実施形態において、被写体の顔を認識するには、顔の高さ4001よりも上方、認識限界面4009よりも手前側の領域において、フォーカスがあえば十分であると考える。ただし本実施形態は、この基準に限定されるものではなく、別の基準、例えば、地面の高さよりも上方の領域としてもかまわない。これらの基準を満たすため、図6に示されるように、後方被写界深度面4005が交点4018を通るように、あおり角度bを設定することで、あおり角度を最小限にすることができる。ここで、図5で示される被写界深度よりも、図6に示される被写界深度の方が、上下方向に広いことがわかる。例えば、図5でフォーカスが合わない被写体4013、4016のフォーカスが合うようになっている。 FIG. 6 is a schematic view showing an example of the depth of field for obtaining the optimum tilt angle for face recognition. If the surface is farther than the recognition limit surface 4009, even if the subject is in focus, the required resolution cannot be obtained, so that the face cannot be recognized. In the present embodiment, in order to recognize the face of the subject, it is considered sufficient that the focus is in the region above the face height 4001 and in front of the recognition limit surface 4009. However, the present embodiment is not limited to this standard, and may be another standard, for example, a region above the height of the ground. In order to satisfy these criteria, as shown in FIG. 6, the tilt angle b can be set so that the rear depth of field surface 4005 passes through the intersection 4018, so that the tilt angle can be minimized. Here, it can be seen that the depth of field shown in FIG. 6 is wider in the vertical direction than the depth of field shown in FIG. For example, the subjects 4013 and 4016 that are out of focus in FIG. 5 are in focus.

なお、線形な前方被写界深度面4004および後方被写界深度面4005の代わりに、非線形な前方被写界深度面4004’および後方被写界深度面4005’を用いても構わない。前方被写界深度面4004’および後方被写界深度面4005’は、以下のように算出される。フォーカス位置3011以外に、フォーカス面3003上に被写体が存在すると仮定すると、監視カメラ1000とフォーカス面3003との距離が被写体距離Doとみなすことができる。また、画角3001に対して被写体距離Doが十分長い場合、監視カメラ1000とフォーカス面3003上を結ぶ線は光軸と平行とみなすことができる(不図示)。このとき、フォーカス面3003の前後に対して、後方被写界深度d1の式(4)と前方被写界深度d2の式(5)が成り立つ。例えば、図6は、フォーカス面3003は上方に行くほど遠くになる。つまり被写体距離Doが遠くなる。被写体距離Doが過焦点距離Hより十分小さい場合、式(4)および式(5)より、被写体距離Doの2乗に比例して、非線形に被写界深度が広がる。 In addition, instead of the linear front depth of field surface 4004 and the rear depth of field surface 4005, a non-linear front depth of field surface 4004'and a rear depth of field depth of field 4005' may be used. The front depth-of-field surface 4004'and the rear depth-of-field surface 4005' are calculated as follows. Assuming that the subject exists on the focus surface 3003 other than the focus position 3011, the distance between the surveillance camera 1000 and the focus surface 3003 can be regarded as the subject distance Do. When the subject distance Do is sufficiently long with respect to the angle of view 3001, the line connecting the surveillance camera 1000 and the focus surface 3003 can be regarded as parallel to the optical axis (not shown). At this time, the equation (4) of the rear depth of field d1 and the equation (5) of the front depth of field d2 hold for the front and rear of the focus surface 3003. For example, in FIG. 6, the focus surface 3003 becomes farther as it goes upward. That is, the subject distance Do becomes far. When the subject distance Do is sufficiently smaller than the hyperfocal length H, the depth of field increases non-linearly in proportion to the square of the subject distance Do from the equations (4) and (5).

<被写体認識に必要な最大距離の算出>
次に、図7を参照して、認識限界面4009について説明する。図7は、認識限界面4009の説明図である。水平画角7001(ho_deg)と垂直画角7002(ve_deg)は、それぞれ、画角3001の水平方向、垂直方向の画角を表す。図4乃至図6に示される認識限界面4009は線で表されているが、認識限界面4009は、図7に示すように面である。被写体7003は、認識限界面4009上に存在する。水平線分7004(長さw、解像度w_pix)および垂直線分7005(長さh、解像度h_pix)は、認識限界面4009上で撮像可能な範囲を示しており、その範囲の中心に光軸3002が通る。水平線分7004および垂直線分7005は、長さを表すとともに、解像度も表す。例えば、監視カメラ1000が認識用途に1080pで映像を取得している場合、水平線分7004の解像度w_pixは1920で、垂直線分7005の解像度h_pixは1080である。また、水平線分7004の長さw、垂直線分7005の長さhは、それぞれ、以下の式(6)、(7)で表される。
<Calculation of maximum distance required for subject recognition>
Next, the recognition limit surface 4009 will be described with reference to FIG. 7. FIG. 7 is an explanatory diagram of the recognition limit surface 4009. The horizontal angle of view 7001 (ho_deg) and the vertical angle of view 7002 (ve_deg) represent the horizontal and vertical angles of view of the angle of view 3001, respectively. The recognition limit surface 4009 shown in FIGS. 4 to 6 is represented by a line, and the recognition limit surface 4009 is a surface as shown in FIG. The subject 7003 exists on the recognition limit surface 4009. The horizontal line segment 7004 (length w, resolution w_pix) and the vertical line segment 7005 (length h, resolution h_pix) indicate a range that can be imaged on the recognition limit surface 4009, and the optical axis 3002 is located at the center of the range. Pass. The horizontal line segment 7004 and the vertical line segment 7005 represent the length as well as the resolution. For example, when the surveillance camera 1000 acquires an image at 1080p for recognition purposes, the resolution w_pix of the horizontal line segment 7004 is 1920, and the resolution h_pix of the vertical line segment 7005 is 1080. The length w of the horizontal line segment 7004 and the length h of the vertical line segment 7005 are represented by the following equations (6) and (7), respectively.

w=2π×LL×(ho_deg/360) … (6)
h=2π×LL×(ve_deg/360) … (7)
なお、式(6)、(7)は、画角3001が小さいときの近似式である。
w = 2π × LL × (ho_deg / 360)… (6)
h = 2π × LL × (ve_deg / 360)… (7)
The equations (6) and (7) are approximate equations when the angle of view 3001 is small.

ここで、被写体が持つある属性を認識することを考える。属性情報として、属性の長さ(メートル)をattr_lとし、属性の向きを水平方向、属性を認識するために必要な解像度(ピクセル)をattr_pixとする。例えば、人の顔を認識する場合、水平方向にattr_l=0.16メートルの顔幅に対して、attr_pix=20ピクセルが必要になる。顔認識のような水平方向の属性を認識する場合を考えると、以下の式(8)が成り立つ。 Here, consider recognizing a certain attribute of the subject. As the attribute information, the length (meter) of the attribute is set to attr_l, the direction of the attribute is set to the horizontal direction, and the resolution (pixels) required for recognizing the attribute is set to attr_pix. For example, when recognizing a human face, attr_pix = 20 pixels is required for a face width of attr_l = 0.16 meters in the horizontal direction. Considering the case of recognizing horizontal attributes such as face recognition, the following equation (8) holds.

attr_pix=w_pix×(attr_l/w) … (8)
同様に、垂直方向の属性を認識する場合を考えると、以下の式(9)が成り立つ。
attr_pix = w_pix × (attr_l / w)… (8)
Similarly, considering the case of recognizing the attribute in the vertical direction, the following equation (9) holds.

attr_pix=h_pix×(attr_l/h) … (9)
式(6)〜(9)から、水平方向、垂直方向に対して、それぞれ、以下の式(10)、(11)が成り立つ。
attr_pix = h_pix × (attr_l / h)… (9)
From the equations (6) to (9), the following equations (10) and (11) are established in the horizontal direction and the vertical direction, respectively.

LL=attr_l×(w_pix/attr_pix)/(2π×(ho_deg/360)) … (10)
LL=attr_l×(h_pix/attr_pix)/(2π×(ve_deg/360)) … (11)
<顔認識に最適化したあおりを実現するフローチャート>
次に、図8を参照して、顔認識に最適化したあおりを実現する方法(情報処理方法)について説明する。図8は、本実施形態における情報処理方法のフローチャートである。なお本実施形態は、主に、人の年齢/性別認識、車番認識、人数カウントなど、コンピュータプログラムを用いて解析することを前提とした画像を取得する(撮像する)目的で、監視カメラ1000を設置する際に適用可能である。図8の各ステップは、主に、カメラシステム100のシステム制御部1003またはシステム制御部1103の指示に基づいて、各部により実行される。
LL = attr_l × (w_pix / attr_pix) / (2π × (ho_deg / 360))… (10)
LL = attr_l × (h_pix / attr_pix) / (2π × (ve_deg / 360))… (11)
<Flowchart that realizes tilting optimized for face recognition>
Next, with reference to FIG. 8, a method (information processing method) for realizing tilting optimized for face recognition will be described. FIG. 8 is a flowchart of the information processing method in the present embodiment. In this embodiment, the surveillance camera 1000 is mainly used for the purpose of acquiring (imaging) an image that is premised on analysis using a computer program, such as age / gender recognition of a person, vehicle number recognition, and number counting. It is applicable when installing. Each step of FIG. 8 is mainly executed by each unit based on the instruction of the system control unit 1003 or the system control unit 1103 of the camera system 100.

まずステップS8001において、ユーザは制御装置1100の入力部1104を操作して、監視カメラ1000の設置位置やフォーカス位置3011などの設置情報を設定する。制御装置1100のシステム制御部1103は、その設置情報を、ネットワーク1200を介して監視カメラ1000のシステム制御部1003に伝達する。設置情報管理部1015は、システム制御部1003の指示に基づいて、監視カメラ1000の設置情報を設定して管理する。また、フォーカス位置を設定する際には、システム制御部1003は、フォーカス制御部1007に対してフォーカス値を設定する。なおシステム制御部1003は、監視カメラ1000に備え付けられた各種センサ(不図示)を用いて、監視カメラ1000の設置位置やフォーカス位置などの設置情報を取得し、設置情報管理部1015に設定してもよい。 First, in step S8001, the user operates the input unit 1104 of the control device 1100 to set installation information such as the installation position of the surveillance camera 1000 and the focus position 3011. The system control unit 1103 of the control device 1100 transmits the installation information to the system control unit 1003 of the surveillance camera 1000 via the network 1200. The installation information management unit 1015 sets and manages the installation information of the surveillance camera 1000 based on the instruction of the system control unit 1003. When setting the focus position, the system control unit 1003 sets the focus value for the focus control unit 1007. The system control unit 1003 acquires installation information such as the installation position and focus position of the surveillance camera 1000 by using various sensors (not shown) provided in the surveillance camera 1000, and sets them in the installation information management unit 1015. May be good.

続いてステップS8002において、認識限界距離算出部1016は、システム制御部1003の指示に基づいて、認識限界距離算出部1016に記憶されている属性情報(高さ、長さ、向き、ピクセル数など)を読み取る。また認識限界距離算出部1016は、画像処理部1002から解像度、撮像画角制御部1006から画角をそれぞれ読み取る。認識限界距離算出部1016は、これらの読み取った各種データから、図7を参照して説明した式(10)、(11)により、認識限界距離4019を算出する。 Subsequently, in step S8002, the recognition limit distance calculation unit 1016 has attribute information (height, length, orientation, number of pixels, etc.) stored in the recognition limit distance calculation unit 1016 based on the instruction of the system control unit 1003. To read. Further, the recognition limit distance calculation unit 1016 reads the resolution from the image processing unit 1002 and the angle of view from the imaging angle of view control unit 1006. The recognition limit distance calculation unit 1016 calculates the recognition limit distance 4019 from the various data read by the equations (10) and (11) described with reference to FIG. 7.

続いてステップS8003において、被写界深度算出部1017は、システム制御部1003の指示に基づいて、被写界深度算出部1017に記憶された光学情報(有効口径、許容錯乱円直径など)、および撮像画角制御部1006から焦点距離をそれぞれ読み取る。また被写界深度算出部1017は、設置情報管理部1015から設置情報(監視カメラ1000の設置位置、フォーカス位置3011など)、パン・チルト制御部1011から俯角をそれぞれ読み取る。また被写界深度算出部1017は、監視カメラ1000からフォーカス位置3011までの距離である被写体距離Doを算出する。そして被写界深度算出部1017は、これら各種データから、図4を参照して説明した式(4)、(5)により、被写界深度を算出する。ここで算出した被写界深度(後方被写界深度d1および前方被写界深度d2)とフォーカス位置3011とから、交点4006、および交点4007が求まる。 Subsequently, in step S8003, the depth of field calculation unit 1017 receives optical information (effective diameter, allowable confusion circle diameter, etc.) stored in the depth of field calculation unit 1017 based on the instruction of the system control unit 1003, and The focal lengths are read from the imaging angle of view control unit 1006. Further, the depth of field calculation unit 1017 reads the installation information (installation position of the surveillance camera 1000, focus position 3011, etc.) from the installation information management unit 1015 and the depression angle from the pan / tilt control unit 1011. Further, the depth of field calculation unit 1017 calculates the subject distance Do, which is the distance from the surveillance camera 1000 to the focus position 3011. Then, the depth of field calculation unit 1017 calculates the depth of field from these various data by the equations (4) and (5) described with reference to FIG. From the depth of field (rear depth of field d1 and front depth of field d2) calculated here and the focus position 3011, the intersection 4006 and the intersection 4007 can be obtained.

続いてステップS8004において、後方被写界深度面指定部1018は、システム制御部1003の指示に基づいて、ステップS8002にて算出された認識限界距離4019から認識限界面4009を取得する。また後方被写界深度面指定部1018は、属性の高さから水平面3004を取得して交点4018を算出し、交点4018を後方被写界深度面4005として指定する。 Subsequently, in step S8004, the rear depth-of-field surface designation unit 1018 acquires the recognition limit surface 4009 from the recognition limit distance 4019 calculated in step S8002 based on the instruction of the system control unit 1003. Further, the rear depth of field designation unit 1018 acquires the horizontal plane 3004 from the height of the attribute, calculates the intersection 4018, and designates the intersection 4018 as the rear depth of field surface 4005.

続いてステップS8005において、撮像素子制御部1009は、システム制御部1003の指示に基づいて、顔認識に最適なあおり角度を算出する。まず、撮像素子制御部1009は、ステップS8003にて算出された交点4007と、ステップS8004にて指定された交点4018との2点を通る直線を求める。この直線は、図6に示される後方被写界深度面4005である。 Subsequently, in step S8005, the image sensor control unit 1009 calculates the optimum tilt angle for face recognition based on the instruction of the system control unit 1003. First, the image sensor control unit 1009 obtains a straight line passing through two points, the intersection 4007 calculated in step S8003 and the intersection 4018 designated in step S8004. This straight line is the rear depth of field surface 4005 shown in FIG.

以下、x軸4100、y軸4101で成すxy平面を考える。一般的に、2点(x1、y1)、(x2、y2)を通る直線は、以下の式(13)で表すことができる。 Hereinafter, an xy plane formed by the x-axis 4100 and the y-axis 4101 will be considered. Generally, a straight line passing through two points (x1, y1) and (x2, y2) can be represented by the following equation (13).

(x2−x1)(y−y1)=(y2−y1)(x−x1) … (13)
ここで、交点4007の座標を(x4007、4007)、交点4018の座標を(x4018、y4018)とすると、式(13)より、以下の式(14)が成り立つ。
(X2-x1) (y−y1) = (y2-y1) (x−x1)… (13)
Here, assuming that the coordinates of the intersection 4007 are (x4007, 4007) and the coordinates of the intersection 4018 are (x4018, y4018), the following equation (14) is established from the equation (13).

y={(y4018−y4007)/(x4018−x4007)}x+{(−x4007)(y4018−y4007)/(x4018−x4007)+y4007} … (14)
式(14)をまとめると、以下の式(15)のように表される。
y = {(y4018-y4007) / (x4018-x4007)} x + {(-x4007) (y4018-y4007) / (x4018-x4007) + y4007} ... (14)
The equation (14) can be summarized as the following equation (15).

y=Ax+B … (15)
ここで、
A={(y4018−y4007)/(x4018−x4007)}
B={(−x4007)(y4018−y4007)/(x4018 −x4007)+y4007}
である。
y = Ax + B ... (15)
here,
A = {(y4018-y4007) / (x4018-x4007)}
B = {(-x4007) (y4018-y4007) / (x4018-x4007) + y4007}
Is.

次に、図6に示される後方被写界深度面4005とレンズ面3013との交点3012を求める。一般的に、2つの直線をy=ax+b、y=cx+dとすると、a≠cのとき、2直線の交点は、以下の式(16)で表される。 Next, the intersection 3012 between the rear depth of field surface 4005 and the lens surface 3013 shown in FIG. 6 is obtained. Generally, assuming that the two straight lines are y = ax + b and y = cx + d, when a ≠ c, the intersection of the two straight lines is represented by the following equation (16).

((d−b)/(a−c)、(ad−bc)/(a−c)) … (16)
後方被写界深度面4005は式(15)、レンズ面3013はx=0で表されるため、2直線から、交点3012として、(0、B)が求まる。
((Db) / (ac), (ad-bc) / (ac)) ... (16)
Since the rear depth of field surface 4005 is represented by the equation (15) and the lens surface 3013 is represented by x = 0, (0, B) can be obtained from the two straight lines as the intersection point 3012.

次に、フォーカス面3003として、交点3012(0、B)とフォーカス位置3011(x3011、0)との2点を通る直線の式(15)の形にすると、以下の式(17)のように表される。 Next, when the focus surface 3003 is formed into the form of a straight line equation (15) passing through two points of the intersection 3012 (0, B) and the focus position 3011 (x3011, 0), the following equation (17) is obtained. expressed.

y=(−B/x3011)x+B … (17)
このとき、フォーカス面3003とx軸4100との成す角度3007aは、式(17)より、以下の式(18)のように表わされる。
y = (-B / x3011) x + B ... (17)
At this time, the angle 3007a formed by the focus surface 3003 and the x-axis 4100 is expressed by the following equation (18) from the equation (17).

tan(a)=−B/x3011 … (18)
次に、撮像素子制御部1009は、撮像画角制御部1006に記憶されている焦点距離fを読み取る。また撮像素子制御部1009は、ステップS8003にて算出された被写体距離Doと、式(18)、式(1)を用いて、あおり角度bを算出する。あおり角度bは、以下の式(19)で表される。
tan (a) = −B / x3011… (18)
Next, the image sensor control unit 1009 reads the focal length f stored in the image pickup angle of view control unit 1006. Further, the image sensor control unit 1009 calculates the tilt angle b by using the subject distance Do calculated in step S8003 and the equations (18) and (1). The tilt angle b is expressed by the following equation (19).

b=arctan((f×x3011)/(Do×(−B))) … (19)
続いてステップS8006において、撮像素子制御部1009は、システム制御部1003の指示に基づいて、撮像素子駆動部1008を制御し、撮像素子1051のあおり角度を、ステップS8005にて算出されたあおり角度bに設定する。撮像素子制御部1009および撮像素子駆動部1008は、あおり角度を制御する角度制御手段を構成する。
b = arctan ((f × x 3011) / (Do × (−B)))… (19)
Subsequently, in step S8006, the image sensor control unit 1009 controls the image sensor drive unit 1008 based on the instruction of the system control unit 1003, and determines the tilt angle of the image sensor 1051 as the tilt angle b calculated in step S8005. Set to. The image sensor control unit 1009 and the image sensor drive unit 1008 form an angle control means for controlling the tilt angle.

なお、被写体を認識可能な範囲内に障害物などの被写体とは異なる物体がある場合、障害物が被写界深度の外になるように、後方被写界深度面を指定してもよい。また、前方被写界深度面を指定することで、前方にいる被写体の認識を考慮してもよい。ここで、前方の被写体は、後方の被写体に比べて大きく撮像される。このため、あおり特有のぼけが発現した場合でも、前方の被写体の方が、後方の被写体に比べてぼけの影響を受けにくい。 If there is an object different from the subject such as an obstacle within the range in which the subject can be recognized, the rear depth of field may be specified so that the obstacle is outside the depth of field. Further, by designating the front depth of field plane, the recognition of the subject in front may be considered. Here, the front subject is imaged larger than the rear subject. Therefore, even if the blur peculiar to the tilt appears, the subject in front is less susceptible to the blur than the subject in the rear.

このように本実施形態において、情報処理装置は、取得手段(設置情報管理部1015)、第1の算出手段(認識限界距離算出部1016)、第2の算出手段(被写界深度算出部1017)、および、第3の算出手段(撮像素子制御部1009)を有する。取得手段は、撮像装置(監視カメラ1000)の設置情報を取得する。第1の算出手段は、設置情報と被写体の属性情報とに基づいて、被写体を認識可能な限界距離を算出する。第2の算出手段は、被写体にフォーカスを合わせた際の前方被写界深度と後方被写界深度とを算出する。第3の算出手段は、限界距離と後方被写界深度とに基づいて、あおり角度を算出する。 As described above, in the present embodiment, the information processing apparatus includes an acquisition means (installation information management unit 1015), a first calculation means (recognition limit distance calculation unit 1016), and a second calculation means (depth of field calculation unit 1017). ), And a third calculation means (imaging element control unit 1009). The acquisition means acquires the installation information of the imaging device (surveillance camera 1000). The first calculation means calculates the limit distance at which the subject can be recognized based on the installation information and the attribute information of the subject. The second calculation means calculates the front depth of field and the rear depth of field when the subject is in focus. The third calculation means calculates the tilt angle based on the limit distance and the rear depth of field.

好ましくは、情報処理装置は、限界距離に位置する認識限界面4009と後方被写界深度に対応する後方被写界深度面4005とを決定する決定手段(後方被写界深度面指定部1018)を有する。第3の算出手段は、認識限界面と後方被写界深度面とに基づいてあおり角度を算出する。より好ましくは、決定手段は、前方被写界深度に対応する前方被写界深度面4004を決定する。第3の算出手段は、前方被写界深度面に基づいてあおり角度を算出する。また好ましくは、第3の算出手段は、限界距離までピントが合うようにあおり角度を算出する。また好ましくは、第3の算出手段は、限界距離に存在する前記被写体の位置に基づいて、あおり角度を算出する。また好ましくは、第3の算出手段は、限界距離の手前に存在する障害物の位置に基づいて、あおり角度を算出する。 Preferably, the information processing apparatus determines the recognition limit surface 4009 located at the limit distance and the rear depth of field surface 4005 corresponding to the rear depth of field (rear depth of field designation unit 1018). Has. The third calculation means calculates the tilt angle based on the recognition limit plane and the rear depth of field plane. More preferably, the determining means determines the forward depth of field surface 4004 corresponding to the forward depth of field. The third calculation means calculates the tilt angle based on the front depth of field plane. Further, preferably, the third calculation means calculates the tilt angle so as to focus on the limit distance. Further, preferably, the third calculation means calculates the tilt angle based on the position of the subject existing at the limit distance. Further, preferably, the third calculation means calculates the tilt angle based on the position of an obstacle existing before the limit distance.

好ましくは、属性情報は、被写体(例えば人)の属性(例えば顔)の高さ、長さ、向き、または、必要なピクセル数の少なくとも一つを含む。また好ましくは、設置情報は、撮像装置の設置位置またはフォーカス位置の少なくとも一つを含む。また好ましくは、情報処理装置は、第3の算出手段により算出されたあおり角度を制御する角度制御手段(1008、1009)を有する。 Preferably, the attribute information includes at least one of the height, length, orientation, or required number of pixels of the attribute (eg, face) of the subject (eg, person). Also preferably, the installation information includes at least one of the installation position or the focus position of the imaging device. Further, preferably, the information processing apparatus has angle control means (1008, 1009) for controlling the tilt angle calculated by the third calculation means.

好ましくは、カメラシステム100は、撮像装置の設置情報を入力する入力手段(入力部1104)と、ネットワーク1200を介して設置情報を撮像装置に送信する制御装置1100とを有する。 Preferably, the camera system 100 has an input means (input unit 1104) for inputting installation information of the image pickup device, and a control device 1100 for transmitting the installation information to the image pickup device via the network 1200.

本実施形態の情報処理装置によれば、被写体が認識可能な限界距離までピントがあうように最低限のあおり角度を設定できるため、被写体認識に最適なおあり角度を求めることが可能となる。なお本実施形態では、撮像素子のあおり角度を変更しているが、これに限定されるものではなく、レンズ(撮像光学系)のあおり角度を変更してもよい。 According to the information processing device of the present embodiment, the minimum tilt angle can be set so as to focus on the limit distance that the subject can recognize, so that the optimum tilt angle for subject recognition can be obtained. In the present embodiment, the tilt angle of the image sensor is changed, but the present invention is not limited to this, and the tilt angle of the lens (imaging optical system) may be changed.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本実施形態によれば、被写体を認識可能な限界の距離までピントがあうように最低限のあおり角度を設定できるため、被写体の認識に最適なおあり角度を得ることが可能となる。また、被写体を認識可能な範囲内において、あおり特有のぼけを抑制するため、被写体を認識可能な範囲を上下方向に広げることができる。このため本実施形態によれば、被写体の認識に適したあおり角度を決定することが可能な情報処理装置、撮像装置、カメラシステム、情報処理方法、プログラム、および、記憶媒体を提供することができる。 According to the present embodiment, since the minimum tilt angle can be set so as to focus to the limit distance at which the subject can be recognized, it is possible to obtain the optimum tilt angle for recognizing the subject. Further, in order to suppress the blurring peculiar to the tilt within the range in which the subject can be recognized, the range in which the subject can be recognized can be expanded in the vertical direction. Therefore, according to the present embodiment, it is possible to provide an information processing device, an imaging device, a camera system, an information processing method, a program, and a storage medium capable of determining a tilt angle suitable for recognizing a subject. ..

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

1000 監視カメラ(情報処理装置)
1009 撮像素子制御部(第3の算出手段)
1015 設置情報管理部(取得手段)
1016 認識限界距離算出部(第1の算出手段)
1017 被写界深度算出部(第2の算出手段)
1000 Surveillance camera (information processing device)
1009 Image sensor control unit (third calculation means)
1015 Installation Information Management Department (Acquisition means)
1016 Recognition limit distance calculation unit (first calculation means)
1017 Depth of field calculation unit (second calculation means)

Claims (14)

撮像装置の設置情報を取得する取得手段と、
前記設置情報と被写体の属性情報とに基づいて、前記被写体を認識可能な限界距離を算出する第1の算出手段と、
前記被写体にフォーカスを合わせた際の前方被写界深度と後方被写界深度とを算出する第2の算出手段と、
前記限界距離と前記後方被写界深度とに基づいて、撮像素子または光学系のあおり角度を算出する第3の算出手段と、を有することを特徴とする情報処理装置。
Acquisition means for acquiring installation information of the imaging device,
A first calculation means for calculating the limit distance at which the subject can be recognized based on the installation information and the attribute information of the subject, and
A second calculation means for calculating the front depth of field and the rear depth of field when the subject is focused, and
An information processing apparatus comprising: a third calculation means for calculating a tilt angle of an image sensor or an optical system based on the limit distance and the rear depth of field.
前記限界距離に位置する認識限界面と前記後方被写界深度に対応する後方被写界深度面とを決定する決定手段を更に有し、
前記第3の算出手段は、前記認識限界面と前記後方被写界深度面とに基づいて前記あおり角度を算出することを特徴とする請求項1に記載の情報処理装置。
Further having a determination means for determining a recognition limit surface located at the limit distance and a rear depth of field surface corresponding to the rear depth of field.
The information processing apparatus according to claim 1, wherein the third calculation means calculates the tilt angle based on the recognition limit surface and the rear depth of field surface.
前記決定手段は、前記前方被写界深度に対応する前方被写界深度面を決定し、
前記第3の算出手段は、前記前方被写界深度面に基づいて前記あおり角度を算出することを特徴とする請求項2に記載の情報処理装置。
The determining means determines a forward depth of field surface corresponding to the forward depth of field.
The information processing apparatus according to claim 2, wherein the third calculation means calculates the tilt angle based on the front depth of field plane.
前記第3の算出手段は、前記限界距離までピントが合うように前記あおり角度を算出することを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the third calculation means calculates the tilt angle so as to focus on the limit distance. 前記第3の算出手段は、前記限界距離に存在する前記被写体の位置に基づいて、前記あおり角度を算出することを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, wherein the third calculation means calculates the tilt angle based on the position of the subject existing at the limit distance. 前記第3の算出手段は、前記限界距離の手前に存在する障害物の位置に基づいて、前記あおり角度を算出することを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。 The information processing according to any one of claims 1 to 4, wherein the third calculation means calculates the tilt angle based on the position of an obstacle existing in front of the limit distance. apparatus. 前記属性情報は、前記被写体の属性の高さ、長さ、向き、または、必要なピクセル数の少なくとも一つを含むことを特徴とする請求項1乃至6のいずれか一項に記載の情報処理装置。 The information processing according to any one of claims 1 to 6, wherein the attribute information includes at least one of the height, length, orientation, or required number of pixels of the attribute of the subject. apparatus. 前記設置情報は、前記撮像装置の設置位置またはフォーカス位置の少なくとも一つを含むことを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 7, wherein the installation information includes at least one of the installation position or the focus position of the image pickup device. 前記第3の算出手段により算出された前記あおり角度を制御する角度制御手段を更に有することを特徴とする請求項1乃至8のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, further comprising an angle control means for controlling the tilt angle calculated by the third calculation means. 被写体を撮像する撮像手段と、
請求項1乃至9のいずれか一項に記載の情報処理装置と、を有することを特徴とする撮像装置。
An imaging means that captures the subject,
An image pickup apparatus comprising the information processing apparatus according to any one of claims 1 to 9.
請求項10に記載の撮像装置と、
前記撮像装置の前記設置情報を入力する入力手段を有し、ネットワークを介して前記設置情報を前記撮像装置に送信する制御装置と、を有することを特徴とするカメラシステム。
The imaging device according to claim 10,
A camera system comprising an input means for inputting the installation information of the image pickup apparatus, and a control device for transmitting the installation information to the image pickup apparatus via a network.
撮像装置の設置情報を取得するステップと、
前記設置情報と被写体の属性情報とに基づいて、前記被写体を認識可能な限界距離を算出するステップと、
前記被写体にフォーカスを合わせた際の前方被写界深度と後方被写界深度とを算出するステップと、
前記限界距離と前記後方被写界深度とに基づいて、あおり角度を算出するステップと、を有することを特徴とする情報処理方法。
Steps to acquire installation information of the image pickup device and
A step of calculating the limit distance at which the subject can be recognized based on the installation information and the attribute information of the subject, and
A step of calculating the front depth of field and the rear depth of field when the subject is focused, and
An information processing method comprising: a step of calculating a tilt angle based on the limit distance and the rear depth of field.
請求項12に記載の情報処理方法をコンピュータに実行させることを特徴とするプログラム。 A program comprising causing a computer to execute the information processing method according to claim 12. 請求項13に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores the program according to claim 13.
JP2019100669A 2019-05-29 2019-05-29 Information processing device, imaging device, camera system, information processing method, a program, and storage medium Pending JP2020194125A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019100669A JP2020194125A (en) 2019-05-29 2019-05-29 Information processing device, imaging device, camera system, information processing method, a program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019100669A JP2020194125A (en) 2019-05-29 2019-05-29 Information processing device, imaging device, camera system, information processing method, a program, and storage medium

Publications (1)

Publication Number Publication Date
JP2020194125A true JP2020194125A (en) 2020-12-03

Family

ID=73547951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019100669A Pending JP2020194125A (en) 2019-05-29 2019-05-29 Information processing device, imaging device, camera system, information processing method, a program, and storage medium

Country Status (1)

Country Link
JP (1) JP2020194125A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023027743A (en) * 2021-08-17 2023-03-02 キヤノン株式会社 Imaging apparatus and method for controlling the same
US11722775B2 (en) 2021-08-17 2023-08-08 Canon Kabushiki Kaisha Image pickup apparatus and controlling method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023027743A (en) * 2021-08-17 2023-03-02 キヤノン株式会社 Imaging apparatus and method for controlling the same
US11722775B2 (en) 2021-08-17 2023-08-08 Canon Kabushiki Kaisha Image pickup apparatus and controlling method thereof
JP7419427B2 (en) 2021-08-17 2024-01-22 キヤノン株式会社 Imaging device and its control method

Similar Documents

Publication Publication Date Title
US10623626B2 (en) Multiple lenses system, operation method and electronic device employing the same
JP6245885B2 (en) Imaging apparatus and control method thereof
US11190698B2 (en) Imaging apparatus, control method for imaging apparatus, information processing apparatus, and storage medium
CN111698417B (en) Image pickup apparatus, image pickup control method, and storage medium
US9832362B2 (en) Image-capturing apparatus
JP7262997B2 (en) Control device, imaging device, and program
US9667853B2 (en) Image-capturing apparatus
JP2021033189A (en) Control device, imaging apparatus, lens device, and program
US20200186690A1 (en) Imaging control appratus, imaging control method, and storage medium
JP2020194125A (en) Information processing device, imaging device, camera system, information processing method, a program, and storage medium
JP7327964B2 (en) Control device, imaging system, program, and storage medium
JP2020154283A (en) Imaging apparatus, computer program, storage medium, and imaging control method
CN109104562B (en) Information processing apparatus, information processing method, and recording medium
JP2005223897A (en) Imaging device and electronic apparatus with imaging function
JP7254562B2 (en) Imaging device and its control device
JP6269014B2 (en) Focus control device and focus control method
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP2021113909A (en) Control unit, imaging apparatus, surveillance camera system, control method, and program
JP2021005860A (en) Imaging apparatus and method for controlling imaging apparatus
JP2006261871A (en) Image processor in hands-free camera
US20220270342A1 (en) Electronic apparatus and control method of the same
KR101670247B1 (en) System for magnifying-moving object using one click of cctv real-time image and method therefor
JP2018074362A (en) Image processing apparatus, image processing method, and program
JP2005175852A (en) Photographing apparatus and method of controlling photographing apparatus
US20220148208A1 (en) Image processing apparatus, image processing method, program, and storage medium