JP2017168885A - Imaging control device and camera - Google Patents

Imaging control device and camera Download PDF

Info

Publication number
JP2017168885A
JP2017168885A JP2016049181A JP2016049181A JP2017168885A JP 2017168885 A JP2017168885 A JP 2017168885A JP 2016049181 A JP2016049181 A JP 2016049181A JP 2016049181 A JP2016049181 A JP 2016049181A JP 2017168885 A JP2017168885 A JP 2017168885A
Authority
JP
Japan
Prior art keywords
camera
cameras
main camera
imaging
imaging control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016049181A
Other languages
Japanese (ja)
Inventor
奕昊 駱
Yihao Luo
奕昊 駱
浩一 白石
Koichi Shiraishi
浩一 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2016049181A priority Critical patent/JP2017168885A/en
Publication of JP2017168885A publication Critical patent/JP2017168885A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow objects to be tracked to be naturally tracked successively in an image to be taken when a plurality of cameras track an object sequentially.SOLUTION: The imaging control device determines one camera of a plurality of cameras as a main camera; determines some or all of the cameras other than the main camera as sub cameras; transmits a tracking instruction to the main camera and transmits monitoring instructions to the sub cameras; receives from the main camera a report that an object disappears from a visual field of the main camera without acquiring predetermined feature amounts and a report about an imaging state of the main camera at the timing when the object disappears from the visual field; redetermines a camera other than the determined main camera of the plurality of cameras as the main camera and redetermines some or all of cameras other than the redetermined main camera as the sub cameras; transmits to the redetermined main camera a tracking instruction using the received imaging state and transmits to the redetermined sub cameras monitoring instructions.SELECTED DRAWING: Figure 3

Description

本発明は、撮像制御装置及びカメラに関する。   The present invention relates to an imaging control device and a camera.

1又は複数の監視カメラが例えば店舗のような空間内を監視することが一般に行われている。1台のカメラが空間を監視する場合は、解像度を変化させることもある。複数の監視カメラが同時並行的に空間を監視する場合は、それらの間で役割分担が行われることもある。
特許文献1においては、1台のカメラが、第1の解像度で撮像素子から全体画像を読み出し、第2の解像度で全体画像のうちの一部の領域を読み出す。さらに、当該カメラは、第3の解像度で、一部の領域のうちの特徴物を読み出す。このとき、第1の解像度<第2の解像度<第3の解像度となっているので、当該カメラは、処理負担を増大させることなく、特徴物を高い精度で検出することができる。
In general, one or a plurality of monitoring cameras monitor a space such as a store. When one camera monitors the space, the resolution may be changed. When a plurality of monitoring cameras monitor a space in parallel, role sharing may be performed among them.
In Patent Document 1, one camera reads an entire image from an image sensor at a first resolution, and reads a partial area of the entire image at a second resolution. Further, the camera reads out a feature in a partial area at the third resolution. At this time, since the first resolution <the second resolution <the third resolution, the camera can detect the feature object with high accuracy without increasing the processing load.

特許文献2においては、広範囲を撮像可能な反射鏡を備える検出カメラが空間を監視し、移動体を検出すると、移動体の位置情報を判定カメラに送信する。一方、判定カメラは、必要に応じてパン・チルト・ズームを行いながら移動体を撮像し、移動体が対象物であるか否かを判定する。所定の判定処理が行われている間も、検出カメラは監視を継続している。したがって、移動体が出現するのを見逃すことがない。   In Patent Document 2, when a detection camera including a reflecting mirror capable of imaging a wide range monitors a space and detects a moving body, the position information of the moving body is transmitted to the determination camera. On the other hand, the determination camera captures the moving body while performing pan, tilt, and zoom as necessary, and determines whether the moving body is an object. While the predetermined determination process is being performed, the detection camera continues to be monitored. Therefore, it is not overlooked that a mobile body appears.

特許文献3においては、複数の監視カメラが同じ空間内を同時並行的に監視する。あるカメラが広角撮像を行っている間に移動体を検出すると、当該カメラは、他のカメラが広角撮像をしているか否かを判断する。他のカメラが広角撮像を行っている場合、当該カメラは、パン・チルト・ズームを行いながら移動体を追跡する。他のカメラが広角撮像を行っていない場合、広角撮像を継続する。したがって、常時いずれかのカメラが広角撮像を行っていることになり、移動体の検出漏れがない。   In Patent Document 3, a plurality of monitoring cameras monitor the same space in parallel. When a moving body is detected while a certain camera is performing wide-angle imaging, the camera determines whether another camera is performing wide-angle imaging. When another camera is performing wide-angle imaging, the camera tracks the moving body while performing pan, tilt, and zoom. If other cameras are not performing wide-angle imaging, wide-angle imaging is continued. Therefore, one of the cameras always performs wide-angle imaging, and there is no detection omission of the moving body.

特許文献4においては、パン・チルト・ズームが可能な複数のカメラが、ある空間内を同時並行的に監視している。あるカメラが移動体を検出すると、そのまま移動体を追跡する。当該カメラが撮像方向を変化させても画角内に収まり切れない程度に移動体が移動すると、当該カメラは、他のカメラに移動体の追跡を引き継ぎ、その後、通常の監視状態(広角)に戻る。したがって、既発見の移動体の追跡が途切れることなく、新たな移動体の検出漏れを防ぐことができる。   In Patent Document 4, a plurality of cameras capable of panning, tilting, and zooming monitor a certain space in parallel. When a camera detects a moving object, the moving object is tracked as it is. When the moving body moves to such an extent that the camera does not fit within the angle of view even when the imaging direction is changed, the camera takes over tracking of the moving body to another camera, and then enters a normal monitoring state (wide angle). Return. Accordingly, it is possible to prevent omission of detection of a new moving body without interrupting tracking of the already-discovered moving body.

特許文献5においては、ある空間内を警備員が巡回する。空間内に、パン・チルト・ズームが可能な4台のカメラが設置される。通常時は、そのうち1台が警備員を追跡しており、他の3台のカメラは、空間内を重複しないように分担して監視している。当該3台のうちの1台が異常状態(例えば、警備員がある方向を注視し続ける)を検出すると、当該3台のうちの他の1台が、広角撮像をズーム撮像に切り替え、警備員の視線の先にある不審物を撮像する。このとき、不審物を撮像しているカメラは自身の分担空間を監視することができなくなる。そこで、残りの2台が空間内を重複しないように分担して監視する。したがって、不審物が発見された場合であっても空間全体に対する監視が継続される。   In patent document 5, a guard goes around in a certain space. Four cameras capable of panning, tilting and zooming are installed in the space. During normal times, one of them tracks the security guard, and the other three cameras share and monitor the space so as not to overlap. When one of the three units detects an abnormal state (for example, keeps watching the direction of a security guard), the other one of the three switches the wide-angle imaging to the zoom imaging, and the security guard The suspicious object ahead of the line of sight is imaged. At this time, the camera that is imaging the suspicious object cannot monitor its own shared space. Therefore, the remaining two units are shared and monitored so as not to overlap in the space. Therefore, even if a suspicious object is found, the entire space is continuously monitored.

特開2010−130087号公報JP 2010-130087 A 特開平7−37100号公報JP-A-7-37100 特開2007−104223号公報JP 2007-104223 A 特開2005−33827号公報JP 2005-33827 A 特開2012−156752号公報JP 2012-156752 A

例えば手配中の人間を捜索する場合、(1)移動する人間を確実に追跡し、顔、髪型等の特徴を高精度で取得することが現場では求められている。その一方で、(2)局所的な追跡に集中するあまり、広範囲の監視が疎かになることを防ぐことも重要である。   For example, when searching for a human being arranged, (1) it is required in the field to accurately track a moving human and acquire features such as a face and a hairstyle with high accuracy. On the other hand, (2) it is important to prevent a wide range of monitoring from becoming obscured because the focus is on local tracking.

特許文献1のカメラは確かに処理負担を軽減するが、そもそも不十分な第1の解像度(低解像度)で読み出された全体画像は、特徴物を特定できる程度に高画質であるとはいえない場合も多い。また、即時的に特徴物を検出するのではなく、長時間撮像・録画を行った後再生するような場合、充分高い解像度で全体画像を撮像することはコストが高い。   Although the camera of Patent Document 1 certainly reduces the processing load, the whole image read at the first insufficient resolution (low resolution) is high enough to identify the feature. Often not. In addition, when the feature is not detected immediately but is reproduced after long-time imaging / recording, it is costly to capture the entire image with a sufficiently high resolution.

特許文献2〜5の技術は一見して、前記した(1)及び(2)を満たしているように思われる。しかしながら、複数のカメラが役割分担して追跡する場合、これらの複数のカメラが取得した複数の画像は滑らかに連続していない。カメラの切り替えの前後で、追跡対象の人間等が画面上の同じ位置に現れることも、画面上での大きさが同等であることも保証されていない。したがって、即時的又は事後的に装置が人間の特徴を抽出するにせよ、ユーザが画面を目視して人間の特徴を確認するにせよ、余分な時間が必要になる。   At first glance, the techniques of Patent Documents 2 to 5 seem to satisfy the above-mentioned (1) and (2). However, when a plurality of cameras share roles and track, a plurality of images acquired by the plurality of cameras are not smoothly continuous. It is not guaranteed that the person to be tracked appears at the same position on the screen before and after the camera switching, and that the size on the screen is the same. Therefore, even if the apparatus extracts human features immediately or afterwards, extra time is required regardless of whether the user visually confirms the human features by viewing the screen.

そこで本発明は、対象物を複数のカメラが順番に追跡する際に、取得される画像中において追跡対象を自然に連続させることを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to make a tracking target naturally continuous in an acquired image when a plurality of cameras sequentially track the target.

本発明の撮像制御装置は、複数のカメラのうちあるカメラをメインカメラとして決定し、複数のカメラのうち前記メインカメラ以外の一部又は全部のカメラをサブカメラとして決定する役割決定部と、対象物を追跡し、対象物についての所定の数の特徴量を取得する指示をメインカメラに送信するとともに、所定の領域を継続的に撮像する指示をサブカメラに送信する追跡指示部と、所定の数の特徴量のうち予め定められた特徴量を取得することができないまま対象物がメインカメラの視野内から出た旨の報告、及び、対象物がメインカメラの視野内から出た時点におけるメインカメラの撮像状態を、メインカメラから受信する撮像状態受付部と、複数のカメラのうち決定したメインカメラ以外のカメラをメインカメラとして再決定し、複数のカメラのうち再決定したメインカメラ以外の一部又は全部のカメラをサブカメラとして再決定する役割再決定部と、受信した撮像状態を使用して対象物を追跡し、対象物についての所定の数の特徴量を取得する指示を再決定したメインカメラに送信するとともに、所定の領域を継続的に撮像する指示を再決定したサブカメラに送信する継続追跡指示部と、を備えることを特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
An imaging control apparatus of the present invention determines a camera among a plurality of cameras as a main camera, and determines a part or all of the plurality of cameras other than the main camera as sub cameras, and a target A tracking instruction unit that tracks an object and transmits an instruction to acquire a predetermined number of feature quantities of the object to the main camera, and transmits an instruction to continuously image a predetermined area to the sub camera; Report that the target object has come out of the main camera field of view without being able to acquire a predetermined feature quantity from the number of feature quantities, and the main point when the target object has come out of the main camera field of view Re-determine the imaging state of the camera as the main camera from the imaging state reception unit that receives from the main camera and a camera other than the determined main camera among the multiple cameras. A role re-determination unit that re-determines some or all of the cameras other than the re-determined main camera as sub-cameras, and tracks the object using the received imaging state, and a predetermined number of objects A continuous tracking instruction unit that transmits to the re-determined main camera an instruction to acquire the feature amount of the image and transmits an instruction to continuously image a predetermined area to the sub-camera that has been re-determined. .
Other means will be described in the embodiment for carrying out the invention.

本発明によれば、対象物を複数のカメラが順番に追跡する際に、取得される画像中において追跡対象を自然に連続させることができる。   According to the present invention, when a plurality of cameras track an object in order, the tracking target can be naturally continued in the acquired image.

(a)は、撮像対象空間を説明する図である。(b)は、撮像制御装置の構成を説明する図である。(A) is a figure explaining imaging object space. (B) is a figure explaining the structure of an imaging control apparatus. 3台のカメラを使用した対象物追跡(既存技術)を説明する図である。It is a figure explaining the object tracking (existing technique) using three cameras. 3台のカメラを使用した対象物追跡(本実施形態)を説明する図である。It is a figure explaining object tracking (this embodiment) using three cameras. (a)は、特徴量情報の一例を示す図である。(b)は、撮像条件情報の一例を示す図である。(A) is a figure showing an example of feature quantity information. (B) is a figure showing an example of imaging condition information. 撮像履歴情報の一例を示す図である。It is a figure which shows an example of imaging log | history information. 包絡直方体を説明する図である。It is a figure explaining an envelope rectangular parallelepiped. 処理手順のシーケンス図である。It is a sequence diagram of a processing procedure.

以降、本発明を実施するための形態(“本実施形態”という)を、図等を参照しながら詳細に説明する。   Hereinafter, a mode for carrying out the present invention (referred to as “the present embodiment”) will be described in detail with reference to the drawings.

図1(a)に沿って、撮像対象空間を説明する。本実施形態の典型的な撮像対象空間Sは、不特定多数の人間が出入りする店舗等である。撮像対象空間Sには、カメラCM1、CM2及びCM3が配置されている。これらの3台のカメラCM1等は、例えば店舗の壁面に取り付けられている。3台のカメラのそれぞれは、自在雲台上をパン・チルトすることが可能であり、さらに、画角を変化(ズーム)させることも可能である。   The imaging target space will be described along FIG. A typical imaging target space S of the present embodiment is a store or the like where an unspecified number of people come and go. Cameras CM1, CM2, and CM3 are arranged in the imaging target space S. These three cameras CM1 etc. are attached to the wall surface of a store, for example. Each of the three cameras can pan and tilt on the free pan head, and can also change (zoom) the angle of view.

3台のカメラのそれぞれは、固有の撮像範囲を有する。例えば、カメラCM1は、店舗の入り口付近を中心に撮像し、カメラCM2は、店舗の商品棚付近を中心に撮像し、カメラCM3は、店舗のレジ付近を中心に撮像する。したがって、3台のカメラのそれぞれは、固有の死角を有することになる。しかしながら、撮像対象空間Sのすべての点は、3台のカメラのうち少なくとも1台によって撮像され得る。つまり、3台のカメラが協力することによって、撮像対象空間Sの死角は解消している。   Each of the three cameras has a unique imaging range. For example, the camera CM1 captures an image around a store entrance, the camera CM2 captures an image near a store shelf, and the camera CM3 captures an image near a store cash register. Therefore, each of the three cameras has a unique blind spot. However, all points in the imaging target space S can be imaged by at least one of the three cameras. That is, the blind spot of the imaging target space S is eliminated by the cooperation of the three cameras.

カメラCM1、CM2及びCM3は、撮像制御装置1に有線又は無線で接続されている。撮像制御装置1は、各カメラに対して制御信号を送信し、各カメラから撮像された画像及び他の必要な情報を受信する。撮像制御装置1は、通常、撮像対象空間Sの外側近辺に配置される   The cameras CM1, CM2, and CM3 are connected to the imaging control device 1 by wire or wirelessly. The imaging control apparatus 1 transmits a control signal to each camera, and receives an image captured from each camera and other necessary information. The imaging control device 1 is normally arranged near the outside of the imaging target space S.

図1(b)に沿って、撮像制御装置1の構成を説明する。撮像制御装置1は、一般的なコンピュータであり、中央制御装置11、キーボード等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び通信装置16(カメラとの通信を司る)を有する。これらの装置は、バスで相互に接続されている。補助記憶装置15は、地図31、画像32、特徴量情報33、撮像条件情報34及び撮像履歴情報35を格納している。   A configuration of the imaging control device 1 will be described with reference to FIG. The imaging control device 1 is a general computer, a central control device 11, an input device 12 such as a keyboard, an output device 13 such as a display, a main storage device 14, an auxiliary storage device 15, and a communication device 16 (communication with a camera). ). These devices are connected to each other by a bus. The auxiliary storage device 15 stores a map 31, an image 32, feature amount information 33, imaging condition information 34, and imaging history information 35.

主記憶装置14における、役割決定部21、追跡指示部22、撮像状態受付部23、役割再決定部24及び継続追跡指示部25は、プログラムである。以降、“○○部は”と主体を記した場合は、中央制御装置11が、補助記憶装置15から各プログラムを読み出し、主記憶装置14にロードしたうえで、各プログラムの機能(詳細後記)を実現するものとする。   The role determination unit 21, the tracking instruction unit 22, the imaging state reception unit 23, the role redetermination unit 24, and the continuous tracking instruction unit 25 in the main storage device 14 are programs. Thereafter, when the subject is described as “XX section”, the central control device 11 reads out each program from the auxiliary storage device 15 and loads it into the main storage device 14, and then the function of each program (detailed later). Shall be realized.

図2に沿って、3台のカメラを使用した対象物追跡(既存技術)を説明する。図2の縦軸は時点である。図2の下へ行くほど、後の時点である。図2の横軸は、各カメラである。縦軸及び横軸の交点の画像は、その時点においてそのカメラで撮像された画像である。
時点t1において、カメラCM1は、追跡するべき人間(“対象物”ともいう)を視野に捕えている。すると、カメラCM1は、パン・チルト・ズームを行いつつ対象物を追跡する。そして、同時に対象物の特徴量(詳細後記)を取得しようとする。
The object tracking (existing technology) using three cameras will be described with reference to FIG. The vertical axis in FIG. The lower it is in FIG. The horizontal axis in FIG. 2 represents each camera. The image at the intersection of the vertical axis and the horizontal axis is an image captured by the camera at that time.
At time t1, the camera CM1 captures the person to be tracked (also referred to as “object”) in the field of view. Then, the camera CM 1 tracks the object while performing pan, tilt, and zoom. At the same time, it tries to acquire the feature amount (detailed later) of the object.

時点t2において、カメラCM1は、対象物を画面のほぼ中央に捕えている。時点t3において、カメラCM1は、時点t2に比してよりズームした画角で対象物を捕えている。しかしながら、対象物は時々刻々と移動し、カメラCM1のパン・チルトの範囲内には収まりそうにはない。時点t1〜時点t3において、カメラCM2及びCM3は、特に対象物を追跡するわけではなく、店舗内の所定の空間を広い画角で撮像している。詳細は後記するが、時点t1〜時点t3における、カメラCM1の撮像条件を“CN2”(追跡)と呼ぶ。カメラCM2及びカメラCM3の撮像条件を“CN1”(監視)と呼ぶ。   At time t2, the camera CM1 has caught the object in the approximate center of the screen. At time t3, the camera CM1 captures the object at a field angle that is more zoomed than at time t2. However, the object moves from moment to moment and is unlikely to fall within the pan / tilt range of the camera CM1. From the time point t1 to the time point t3, the cameras CM2 and CM3 do not particularly track the object, and take an image of a predetermined space in the store with a wide angle of view. Although details will be described later, the imaging condition of the camera CM1 from time t1 to time t3 is referred to as “CN2” (tracking). The imaging condition of the camera CM2 and camera CM3 is referred to as “CN1” (monitoring).

時点t4において、カメラCM1は、撮像条件を“CN2”から“CN1”に切り替える。すると、カメラCM1は、対象物を追跡することを停止し、店舗内の所定の空間(入口付近)を広い画角で撮像し始める。時点t4において、カメラCM2は、撮像条件を“CN1”から“CN2”に切り替える。すると、カメラCM2は、もはや店舗内の所定の空間(商品棚付近)を広い画角で撮像することを停止し、対象物を追跡し始める。   At time t4, the camera CM1 switches the imaging condition from “CN2” to “CN1”. Then, the camera CM1 stops tracking the object and starts imaging a predetermined space (near the entrance) in the store with a wide angle of view. At time t4, the camera CM2 switches the imaging condition from “CN1” to “CN2”. Then, the camera CM2 no longer captures a predetermined space in the store (near the product shelf) with a wide angle of view, and starts tracking the object.

時点t4において、カメラCM2は、対象物を視野に捕えている。すると、カメラCM2は、パン・チルト・ズームを行いつつ対象物を追跡する。そして、同時に対象物の特徴量を取得しようとする。時点t5において、カメラCM2は、対象物を画面のほぼ中央に捕えている。時点t6において、カメラCM1は、時点t5に比してよりズームした画角で対象物を捕えている。しかしながら、対象物は時々刻々と移動し、カメラCM2のパン・チルトの範囲内には収まりそうにはない。時点t4〜時点t6において、カメラCM1及びCM3は、特に対象物を追跡するわけではなく、店舗内の所定の空間を広い画角で撮像している。   At time t4, the camera CM2 captures the object in the field of view. Then, the camera CM 2 tracks the object while performing pan / tilt / zoom. At the same time, the feature amount of the object is to be acquired. At time t5, the camera CM2 captures the object in the approximate center of the screen. At time t6, the camera CM1 captures the object at a field angle that is more zoomed than at time t5. However, the object moves from moment to moment and is unlikely to fall within the pan / tilt range of the camera CM2. From the time point t4 to the time point t6, the cameras CM1 and CM3 do not particularly track the object, and take an image of a predetermined space in the store with a wide angle of view.

時点t7において、カメラCM2は、撮像条件を“CN2”から“CN1”に切り替える。すると、カメラCM2は、対象物を追跡することを停止し、店舗内の所定の空間(商品棚付近)を広い画角で撮像し始める。時点t7において、カメラCM3は、撮像条件を“CN1”から“CN2”に切り替える。すると、カメラCM3は、もはや店舗内の所定の空間(レジ付近)を広い画角で撮像することを停止し、対象物を追跡し始める。   At time t7, the camera CM2 switches the imaging condition from “CN2” to “CN1”. Then, the camera CM2 stops tracking the object and starts imaging a predetermined space in the store (in the vicinity of the product shelf) with a wide angle of view. At time t7, the camera CM3 switches the imaging condition from “CN1” to “CN2”. Then, the camera CM3 no longer captures a predetermined space in the store (near the cash register) with a wide angle of view, and starts tracking the object.

時点t7において、カメラCM3は、対象物を視野に捕えている。すると、カメラCM3は、パン・チルト・ズームを行いつつ対象物を追跡する。そして、同時に対象物の特徴量を取得しようとする。時点t8において、カメラCM3は、対象物を画面のほぼ中央に捕えている。時点t9において、カメラCM3は、時点t8に比してよりズームした画角で対象物を捕えている。しかしながら、対象物は時々刻々と移動し、カメラCM3のパン・チルトの範囲内には収まりそうにはない。時点t7〜時点t9において、カメラCM1及びCM2は、特に対象物を追跡するわけではなく、店舗内の所定の空間を広い画角で撮像している。   At time t7, the camera CM3 captures the object in the field of view. Then, the camera CM 3 tracks the object while performing pan, tilt, and zoom. At the same time, the feature amount of the object is to be acquired. At the time point t8, the camera CM3 captures the object at the approximate center of the screen. At time t9, the camera CM3 captures the object at a field angle that is more zoomed than at time t8. However, the object moves from moment to moment and is unlikely to be within the pan / tilt range of the camera CM3. From time t7 to time t9, the cameras CM1 and CM2 do not particularly track the object, and take an image of a predetermined space in the store with a wide angle of view.

図2でわかるのは、3台のカメラCM1等が順次役割を変更しながら対象物を追跡しつつ、撮像対象空間Sを死角のないように監視している、ということである。3台のカメラのうちのいずれかが対象物を追跡しながら対象物の特徴量を取得する。しかしながら、特徴量を取得するのは容易ではなく、あるカメラが特徴量を取得できないまま、次のカメラに対象物の追跡を引き継ぐことが多い。   It can be seen from FIG. 2 that the three cameras CM1 and the like monitor the imaging target space S so as not to have a blind spot while tracking the object while sequentially changing the roles. One of the three cameras acquires the feature amount of the object while tracking the object. However, it is not easy to acquire feature amounts, and tracking of an object is often handed over to the next camera while one camera cannot acquire the feature amounts.

時点t3におけるカメラCM1の画像41a及び時点t4におけるカメラCM2の画像41bに注目する。時点t3においてカメラCM1は、画面内で対象物の姿を大きく捕えている。その一方で、時点t4においてカメラCM2は、画面内で対象物の姿を大きく捕えられていないだけでなく、対象物は、画面の左がわに寄っている。顔、髪型等の人間の特徴量は、画面内でその人間を大きく(ズーム)で捕え、かつ、画面の中央において撮像された方が取得されやすい。すると、カメラCM2が画面内のほぼ中央で対象物の姿を大きく捕えるまでの時間が無駄になる。このことは、時点t6におけるカメラCM2の画像42a及び時点t7におけるカメラCM3の画像42bにも全く同様に当てはまる。   Attention is paid to the image 41a of the camera CM1 at the time point t3 and the image 41b of the camera CM2 at the time point t4. At time t3, the camera CM1 captures the appearance of the object in the screen. On the other hand, at the time point t4, the camera CM2 not only captures the appearance of the target object in the screen, but also the target object approaches the left side of the screen. Human feature quantities such as a face and a hairstyle are more easily acquired when the person is captured (zoomed) at a large size in the screen and is captured at the center of the screen. Then, the time until the camera CM2 captures a large object at the center of the screen is wasted. The same applies to the image 42a of the camera CM2 at the time point t6 and the image 42b of the camera CM3 at the time point t7.

図3に沿って、3台のカメラを使用した対象物追跡(本実施形態)を説明する。時点t4におけるカメラCM2の画像43に注目する。カメラCM2は、画面内のほぼ中央に対象物を大きく捕えられている。時点t7におけるカメラCM3の画像44に注目する。カメラCM3は、画面内のほぼ中央に対象物を大きく捕えられている。このように、対象物の追跡を引き継いだカメラがはじめから画面のほぼ中央に対象物を大きく捕えることができれば、対象物の特徴量を取得する速度が向上する。   The object tracking (this embodiment) using three cameras is demonstrated along FIG. Attention is paid to the image 43 of the camera CM2 at the time point t4. The camera CM2 has a large object captured substantially in the center of the screen. Attention is paid to the image 44 of the camera CM3 at time t7. The camera CM3 has a large object captured substantially in the center of the screen. In this way, if the camera that has succeeded in tracking the object can catch the object largely in the center of the screen from the beginning, the speed of acquiring the feature amount of the object is improved.

(特徴量情報)
図4(a)に沿って、特徴量情報33を説明する。特徴量情報33においては、特徴量ID欄101に記憶された特徴量IDに関連付けて、特徴量欄102には特徴量が記憶されている。
特徴量ID欄101の特徴量IDは、特徴量(直ちに後記)を一意に特定する識別子である。
特徴量欄102の特徴量は、画面上の対象物の部分画像のうち、当該対象物を特定するのに寄与する部分画像である。例えば、対象物が人間である場合、特徴量は、頭髪、目、鼻、口、上着、ズボン、靴、カバン等の身体部分、服装部分又は携帯物である。例えば“頭髪”は、それが“頭髪”であると認識されるに足る、大きさ、形状、色彩を有している。撮像制御装置1は、そのような頭髪の複数の見本(テンプレート)を補助記憶装置15に記憶しており、画像のなかから頭髪を切り出すことができる。目、鼻、口、・・・についても同様である。
(Feature information)
The feature amount information 33 will be described with reference to FIG. In the feature amount information 33, the feature amount is stored in the feature amount column 102 in association with the feature amount ID stored in the feature amount ID column 101.
The feature amount ID in the feature amount ID column 101 is an identifier that uniquely identifies the feature amount (immediately described later).
The feature amount in the feature amount column 102 is a partial image that contributes to specifying the target object among the partial images of the target object on the screen. For example, when the object is a human, the feature amount is a body part such as head hair, eyes, nose, mouth, outer garment, trousers, shoes, or a bag, a clothing part, or a portable object. For example, “hair” has a size, shape, and color sufficient to be recognized as “hair”. The imaging control apparatus 1 stores a plurality of samples (templates) of such hair in the auxiliary storage device 15 and can cut out the hair from the image. The same applies to eyes, nose, mouth, and so on.

(撮像条件情報)
図4(b)に沿って、撮像条件情報34を説明する。撮像条件情報34においては、撮像条件ID欄111に記憶された撮像条件IDに関連付けて、名称欄112には名称が、パン・チルト欄113にはパン・チルト条件が、画角欄114には画角条件が、特徴量検出欄115には特徴量検出条件が記憶されている。
(Imaging condition information)
The imaging condition information 34 will be described with reference to FIG. In the imaging condition information 34, in association with the imaging condition ID stored in the imaging condition ID field 111, the name field 112 has a name, the pan / tilt field 113 has a pan / tilt condition, and the angle of view field 114 has a name. The angle-of-view condition is stored in the feature amount detection column 115.

撮像条件ID欄111の撮像条件IDは、撮像条件を一意に特定する識別子である。撮像条件とは、撮像制御装置1がカメラに対して送信する撮像に関する指示である。
名称欄112の名称は、撮像条件の名称であり、ここでは、前記したように“監視”及び“追跡”のいずれかである。
パン・チルト欄113のパン・チルト条件は、カメラの光軸を上下方向及び左右方向に変化させる“光軸変動”、又は、変化させない“光軸固定”のいずれかである。
画角欄114の画角条件は、所定の広角度(例えば30度)にカメラの画角を固定する “ワイド固定”、又は、対象物が画面一杯に撮像されるようにカメラの画角をズームさせる“ズーム変動”のいずれかである。
特徴量検出欄115の特徴量検出条件は、特徴量の切り出しを行う“する”、又は、特徴量の切り出しを行わない“しない”のいずれかである。
The imaging condition ID in the imaging condition ID column 111 is an identifier that uniquely identifies the imaging condition. The imaging condition is an instruction related to imaging that the imaging control device 1 transmits to the camera.
The name in the name column 112 is the name of the imaging condition, and here is either “monitoring” or “tracking” as described above.
The pan / tilt condition in the pan / tilt column 113 is either “optical axis fluctuation” in which the optical axis of the camera is changed in the vertical direction and horizontal direction, or “optical axis fixed” in which the optical axis is not changed.
The angle-of-view condition in the angle-of-view column 114 is “fixed wide” to fix the angle of view of the camera to a predetermined wide angle (for example, 30 degrees), or the angle of view of the camera so that the object is imaged on the full screen. One of the “zoom fluctuations” to zoom.
The feature amount detection condition in the feature amount detection column 115 is either “Yes” for cutting out the feature amount or “No” for not cutting out the feature amount.

(撮像履歴情報)
図5に沿って、撮像履歴情報35を説明する。撮像履歴情報35においては、撮像時点欄121に関連付けて、CM1欄122、撮像状態引継欄123、CM2欄124、撮像状態引継欄125、CM3欄126及び取得特徴量欄127が記憶されている。例えばCM1欄122のデータは、カメラCM1についてのデータであり、他も同様である。
(Imaging history information)
The imaging history information 35 will be described with reference to FIG. In the imaging history information 35, a CM1 column 122, an imaging state takeover column 123, a CM2 column 124, an imaging state takeover column 125, a CM3 column 126, and an acquired feature amount column 127 are stored in association with the imaging time point column 121. For example, the data in the CM1 column 122 is data about the camera CM1, and the other is the same.

CM1欄122は、撮像条件ID欄122a、光軸位置欄122b、対象物占有率欄122c及び画角欄122dを有する。
撮像条件ID欄122aの撮像条件IDは、図4(b)の撮像条件IDと同じである。
光軸位置欄122bの光軸位置は、撮影条件IDが“CN2”である行においては、画像上の対象物の重心の座標値である。光軸位置は、撮影条件IDが“CN1”である行においては、画面の対角線の交点に撮像される固定物の座標値である。3次元座標軸の原点は撮像対象空間S内外の任意の位置に設定され得る。図1の例では、撮像対象空間S(直方体)の1つの頂点が原点となっている。各カメラは、撮像条件を“監視”から“追跡”に変更するとき、直前の時点において“追跡”していたカメラから光軸位置を引き継ぎ、自身の光軸がその光軸位置を通るように光軸の方向を決定することができる。
The CM1 column 122 includes an imaging condition ID column 122a, an optical axis position column 122b, an object occupancy rate column 122c, and an angle of view column 122d.
The imaging condition ID in the imaging condition ID column 122a is the same as the imaging condition ID in FIG.
The optical axis position in the optical axis position column 122b is the coordinate value of the center of gravity of the object on the image in the row where the imaging condition ID is “CN2”. The optical axis position is the coordinate value of a fixed object that is imaged at the intersection of the diagonal lines of the screen in the row where the imaging condition ID is “CN1”. The origin of the three-dimensional coordinate axis can be set at an arbitrary position inside or outside the imaging target space S. In the example of FIG. 1, one vertex of the imaging target space S (cuboid) is the origin. When changing the imaging condition from “monitoring” to “tracking”, each camera takes over the optical axis position from the camera that was “tracking” at the previous time point so that its own optical axis passes through the optical axis position. The direction of the optical axis can be determined.

対象物占有率欄122cの対象物占有率は、画面全体の面積(画素数)に占める対象物の面積の比率(百分率)である。
画角欄122dの画角は、カメラの画角である。
CM2欄124及びCM3欄126についても同様である。
The object occupancy in the object occupancy column 122c is the ratio (percentage) of the area of the object to the area (number of pixels) of the entire screen.
The angle of view in the angle of view column 122d is the angle of view of the camera.
The same applies to the CM2 column 124 and the CM3 column 126.

撮像状態引継欄123においては、時点t3及び時点t4の行に跨って“◎”が記憶されている。このことは、以下のことを示している。
・時点t3において、撮像制御装置1が、カメラCM1から“光軸位置=X,Y,Z”及び“対象物占有率=20%”を受信したこと。
・時点t3において、撮像制御装置1が、カメラCM2に“光軸位置=X,Y,Z”及び“対象物占有率=20%”を送信したこと。
In the imaging state takeover column 123, “◎” is stored across the rows at time t3 and time t4. This indicates the following.
The imaging control device 1 has received “optical axis position = X 3 , Y 3 , Z 3 ” and “object occupancy = 20%” from the camera CM 1 at time t 3 .
The imaging control device 1 has transmitted “optical axis position = X 3 , Y 3 , Z 3 ” and “object occupancy = 20%” to the camera CM 2 at time t 3 .

・それらの結果、時点t4において、カメラCM2は、“光軸位置=X,Y,Z”及び“対象物占有率=20%”という条件で対象物を撮像したこと。
・時点t3におけるカメラCM1の画角は“7度”であったが、時点t4におけるカメラCM2の画角は“8度”であったこと。当然のことながら、対象物とカメラとの距離は、カメラごとに異なるので、同程度の対象物占有率を維持しようとすると、画角が変化することになる。
撮像状態引継欄125における“◎”についても同様である
As a result, at time t4, the camera CM2 images the object under the conditions of “optical axis position = X 3 , Y 3 , Z 3 ” and “object occupation ratio = 20%”.
The angle of view of camera CM1 at time t3 was “7 degrees”, but the angle of view of camera CM2 at time t4 was “8 degrees”. As a matter of course, since the distance between the object and the camera is different for each camera, the angle of view will change if an attempt is made to maintain the same object occupation rate.
The same applies to “◎” in the imaging state takeover column 125.

取得特徴量欄127には、対象物の特徴量が取得された場合にはその特徴量IDが記憶され、特徴量が取得されなかった場合には“なし”が記憶される。
再度、撮像履歴情報35を全体的に見ると、以下のことがわかる。
・カメラCM1、カメラCM2及びカメラCM3が、この順序で対象物を追跡したこと。
・カメラCM1は、時点t1〜時点t3において対象物を追跡し、他の時点においては、撮像対象空間Sを広く監視していたこと。
・カメラCM2は、時点t4〜時点t6において対象物を追跡し、他の時点においては、撮像対象空間Sを広く監視していたこと。
The acquired feature value column 127 stores the feature value ID when the feature value of the object is acquired, and stores “none” when the feature value is not acquired.
When the imaging history information 35 is viewed again as a whole, the following can be understood.
The camera CM1, the camera CM2, and the camera CM3 track the object in this order.
The camera CM1 tracks the object from the time point t1 to the time point t3 and widely monitors the imaging target space S at other time points.
The camera CM2 tracks the object from time t4 to time t6 and widely monitors the imaging target space S at other time points.

・カメラCM3は、時点t7〜時点t9において対象物を追跡し、他の時点においては、撮像対象空間Sを広く監視していたこと。
・時点t3から時点t4にかけて、及び、時点t6から時点t7にかけて、
光軸位置及び対象物占有率が、次のカメラに引き継がれていること。
・カメラCM1は特徴量F1(頭髪)及び特徴量F2(目)を取得し、カメラCM2は特徴量F3(鼻)及び特徴量F6(ズボン)を取得し、カメラCM3は特徴量F4(口)及び特徴量F5(上着)を取得したこと。
・他の特徴量(靴及びカバン)は取得されなかったこと。
The camera CM3 tracks the object from time t7 to time t9 and widely monitors the imaging target space S at other time points.
From time t3 to time t4 and from time t6 to time t7
The optical axis position and object occupancy must be passed on to the next camera.
The camera CM1 acquires a feature value F1 (hair) and a feature value F2 (eyes), the camera CM2 acquires a feature value F3 (nose) and a feature value F6 (trousers), and the camera CM3 acquires a feature value F4 (mouth). And the feature amount F5 (outerwear) has been acquired.
・ Other features (shoes and bags) were not acquired.

(カメラから対象物までの距離)
各カメラが“光軸位置=X,Y,Z”等を取得できるのは、各カメラが、撮像対象空間S内における自身の座標値、パン・チルトの角度、及び、カメラから対象物までの距離を認識しているからである。現在一般に市販されているカメラには、対象物までの距離を測定できるカメラ(3次元カメラ)と、そうでないカメラ(2次元カメラ)とがある。仮に2次元カメラを使用する場合であっても、撮像制御装置1が補助記憶装置15内に撮像対象空間Sの3次元地図(図1(b)の符号31)を記憶しておくことにより、各カメラは、対象部までの距離を測定することが可能になる。
(Distance from camera to object)
Each camera can acquire “optical axis position = X 3 , Y 3 , Z 3 ” etc. because each camera has its own coordinate value in the imaging target space S, pan / tilt angle, and target from the camera. This is because the distance to the object is recognized. Currently, commercially available cameras include a camera that can measure the distance to an object (a three-dimensional camera) and a camera that does not (a two-dimensional camera). Even if a two-dimensional camera is used, the imaging control device 1 stores the three-dimensional map (reference numeral 31 in FIG. 1B) of the imaging target space S in the auxiliary storage device 15. Each camera can measure the distance to the target portion.

例えば、店舗内に複数の商品棚が平面視縦横に整然と並んでいる。そしてすべての商品棚は所定の高さ、所定の段数、及び、所定の商品配置幅を有している。そして、商品棚上の商品配置スペースのそれぞれには、商品名及び価格等を記したラベルが掛けられている。すると、このようなラベルは、3次元空間の格子点に整然と配列されることになる。これらのラベルのそれぞれに対して3次元の座標値を割り当てておく。すると、あるカメラが撮像した画像内において、対象物(人間)があるラベルを隠している様子に基づいて、当該カメラは、自身と対象物との間の距離を推定できる。   For example, a plurality of product shelves are neatly arranged vertically and horizontally in a plan view in a store. All the product shelves have a predetermined height, a predetermined number of steps, and a predetermined product arrangement width. Each product placement space on the product shelf is hung with a label indicating the product name, price, and the like. Then, such a label is arranged in an orderly manner at a lattice point in the three-dimensional space. A three-dimensional coordinate value is assigned to each of these labels. Then, the camera can estimate the distance between itself and the target object based on a state in which the target object (human being) is hiding a certain label in an image captured by a certain camera.

図6に沿って、包絡直方体を説明する。包絡直方体45は、撮像対象空間Sの座標軸方向の辺を有する直方体のうち、対象物を構成するすべての点を包含する最も体積が小さい直方体である。カメラがこのような包絡直方体45を特定する技術は広く知られている。撮像制御装置1は、図5等において説明した方法でなくとも、包絡直方体45を特定することによって、パン・チルト角度及び画角を、次のカメラに引き継ぐことができる。   The envelope cuboid will be described with reference to FIG. The envelope cuboid 45 is a cuboid having the smallest volume that includes all the points constituting the object among the cuboids having sides in the coordinate axis direction of the imaging target space S. A technique for the camera to specify such an envelope cuboid 45 is widely known. The imaging control apparatus 1 can take over the pan / tilt angle and the angle of view to the next camera by specifying the envelope cuboid 45 instead of the method described in FIG.

(処理手順)
図7に沿って、処理手順のシーケンスを説明する。図7において、実線の矢印は処理の流れを示し、破線の矢印は情報の流れを示している。図7の“第1のカメラ”は、必ずしもカメラCM1を意味しているとは限らない。“第2のカメラ”及び“第3のカメラ”についても同様である。つまり、図7は、撮像制御装置1から見て、情報の送受信を行うカメラが3つあることを示している。もちろん、カメラの数は“2”であっても、“4”以上であってもよい。
(Processing procedure)
The sequence of the processing procedure will be described with reference to FIG. In FIG. 7, solid arrows indicate the flow of processing, and broken arrows indicate the flow of information. The “first camera” in FIG. 7 does not necessarily mean the camera CM1. The same applies to the “second camera” and the “third camera”. That is, FIG. 7 shows that there are three cameras that transmit and receive information when viewed from the imaging control apparatus 1. Of course, the number of cameras may be “2” or “4” or more.

ステップS201において、役割決定部21は、メインカメラ及びサブカメラを決定する。ここでは、役割決定部21は、第1のカメラをメインカメラとして決定し、第1のカメラ以外の第2のカメラ及び第3のカメラをサブカメラとして決定したとする。   In step S201, the role determination unit 21 determines a main camera and a sub camera. Here, it is assumed that the role determination unit 21 determines the first camera as the main camera, and determines the second camera and the third camera other than the first camera as sub cameras.

ステップS202において、追跡指示部22は、第1のカメラに追跡指示を送信する。追跡指示は、対象物を追跡し、対象物についての特徴量を取得する指示である。ここでの特徴量とは、例えば前記した“F1”〜“F8”である。追跡指示部22は、このとき第1のカメラに、追跡指示を実現する具体的な条件として撮像条件CN2を送信する。   In step S202, the tracking instruction unit 22 transmits a tracking instruction to the first camera. The tracking instruction is an instruction for tracking an object and acquiring a feature amount of the object. The feature values here are, for example, “F1” to “F8” described above. At this time, the tracking instruction unit 22 transmits the imaging condition CN2 to the first camera as a specific condition for realizing the tracking instruction.

ステップS203において、追跡指示部22は、第2のカメラ及び第3のカメラに監視指示を送信する。監視指示は、対象物を追跡することなく、撮像対象空間S内の所定の領域を継続的に撮像する指示である。追跡指示部22は、このとき第2のカメラ及び第3のカメラに、監視指示を実現する具体的な条件として撮像条件CN1を送信する。   In step S203, the tracking instruction unit 22 transmits a monitoring instruction to the second camera and the third camera. The monitoring instruction is an instruction for continuously imaging a predetermined area in the imaging target space S without tracking the object. At this time, the tracking instruction unit 22 transmits the imaging condition CN1 to the second camera and the third camera as specific conditions for realizing the monitoring instruction.

ステップS204において、追跡指示部22は、第1のカメラから対象物の画像を受信する。対象物の画像には、例えば特徴量F1が含まれている。追跡指示部22は、特徴量F1を画像32(図1(b))として、受信した時点に関連付けて補助記憶装置15に時系列で記憶する。   In step S204, the tracking instruction unit 22 receives an image of an object from the first camera. The image of the object includes, for example, a feature amount F1. The tracking instruction unit 22 stores the feature value F1 as an image 32 (FIG. 1B) in time series in the auxiliary storage device 15 in association with the received time point.

ステップS205において、撮像状態受付部23は、報告及び撮像状態を第1のカメラから受信する。報告とは、対象物のすべての特徴量“F1”〜“F8”を取得できないまま、対象物が自身の視野(画角)内から出た旨の報告である。撮像状態とは、対象物が自身の視野内から出た時点の光軸位置及び対象物占有率である。なお、撮像状態は、前記した包絡直方体を特定できる情報であってもよい。   In step S205, the imaging state reception unit 23 receives a report and an imaging state from the first camera. The report is a report that the object has come out of its own field of view (view angle) without obtaining all the feature quantities “F1” to “F8” of the object. The imaging state is the optical axis position and the object occupancy when the object comes out of its own field of view. Note that the imaging state may be information that can identify the envelope cuboid described above.

ステップS206において、役割再決定部24は、次のメインカメラ及びサブカメラを再決定する。ここでは、役割再決定部24は、第2のカメラをメインカメラとして再決定し、第2のカメラ以外の第1のカメラ及び第3のカメラをサブカメラとして再決定したとする。   In step S206, the role redetermining unit 24 redetermines the next main camera and sub camera. Here, it is assumed that the role re-determination unit 24 re-determines the second camera as the main camera and re-determines the first camera and the third camera other than the second camera as sub-cameras.

ステップS207において、継続追跡指示部25は、第2のカメラに追跡指示を送信する。追跡指示は、撮像状態を使用して対象物を追跡し、対象物についての特徴量を取得する指示である。ここでの特徴量とは、(取得済であるF1を除く)“F2”〜“F8”である。継続追跡指示部25は、このとき第2のカメラに、追跡指示を実現する具体的な条件として撮像条件CN2及びステップS205において受信した撮像状態を送信する。   In step S207, the continuous tracking instruction unit 25 transmits a tracking instruction to the second camera. The tracking instruction is an instruction for tracking an object using an imaging state and acquiring a feature amount of the object. The feature amounts here are “F2” to “F8” (excluding F1 that has already been acquired). At this time, the continuous tracking instruction unit 25 transmits the imaging condition CN2 and the imaging state received in step S205 as specific conditions for realizing the tracking instruction to the second camera.

ステップS208において、継続追跡指示部25は、第1のカメラ及び第3のカメラに監視指示を送信する。監視指示は、対象物を追跡することなく、撮像対象空間S内の所定の領域を継続的に撮像する指示である。継続追跡指示部25は、このとき第1のカメラ及び第3のカメラに、監視指示を実現する具体的な条件として撮像条件CN1を送信する。   In step S208, the continuous tracking instruction unit 25 transmits a monitoring instruction to the first camera and the third camera. The monitoring instruction is an instruction for continuously imaging a predetermined area in the imaging target space S without tracking the object. At this time, the continuous tracking instruction unit 25 transmits the imaging condition CN1 to the first camera and the third camera as a specific condition for realizing the monitoring instruction.

ステップS209において、継続追跡指示部25は、第2のカメラから対象物の画像を受信する。対象物の画像には、例えば特徴量F2が含まれている。継続追跡指示部25は、特徴量F2を画像32として、受信した時点に関連付けて補助記憶装置15に時系列で記憶する。   In step S209, the continuous tracking instruction unit 25 receives an image of the object from the second camera. The image of the target object includes, for example, a feature amount F2. The continuous tracking instruction unit 25 stores the feature amount F2 as an image 32 in the auxiliary storage device 15 in time series in association with the received time point.

ステップS210において、撮像状態受付部23は、報告及び撮像状態を第2のカメラから受信する。報告とは、対象物の特徴量“F2”〜“F8”のすべてを取得できないまま、対象物が自身の視野(画角)内から出た旨の報告である。   In step S210, the imaging state reception unit 23 receives a report and an imaging state from the second camera. The report is a report that the object has come out of its own field of view (view angle) without acquiring all of the feature quantities “F2” to “F8” of the object.

ステップS211において、役割再決定部24は、次のメインカメラ及びサブカメラを再決定する。ここでは、役割再決定部24は、第3のカメラをメインカメラとして再決定し、第3のカメラ以外の第1のカメラ及び第2のカメラをサブカメラとして再決定したとする。
以降のステップ情報処理は、前記したステップと同様であるので省略する。
In step S211, the role redetermining unit 24 redetermines the next main camera and sub camera. Here, it is assumed that the role re-determination unit 24 re-determines the third camera as the main camera and re-determines the first camera and the second camera other than the third camera as sub-cameras.
Subsequent step information processing is the same as the above-described step, and is therefore omitted.

(繰り返し処理)
前記から明らかなように、撮像制御装置1は、所定の特徴量のすべてが取得されるまで、ステップS201〜S205の処理を繰り返すことになる。なお、撮像環境によっては特定の特徴量が取得しにくい場合もある。また、すべての特徴量が絶対に必要であるとも限らない。そこで、撮像制御装置1は、最低限取得するべき特徴量の数(閾値)を予め定めておき、その閾値を判断基準として、ステップS201〜S205の処理を繰り返すか否かを判断してもよい。また、特定の種類の特徴量(例えば“目”と“口”)が取得されるまで、ステップS201〜S205の処理を繰り返してもよい。
(Repeat process)
As is apparent from the above, the imaging control apparatus 1 repeats the processes of steps S201 to S205 until all of the predetermined feature amounts are acquired. Depending on the imaging environment, it may be difficult to acquire a specific feature amount. Also, not all feature quantities are absolutely necessary. Therefore, the imaging control apparatus 1 may determine in advance whether or not to repeat the processes in steps S201 to S205 with a predetermined number of threshold values (threshold values) to be acquired in advance and using the threshold value as a determination criterion. . Further, the processing in steps S201 to S205 may be repeated until a specific type of feature amount (for example, “eyes” and “mouth”) is acquired.

(移動の方向)
撮像状態受付部23は、対象物が移動する方向をメインカメラから受信してもよい。そのうえで、役割再決定部24は、受信した方向に応じて次にメインカメラとして再決定するカメラを選択してもよい。例えば、いま、図1において、カメラCM2がメインカメラとなっているとする。そして、対象物がカメラCM2の画面の左から右に移動(図1の右から左に移動)しているとする。この場合、役割再決定部24は、カメラCM1を次のメインカメラとして決定する。なぜならば、カメラCM1とカメラCM3とを比較すると、カメラCM1の方がより対象物に近く、より高い解像度で特徴量を検出し得るからである。
(Direction of movement)
The imaging state reception unit 23 may receive the direction in which the object moves from the main camera. In addition, the role redetermining unit 24 may select a camera to be redetermined as the main camera next in accordance with the received direction. For example, assume that the camera CM2 is the main camera in FIG. Then, it is assumed that the object is moving from the left to the right on the screen of the camera CM 2 (moving from the right to the left in FIG. 1). In this case, the role redetermining unit 24 determines the camera CM1 as the next main camera. This is because, when the camera CM1 and the camera CM3 are compared, the camera CM1 is closer to the object and can detect the feature quantity with a higher resolution.

(警報等)
前記の例は、対象物の特徴量を取得すること自体に意味があることを前提としている。例えば、市場調査の目的で店舗に来店する人間の特徴量を取得する場合が前記の例に相当する。この場合、撮像制御装置1は、特定の人間を捜索しているわけではない。しかしながら、撮像制御装置1が、特定の人間を捜索する場合もあり得る。それは、例えば、店舗に忘れ物をした人間を捜索する場合、万引き等の犯罪者を捜索する場合等である。この場合、補助記憶装置15は、捜索対象の人間の特徴量を予め記憶しておく。そのうえで、追跡指示部22(又は継続追跡指示部25)は、メインカメラから受信した特徴量を、予め記憶している特徴量と比較する。そして、比較した特徴量同士が所定の基準を満たす程度に一致している場合は、追跡指示部22(又は継続追跡指示部25)は、以下の処理を行ってもよい。
(Alarm etc.)
The above example is based on the premise that acquiring the feature quantity of the object itself is meaningful. For example, the case of acquiring a feature quantity of a person who visits a store for the purpose of market research corresponds to the above example. In this case, the imaging control device 1 is not searching for a specific person. However, the imaging control device 1 may search for a specific person. This is the case, for example, when searching for a person who has left something in a store or when searching for a criminal such as shoplifting. In this case, the auxiliary storage device 15 stores the feature amount of the search target person in advance. In addition, the tracking instruction unit 22 (or the continuous tracking instruction unit 25) compares the feature amount received from the main camera with the feature amount stored in advance. Then, when the compared feature amounts match with each other so as to satisfy a predetermined standard, the tracking instruction unit 22 (or the continuous tracking instruction unit 25) may perform the following processing.

・出力装置13に警報を発する。警報は、文字でもよいし、音声でもよい。
・出力装置13に、取得された特徴量(現在店舗内にいる人間の頭髪、目等)を画像で表示する。
・警察等の外部機関に設置されている機器に、警報及び取得された特徴量の画像をネットワーク(図示せず)を介して送信する。
An alarm is issued to the output device 13. The alarm may be text or voice.
The acquired feature value (human hair, eyes, etc. currently in the store) is displayed on the output device 13 as an image.
-Sends an alarm and an image of the acquired feature value to a device installed in an external organization such as the police through a network (not shown).

(装置内蔵カメラ)
前記では、撮像制御装置1が、カメラCM1等とは別の構成になっている例を説明した。しかしながら、例えばカメラCM1が自身の筐体中に、撮像制御装置1を含んでいてもよい。すると、カメラCM1は、他のカメラ及び自身との間で、指示等を送受信することになる。
(Camera with built-in device)
In the above description, the example in which the imaging control device 1 has a configuration different from that of the camera CM1 or the like has been described. However, for example, the camera CM1 may include the imaging control device 1 in its own casing. Then, the camera CM1 transmits and receives instructions and the like between other cameras and itself.

(メインカメラとサブカメラ)
前記では、複数のカメラのうち、メインカメラとして決定(再決定)されたカメラ以外の全部のカメラがサブカメラとして決定(再決定)される例を説明した。しかしながら、メインカメラとして決定(再決定)されたカメラ以外の一部のカメラがサブカメラとして決定(再決定)されてもよい。つまり、メインカメラ及びサブカメラのいずれにも決定(再決定)されないカメラが存在してもよい。
(Main camera and sub camera)
In the above description, an example in which all the cameras other than the camera determined (re-determined) as the main camera among the plurality of cameras is determined (re-determined) as the sub-camera has been described. However, some cameras other than the camera determined (re-determined) as the main camera may be determined (re-determined) as the sub-camera. That is, there may be a camera that is not determined (re-determined) by either the main camera or the sub camera.

(実施形態の効果)
本実施形態の撮像制御装置は、以下の効果を奏する。
(1)メインカメラは、次のメインカメラに撮像状態を引き継ぐので、次のメインカメラは、迅速にかつ高解像度で、対象物を追跡することができる。
(2)メインカメラは、次のメインカメラに光軸の方向を決定する情報、及び、画面に占める対象物の比率を引き継ぐので、次のメインカメラは、対象物の特徴量を迅速に切り出すことができる。
(3)メインカメラは、対象物が移動する方向を引き継ぐので、撮像制御装置は、移動する対象物の撮像に最も適した次のメインカメラを選択できる。
(4)対象物が人間であるので、商品の市場調査、犯罪捜査等の広い用途に撮像制御装置を使用することができる。
(5)捜索対象の対象物を捜索することが可能になる。
(6)リアルタイムではなくとも、蓄積された画像から特徴量を視認することができる。
(7)距離を測定する機能を有さないカメラを使用することができる。
(8)撮像制御装置内蔵型のカメラは、撮像制御装置を設置するスペースを節約することができる。
(Effect of embodiment)
The imaging control device of this embodiment has the following effects.
(1) Since the main camera takes over the imaging state to the next main camera, the next main camera can track the object quickly and with high resolution.
(2) Since the main camera takes over the information for determining the direction of the optical axis and the ratio of the object in the screen to the next main camera, the next main camera can quickly cut out the feature amount of the object. Can do.
(3) Since the main camera takes over the direction in which the object moves, the imaging control device can select the next main camera most suitable for imaging the moving object.
(4) Since the object is a human, the imaging control device can be used for a wide range of applications such as product market research and criminal investigation.
(5) It becomes possible to search for an object to be searched.
(6) The feature amount can be visually recognized from the accumulated image even if it is not in real time.
(7) A camera that does not have a function of measuring distance can be used.
(8) The camera with a built-in imaging control device can save space for installing the imaging control device.

なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.

1 撮像制御装置
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置(記憶部)
15 補助記憶装置(記憶部)
16 通信装置
21 役割決定部
22 追跡指示部
23 撮像状態受付部
24 役割再決定部
25 継続追跡指示部
31 地図
32 画像
33 特徴量情報
34 撮像条件情報
35 撮像履歴情報
CM1、CM2、CM3 カメラ
DESCRIPTION OF SYMBOLS 1 Imaging control device 11 Central control device 12 Input device 13 Output device 14 Main memory (storage part)
15 Auxiliary storage device (storage unit)
DESCRIPTION OF SYMBOLS 16 Communication apparatus 21 Role determination part 22 Tracking instruction | indication part 23 Imaging state reception part 24 Role redetermination part 25 Continuation tracking instruction | indication part 31 Map 32 Image 33 Feature-value information 34 Imaging condition information 35 Imaging history information CM1, CM2, CM3 camera

Claims (8)

複数のカメラのうちあるカメラをメインカメラとして決定し、前記複数のカメラのうち前記メインカメラ以外の一部又は全部のカメラをサブカメラとして決定する役割決定部と、
対象物を追跡し、前記対象物についての所定の数の特徴量を取得する指示を前記メインカメラに送信するとともに、所定の領域を継続的に撮像する指示を前記サブカメラに送信する追跡指示部と、
前記所定の数の特徴量のうち予め定められた特徴量を取得することができないまま前記対象物が前記メインカメラの視野内から出た旨の報告、及び、前記対象物が前記メインカメラの視野内から出た時点における前記メインカメラの撮像状態を、前記メインカメラから受信する撮像状態受付部と、
前記複数のカメラのうち前記決定したメインカメラ以外のカメラをメインカメラとして再決定し、前記複数のカメラのうち前記再決定したメインカメラ以外の一部又は全部のカメラをサブカメラとして再決定する役割再決定部と、
前記受信した撮像状態を使用して前記対象物を追跡し、前記対象物についての所定の数の特徴量を取得する指示を前記再決定したメインカメラに送信するとともに、所定の領域を継続的に撮像する指示を前記再決定したサブカメラに送信する継続追跡指示部と、
を備えることを特徴とする、前記複数のカメラを制御する撮像制御装置。
A role determination unit that determines a camera among a plurality of cameras as a main camera, and determines a part or all of the plurality of cameras other than the main camera as sub cameras,
A tracking instruction unit that tracks an object and transmits an instruction to acquire a predetermined number of feature quantities of the object to the main camera and transmits an instruction to continuously image a predetermined area to the sub camera. When,
A report indicating that the object has come out of the field of view of the main camera without obtaining a predetermined amount of features among the predetermined number of features, and the field of view of the main camera An imaging state reception unit that receives the imaging state of the main camera at the time of exiting from the main camera;
A role of re-determining a camera other than the determined main camera among the plurality of cameras as a main camera, and re-determining some or all of the plurality of cameras other than the re-determined main camera as sub cameras. A redetermination part;
The received imaging state is used to track the object, and an instruction to acquire a predetermined number of feature quantities for the object is transmitted to the re-determined main camera, and a predetermined area is continuously A continuous tracking instruction section for transmitting an instruction to image to the re-determined sub camera;
An imaging control apparatus for controlling the plurality of cameras.
前記撮像状態は、
光軸の方向を決定する情報、及び、画面に占める前記対象物の比率を含むこと、
を特徴とする請求項1に記載の撮像制御装置。
The imaging state is
Including information for determining the direction of the optical axis and the proportion of the object in the screen;
The imaging control apparatus according to claim 1.
前記撮像状態受付部は、
前記対象物が移動する方向を前記メインカメラから受信し、
前記役割再決定部は、
前記受信した方向に基づいて、前記再決定するべきメインカメラを選択すること、
を特徴とする請求項2に記載の撮像制御装置。
The imaging state reception unit
Receiving the moving direction of the object from the main camera;
The role redetermining unit
Selecting the main camera to be redetermined based on the received direction;
The imaging control device according to claim 2.
前記対象物は、
人間であり、
前記特徴量は、
前記人間の身体部分、服装部分及び携帯物のうちのいずれかを特定するものであること、
を特徴とする請求項3に記載の撮像制御装置。
The object is
Being human,
The feature amount is
Identifying any one of the human body part, clothing part and portable items;
The imaging control apparatus according to claim 3.
前記撮像制御装置は、
特定の前記対象物についての前記特徴量が予め格納される記憶部を備え、
前記追跡指示部又は前記継続追跡指示部は、
前記決定した又は再決定したメインカメラから前記対象物の前記特徴量を受信し、
前記受信した特徴量を前記予め格納される特徴量と比較し、
前記比較した特徴量同士が所定の基準を満たす程度に一致している場合は、外部機器に警報を送信すること、
を特徴とする請求項4に記載の撮像制御装置。
The imaging control device includes:
A storage unit in which the feature amount of the specific object is stored in advance;
The tracking instruction unit or the continuous tracking instruction unit,
Receiving the feature quantity of the object from the determined or re-determined main camera;
Comparing the received feature quantity with the pre-stored feature quantity;
If the compared feature quantities match with each other to meet a predetermined standard, sending an alarm to an external device;
The imaging control device according to claim 4.
前記記憶部は、
前記撮像状態及び前記特徴量を時系列で格納すること、
を特徴とする請求項5に記載の撮像制御装置。
The storage unit
Storing the imaging state and the feature amount in time series;
The imaging control apparatus according to claim 5.
前記複数のカメラが前記対象物との間の距離を取得しないものである場合は、
前記記憶部は、
前記複数のカメラが撮像する空間の3次元地図を記憶し、
前記メインカメラは、
前記3次元地図に基づいて、前記メインカメラと前記対象物との間の距離を推定することによって、前記撮像状態を生成すること、
を特徴とする請求項6に記載の撮像制御装置。
When the plurality of cameras do not acquire the distance between the objects,
The storage unit
Storing a three-dimensional map of the space captured by the plurality of cameras;
The main camera is
Generating the imaging state by estimating a distance between the main camera and the object based on the three-dimensional map;
The imaging control device according to claim 6.
請求項1乃至請求項7のうちのいずれか1項に記載の撮像制御装置を備えるカメラ。   A camera provided with the imaging control device according to any one of claims 1 to 7.
JP2016049181A 2016-03-14 2016-03-14 Imaging control device and camera Pending JP2017168885A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016049181A JP2017168885A (en) 2016-03-14 2016-03-14 Imaging control device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016049181A JP2017168885A (en) 2016-03-14 2016-03-14 Imaging control device and camera

Publications (1)

Publication Number Publication Date
JP2017168885A true JP2017168885A (en) 2017-09-21

Family

ID=59914159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016049181A Pending JP2017168885A (en) 2016-03-14 2016-03-14 Imaging control device and camera

Country Status (1)

Country Link
JP (1) JP2017168885A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020026903A1 (en) * 2018-07-31 2020-02-06 キヤノン株式会社 Information processing device and method for controlling same
JP2020025248A (en) * 2018-07-31 2020-02-13 キヤノン株式会社 Information processing apparatus and control method thereof
WO2020039708A1 (en) 2018-08-23 2020-02-27 国立大学法人九州大学 Organic electroluminescence element

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004298285A (en) * 2003-03-28 2004-10-28 Ntt Data Corp Judgment device and judgment method of walking condition and pedestrian attribute
JP2004343718A (en) * 2003-04-22 2004-12-02 Matsushita Electric Ind Co Ltd Monitoring apparatus with cameras cooperating
JP2008103890A (en) * 2006-10-18 2008-05-01 Chiba Univ Automatic tracking system
JP2010239992A (en) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person identification device, person identification method, and person identification program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004298285A (en) * 2003-03-28 2004-10-28 Ntt Data Corp Judgment device and judgment method of walking condition and pedestrian attribute
JP2004343718A (en) * 2003-04-22 2004-12-02 Matsushita Electric Ind Co Ltd Monitoring apparatus with cameras cooperating
JP2008103890A (en) * 2006-10-18 2008-05-01 Chiba Univ Automatic tracking system
JP2010239992A (en) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd Person identification device, person identification method, and person identification program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020026903A1 (en) * 2018-07-31 2020-02-06 キヤノン株式会社 Information processing device and method for controlling same
JP2020025248A (en) * 2018-07-31 2020-02-13 キヤノン株式会社 Information processing apparatus and control method thereof
JP7366594B2 (en) 2018-07-31 2023-10-23 キヤノン株式会社 Information processing equipment and its control method
US11843846B2 (en) 2018-07-31 2023-12-12 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
WO2020039708A1 (en) 2018-08-23 2020-02-27 国立大学法人九州大学 Organic electroluminescence element

Similar Documents

Publication Publication Date Title
JP6649306B2 (en) Information processing apparatus, information processing method and program
CN105723703B (en) Monitoring device, monitoring system and monitoring method
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
US20180115749A1 (en) Surveillance system and surveillance method
JP6399356B2 (en) Tracking support device, tracking support system, and tracking support method
JP6213843B2 (en) Image processing system, image processing method, and program
KR102164863B1 (en) Information processing apparatus, method thereof, and computer readable storage medium
JP5954106B2 (en) Information processing apparatus, information processing method, program, and information processing system
US10043079B2 (en) Method and apparatus for providing multi-video summary
JP4947993B2 (en) Monitoring system and monitoring method
JP6867056B2 (en) Information processing equipment, control methods, and programs
WO2015040929A1 (en) Image processing system, image processing method, and program
KR101212082B1 (en) Image Recognition Apparatus and Vison Monitoring Method thereof
CN117539420A (en) Screen projection method and system
JP2017168885A (en) Imaging control device and camera
JP6396682B2 (en) Surveillance camera system
JP2021196741A (en) Image processing device, image processing method and program
JP6399096B2 (en) Information processing apparatus, display method, and computer program
JP5962383B2 (en) Image display system and image processing apparatus
JP2017028688A (en) Image managing device, image managing method and program
JP2020136855A (en) Monitoring system, monitor support device, monitoring method, monitor support method, and program
GB2570498A (en) A method and user device for displaying video data, a method and apparatus for streaming video data and a video surveillance system
US11574294B2 (en) Information processing method, information processing device, and recording medium
JP2022011704A (en) Image processing device, image processing method, and program
JP2012004754A (en) Camera changeover device, camera changeover system and method for camera changeover

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702