JP6276954B2 - Video surveillance system - Google Patents

Video surveillance system Download PDF

Info

Publication number
JP6276954B2
JP6276954B2 JP2013197077A JP2013197077A JP6276954B2 JP 6276954 B2 JP6276954 B2 JP 6276954B2 JP 2013197077 A JP2013197077 A JP 2013197077A JP 2013197077 A JP2013197077 A JP 2013197077A JP 6276954 B2 JP6276954 B2 JP 6276954B2
Authority
JP
Japan
Prior art keywords
camera
pupil
video
sight
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013197077A
Other languages
Japanese (ja)
Other versions
JP2015065514A (en
Inventor
豊彦 林
豊彦 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2013197077A priority Critical patent/JP6276954B2/en
Publication of JP2015065514A publication Critical patent/JP2015065514A/en
Application granted granted Critical
Publication of JP6276954B2 publication Critical patent/JP6276954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視対象の領域を監視カメラにより撮影して監視する映像監視システムにおける監視カメラの制御に関する。   The present invention relates to control of a surveillance camera in a video surveillance system that photographs and monitors a region to be monitored by a surveillance camera.

監視対象の領域を撮影する監視カメラと、当該監視カメラにより撮影された映像を表示する表示装置とをネットワークで接続して設け、当該表示装置に表示された映像を通じて監視対象の領域を遠隔監視できるようにした映像監視システムがある。
このような映像監視システムでは、監視カメラとして、電動の雲台(旋回台)に搭載された旋回式カメラが用いられ、監視ユーザによるハードスイッチ式操作器の押しボタン操作または操作端末の画面上でのマウス操作やタッチパネル操作により、監視カメラの旋回等の制御が行われていた。
A monitoring camera that captures an area to be monitored and a display device that displays an image captured by the monitoring camera are connected via a network, and the area to be monitored can be remotely monitored through the image displayed on the display apparatus There is a video surveillance system.
In such a video monitoring system, a swivel camera mounted on an electric pan head (swivel platform) is used as a surveillance camera, and a push button operation of a hard switch type operation device by a monitoring user or a screen of an operation terminal is used. Controls such as turning the surveillance camera were performed by mouse operations and touch panel operations.

上記のような映像監視システムに関し、従来より種々の発明が提案されている。
例えば、特許文献1には、監視カメラからの映像を表示する専用メガネに視点焦点センサと向き角度センサを設け、監視者の視線方向を読み取って監視カメラを制御する発明が開示されている。
Various inventions have been proposed for the video surveillance system as described above.
For example, Patent Literature 1 discloses an invention in which a viewpoint focus sensor and a direction angle sensor are provided in dedicated glasses for displaying an image from a monitoring camera, and the monitoring camera is controlled by reading the gaze direction of the monitoring person.

特開2000−333161号公報JP 2000-333161 A

従来の映像監視システムでは、監視映像と操作ボタンの両方を見て監視カメラの向き等を指示する操作を行う必要があるため、走っている侵入者を監視カメラで追尾する場合や、複数の対象物を1台の監視カメラで監視する場合などでは、監視映像を見ながら監視カメラの操作を行うことは非常に困難であった。   In a conventional video surveillance system, it is necessary to perform an operation to instruct the direction of the surveillance camera by looking at both the surveillance video and the operation buttons. When an object is monitored by a single surveillance camera, it is very difficult to operate the surveillance camera while viewing the surveillance video.

本発明は、上記従来の事情に鑑みて為されたものであり、監視カメラの映像から視線を外すことなく監視カメラによる撮影の制御を行うことが可能な技術を提案することを目的とする。   The present invention has been made in view of the above-described conventional circumstances, and an object of the present invention is to propose a technique capable of controlling photographing by the monitoring camera without removing the line of sight from the video of the monitoring camera.

上記目的を達成するために、本発明では、映像監視システムを以下のように構成した。
すなわち、映像監視システムに、監視対象の領域を撮影する第1のカメラと、前記第1のカメラにより撮影された映像を表示する表示装置と、前記表示装置に表示された映像を見るユーザを撮影する第2のカメラと、前記第2のカメラにより撮影された映像に基づいて、前記ユーザの目の動きを検出する検出手段と、前記検出手段により検出された前記ユーザの目の動きに応じて、前記第1のカメラによる撮影の態様を制御する制御手段と、を設けた。
In order to achieve the above object, in the present invention, the video surveillance system is configured as follows.
In other words, the first camera that captures the area to be monitored, the display device that displays the video captured by the first camera, and the user who views the video displayed on the display device are captured in the video monitoring system. A second camera that detects the movement of the user's eyes based on the video captured by the second camera, and the movement of the user's eyes detected by the detection means. And a control means for controlling the mode of photographing by the first camera.

これにより、ユーザは、表示装置に表示されている映像を見ながらにして、その映像を撮影している第1のカメラによる撮影の態様を制御(旋回やズーム等)することができる。また、ユーザが映像中の気になる箇所に視線を向けて注視する等の自然な目の動きに応じて、その動きに反映されたユーザの意図に合致する映像が得られるように、第1のカメラによる撮影の態様の制御を行うことで、ユーザは特段の意識をすることなく所望の映像を得ることができる。   As a result, the user can control the manner of shooting by the first camera that is shooting the video (turning, zooming, etc.) while watching the video displayed on the display device. In addition, in accordance with a natural eye movement such as the user gazes at a point of interest in the video, a first video image that matches the user's intention reflected in the movement is obtained. By controlling the mode of shooting with the camera, the user can obtain a desired image without particular awareness.

ここで、一構成例として、前記制御手段は、前記ユーザの目の動きに応じた前記第1のカメラによる撮影の態様の制御を、前記ユーザの目の動きの変化量に応じた制御量で行う構成としてもよい。
これにより、ユーザの目の動きの変化量と第1のカメラの制御量を連動させることができ、例えば、或る方向への素早い旋回やゆっくりとした旋回をユーザが簡易に調整することができる。
Here, as one configuration example, the control means controls the shooting mode by the first camera according to the movement of the user's eyes with a control amount according to the change amount of the user's eye movement. It is good also as a structure to perform.
Thereby, the change amount of the user's eye movement and the control amount of the first camera can be linked, and for example, the user can easily adjust a quick turn or a slow turn in a certain direction. .

また、一構成例として、前記表示装置は、前記表示装置に表示された映像に対する前記ユーザの視線の位置に、前記ユーザの目の動きに対応する前記第1のカメラによる撮影の態様を示す形状のポインタ画像を表示する構成としてもよい。
これにより、ユーザは、表示装置に表示されている映像を見ながらにして、目の動きによって指示した制御の内容(第1のカメラによる撮影の態様)が自身の意図に合致するものか否かを判断できる。
Further, as one configuration example, the display device has a shape showing an aspect of photographing by the first camera corresponding to the movement of the user's eyes at the position of the user's line of sight with respect to the video displayed on the display device. The pointer image may be displayed.
Thus, whether or not the content of the control instructed by the movement of the eyes (the mode of shooting by the first camera) matches the user's intention while watching the video displayed on the display device. Can be judged.

本発明によれば、監視者は、表示装置に表示されている監視映像を見ながらにして、その映像を撮影している監視カメラによる撮影の態様を制御することができる。また、監視者が監視映像中の気になる箇所に視線を向けて注視する等の自然な目の動きに応じて、その動きに反映された監視者の意図に合致する映像が得られるように、監視カメラによる撮影の態様の制御を行うことで、監視者は特段の意識をすることなく所望の映像を得ることができる。   According to the present invention, the monitoring person can control the mode of shooting by the monitoring camera that is shooting the video while viewing the monitoring video displayed on the display device. In addition, according to the natural eye movement, such as when the observer looks at the point of interest in the monitoring video, the video that matches the intention of the observer reflected in the movement is obtained. By controlling the mode of shooting by the surveillance camera, the supervisor can obtain a desired video without any particular consciousness.

本発明の一実施形態に係る映像監視システムの概略的な構成の例を示す図である。It is a figure which shows the example of a schematic structure of the video surveillance system which concerns on one Embodiment of this invention. 画像処理装置による画像処理のイメージを示す図である。It is a figure which shows the image of the image processing by an image processing apparatus. 映像監視システムの初期設定の様子を示す図である。It is a figure which shows the mode of the initial setting of a video surveillance system. ディスプレイ上における視線の位置に表示する視線ポインタの形状の例を示す図である。It is a figure which shows the example of the shape of the gaze pointer displayed on the position of the gaze on a display. 監視カメラの旋回の態様を示す図である。It is a figure which shows the aspect of a surveillance camera turning. 瞳孔の位置の時間的変化の例を示す図である。It is a figure which shows the example of the time change of the position of a pupil. 目の大きさの変化に応じた監視カメラの制御を説明する図である。It is a figure explaining control of the surveillance camera according to change of the size of eyes. 頭部の動きに応じた監視カメラの制御を説明する図である。It is a figure explaining control of the surveillance camera according to movement of a head. メガネディスプレイを用いる場合について説明する図である。It is a figure explaining the case where a glasses display is used. 手のジェスチャに応じた監視カメラの制御を説明する図である。It is a figure explaining control of the surveillance camera according to hand gesture. 変形例に係る映像監視システムの概略的な構成の例を示す図である。It is a figure which shows the example of a schematic structure of the video monitoring system which concerns on a modification.

本発明の一実施形態に係る映像監視システムについて、図面を参照して説明する。
ここで、本例の映像監視システムは、監視カメラの雲台の制御(監視カメラの旋回制御)やレンズの制御(ズームやフォーカスの制御)におけるユーザインタフェースに関するものであり、監視者の視線、首の動き、ジェスチャ、声等による合図と監視カメラの各種操作を連動させることで、監視者が所望する映像を迅速に提供できるようにしてある。また、手動でカメラ操作を行うというステップを排除することで、画面の中で見たい方向を見る等の簡易かつ自然な作法で、監視者が所望する映像を提供できるようにしてある。また、監視カメラの雲台やレンズの操作だけでなく、プリセット選択や複数台の監視カメラからの選択(映像切替)等のシステム操作にも適用している。
A video surveillance system according to an embodiment of the present invention will be described with reference to the drawings.
Here, the video monitoring system of the present example relates to a user interface in the control of the camera platform (control of turning of the monitoring camera) and control of the lens (control of zoom and focus). By linking a cue based on movements, gestures, voices, and the like and various operations of the surveillance camera, it is possible to quickly provide an image desired by the supervisor. Further, by eliminating the step of manually operating the camera, it is possible to provide a video image desired by the supervisor with a simple and natural manner such as viewing the direction desired to be viewed on the screen. Further, the present invention is applied not only to the operation of the camera platform and lens, but also to system operations such as preset selection and selection from multiple monitoring cameras (video switching).

すなわち、本例の映像監視システムでは、監視者の視線の動き、首の動き、ジェスチャ、声等による合図をトリガとして、当該合図に対応する態様で監視カメラによる撮影の制御を行う構成とすることで、監視者の自然な動作に応じて監視カメラを所望の方向に指向させること等を可能にして、監視効率の向上を図る。なお、複数の合図を融合して判断することで、ユーザインタフェースの精度向上を図ることもできる。   In other words, the video surveillance system of this example is configured to control shooting by the surveillance camera in a manner corresponding to the cue, triggered by a cue from the observer's line of sight, neck movement, gesture, voice, etc. Thus, the monitoring camera can be directed in a desired direction in accordance with the natural operation of the observer, and the monitoring efficiency is improved. Note that the accuracy of the user interface can be improved by merging and determining a plurality of cues.

図1には、本例の映像監視システムの概略的な構成の例を示してある。本例の映像監視システムは、監視カメラ1と、IPエンコーダ2と、IPネットワーク網3と、操作端末4と、ディスプレイ(表示装置)5と、ユーザカメラ6と、画像処理装置7と、システム管理サーバ8と、を備えている。   FIG. 1 shows an example of a schematic configuration of the video monitoring system of this example. The video surveillance system of this example includes a surveillance camera 1, an IP encoder 2, an IP network 3, an operation terminal 4, a display (display device) 5, a user camera 6, an image processing device 7, and system management. And a server 8.

監視カメラ1は、電動の雲台(旋回台)に搭載された旋回式カメラである。本例では、監視対象となる領域を撮影するために複数の監視カメラ1を設けてあり、監視カメラ1により撮影された映像の信号は、当該監視カメラ1に接続されたIPエンコーダ2により映像データに変換されて、IPネットワーク網3へ配信される。
操作端末4は、IPネットワーク網3を通じて受信した映像データに基づく監視映像を、当該操作端末4に接続されたディスプレイ5に表示出力させる。
The surveillance camera 1 is a revolving camera mounted on an electric pan head (swivel platform). In this example, a plurality of surveillance cameras 1 are provided for photographing an area to be monitored, and a video signal photographed by the surveillance camera 1 is converted into video data by an IP encoder 2 connected to the surveillance camera 1. And is distributed to the IP network 3.
The operation terminal 4 displays and outputs a monitoring video based on the video data received through the IP network 3 on the display 5 connected to the operation terminal 4.

ユーザカメラ6は、ディスプレイ5に表示された監視映像を見る監視者の上半身をディスプレイ5側の方向から撮影する高精細カメラである。本例では、目の動きだけでなく体の3次元的な動きを捉えるために、ユーザカメラ6として、監視者の上半身を右方向から撮影する右側カメラ6Rと、左方向から撮影する左側カメラ6Lとを備えたステレオカメラを用いている。なお、目の動きだけで(体の3次元的な動きを用いずに)監視カメラ1の制御を行う場合には、ステレオカメラでなく通常のカメラを用いてもよい。ユーザカメラ6により撮影された映像の信号は、ユーザカメラ6と接続された画像処理装置7に入力される。   The user camera 6 is a high-definition camera that takes an image of the upper body of the supervisor who watches the surveillance video displayed on the display 5 from the direction of the display 5. In this example, in order to capture not only the movement of the eyes but also the three-dimensional movement of the body, as the user camera 6, a right camera 6R that captures the upper body of the supervisor from the right direction and a left camera 6L that captures the image from the left direction. A stereo camera equipped with is used. Note that when the surveillance camera 1 is controlled only by eye movement (without using a three-dimensional body movement), a normal camera may be used instead of a stereo camera. A video signal captured by the user camera 6 is input to an image processing device 7 connected to the user camera 6.

画像処理装置7は、ユーザカメラ6により撮影された映像を、監視者の目の部分のみを切り出した映像と上半身全体の映像に分ける。その後、目の部分のみを切り出した映像を画像処理して、2次元平面における瞳孔の位置及び目や瞳孔の大きさ等を特定する。また、左右2方向から撮影した上半身全体の映像を画像処理して、監視者の頭部や手の3次元空間における位置等を特定する。画像処理装置7により特定された監視者の瞳孔の位置及び目や瞳孔の大きさ、監視者の頭部や手の位置等の指示情報は、IPネットワーク網3を通じてシステム管理サーバ8へ送信される。   The image processing device 7 divides the video captured by the user camera 6 into a video obtained by cutting out only the eyes of the supervisor and a video of the entire upper body. Thereafter, an image obtained by cutting out only the eye portion is subjected to image processing, and the position of the pupil in the two-dimensional plane, the size of the eye and the pupil, and the like are specified. In addition, the entire upper body image taken from the left and right directions is subjected to image processing, and the position or the like of the observer's head or hand in the three-dimensional space is specified. The instruction information such as the position of the pupil of the monitor and the size of the eyes and pupils, the position of the head and the hand of the monitor specified by the image processing device 7 is transmitted to the system management server 8 through the IP network 3. .

システム管理サーバ8は、画像処理装置7から送信された指示情報(監視者の瞳孔の位置及び目や瞳孔の大きさ、監視者の頭部や手の位置等の情報)に基づいて、ディスプレイ5による表示対象の監視映像を撮影している監視カメラ1に対する制御信号を送信する。すなわち、該当する監視カメラ1に宛てて、指示情報により特定される撮影の態様の制御(旋回やズーム等)を指示する制御信号をIPネットワーク網3を通じて送信する。
なお、撮影の態様とは、撮影の方向や画角等の監視カメラ1により機械的に調整可能な撮影条件をいう。
The system management server 8 displays the display 5 based on the instruction information (information such as the position of the pupil of the monitor and the size of the eyes and pupils, the position of the monitor's head and hand) transmitted from the image processing device 7. A control signal is transmitted to the monitoring camera 1 that is shooting the monitoring image to be displayed. That is, a control signal for instructing control (such as turning or zooming) of the shooting mode specified by the instruction information is transmitted to the corresponding monitoring camera 1 through the IP network 3.
The shooting mode refers to shooting conditions that can be mechanically adjusted by the monitoring camera 1 such as the shooting direction and the angle of view.

具体的には、例えば、監視者の視線が動いた場合(瞳孔の位置が変化した場合)には、視線移動の方向に追従して監視カメラ1を旋回させる制御信号を送信し、監視者の瞳孔の大きさが変化した場合には、監視カメラ1の望遠制御させる制御信号を送信し、監視者の目の大きさが変化した場合には、監視カメラ1のオートフォーカスを動作させる制御信号を送信する。
すなわち、監視者が監視映像中の気になる箇所に視線を向けて注視する等の自然な目(或いは体)の動きに応じて、その動きに反映された監視者の意図に合致する映像が得られるように、監視カメラ1による撮影の態様の制御(旋回やズーム等)を行う。
Specifically, for example, when the monitor's line of sight moves (when the position of the pupil changes), a control signal for turning the monitoring camera 1 following the direction of the line of sight movement is transmitted, and When the pupil size changes, a control signal for telephoto control of the monitoring camera 1 is transmitted, and when the size of the observer's eyes changes, a control signal for operating the autofocus of the monitoring camera 1 is sent. Send.
That is, according to the natural eye (or body) movement, such as a gaze at a point of interest in the surveillance video, the video that matches the supervisor's intention reflected in the movement. As can be obtained, the mode of photographing by the monitoring camera 1 is controlled (turning, zooming, etc.).

図2には、画像処理装置7による画像処理のイメージを示してある。
同図の例では、監視者の上半身を右方向から撮影する右側カメラ6Rによる映像11を画像処理して、監視者の目の部分のみを切り出した映像13を切り出しており、当該切り出した映像13に基づいて、監視者の瞳孔14の位置及び大きさ、監視者の目15の全体の大きさを特定している。
また、監視者の上半身を右方向から撮影する右側カメラ6Rによる映像11と、左方向から撮影する左側カメラ6Lによる映像12とを画像処理して、これらの映像11,12を合成した合成映像16を作成しており、当該作成した合成映像16に基づいて、監視者の頭部や手の位置を特定している。
これらの処理(監視者の瞳孔の位置及び目や瞳孔の大きさ、監視者の頭部や手の位置等の特定)は周期的に繰り返され、その結果の情報がシステム管理サーバ8へ送信され、監視カメラ1に対する制御信号の生成に用いられる。
FIG. 2 shows an image of image processing by the image processing device 7.
In the example shown in the figure, the video 11 by the right camera 6R that captures the upper body of the supervisor from the right is subjected to image processing, and the video 13 in which only the eyes of the supervisor are cut out is cut out. Based on the above, the position and size of the pupil 14 of the monitor and the overall size of the monitor's eye 15 are specified.
Further, the video 11 from the right camera 6R that captures the upper body of the supervisor from the right direction and the video 12 from the left camera 6L that captures from the left direction are subjected to image processing, and a composite video 16 obtained by synthesizing these videos 11 and 12 is displayed. And the position of the supervisor's head and hand is specified based on the created composite video 16.
These processes (identification of the position of the observer's pupil and the size of the eyes and pupils, the position of the observer's head and hand, etc.) are repeated periodically, and information on the result is transmitted to the system management server 8. Used to generate a control signal for the monitoring camera 1.

図3には、本例の映像監視システムの使用を開始する際に実行される初期設定の様子を示してある。
本例の映像監視システムにおける初期設定では、システム管理サーバ8による制御の下で、図3(a)に示すように、ディスプレイ5上の所定位置にポインタ22を表示して監視者の視線を導くと共に、その際の監視者の目21をユーザカメラ6で撮影することで、当該位置22に視線を向けた際の監視者の目21の状態を認識する。
FIG. 3 shows the state of the initial setting executed when the use of the video monitoring system of this example is started.
In the initial setting in the video monitoring system of this example, under the control of the system management server 8, a pointer 22 is displayed at a predetermined position on the display 5 as shown in FIG. At the same time, the state of the eye 21 of the supervisor when the line of sight is directed to the position 22 is recognized by photographing the eye 21 of the supervisor at that time with the user camera 6.

初期設定の具体的な処理内容について、図3(b)及び(c)を参照して説明する。
システム管理サーバ8は、まず、画面の中央点Aを指し示すポインタ31をディスプレイ5に表示させ、ポインタ31に視線を導くアナウンス指示(例えば、“表示されたポインタを見て下さい”といった音声アナウンス)を操作端末4に行わせる。なお、アナウンス指示は、画面上に文字を表示する等の他の態様により行わせてもよい。画像処理装置7は、その際にユーザカメラ6で撮影された映像に基づいて、画面の中央点Aに監視者の視線が向いた状態の目41における瞳孔の位置を特定し、その位置情報をシステム管理サーバ8に通知する。システム管理サーバ8は、通知された瞳孔の位置を瞳孔中心点(原点)として登録する。また、このときの目や瞳孔の大きさも、通常状態の大きさとして登録しておく。
The specific processing contents of the initial setting will be described with reference to FIGS. 3B and 3C.
First, the system management server 8 displays a pointer 31 pointing to the center point A of the screen on the display 5 and gives an announcement instruction (for example, an audio announcement such as “Look at the displayed pointer”) that guides the line of sight to the pointer 31. The operation terminal 4 is made to perform. The announcement instruction may be given in other manners such as displaying characters on the screen. The image processing device 7 specifies the position of the pupil in the eye 41 in a state in which the observer's line of sight is directed to the center point A of the screen based on the video captured by the user camera 6 at that time, and the position information is obtained. Notify the system management server 8. The system management server 8 registers the notified pupil position as the pupil center point (origin). The size of the eyes and pupils at this time is also registered as the size of the normal state.

次に、システム管理サーバ8は、中央点Aから画面右端まで水平移動させた右端点Bを指し示すポインタ32をディスプレイ5に表示させ、ポインタ32に視線を導くアナウンス指示を操作端末4に行わせる。画像処理装置7は、その際にユーザカメラ6で撮影された映像に基づいて、画面の右端点Bに監視者の視線が向いた状態の目42における瞳孔の位置を特定し、その位置情報をシステム管理サーバ8に通知する。システム管理サーバ8は、通知された瞳孔の位置を瞳孔右端点として登録する。   Next, the system management server 8 displays on the display 5 a pointer 32 that points to the right end point B horizontally moved from the center point A to the right end of the screen, and causes the operation terminal 4 to issue an announcement instruction for guiding the line of sight to the pointer 32. The image processing device 7 specifies the position of the pupil in the eye 42 in the state where the observer's line of sight is directed to the right end point B of the screen based on the video imaged by the user camera 6 at that time, and the position information is obtained. Notify the system management server 8. The system management server 8 registers the notified pupil position as the pupil right end point.

次に、システム管理サーバ8は、中央点Aから画面左端まで水平移動させた左端点Cを指し示すポインタ33をディスプレイ5に表示させ、ポインタ33に視線を導くアナウンス指示を操作端末4に行わせる。画像処理装置7は、その際にユーザカメラ6で撮影された映像に基づいて、画面の左端点Cに監視者の視線が向いた状態の目43における瞳孔の位置を特定し、その位置情報をシステム管理サーバ8に通知する。システム管理サーバ8は、通知された瞳孔の位置を瞳孔左端点として登録する。   Next, the system management server 8 displays a pointer 33 indicating the left end point C horizontally moved from the center point A to the left end of the screen on the display 5 and causes the operation terminal 4 to issue an announcement instruction for guiding the line of sight to the pointer 33. The image processing device 7 specifies the position of the pupil in the eye 43 in a state where the line of sight of the observer is directed to the left end point C of the screen based on the video imaged by the user camera 6 at that time, and the position information is obtained. Notify the system management server 8. The system management server 8 registers the notified pupil position as the pupil left end point.

次に、システム管理サーバ8は、中央点Aから画面上端まで垂直移動させた上端点Dを指し示すポインタ34をディスプレイ5に表示させ、ポインタ34に視線を導くアナウンス指示を操作端末4に行わせる。画像処理装置7は、その際にユーザカメラ6で撮影された映像に基づいて、画面の上端点Dに監視者の視線が向いた状態の目44における瞳孔の位置を特定し、その位置情報をシステム管理サーバ8に通知する。システム管理サーバ8は、通知された瞳孔の位置を瞳孔上端点として登録する。   Next, the system management server 8 displays a pointer 34 indicating the upper end point D vertically moved from the center point A to the upper end of the screen on the display 5 and causes the operating terminal 4 to issue an announcement instruction for guiding the line of sight to the pointer 34. The image processing apparatus 7 specifies the position of the pupil in the eye 44 in a state where the observer's line of sight is directed to the upper end point D of the screen based on the video imaged by the user camera 6 at that time, and the position information is obtained. Notify the system management server 8. The system management server 8 registers the notified pupil position as the pupil upper end point.

次に、システム管理サーバ8は、中央点Aから画面下端まで垂直移動させた下端点Eを指し示すポインタ35をディスプレイ5に表示させ、ポインタ35に視線を導くアナウンス指示を操作端末4に行わせる。画像処理装置7は、その際にユーザカメラ6で撮影された映像に基づいて、画面の下端点Eに監視者の視線が向いた状態の目45における瞳孔の位置を特定し、その位置情報をシステム管理サーバ8に通知する。システム管理サーバ8は、通知された瞳孔の位置を瞳孔下端点として登録する。   Next, the system management server 8 causes the display 5 to display a pointer 35 pointing to the lower end point E that has been vertically moved from the center point A to the lower end of the screen, and causes the operating terminal 4 to issue an announcement instruction for guiding the line of sight to the pointer 35. The image processing device 7 specifies the position of the pupil in the eye 45 in a state where the observer's line of sight is directed to the lower end point E of the screen based on the video imaged by the user camera 6 at that time, and the position information is obtained. Notify the system management server 8. The system management server 8 registers the notified pupil position as the pupil lower end point.

このような初期設定を行って、瞳孔中心点(原点)、瞳孔右端点、瞳孔左端点、瞳孔上端点、瞳孔下端点を登録しておくことで、監視者の瞳孔の位置に基づいて、ディスプレイ5上における視線の位置(監視者が視線を向けている位置)を特定できる。
監視者の瞳孔の位置に基づく視線の位置の特定について、図3(d)を参照して、監視者がディスプレイ5上の画面右上部を見た場合を例に説明する。ここで、瞳孔中心点から瞳孔右端点を見た瞳孔位置ベクトルを「+H」、瞳孔左端点を見た瞳孔位置ベクトルを「−H」、瞳孔上端点を見た瞳孔位置ベクトルを「+V」、瞳孔下端点を見た瞳孔位置ベクトルを「−V」とする。また、ディスプレイ5の画面の中央点Aから右端点Bまでの距離を「+X」、左端点Cまでの距離を「−X」、上端点Dまでの距離を「+Y」、下端点Eまでの距離を「−Y」とする。
By performing such initial settings and registering the pupil center point (origin), pupil right end point, pupil left end point, pupil upper end point, and pupil lower end point, the display is based on the position of the observer's pupil. 5 can identify the position of the line of sight (the position where the observer is directing his line of sight).
Identification of the position of the line of sight based on the position of the pupil of the monitor will be described with reference to FIG. 3D as an example where the monitor looks at the upper right part of the screen on the display 5. Here, the pupil position vector viewed from the pupil center point is “+ H ”, the pupil position vector viewed from the pupil left end point is “−H ”, and the pupil position vector viewed from the pupil upper end point is “+ V”. ”, and the pupil position vector when viewing the lower end point of the pupil is defined as“ −V ”. Further, the distance from the center point A to the right end point B of the screen of the display 5 is “+ X”, the distance to the left end point C is “−X”, the distance to the upper end point D is “+ Y”, and the distance to the lower end point E is The distance is “−Y”.

監視者がディスプレイ5における画面右上部を見た状態の目51における瞳孔52の位置は、瞳孔中心点から瞳孔52を見た瞳孔位置ベクトル53で表現できる。瞳孔位置ベクトル53の水平方向の成分(水平ベクトル)54を「+h」、垂直方向の成分(垂直ベクトル)55を「+v」とし、ディスプレイ5の画面中心を原点とした場合の視線の位置の座標を(x,y)とすると、x,yの各値は以下の式により算出できる。
x=(h/H)X
y=(v/V)Y
以上のように、監視者の瞳孔の位置を示す瞳孔位置ベクトル53に基づいて、ディスプレイ5上における視線の位置の座標(x,y)を算出できる。
The position of the pupil 52 in the eye 51 in a state where the monitor looks at the upper right part of the screen on the display 5 can be expressed by a pupil position vector 53 obtained by viewing the pupil 52 from the pupil center point. The position of the line of sight when the horizontal component (horizontal vector) 54 of the pupil position vector 53 is “+ h ”, the vertical component (vertical vector) 55 is “+ v ”, and the screen center of the display 5 is the origin. If the coordinates of (x, y) are (x, y), each value of x, y can be calculated by the following equation.
x = (h / H) X
y = (v / V) Y
As described above, the coordinates (x, y) of the position of the line of sight on the display 5 can be calculated based on the pupil position vector 53 indicating the position of the pupil of the monitor.

このような初期設定を行っておくことで、監視者の目の状態(特に、瞳孔の位置)からディスプレイ5上での視線の位置を特定することができ、その結果、ディスプレイ5上での視線の位置に視線ポインタ(監視者が視線を向けている位置を指し示すポインタ画像)を表示する処理や、ディスプレイ5上での視線の位置を実空間での監視カメラ1の指向先に変換して旋回制御する処理などを実現することができる。   By performing such initial settings, the position of the line of sight on the display 5 can be specified from the state of the observer's eyes (particularly the position of the pupil). As a result, the line of sight on the display 5 can be specified. The process of displaying a line-of-sight pointer (pointer image indicating the position where the observer is pointing at the line of sight) at the position of, or turning by turning the position of the line of sight on the display 5 into the pointing destination of the surveillance camera 1 in real space Processing to be controlled can be realized.

図4には、ディスプレイ5上における視線の位置に表示する視線ポインタの形状の例を示してある。
図4において、(a)〜(d)は、それぞれ、監視カメラ1に対して右旋回、左旋回、上旋回、下旋回を指示した際の視線ポインタであり、丸マークに旋回方向を指し示す矢印を重畳した形状のポインタ画像となっている。また、(e)は、監視カメラ1に対して望遠指示した際の視線ポインタであり、丸マークを通常より大きくした形状のポインタ画像となっている。また、(f)は、監視カメラ1に対して広角指示した際の視線ポインタであり、丸マークを通常より小さくした形状のポインタ画像となっている。
FIG. 4 shows an example of the shape of the line-of-sight pointer displayed at the position of the line of sight on the display 5.
In FIG. 4, (a) to (d) are line-of-sight pointers when instructing the surveillance camera 1 to turn right, turn left, turn up, and turn down, respectively, and point the turning direction to a circle mark. The pointer image has a shape in which arrows are superimposed. Further, (e) is a line-of-sight pointer when a telephoto instruction is given to the monitoring camera 1, and is a pointer image having a larger round mark than usual. Further, (f) is a line-of-sight pointer when a wide-angle instruction is given to the monitoring camera 1, and is a pointer image with a round mark made smaller than usual.

このように、ディスプレイ5上における視線の位置に表示する視線ポインタの形状を、監視者の視線などによる監視カメラ1の制御の態様(すなわち、監視カメラ1による撮影の態様)の指示に応じて変化させることで、監視者に指示内容をフィードバックさせることができる。また、監視者は、自分が指示した内容がフィードバック表示されるので、指示内容が的確にシステムに反映されているかをリアルタイムで確認することができ、検知に適した視線の動かし方などを効率よく学習することができる。   In this way, the shape of the line-of-sight pointer displayed at the position of the line of sight on the display 5 changes in accordance with the instruction of the control mode of the monitoring camera 1 (that is, the mode of shooting by the monitoring camera 1) based on the line of sight of the supervisor. By doing so, the instruction content can be fed back to the supervisor. In addition, since the contents of the instructions given by the supervisor are displayed in feedback, the supervisor can check in real time whether the instructions are accurately reflected in the system, and the method of moving the line of sight suitable for detection can be efficiently performed. Can learn.

次に、瞳孔の動き(位置の変化)に応じた監視カメラ1の旋回制御について、図3(d)や図5などを参照して説明する。
ここで、図5(a)には、監視カメラ1を上面方向から見た様子を示してあり、水平方向の旋回では、基準位置61から±180°回転させた位置62まで旋回可能となっている。また、図5(b)には、監視カメラ1を側面方向から見た様子を示してあり、垂直方向の旋回では、基準位置63から+90°(上向きに90°)回転させた位置64及び−90°(下向きに90°)回転させた位置65まで旋回可能となっている。つまり、本例の監視カメラ1の旋回可能角度の範囲は、水平方向では±180°、垂直方向では±90°となっている。
なお、以下の説明では、監視者が右上方向に視線を向ける場合を例に説明するが、他の方向に視線を向けた場合でも同様な制御が可能であることは言うまでもない。
Next, turning control of the monitoring camera 1 according to the movement of the pupil (change in position) will be described with reference to FIG.
Here, FIG. 5A shows a state where the surveillance camera 1 is viewed from the top surface direction, and in the horizontal direction, it is possible to turn from the reference position 61 to a position 62 rotated by ± 180 °. Yes. FIG. 5B shows the surveillance camera 1 as viewed from the side. In the vertical turning, the position 64 and − rotated by + 90 ° (90 ° upward) from the reference position 63 are shown. It can turn to a position 65 rotated by 90 ° (90 ° downward). That is, the range of the turnable angle of the surveillance camera 1 of this example is ± 180 ° in the horizontal direction and ± 90 ° in the vertical direction.
In the following description, a case where the supervisor turns his / her line of sight in the upper right direction will be described as an example, but it goes without saying that the same control is possible even when his / her line of sight is directed in another direction.

瞳孔の動き(位置の変化)に応じた監視カメラ1の旋回制御は、例えば、以下の[方法1−1]〜[方法1−3]により行うことができる。
[方法1−1]では、監視者が右上方向に視線を向けた際の瞳孔移動量(移動割合)を、監視カメラ1の旋回移動量(旋回割合)に等価変換して旋回制御する。
この場合、水平方向の旋回制御角度θH、垂直方向の旋回制御角度θVは、以下の式により算出できる。
θH=180×(h/H)
θV=90×(v/V)
The turning control of the monitoring camera 1 according to the movement of the pupil (change in position) can be performed by, for example, the following [Method 1-1] to [Method 1-3].
In [Method 1-1], the pupil movement amount (movement ratio) when the observer turns his / her line of sight in the upper right direction is equivalently converted to the turning movement amount (turning ratio) of the monitoring camera 1 to perform turn control.
In this case, the horizontal turning control angle θ H and the vertical turning control angle θ V can be calculated by the following equations.
θ H = 180 × (h / H)
θ V = 90 × (v / V)

監視者が右上方向に視線を向けた際に、システム管理サーバ8は、θH、θVの角度で旋回させる制御信号を監視カメラ1に送信することで、監視者が視線を動かした方向に監視カメラ1を旋回させることができる。
なお、監視者が視線を正面に戻した場合には、監視カメラ1の旋回を停止させる。このとき、監視者の瞳孔が正面位置(瞳孔中心点)に戻るまではhとvが一時的にマイナスになるが、その過程での監視カメラ1の旋回制御は行わないものとする。すなわち、監視カメラ1の旋回制御は、監視者の瞳孔が正面位置から動いた場合のみ行うものとする。
上述した[方法1−1]の利点は、瞳孔の微量な動きで監視カメラ1を大きく旋回制御できることである。
When the supervisor turns his / her line of sight in the upper right direction, the system management server 8 transmits a control signal for turning at angles of θ H and θ V to the monitoring camera 1, so that the supervisor moves his / her line of sight. The surveillance camera 1 can be turned.
In addition, when the monitoring person returns the line of sight to the front, the turning of the monitoring camera 1 is stopped. At this time, h and v temporarily become negative until the pupil of the monitor returns to the front position (pupil center point), but it is assumed that the turning control of the monitoring camera 1 is not performed in the process. That is, the turning control of the monitoring camera 1 is performed only when the pupil of the monitoring person moves from the front position.
The advantage of the [Method 1-1] described above is that the surveillance camera 1 can be largely turned by a slight movement of the pupil.

[方法1−2]では、監視者が右上方向に視線を向けた際の瞳孔移動量(移動割合)を、監視カメラ1の旋回角速度に等価変換して旋回制御する。
この場合、水平方向の旋回制御角速度ωH、垂直方向の旋回制御角速度ωVは、定数Ωを用いて以下の式により算出できる。
ωH=Ω×(h/H)
ωV=Ω×(v/V)
In [Method 1-2], the pupil movement amount (movement ratio) when the supervisor turns his / her line of sight in the upper right direction is equivalently converted into the turning angular velocity of the monitoring camera 1 to perform turning control.
In this case, the turning control angular velocity ω H in the horizontal direction and the turning control angular velocity ω V in the vertical direction can be calculated by the following equations using a constant Ω.
ω H = Ω × (h / H)
ω V = Ω × (v / V)

監視者が右上方向に視線を向けた際に、システム管理サーバ8は、ωH、ωVの角速度で旋回させる制御信号を監視カメラ1に送信することで、監視者が視線を動かした方向に監視カメラ1を旋回させることができる。
[方法1−2]によれば、視線を動かした移動量により旋回角速度が変化するので、大きく視線を動かすと、その方向に監視カメラ1が速く旋回し、小さく視線を動かすと、その方向に監視カメラ1が遅く旋回することになる。
なお、[方法1−1]と同様に、監視者が視線を正面に戻した場合には監視カメラ1の旋回を停止させ、監視者の瞳孔が正面位置(瞳孔中心点)から動いた場合のみ監視カメラ1の旋回制御を行うものとする。
When the supervisor turns his / her line of sight to the upper right, the system management server 8 sends a control signal for turning at an angular velocity of ω H and ω V to the monitoring camera 1, so that the supervisor moves his / her line of sight. The surveillance camera 1 can be turned.
According to [Method 1-2], the turning angular velocity changes depending on the amount of movement of the line of sight. Therefore, when the line of sight is largely moved, the surveillance camera 1 turns rapidly in that direction, and when the line of sight is moved small, the direction is changed. The surveillance camera 1 turns slowly.
As in [Method 1-1], when the supervisor returns his / her line of sight to the front, the surveillance camera 1 stops turning, and only when the pupil of the supervisor moves from the front position (pupil center point). It is assumed that the turning control of the monitoring camera 1 is performed.

[方法1−3]では、監視者の瞳孔の位置の単位時間当たりの変化量(瞳孔の移動速度)を、監視カメラ1の旋回角速度に等価変換して旋回制御する。
図6には、瞳孔の位置の時間的変化の例を表してある。
t=0の時点では、瞳孔が正面位置(瞳孔中心点)にある状態のため、監視カメラ1も静止状態である。
t=1の時点では、t=0の時点の瞳孔の位置に対して瞳孔が水平方向及び垂直方向に移動しているので、監視カメラ1を旋回制御する。このとき、瞳孔の位置の位時間当たりの変化量(瞳孔の移動速度)を算出し、変化量が大きい場合には監視カメラ1を高速旋回させ、変化量が小さい場合には監視カメラ1を低速旋回させる。
t=2の時点では、t=1の時点の瞳孔の位置に対して瞳孔が水平方向及び垂直方向に移動しているので、監視カメラ1を旋回制御する。このときも、t=1の時点と同様に、瞳孔の位置の位時間当たりの変化量が大きい場合には監視カメラ1を高速旋回させ、変化量が小さい場合には監視カメラ1を低速旋回させる。
t=3の時点では、t=2の時点の瞳孔の位置に対して瞳孔が水平方向及び垂直方向に移動していないので、監視カメラ1をt=2の時点と同速度(速度一定)で旋回制御させる。
t=4の時点では、瞳孔が正面位置に戻ったため、監視カメラ1の旋回を停止させる。t=3の時点の瞳孔の位置からt=4の時点の瞳孔の位置(正面位置)に戻るまでの間はhとvが一時的にマイナスになるが、その過程での監視カメラ1の旋回制御は行わない。
In [Method 1-3], the amount of change (pupil moving speed) per unit time of the position of the pupil of the monitoring person is equivalently converted into the turning angular speed of the monitoring camera 1 to perform turning control.
FIG. 6 shows an example of temporal changes in the position of the pupil.
Since the pupil is in the front position (pupil center point) at time t = 0, the surveillance camera 1 is also in a stationary state.
At the time of t = 1, the pupil is moving in the horizontal direction and the vertical direction with respect to the position of the pupil at the time of t = 0, so that the surveillance camera 1 is controlled to turn. At this time, the amount of change of the pupil position per unit time (pupil moving speed) is calculated. When the amount of change is large, the surveillance camera 1 is rotated at high speed, and when the amount of change is small, the surveillance camera 1 is slowed down. Turn.
At the time of t = 2, the pupil is moving in the horizontal direction and the vertical direction with respect to the position of the pupil at the time of t = 1, so that the surveillance camera 1 is controlled to turn. At this time, similarly to the time of t = 1, when the amount of change of the pupil position per unit time is large, the monitoring camera 1 is turned at a high speed, and when the amount of change is small, the monitoring camera 1 is turned at a low speed. .
At the time t = 3, the pupil does not move in the horizontal direction and the vertical direction with respect to the position of the pupil at the time t = 2, so the surveillance camera 1 is moved at the same speed (constant speed) as the time t = 2. Turn control.
At time t = 4, since the pupil has returned to the front position, the surveillance camera 1 stops turning. During the period from when the pupil position at t = 3 returns to the position of the pupil at t = 4 (front position), h and v temporarily become negative, but the monitoring camera 1 in the process No turning control is performed.

ここで、t=t1の時点の水平ベクトルを「h1 」、t=t2の時点の水平ベクトルを「h2 」、t=t1の時点の垂直ベクトルを「v1 」、t=t2の時点の垂直ベクトルを「v2 」とすると、t=t2の時点の瞳孔の水平方向の移動速度SH、垂直方向の移動速度SVは、以下の式により算出できる。
H=(h2−h1)/Δt=(h2−h1)/(t2−t1
V=(v2−v1)/Δt=(v2−v1)/(t2−t1
Here, the horizontal vector at the time t = t 1 is “h 1 ”, the horizontal vector at the time t = t 2 is “h 2 ”, and the vertical vector at the time t = t 1 is “v 1 ”. If the vertical vector at the time t = t 2 is “v 2 ”, the horizontal movement speed S H and the vertical movement speed S V of the pupil at the time t = t 2 are calculated by the following equations. it can.
S H = (h 2 -h 1 ) / Δt = (h 2 -h 1) / (t 2 -t 1)
S V = (v 2 −v 1 ) / Δt = (v 2 −v 1 ) / (t 2 −t 1 )

また、t=t2の時点の水平方向の旋回制御角速度ωH、垂直方向の旋回制御角速度ωVは、定数Ωを用いて以下の式により算出できる。
ωH=Ω×(h2−h1)/Δt=Ω×(h2−h1)/(t2−t1
ωV=Ω×(v2−v1)/Δt=Ω×(v2−v1)/(t2−t1
Further, the horizontal turning control angular velocity ω H and the vertical turning control angular velocity ω V at the time of t = t 2 can be calculated by the following equations using a constant Ω.
ω H = Ω × (h 2 −h 1 ) / Δt = Ω × (h 2 −h 1 ) / (t 2 −t 1 )
ω V = Ω × (v 2 −v 1 ) / Δt = Ω × (v 2 −v 1 ) / (t 2 −t 1 )

なお、t=t2の時点で正面位置以外の位置で瞳孔が静止した場合、ωH、ωVは0になるが、t=t1の時点の角速度での旋回を監視カメラ1に継続させるものとする。また、監視カメラ1の旋回停止は、視線を正面に戻したときに行う。また、監視カメラ1の旋回制御は、瞳孔が正面位置から別の方向に動いた場合のみ行うものとする。 When the pupil is stationary at a position other than the front position at the time t = t 2 , ω H and ω V are 0, but the surveillance camera 1 continues turning at the angular velocity at the time t = t 1 . Shall. The turning of the surveillance camera 1 is stopped when the line of sight is returned to the front. Further, the turning control of the monitoring camera 1 is performed only when the pupil moves in a different direction from the front position.

[方法1−3]によれば、監視者が視線を動かした方向と速度に応じて監視カメラ1の旋回制御が行われるため、監視者の視線の動きに応じて自然に監視カメラ1が旋回することになる。また、視線が正面以外の場所で一時的に静止しても旋回制御を引き継ぐため、監視カメラ1の旋回を長時間継続させたい場合に有効である。   According to [Method 1-3], since the turning control of the monitoring camera 1 is performed according to the direction and speed in which the observer moves his / her line of sight, the monitoring camera 1 naturally turns according to the movement of the observer's line of sight. Will do. Further, even if the line of sight temporarily stops at a place other than the front, the turning control is taken over, which is effective when it is desired to continue turning the surveillance camera 1 for a long time.

次に、目や瞳孔の大きさの変化に応じた監視カメラ1の制御について、図7を参照して説明する。
図7(a)には、通常状態の目71と、画像処理による目71の検知エリア72を示してある。また、図7(b)には、見開いた状態の目73と、画像処理による目73の検知エリア74を示してある。また、図7(c)には、細めた状態の目75と、画像処理による目75の検知エリア76を示してある。
このように、画像処理装置7による画像処理で、目の検知エリアの大きさを調べることで、監視者が目の大きさの変化(目を見開いたり細めたりしたこと)を検出できる。また、瞳孔の大きさの変化も同様に、瞳孔の検知エリアの大きさを調べることで検出できる。
Next, control of the monitoring camera 1 according to changes in the size of eyes and pupils will be described with reference to FIG.
FIG. 7A shows a normal state eye 71 and a detection area 72 of the eye 71 by image processing. FIG. 7B shows the eyes 73 in a spread state and the detection areas 74 of the eyes 73 by image processing. FIG. 7C shows a narrowed eye 75 and a detection area 76 of the eye 75 by image processing.
In this way, by examining the size of the eye detection area by the image processing by the image processing device 7, it is possible to detect a change in the size of the eye (opened or narrowed eyes). Similarly, a change in the size of the pupil can be detected by examining the size of the detection area of the pupil.

システム管理サーバ8は、人が特定のポイントを注目する場合に瞳孔が開く動きを応用し、通常状態の目の大きさから目が大きくなる変化が生じた場合、若しくは瞳孔が大きくなる変化が生じてその状態が一定時間継続した場合に、監視カメラ1のレンズの望遠制御(ズーム)を行う。そして、目を閉じた状態が一定時間継続した場合に、ズームを元の状態に戻す。
また、システム管理サーバ8は、人がピントの合っていない対象物を見る場合に目を細める動きを応用し、目全体の大きさが小さくなる変化が生じた場合(目を細めた場合)に、視線ポインタが指し示す対象物にフォーカスが合うように、監視カメラ1のレンズのオートフォーカスを動作させる。
The system management server 8 applies a movement in which the pupil opens when a person pays attention to a specific point, and when the change in which the eye becomes larger from the size of the eye in the normal state occurs or the change in which the pupil becomes larger occurs. When this state continues for a certain period of time, telephoto control (zoom) of the lens of the monitoring camera 1 is performed. Then, when the closed state continues for a certain period of time, the zoom is returned to the original state.
In addition, the system management server 8 applies a movement of narrowing the eyes when a person looks at an object out of focus, and when a change in which the size of the entire eye is reduced (when the eyes are narrowed) occurs. Then, the autofocus of the lens of the monitoring camera 1 is operated so that the object indicated by the line-of-sight pointer is in focus.

次に、監視者の頭部の動きに応じた監視カメラ1の制御について、図8を参照して説明する。
図8には、監視者が通常の状態の姿勢81と、前方向に体を傾けた状態の姿勢82と、後ろ方向に体を傾けた状態の姿勢83を示してあり、監視者の前後運動に連動して頭部の位置が前後に変位していることが分かる。なお、監視者の頭部の3次元位置は、監視者の上半身を右方向から撮影した映像と左方向から撮影した映像との合成映像に基づいて特定できる。
システム管理サーバ8は、監視者が頭部を前方向に動かした場合に監視カメラ1のレンズの望遠制御を行い、逆に頭部を後方向に動かした場合に監視カメラ1のレンズの広角制御を行う。また、監視者が頭部を通常状態に戻すと、監視カメラ1のレンズの制御を停止する。本例では、これらのズーム制御を頭部の移動量に対応する制御量で行う。
Next, the control of the monitoring camera 1 according to the movement of the head of the monitoring person will be described with reference to FIG.
FIG. 8 shows a posture 81 in a normal state, a posture 82 in a state where the body is tilted forward, and a posture 83 in a state where the body is tilted rearward. It can be seen that the position of the head is displaced back and forth in conjunction with. Note that the three-dimensional position of the head of the monitor can be specified based on a composite image of a video captured from the right direction and a video captured from the left direction of the upper body of the monitor.
The system management server 8 performs telephoto control of the lens of the monitoring camera 1 when the monitor moves the head forward, and conversely, wide-angle control of the lens of the monitoring camera 1 when the monitor moves the head backward. I do. When the monitor returns the head to the normal state, the control of the lens of the monitoring camera 1 is stopped. In this example, the zoom control is performed with a control amount corresponding to the head movement amount.

次に、複数の監視カメラ1の中からディスプレイ5による表示対象の監視映像を撮影する監視カメラ1を選択する方法について、2通りを説明する。なお、各々の監視カメラ1は、カメラ番号#n(nは自然数)で識別されているものとする。
監視者の頭部の左右運動をカメラ選択操作とする場合、システム管理サーバ8は、例えば、カメラ番号#3の監視カメラ1が選択されている状態で、頭部が左に振られた場合には、順番的に1つ前のカメラ番号#2の監視カメラ1を選択し、頭部が右に振られた場合には、順番的に1つ後のカメラ番号#4の監視カメラ1を選択する。
Next, two methods for selecting the monitoring camera 1 that captures the monitoring video to be displayed on the display 5 from the plurality of monitoring cameras 1 will be described. Each surveillance camera 1 is identified by camera number #n (n is a natural number).
When the left and right motion of the head of the monitoring person is set as the camera selection operation, the system management server 8 is, for example, when the head is shaken to the left while the monitoring camera 1 with the camera number # 3 is selected. Selects the monitoring camera 1 of the previous camera number # 2 in order, and if the head is swung to the right, selects the monitoring camera 1 of the next camera number # 4 in order To do.

瞳孔の動き(左右方向の移動)をカメラ選択操作とする場合、システム管理サーバ8は、初期設定された瞳孔左端点又は瞳孔右端点を超過した位置に瞳孔がある場合に、監視カメラ1の旋回制御から監視カメラ1の選択制御に切り替える。例えば、カメラ番号#3の監視カメラ1が選択されている状態で、瞳孔の位置が瞳孔左端点を超過した位置(視線が画面から左側に外れた位置)に一定時間以上ある場合には、順番的に1つ前のカメラ番号#2の監視カメラ1を選択し、瞳孔の位置が瞳孔右端点を超過した位置(視線が画面から右側に外れた位置)に一定時間以上ある場合には、順番的に1つ後のカメラ番号#4の監視カメラ1を選択する。   When the movement of the pupil (movement in the left-right direction) is set as the camera selection operation, the system management server 8 turns the monitoring camera 1 when the pupil is at a position that exceeds the initially set pupil left end point or pupil right end point. The control is switched to the selection control of the monitoring camera 1. For example, when the monitoring camera 1 with the camera number # 3 is selected and the position of the pupil exceeds the left end point of the pupil (the position where the line of sight deviates to the left from the screen), the order is If the monitoring camera 1 with the previous camera number # 2 is selected, and the position of the pupil exceeds the right end point of the pupil (the position where the line of sight deviates to the right from the screen) for a certain period of time, the order Thus, the monitoring camera 1 with the next camera number # 4 is selected.

次に、メガネディスプレイを用いる場合について、図9を参照して説明する。
図9(a)には、メガネディスプレイ91を頭部に装着した監視者が正面を向いた状態92と、右に90°(+90°)首を回した状態93と、左に90°(−90°)首を回した状態94を示してあり、図9(b)には、監視カメラ1を基準位置に向けた状態95と、右に90°(+90°)旋回させた状態96と、左に90°(−90°)旋回させた状態97を示してある。
また、図9(c)には、監視者が右上方向に首を振った状態98を示してあり、図9(d)には、そのときの監視者の頭部の3次元空間における位置座標(x,y,z)を示してある。
Next, the case where a glasses display is used will be described with reference to FIG.
FIG. 9A shows a state 92 in which a monitor wearing a glasses display 91 is facing the front, a state 93 in which the head is turned 90 ° (+ 90 °) to the right, and 90 ° (− 90 °) shows a state 94 in which the neck is turned. FIG. 9B shows a state 95 in which the surveillance camera 1 is directed to the reference position, and a state 96 in which the surveillance camera 1 is turned 90 ° (+ 90 °) to the right. A state 97 rotated 90 ° (−90 °) is shown on the left.
FIG. 9C shows a state 98 in which the observer swings his head in the upper right direction. FIG. 9D shows the position coordinates of the observer's head in the three-dimensional space at that time. (X, y, z) is shown.

メガネディスプレイ91は、ジャイロセンサと加速度センサを備えており、監視者の首振り運動(左右回転)に応じて首振りの角度や角速度を検出し、その情報をシステム管理サーバ8に送信する。
システム管理サーバ8は、メガネディスプレイ91から受信した首振りの角度や角速度の情報に基づいて、監視カメラ1を制御する。例えば、監視者が正面方向を向いている場合は監視カメラ1を基準位置に向け、監視者が右に90°首を回すと監視カメラ1も右に90°旋回させ、監視者が左に90°首を回すと監視カメラ1も左に90°旋回させる。
The glasses display 91 includes a gyro sensor and an acceleration sensor, detects the swing angle and angular velocity according to the swing motion (left-right rotation) of the supervisor, and transmits the information to the system management server 8.
The system management server 8 controls the surveillance camera 1 on the basis of the swing angle and angular velocity information received from the glasses display 91. For example, when the monitoring person is facing the front, the monitoring camera 1 is turned to the reference position, and when the monitoring person turns 90 degrees to the right, the monitoring camera 1 also turns 90 degrees to the right, and the monitoring person moves 90 to the left. When the neck is turned, the surveillance camera 1 is also turned 90 ° to the left.

首(頭部)の動きに応じた監視カメラ1の旋回制御は、例えば、以下の[方法2−1]〜[方法2−3]により行うことができる。なお、初期設定において、基準の瞳孔位置の登録と同様に、基準の首角度の情報を登録しておくものとする。すなわち、ディスプレイ5上の所定位置にポインタ22を表示して監視者の視線を導くと共に、その際の監視者の首振り角度を認識して、基準の首角度として登録しておく。   The turning control of the monitoring camera 1 according to the movement of the neck (head) can be performed by, for example, the following [Method 2-1] to [Method 2-3]. In the initial setting, information on the reference neck angle is registered in the same manner as the registration of the reference pupil position. That is, the pointer 22 is displayed at a predetermined position on the display 5 to guide the observer's line of sight, and the swing angle of the observer at that time is recognized and registered as the reference neck angle.

[方法2−1]では、監視者の首の回転量(回転割合)を監視カメラ1の旋回移動量(旋回割合)に等価変換して旋回制御する。
この場合、水平方向の旋回制御角度θH、垂直方向の旋回制御角度θVは、以下の式により算出できる。
θH=tan-1(z/x)
θV=tan-1(y/√(x2+y2))
In [Method 2-1], the rotation amount (rotation rate) of the monitor's neck is equivalently converted to the turning movement amount (turning rate) of the monitoring camera 1 to perform turn control.
In this case, the horizontal turning control angle θ H and the vertical turning control angle θ V can be calculated by the following equations.
θ H = tan −1 (z / x)
θ V = tan −1 (y / √ (x 2 + y 2 ))

監視者が首を振った際に、システム管理サーバ8は、θH、θVの角度で旋回させる制御信号を監視カメラ1に送信することで、監視者が首を動かした方向に監視カメラ1を旋回させることができる。
なお、監視者が首を正面に戻した場合には、監視カメラ1の旋回を停止させる。このとき、視線による制御に係る[方法1−1]と同様に、監視者の首が正面位置に戻る過程での監視カメラ1の旋回制御は行わないものとする。すなわち、監視カメラ1の旋回制御は、監視者の首が正面位置から動いた場合のみ行うものとする。
上述した[方法2−1]の利点は、首の微量な動きで監視カメラ1を大きく旋回制御できることである。
When the monitor swings his / her head, the system management server 8 transmits a control signal for turning at angles of θ H and θ V to the monitoring camera 1, so that the monitoring camera 1 moves in the direction in which the monitor moves his / her neck. Can be swiveled.
In addition, when the monitoring person returns the neck to the front, the turning of the monitoring camera 1 is stopped. At this time, similarly to [Method 1-1] related to the control by the line of sight, the turning control of the monitoring camera 1 in the process of returning the neck of the monitoring person to the front position is not performed. That is, the turning control of the monitoring camera 1 is performed only when the neck of the monitoring person moves from the front position.
The advantage of the [Method 2-1] described above is that the surveillance camera 1 can be largely turned with a slight movement of the neck.

[方法2−2]では、監視者の首の回転量(回転割合)を、監視カメラ1の旋回角速度に等価変換して旋回制御する。
この場合、水平方向の旋回制御角速度ωH、垂直方向の旋回制御角速度ωVは、定数Ωを用いて以下の式により算出できる。
ωH=Ω×(z/x)
ωV=Ω×(y/√(x2+y2))
In [Method 2-2], the rotation amount (rotation ratio) of the neck of the monitor is equivalently converted to the turning angular velocity of the monitoring camera 1 to perform turning control.
In this case, the turning control angular velocity ω H in the horizontal direction and the turning control angular velocity ω V in the vertical direction can be calculated by the following equations using a constant Ω.
ω H = Ω × (z / x)
ω V = Ω × (y / √ (x 2 + y 2 ))

監視者が首を振った際に、システム管理サーバ8は、ωH、ωVの角速度で旋回させる制御信号を監視カメラ1に送信することで、監視者が首を動かした方向に監視カメラ1を旋回させることができる。
[方法2−2]によれば、首を回した回転量により旋回角速度が変化するので、大きく首を回すと、その方向に監視カメラ1が速く旋回し、小さく首を回すと、その方向に監視カメラ1が遅く旋回することになる。
なお、[方法2−1]と同様に、監視者が首を正面に戻した場合には監視カメラ1の旋回を停止させ、監視者の首が正面位置から動いた場合のみ監視カメラ1の旋回制御を行うものとする。
When the monitor shakes his / her head, the system management server 8 transmits a control signal for turning at the angular speeds of ω H and ω V to the monitor camera 1, so that the monitor camera 1 moves in the direction in which the monitor moves his / her neck. Can be swiveled.
According to [Method 2-2], the turning angular velocity changes depending on the amount of rotation of the neck. Therefore, if the neck is turned largely, the surveillance camera 1 turns quickly in that direction, and if the neck is turned slightly, the direction is changed. The surveillance camera 1 turns slowly.
As in [Method 2-1], when the observer returns the head to the front, the surveillance camera 1 stops turning, and only when the observer's neck moves from the front position, the surveillance camera 1 turns. Control shall be performed.

[方法2−3]では、監視者の首の角度の単位時間当たりの変化量(首の回転角速度)を、監視カメラ1の旋回角速度に等価変換して旋回制御する。
ここで、t=t1の時点の首の位置座標を(x1,y1,z1)とすると、その時点の水平方向の旋回制御角度θH1、垂直方向の旋回制御角度θV1は、以下の式により算出できる。
θH1=tan-1(z1/x1
θV1=tan-1(y1/√(x1 2+y1 2))
In [Method 2-3], the amount of change (neck rotation angular velocity) per unit time of the neck angle of the monitor is equivalently converted to the turning angular velocity of the monitoring camera 1 to perform turning control.
Here, assuming that the position coordinates of the neck at the time of t = t 1 are (x 1 , y 1 , z 1 ), the horizontal turning control angle θ H1 and the vertical turning control angle θ V1 at that time are: It can be calculated by the following formula.
θ H1 = tan −1 (z 1 / x 1 )
θ V1 = tan −1 (y 1 / √ (x 1 2 + y 1 2 ))

同様に、t=t2の時点の首の位置座標を(x2,y2,z2)とすると、その時点の水平方向の旋回制御角度θH2、垂直方向の旋回制御角度θV2は、以下の式により算出できる。
θH2=tan-1(z2/x2
θV2=tan-1(y2/√(x2 2+y2 2))
Similarly, assuming that the position coordinates of the neck at the time of t = t 2 are (x 2 , y 2 , z 2 ), the horizontal turning control angle θ H2 and the vertical turning control angle θ V2 at that time are It can be calculated by the following formula.
θ H2 = tan −1 (z 2 / x 2 )
θ V2 = tan −1 (y 2 / √ (x 2 2 + y 2 2 ))

また、t=t2の時点の水平方向の旋回制御角速度ωH、垂直方向の旋回制御角速度ωVは、定数Ωを用いて以下の式により算出できる。
ωH=Ω×(θH2−θH1)/Δt=Ω×(θH2−θH1)/(t2−t1
ωV=Ω×(θV2−θV1)/Δt=Ω×(θV2−θV1)/(t2−t1
Further, the horizontal turning control angular velocity ω H and the vertical turning control angular velocity ω V at the time of t = t 2 can be calculated by the following equations using a constant Ω.
ω H = Ω × (θ H2 −θ H1 ) / Δt = Ω × (θ H2 −θ H1 ) / (t 2 −t 1 )
ω V = Ω × (θ V2 −θ V1 ) / Δt = Ω × (θ V2 −θ V1 ) / (t 2 −t 1 )

なお、t=t2の時点で正面位置以外の位置で首が静止した場合、ωH、ωVは0になるが、t=t1の時点の角速度での旋回を監視カメラ1に継続させるものとする。また、監視カメラ1の旋回停止は、首を正面に戻したときに行う。また、監視カメラ1の旋回制御は、首が正面位置から別の方向に動いた場合のみ行うものとする。 When the neck is stationary at a position other than the front position at the time t = t 2 , ω H and ω V are 0, but the surveillance camera 1 continues to turn at the angular velocity at the time t = t 1 . Shall. Further, the turning of the surveillance camera 1 is stopped when the neck is returned to the front. The turning control of the monitoring camera 1 is performed only when the neck moves in a different direction from the front position.

[方法2−3]によれば、監視者が首を回した方向と速度に応じて監視カメラ1の旋回制御が行われるため、監視者の首の動きに応じて自然に監視カメラ1が旋回することになる。また、首が正面以外の場所で一時的に静止しても旋回制御を引き継ぐため、監視カメラ1の旋回を長時間継続させたい場合に有効である。   According to [Method 2-3], since the turning control of the monitoring camera 1 is performed according to the direction and speed in which the monitoring person turns his / her neck, the monitoring camera 1 naturally turns according to the movement of the monitoring person's neck. Will do. Further, even if the neck is temporarily rested at a place other than the front, the turning control is taken over, which is effective when the turning of the surveillance camera 1 is desired to be continued for a long time.

次に、手のジェスチャに応じた監視カメラ1の制御について、図10を参照して説明する。
図10において、(a)は人差し指を上方向に向けた様子、(b)は人差し指を下方向に向けた様子、(c)は人差し指を右方向に向けた様子、(d)は人差し指を左方向に向けた様子、(e)は掌を正面に向けた様子、(f)は掌を前方向又は後方向に移動させた様子、(g)は掌を右方向又は左方向に移動させた様子、(h)は掌を回転させた様子、(i)は握り拳を回した様子である。
Next, the control of the monitoring camera 1 according to the hand gesture will be described with reference to FIG.
10, (a) shows the index finger pointing upward, (b) the index finger pointing downward, (c) the index finger pointing right, (d) the index finger left (E) shows the palm facing forward, (f) shows the palm moving forward or backward, and (g) moves the palm right or left. (H) shows a state where the palm is rotated, and (i) shows a state where the fist is turned.

画像処理装置7は、ユーザカメラ6(ステレオカメラ)の映像を元に、監視者の手の3次元位置と手の形状を周期的に特定し、その情報をシステム管理サーバ8に送信する。
システム管理サーバ8は、画像処理装置7から受信した手の3次元位置や手の形状の情報に基づいて、監視カメラ1を制御する。すなわち、人差し指が向けられた方向に応じて監視カメラ1を旋回させ、掌が正面に向けられた場合に旋回を停止させる。また、掌が前方向に移動された場合にレンズを望遠制御し、掌が後方向に移動された場合にレンズを広角制御する。また、掌が右方向に移動された場合にレンズのフォーカスを遠方向に制御し、掌が左方向に移動された場合にレンズのフォーカスを近方向に制御する。また、掌が回転された場合にワイパ制御を行い、握り拳が回された場合にその回転回数に応じてプリセット制御を行う。プリセット制御では、例えば、握り拳の回転回数が3回の場合には、プリセット番号#3に登録されたポイントに向けて監視カメラ1を旋回させる。
The image processing device 7 periodically specifies the three-dimensional position and shape of the hand of the supervisor based on the video of the user camera 6 (stereo camera), and transmits the information to the system management server 8.
The system management server 8 controls the monitoring camera 1 based on the information on the three-dimensional position of the hand and the shape of the hand received from the image processing device 7. That is, the surveillance camera 1 is turned according to the direction in which the index finger is directed, and the turning is stopped when the palm is directed to the front. In addition, the lens is telephoto controlled when the palm is moved forward, and the lens is controlled at a wide angle when the palm is moved backward. Further, when the palm is moved in the right direction, the focus of the lens is controlled in the far direction, and when the palm is moved in the left direction, the focus of the lens is controlled in the near direction. Further, wiper control is performed when the palm is rotated, and preset control is performed according to the number of rotations when the gripping fist is rotated. In the preset control, for example, when the number of rotations of the fist is 3, the surveillance camera 1 is turned toward the point registered in the preset number # 3.

次に、映像監視システムの変形例について、図11を参照して説明する。
図11に示す映像監視システムは、図1に示した映像監視システムに集音マイク9と音声処理装置10を追加した構成となっている。
集音マイク9は、ディスプレイ5に表示された監視映像を見る監視者が発した声を集音し、当該集音した音声の信号を音声処理装置10に出力する。
音声処理装置10は、集音マイク9により集音された音声を、音声認識処理により予めパターン化した指示情報に置き換えてシステム管理サーバ8へ送信する。
Next, a modification of the video surveillance system will be described with reference to FIG.
The video monitoring system shown in FIG. 11 has a configuration in which a sound collection microphone 9 and an audio processing device 10 are added to the video monitoring system shown in FIG.
The sound collecting microphone 9 collects a voice uttered by a supervisor who watches the monitoring video displayed on the display 5 and outputs the collected sound signal to the sound processing device 10.
The sound processing device 10 replaces the sound collected by the sound collecting microphone 9 with the instruction information patterned in advance by the sound recognition process, and transmits the instruction information to the system management server 8.

システム管理サーバ8は、画像処理装置7から送信された指示情報と音声処理装置10から送信された指示情報に基づいて、ディスプレイ5による表示対象の監視映像を撮影している監視カメラ1に対する制御信号を送信する。
本例では、画像処理装置7からの指示情報により特定される制御の態様と、音声処理装置10からの指示情報により特定される制御の態様とが一致する場合にのみ、その態様の制御を指示する制御信号を送信しており、これにより、ユーザインタフェースの精度向上を図っている。
Based on the instruction information transmitted from the image processing device 7 and the instruction information transmitted from the sound processing device 10, the system management server 8 controls the control signal for the monitoring camera 1 that captures the monitoring video to be displayed on the display 5. Send.
In this example, only when the control mode specified by the instruction information from the image processing device 7 matches the control mode specified by the instruction information from the audio processing device 10, the control of that mode is instructed. The control signal to be transmitted is transmitted, thereby improving the accuracy of the user interface.

なお、画像処理装置7からの指示情報により特定される制御の態様と音声処理装置10からの指示情報により特定される制御の態様とに不一致が生じた場合には、画像処理装置7で誤検知が発生したと判断するようにした。これは、現状、画像処理による検知よりも音声処理による検知の方が検知精度が高いためである。
画像処理装置7で誤検知が発生したと判断した場合には、画像処理装置7における画像処理の方法やパラメータ等について随時修正を行うようにすることで、監視者の目や体の動きに基づくユーザ指示の検知精度を向上させることができる。
If there is a discrepancy between the control mode specified by the instruction information from the image processing device 7 and the control mode specified by the instruction information from the audio processing device 10, the image processing device 7 detects a false detection. Judged that occurred. This is because at present, detection by sound processing has higher detection accuracy than detection by image processing.
When it is determined that a false detection has occurred in the image processing device 7, the image processing method, parameters, and the like in the image processing device 7 are corrected as needed, based on the eyes and body movements of the observer. Detection accuracy of user instructions can be improved.

以上のように、本発明に係る映像監視システムでは、監視カメラで撮影された監視映像を見ている監視者の目や首の動き等を3次元空間的に把握するために、ステレオカメラで監視者を撮像するようにした。
そして、監視者の目の部分のみを切り出した映像と監視者の上半身を撮像した映像の両方を画像処理することで監視者の指示を捉え、当該指示に応じて監視カメラの制御を行うようにした。すなわち、例えば、監視者の目の部分のみを切り出した映像を画像処理することで、視線の移動(瞳孔の移動)とその移動量を検出し、監視カメラの旋回制御に用いるようにした。また、例えば、監視者全体を撮像した映像を画像処理することで、首の前後移動とその移動量を検出し、監視カメラのズーム制御に用いるようにした。また、例えば、監視者の目の部分のみを切り出した映像を画像処理することで、瞳孔の大きさや目の大きさの時間的な変化を検出し、監視カメラのレンズのズームやフォーカスの制御に用いるようにした。
As described above, in the video surveillance system according to the present invention, in order to grasp the movements of the eyes and neck of the supervisor watching the surveillance video taken by the surveillance camera in a three-dimensional space, the surveillance is performed with the stereo camera. The person was imaged.
Then, both the video obtained by cutting out only the eyes of the supervisor and the video obtained by imaging the upper body of the supervisor are image-processed to capture the supervisor's instruction, and the surveillance camera is controlled according to the instruction. did. That is, for example, by processing an image obtained by cutting out only the eyes of the supervisor, the movement of the line of sight (movement of the pupil) and the amount of movement are detected and used for turning control of the surveillance camera. In addition, for example, by performing image processing on a video image of the entire surveillance person, the back and forth movement of the neck and the amount of the movement are detected and used for zoom control of the surveillance camera. Also, for example, by processing the video that cuts out only the eye part of the observer, the temporal change in the size of the pupil and the eye size is detected, and the zoom and focus of the surveillance camera lens are controlled. I used it.

また、監視者の視線と視線ポインタの位置の整合性を測るために、システム立ち上げ時に初期設定を行うようにした。このとき、システム側からの視線移動の指示(音声アナウンスや画面上の文字)に従って移動した瞳孔の位置をシステムに登録するようにした。また、画面の各ポイント(画面中心、画面右端、画面左端、画面上端、画面下端)に視線を移動させ、その際の瞳孔位置を瞳孔中心点、瞳孔右端点、瞳孔左端点、瞳孔上端点、瞳孔下端点として登録するようにした。   In order to measure the consistency between the observer's line-of-sight and the position of the line-of-sight pointer, initial settings were made when the system was started up. At this time, the position of the pupil moved in accordance with an instruction to move the line of sight (voice announcement or character on the screen) from the system side is registered in the system. Also, move the line of sight to each point on the screen (screen center, screen right edge, screen left edge, screen top edge, screen bottom edge), and the pupil position at that time is the pupil center point, pupil right end point, pupil left end point, pupil top point, Registered as the lower pupil point.

また、監視映像が表示された画面上の視線位置に該当する箇所に表示させる視線ポインタを、監視者の視線による指示に応じて形状を変化させることで、監視者に指示内容をフィードバックするようにした。例えば、監視カメラの旋回指示の場合は視線ポインタ上に旋回方向を示す矢印を重畳表示させ、望遠指示の場合は視線ポインタを大きくし、広角指示の場合は視線ポインタを小さくする。これにより、監視者は自分が指示した内容が的確にシステムに反映されたかをリアルタイムで確認することができ、検知に適した目や体の動きを学習することが可能になる。   In addition, by changing the shape of the line-of-sight pointer to be displayed at the position corresponding to the line-of-sight position on the screen on which the monitoring video is displayed, the instruction content is fed back to the supervisor by changing the shape according to the instruction by the supervisor's line of sight. did. For example, in the case of a turning instruction of the surveillance camera, an arrow indicating the turning direction is superimposed on the line-of-sight pointer, the line-of-sight pointer is enlarged in the case of a telephoto instruction, and the line-of-sight pointer is reduced in the case of a wide-angle instruction. As a result, the supervisor can confirm in real time whether the contents instructed by the supervisor are accurately reflected in the system, and can learn eye and body movements suitable for detection.

また、監視者を撮影した映像の画像処理によって監視者の瞳孔の動きを検出し、この検出結果に応じて監視カメラの旋回制御を行うようにした。すなわち、瞳孔の位置の時間的な変化に基づいて瞳孔の移動方向を特定し、瞳孔の移動方向に対応する方向へ監視カメラを旋回させるようにした。このとき、例えば、中心から移動した瞳孔の位置ベクトルと初期設定で登録された基準の瞳孔位置とに基づいて瞳孔の移動量(移動割合)を算出し、この算出値を監視カメラの旋回移動量(移動割合)または旋回角速度に等価変換するようにした。また、例えば、瞳孔の位置の単位時間あたりの変化量(瞳孔の移動速度)を算出し、この算出値を監視カメラの旋回角速度に等価変換するようにした。   In addition, the movement of the pupil of the supervisor is detected by image processing of the video taken by the supervisor, and the turning control of the surveillance camera is performed according to the detection result. That is, the moving direction of the pupil is specified based on the temporal change in the position of the pupil, and the monitoring camera is turned in a direction corresponding to the moving direction of the pupil. At this time, for example, the movement amount (movement ratio) of the pupil is calculated based on the position vector of the pupil moved from the center and the reference pupil position registered in the initial setting, and the calculated value is used as the turning movement amount of the monitoring camera. Equivalent conversion to (movement rate) or turning angular velocity. Also, for example, the amount of change in pupil position per unit time (pupil moving speed) is calculated, and this calculated value is equivalently converted to the turning angular velocity of the surveillance camera.

また、監視者を撮影した映像の画像処理によって監視者の目または瞳孔の大きさの変化を検出し、この検出結果に応じて監視カメラのレンズのズームやフォーカスの制御を行うようにした。すなわち、監視者が画面の中の特定ポイントを注目した時に瞳孔が開く動きを応用し、例えば、通常状態(初期設定の状態)の大きさから目や瞳孔が大きく変化した場合に、レンズの望遠制御を行うようにした。また、ピントが合っていない対象物を見た時に目を細める動きを応用し、例えば、目全体の大きさが小さくなるように変化した場合(目を細めた場合)に、視線ポインタが指し示す対象物にフォーカスが合うようにオートフォーカスを動作させるようにした。   In addition, a change in the size of the eyes or pupils of the supervisor is detected by image processing of a video taken by the supervisor, and the zoom and focus of the surveillance camera lens are controlled according to the detection result. In other words, the movement of the pupil is applied when the observer pays attention to a specific point on the screen. For example, when the eye or pupil changes greatly from the size of the normal state (initial setting state), the telephoto of the lens Control was done. Also, apply the movement that narrows the eyes when looking at an object that is not in focus, for example, the object that the eye pointer points to when the size of the entire eye changes (when the eyes are narrowed) Auto focus is now activated so that the object is in focus.

また、ステレオカメラで監視者の上半身を撮像した2つの映像を画像処理することで監視者の頭部の3次元位置の動きを検出し、この検出結果に応じて監視カメラのレンズのズームの制御を行うようにした。すなわち、監視者が頭部を前方向に動かした場合にレンズを望遠制御し、逆に頭部を後方向に動かした場合にレンズを広角制御するようにした。   In addition, the movement of the three-dimensional position of the head of the supervisor is detected by performing image processing on two images obtained by imaging the upper body of the supervisor with the stereo camera, and the zoom control of the lens of the surveillance camera is controlled according to the detection result. To do. In other words, when the observer moves the head in the forward direction, the lens is telephoto controlled, and conversely, when the head is moved in the backward direction, the lens is controlled at a wide angle.

また、加速度センサ及びジャイロセンサを備えたメガネディスプレイを監視者の頭部に装着させ、メガネディスプレイで監視者の首振り角度や首振り速度の情報を検出し、この検出結果に応じて監視カメラの旋回制御を行うようにした。すなわち、首の角度の時間的な変化に基づいて首の回転方向を特定し、首の回転方向にに対応する方向へ監視カメラを旋回させるようにした。このとき、例えば、中心から移動した首の角度と初期設定で登録された基準の首角度とに基づいて首の移動量(移動割合)を算出し、この算出値を監視カメラの旋回移動量(移動割合)または旋回角速度に等価変換するようにした。また、例えば、首の角度の単位時間当たりの変化量(首の回転角速度)を算出し、この算出値を監視カメラの旋回角速度に等価変換するようにした。   In addition, a glasses display equipped with an acceleration sensor and a gyro sensor is attached to the head of the monitor, and the monitor's head swing angle and swing speed information are detected by the glasses display. Turn control was performed. That is, the direction of rotation of the neck is specified based on the temporal change in the angle of the neck, and the surveillance camera is turned in a direction corresponding to the direction of rotation of the neck. At this time, for example, the movement amount (movement ratio) of the neck is calculated based on the angle of the neck moved from the center and the reference neck angle registered in the initial setting, and this calculated value is calculated as the turning movement amount ( Equivalent conversion to movement ratio) or turning angular velocity. In addition, for example, the amount of change in neck angle per unit time (neck rotation angular velocity) is calculated, and this calculated value is equivalently converted to the turning angular velocity of the monitoring camera.

また、ステレオカメラにより撮像された監視者の手の映像を画像処理することで手の形状と3次元位置を検出し、この検出結果に応じて監視カメラの制御を行うようにした。すなわち、例えば、指の示す方向を監視カメラの旋回動作指示、手の前後運動をズームの望遠・広角動作指示、手の回転運動をワイパ動作指示やプリセット動作指示、手の左右運動をカメラ選択指示として認識し、監視カメラの制御を行うようにした。   In addition, the shape and three-dimensional position of the hand are detected by performing image processing on the image of the hand of the supervisor imaged by the stereo camera, and the surveillance camera is controlled according to the detection result. That is, for example, the direction indicated by the finger indicates the turning motion of the surveillance camera, the back and forth movement of the hand indicates the telephoto / wide angle operation of the zoom, the rotation of the hand indicates the wiper movement or the preset movement, and the left and right movement of the hand indicates the camera selection As a result, the camera was controlled.

また、集音マイクと音声処理装置を追加し、集音マイクで得た監視者の音声から音声処理装置で検知した指示(監視者の声による指示)を併用することで、画像処理装置で検知した指示(視線・首振り・ジェスチャによる指示)の検知精度を向上させるようにした。
また、画像処理装置での検知結果と音声処理装置での検知結果に不一致が生じて画像処理装置が誤検知したことが判明した場合、画像処理装置における画像処理の方法やパラメータについて随時修正を繰り返すフィードバック処理を行うようにすることで、画像処理装置による検知精度を向上させるようにした。
In addition, a sound collecting microphone and a sound processing device are added, and an instruction detected by the sound processing device from the sound of the supervisor obtained by the sound collecting microphone (instruction by the voice of the supervisor) is used together to detect by the image processing device. The accuracy of detection of received instructions (instructions by gaze, head swing, gestures) was improved.
Further, when it is found that the detection result of the image processing apparatus and the detection result of the sound processing apparatus are inconsistent and the image processing apparatus is erroneously detected, the image processing method and parameters in the image processing apparatus are repeatedly corrected as needed. By performing the feedback process, the detection accuracy of the image processing apparatus is improved.

このような構成により、視線移動、首振り(左右回転)、手のジェスチャ等の動作を監視カメラの旋回制御等の映像監視システムの各種オペレーション(操作)に対応させることで、監視者の視線を監視映像中の監視対象物に指向させた状態で、監視者の要求する映像を迅速に提供することが可能となる。特に、逃げる侵入者を追尾したり、複数の対象物を同時に追尾したりする場合のように、操作が煩雑な状況になるほど有効である。
また、監視カメラの旋回操作の他に、レンズ操作、ワイパ操作、カメラ選択等の各種操作に適用することで、監視者は少ない動作で映像監視システムのオペレーションに必要な種々の指示を行うことが可能とある。
また、これらの動作による指示と声による指示とを連動させることで、より精度の高いユーザインタフェースを実現することが可能である。
With such a configuration, the movement of the line of sight, swinging (left-right rotation), gesture of the hand, etc. are made to correspond to various operations (operations) of the video surveillance system such as the turning control of the surveillance camera. It is possible to quickly provide the video requested by the supervisor in a state of being directed to the monitoring target in the surveillance video. In particular, the operation becomes more complicated as the intruder who runs away is tracked or a plurality of objects are tracked simultaneously.
Moreover, by applying to various operations such as lens operation, wiper operation and camera selection in addition to the turning operation of the surveillance camera, the supervisor can give various instructions necessary for the operation of the video surveillance system with few operations. It is possible.
Further, it is possible to realize a user interface with higher accuracy by linking the instructions by these operations and the instructions by voice.

ここで、本例の映像監視システムでは、監視カメラ1が本発明に係る第1のカメラに対応し、ディスプレイ5が本発明に係る表示装置に対応し、ユーザカメラ6が本発明に係る第2のカメラに対応し、画像処理装置7が本発明に係る検出手段に対応し、システム管理サーバ8が本発明に係る制御手段に対応している。   Here, in the video surveillance system of this example, the surveillance camera 1 corresponds to the first camera according to the present invention, the display 5 corresponds to the display device according to the present invention, and the user camera 6 corresponds to the second camera according to the present invention. The image processing apparatus 7 corresponds to the detection means according to the present invention, and the system management server 8 corresponds to the control means according to the present invention.

なお、本発明に係るシステムや装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。また、本発明は、例えば、本発明に係る処理を実行する方法或いは方式や、このような方法や方式を実現するためのプログラムや当該プログラムを記憶する記憶媒体などとして提供することも可能である。   Note that the configurations of the system and apparatus according to the present invention are not necessarily limited to those described above, and various configurations may be used. The present invention can also be provided as, for example, a method or method for executing processing according to the present invention, a program for realizing such a method or method, or a storage medium for storing the program. .

本発明は、カメラ撮影された映像を見る者がカメラ制御を行う種々の形式の映像監視システムに適用することができる。   The present invention can be applied to various types of video surveillance systems in which a person viewing a video taken by a camera controls the camera.

1:監視カメラ、 2:IPエンコーダ、 3:IPネットワーク網、 4:操作端末、 5:ディスプレイ、 6:ユーザカメラ、 7:画像処理装置、 8:システム管理サーバ、 9:集音マイク、 10:音声処理装置   1: surveillance camera, 2: IP encoder, 3: IP network, 4: operation terminal, 5: display, 6: user camera, 7: image processing device, 8: system management server, 9: sound collecting microphone, 10: Audio processing device

Claims (3)

監視対象の領域を撮影する第1のカメラと、
前記第1のカメラにより撮影された映像を表示する表示装置と、
前記表示装置に表示された映像を見るユーザを撮影する第2のカメラと、
前記第2のカメラにより撮影された映像に基づいて、前記ユーザの目の動きを検出する検出手段と、
前記検出手段により検出された前記ユーザの目の動きに応じて、前記第1のカメラによる撮影の態様を制御する制御手段と、を備え、
前記表示装置は、前記表示装置に表示された映像に対する前記ユーザの視線の位置に、前記ユーザの目の動きに対応するポインタ画像を表示し、
前記検出手段は、前記ユーザの目の大きさの変化を検出し、その検出結果に応じて、前記制御手段は前記第1のカメラのズームまたはフォーカスの制御を行うとともに、前記表示装置は前記ポインタ画像の形状を変更する、
とを特徴とする映像監視システム。
A first camera that captures an area to be monitored;
A display device for displaying an image captured by the first camera;
A second camera for photographing a user who views the video displayed on the display device;
Detecting means for detecting a movement of the user's eyes based on an image taken by the second camera;
Control means for controlling a mode of photographing by the first camera according to the eye movement of the user detected by the detection means ,
The display device displays a pointer image corresponding to the movement of the user's eyes at the position of the user's line of sight with respect to the video displayed on the display device,
The detection means detects a change in the size of the eyes of the user, and the control means controls the zoom or focus of the first camera according to the detection result, and the display device is the pointer Change the shape of the image,
Video monitoring system which is characterized a call.
請求項1に記載の映像監視システムにおいて、
前記制御手段は、前記ユーザの目が大きく変化した場合に、前記第1のカメラの望遠制御を行う、
ことを特徴とする映像監視システム。
The video surveillance system according to claim 1,
The control means performs telephoto control of the first camera when the user's eyes change greatly.
A video surveillance system characterized by that.
請求項1又は請求項2に記載の映像監視システムにおいて、
前記制御手段は、前記ユーザの目が小さく変化した場合に、前記第1のカメラのフォーカス制御を行う、
ことを特徴とする映像監視システム。
In the video surveillance system according to claim 1 or 2,
The control means performs focus control of the first camera when the user's eyes change small.
A video surveillance system characterized by that.
JP2013197077A 2013-09-24 2013-09-24 Video surveillance system Active JP6276954B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013197077A JP6276954B2 (en) 2013-09-24 2013-09-24 Video surveillance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013197077A JP6276954B2 (en) 2013-09-24 2013-09-24 Video surveillance system

Publications (2)

Publication Number Publication Date
JP2015065514A JP2015065514A (en) 2015-04-09
JP6276954B2 true JP6276954B2 (en) 2018-02-07

Family

ID=52833058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013197077A Active JP6276954B2 (en) 2013-09-24 2013-09-24 Video surveillance system

Country Status (1)

Country Link
JP (1) JP6276954B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7356697B2 (en) * 2019-06-11 2023-10-05 国立大学法人静岡大学 Image observation system
JP7414590B2 (en) 2020-03-04 2024-01-16 ソニー・オリンパスメディカルソリューションズ株式会社 Control equipment and medical observation systems
CN114697602B (en) * 2020-12-31 2023-12-29 华为技术有限公司 Conference device and conference system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07226875A (en) * 1994-02-10 1995-08-22 Hitachi Ltd Image pickup device
JP2002359766A (en) * 2001-03-30 2002-12-13 Hitachi Kokusai Electric Inc Method and apparatus for controlling view field of image picking-up apparatus and computer program therefor
JP4362728B2 (en) * 2005-09-20 2009-11-11 ソニー株式会社 Control device, surveillance camera system, and control program thereof
JP2011188147A (en) * 2010-03-05 2011-09-22 Toshiba Corp Monitoring system and monitoring method
JP5915000B2 (en) * 2011-06-13 2016-05-11 ソニー株式会社 Information processing apparatus and program

Also Published As

Publication number Publication date
JP2015065514A (en) 2015-04-09

Similar Documents

Publication Publication Date Title
CN104486543B (en) System for controlling pan-tilt camera in touch mode of intelligent terminal
CN106339093B (en) Cloud deck control method and device
EP2119223B1 (en) Control method based on a voluntary ocular signal, particularly for filming
US20170325907A1 (en) Spectacle-style display device for medical use, information processing device, and information processing method
WO2018104869A1 (en) Telepresence system
US11284042B2 (en) Mobile robot, system and method for capturing and transmitting image data to remote terminal
KR20110055062A (en) Robot system and method for controlling the same
JP2011061770A (en) Mobile terminal having photographing control function based on image recognition technique and photographing control system employing image recognition technique
JP2013258614A (en) Image generation device and image generation method
KR101444858B1 (en) Telepresence apparatus
CN109844600B (en) Information processing apparatus, information processing method, and program
JP2008040576A (en) Image processing system and video display device equipped with the same
US20180316911A1 (en) Information processing apparatus
US11151804B2 (en) Information processing device, information processing method, and program
US10235805B2 (en) Client terminal and server for guiding a user
KR20170062439A (en) Control device, control method, and program
JP6276954B2 (en) Video surveillance system
WO2019142560A1 (en) Information processing device for guiding gaze
JP2011152593A (en) Robot operation device
US9729835B2 (en) Method for switching viewing modes in a camera
US8890979B2 (en) Methods for processing a composite video image with feature indication
JP6866467B2 (en) Gesture recognition device, gesture recognition method, projector with gesture recognition device and video signal supply device
JP5813309B2 (en) Shooting system
WO2020080107A1 (en) Information processing device, information processing method, and program
WO2016019186A1 (en) System for providing a view of an event from a distance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180115

R150 Certificate of patent or registration of utility model

Ref document number: 6276954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250